Jump to content

mgutt

Moderators
  • Posts

    11,358
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Die kenne ich zufällig 😅 Aber ich ging jetzt nicht davon aus, dass die baugleich sind. Oder ist das genau das selbe Bauteil mit der selben Lackierung usw? Ich mein die Details sind ja wichtig 😁
  2. Ah feini 😁 Bekommt man den linken Käfig eigentlich als Ersatzteil für rechts bzw würde das passen?
  3. Es gibt ja einige, die ihre Hardware nur an eine VM durchschleifen konnten, wenn sie das System Legacy booteten. Das könnte interessant werden, denn die Intel iGPU wird ab der 11ten Generation kein Legacy mehr unterstützen: https://www.heise.de/news/Intel-Core-i-11000-BIOS-Kompatibilitaet-nur-noch-mit-Grafikkarte-6066457.html Heißt das, dass sie dann auch nicht mehr zb für Plex greifbar ist?
  4. Ah ok. Aber die unterste auf Höhe des Mainboards bekommt man nicht raus oder?
  5. Diverse Meldungen sind ja eigentlich normal. So viele hatte ich meine ich aber auch noch nicht. Und was soll das bringen? Der Ordner wird ja bei jedem Neustart dadurch erstellt, dass das Nerd Pack powertop installiert. Was du probieren könntest, wäre die Befehle einzeln abzusetzen. Du siehst ja hier zb eine Liste mit Befehlen: https://forums.unraid.net/topic/98070-reduce-power-consumption-with-powertop/ Du gehst also hin und deinstalliert powertop über das Nerd Pack. Außerdem startest du den Server neu, damit keine Regeln mehr aktiv sind. Nun führst du einen der Befehle aus und wartest ab, ob das nun dein Problem verursacht hat. Einen Zusammenhang kann ich da aber ehrlich gesagt nicht herstellen. Der Powerstatus von SATA oder PCIe hat ja nichts mit dem Spindown Befehl von Unraid zu tun... Wäre ziemlich komisch. Oder setzt du eine SATA / HBA Karte ein?
  6. Das Nachladen der Grafiken dürfte der Gamer eigentlich gar nicht sehen, da diese in den Grafikspeicher vorausgeladen werden. Dann hat er einfach einen zu kleinen Speicher / NVMe. Manchmal ist sogar das ganz neue SAM mit PCIe 3.0 schneller: https://www.pcgameshardware.de/Radeon-RX-6800-Grafikkarte-276952/Specials/Smart-Access-Memory-Benchmarks-1361997/ Bei Reddit hatte das auch mal jemand erklärt (ich meine irgendwas mit größerem Overhead bei PCIe 4.0), aber ist zu lange her. Jedenfalls spielt sich das alles unter 5% ab, was man mit PCIe 4.0 und einer 4.0 GPU gewinnen kann. Wobei das natürlich für einen Gamer schon durchaus als Argument reichen kann. Keine Frage.
  7. Ja, aber was bringt PCIe 4.0 x16 für einen Gamer? Gar nichts. Die GPUs sind genauso schnell. Und vorher konnten die Leute auch mit PCIe 3.0 x8 leben, wenn eine zweite Karte verbaut wurde. Ich wette die meisten wussten nicht mal, dass sie dann nur noch x8 auf der GPU hatten. Und wenn ich jetzt an PCIe 5.0 denke... da reicht ja x4 für die GPU. Ja vermutlich. Bleibt nur noch eine Option (JMB585): http://iocrest.com/index.php?id=2070 Habe ich auch schon verwendet. Ein Board mit 2x M.2 wären dann schon mal 10 extra Buchsen. Nur leider ist der Adapter mit 50 € pro Stück (vor Chia) auch nicht gerade günstig.
  8. Ok, ja ich dachte wäre halt auch bequemer, da man ohne Werkzeug die Platten ausbauen kann.
  9. Und die haben denke ich alle ein rotes X korrekt? Dann hast du vermutlich ein Windows Problem. Ich habe das früher auch so gemacht. Da hatte ich noch eine Syno. Und da hatte ich auch ständig Probleme damit, weil meine Netzwerkkarte nicht exakt im selben Moment online war wie Windows das Netzlaufwerk verbinden wollte. Manchmal hilft es "Beim Neustart des Computers und bei der Anmeldung immer auf das Netzwerk warten" zu aktivieren: https://dasnirgendwo.de/klugscheisser/windows-10-netzlaufwerk-bei-start-automatisch-verknuepfen/ Oder man nutzt eben nur Verknüpfungen auf \\Tower. Das kann man auch in die Favoriten packen: https://www.computerbase.de/forum/threads/es-konnten-nicht-alle-netzlaufwerke-wiederhergestellt-werden.1477877/#post-17422938
  10. I found one B550 board with 4x x4 Bifurcation Support: https://dlcdnets.asus.com/pub/ASUS/mb/SocketAM4/ROG_STRIX_B550-E_GAMING/E16546_ROG_STRIX_B550-E_GAMING_UM_WEB.pdf By that this board should support: - 7x NVMe: All x4 (PCIe to M.2 adapter in slot PCIE16_3)
  11. Ich korrigiere. Eine gibt es doch: https://www.amazon.com/QNAP-Systems-QXP-1600ES-Plug-External/dp/B086M64DPR Allerdings mindestens 190 Dollar und die Kabel, die vermutlich noch mal so viel kosten, müsste man wieder ins Gehäuse zurückführen ^^ Dummerweise wird x2 mit PCIe 4.0 und 5.0 völlig ausgeblendet. Ich hatte zB bereits bei 4.0 erwartet, dass es doppelt so viele x2 M.2 Slots auf den Boards geben würde. Stattdessen bringen die M.2 NVMe mit 7000 MB/s raus, die kaum einer wirklich braucht. Ich für meinen Teil hätte jedenfalls lieber 4 x2-Slots mit 4000 MB/s pro Stück. Schuld ist hier allerdings Intel und AMD. Die müssen ja erst mal so eine Aufteilung erlauben (also statt x16 dann 8x x2). Tun sie aber nicht. Intel erlaubt nur x8 x8 oder x8 x4 x4. AMD erlaubt zusätzlich wenigstens noch x4 x4 x4 x4. Daher funktionieren diese M.2 Bifurcation Karten auch nur mit AMD Boards (oder eben Intel X Boards, aber wer will die Stromschlucker schon haben). Zum Teil ist Chia auch ein Glück für uns. Denn die Hersteller werden denke ich nun vermehrt neue SATA Controller mit mehr Ports rausbringen. Danach darf die Chia Blase aber gerne platzen. ^^
  12. Interessant wäre evtl auch noch eine Karte mit Marvell 88SE1475. Das ist ein 16 Port SATA Controller, der neuesten Generation. Gibt allerdings keine Karten soweit ich weiß. Zwei verbrauchen dann allerdings auch zwei x8 Slots. Auch doof ^^ Wobei, wenn man die in x4 steckt, hätte man ~250MB/s pro HDD.
  13. Und da kommen dann die "billigen" Käfige rein oder wie machst du das?
  14. Wirklich nicht mehr normal was auf dem Markt abgeht: Wenn das so weiter geht, kann sich Limetech warm anziehen. Ich mein wie soll Limetech noch Unraid Lizenzen verkaufen, wenn man keine HDDs mehr kaufen kann. Wobei Limetech ja nicht der einzige ist, der von Computer-Hardware abhängig ist. Da werden noch viele andere straucheln. Wobei SSDs zum Glück nicht ganz so stark betroffen sind. Aber die wenigsten werden wohl einen SSD Only Server bauen.
  15. Aha, na dann kannst du jetzt loslegen. Öffne zB links disk1 und rechts disk5, wenn das die neue ist und dann verschieb die Dateien, die du gerne auf disk5 haben möchtest. Denk wie gesagt daran, dass gerade keine Anwendungen wie VMs oder Docker auf die Dateien zugreifen. Und denk auch dran, dass die Shares, so eingestellt werden müssen, dass disk5 nun auch mit in der Liste angehakt ist:
  16. Hast du "/unraid_shares" auch in "/mnt" geändert? Weil im Container solltest du sonst die Platten unter "/unraid_shares" finden. Du solltest nur "/mnt/user" ändern und nicht "/unraid_shares". Wenn in dem Container nämlich schon ein Ordner "/mnt" existiert, funktioniert die Zuordnung nicht.
  17. Stimmt. Dann ist die nur mechanisch, also von der Breite, x4. Ja, warum gibt es das nicht. Komisch.
  18. Ok, und wie sieht es mit ECC RAM aus, Ja oder Nein? Das günstigste mit ECC Support wäre ein Fujitsu mATX mit C236 oder C246 Chipsatz. Da liegst du bei 120 bis 140 € für das Board. Darf es auch gebraucht sein? Die Tage hatte ich zb bei Kleinanzeigen einen i3-8100 für 40 € gesehen.
  19. Das sollte der Fehler aus den Logs sein: Jun 8 10:49:51 HasiServ kernel: usb 3-10: Device not responding to setup address. ### [PREVIOUS LINE REPEATED 1 TIMES] ### Jun 8 10:49:51 HasiServ kernel: floppy0: no floppy controllers found Jun 8 10:49:51 HasiServ kernel: usb 3-10: device not accepting address 6, error -71 Jun 8 10:49:51 HasiServ kernel: usb usb3-port10: unable to enumerate USB device Vielleicht mag ja jemand googlen. Falls vorhanden, teste bitte mal mit einem Hub mit eigener Stromversorgung. Hier habe ich sonst noch was gefunden was in Richtung Standby geht: https://unix.stackexchange.com/questions/205367/external-hard-drive-not-recognized-on-usb-2-0-port Nutzt du evtl powertop? Wobei das eigentlich erst später / nach dem Booten zum Tragen kommt. Eventuell auch mal das BIOS resetten. Vielleicht erlaubt das irgendeinen Standby, den Ubuntu nicht, aber Unraid nutzt.
  20. Kannst du mal aus Spaß mit 6.8.3 probieren?
  21. @DataCollector Siehe mein letzter Beitrag. Das sind keine Port Multipliert und die liefern wie gesagt 300 MB/s pro HDD bei voller Belegung. Ja und wo ist das Problem? Ein Board zu finden, dass 2 PCIe Slots hat, sollte ja jetzt kein Problem darstellen oder wie? Mit iGPU und 2x NVMe? Dann eben das C246M-WU4 oder W480M Vision. Mit ECC RAM und kleinen CPUs lieber das C246M und mit großen CPUs und ECC das W480. Oder wenn du IPMI brauchst, dann das Supermicro X11SCH-F: https://geizhals.de/supermicro-x11sch-f-bulk-mbd-x11sch-f-b-a1942349.html?hloc=at&hloc=de Letzteres kann ich evtl vom Großhandel günstiger besorgen. Müsste ich aber erst anfragen. Noch eine Option: https://geizhals.de/asrock-rack-w480d4u-a2301997.html?hloc=at&hloc=de Ansonsten gibt es noch W480 Full ATX Boards von Supermicro. Sogar welche mit 2.5G Onboard.
  22. Ach du scheiße sind die teuer geworden: https://de.aliexpress.com/wholesale?trafficChannel=main&d=y&CatId=0&SearchText=asm1166&ltype=wholesale&SortType=total_tranpro_desc&groupsort=1&page=1 Die haben vor ein paar Monaten keine 30 € gekostet: Da weiß ich ja, was ich gewinnbringend verkaufen kann ^^ EDIT: Bei Amazon haben die Chinesen die Preise noch nicht angepasst: https://www.amazon.de/s?k=asm1166&rh=p_36%3A-3000&__mk_de_DE=ÅMÅŽÕÑ&qid=1623151630&rnid=428358031&ref=sr_nr_p_36_6 EDIT2: Ach ne Mist, sind nur PCIE 3.0 x1. Also 150 MB/s Flaschenhals. EDIT3: Die hier geht: https://amzn.to/2T3mHIR Ab 2 sogar 10% Rabatt ^^
  23. Daher ja meine Idee mit den SATA Karten und dem größeren Netzteil. Da gibt es das nicht. Da fahren alle zur gleichen Zeit hoch und der Server steht nach max 2 Minuten bereit. Aus dem Standby sogar in Sekunden. Davon sprach ich auch nicht, sondern nur von ASM1166. Die Karte lastet alle HDDs bei voller Belegung komplett aus. Das ist klar. Wenn du noch andere Karten verbauen willst, kann man die Idee natürlich nicht umsetzen. PCIe 3.0 x4, also 4 GB/s, was sogar für 6 SSDs reichen würde, wobei der ASM1166 sein Limit bei 300 MB/s bei voller Belegung hat: https://forums.unraid.net/topic/41340-satasas-controllers-tested-real-world-max-throughput-during-parity-check/ Das Problem ist nur ein Board zu finden, dass 4x x4 hat. Ja, auf der Karte selbst sind ja Port Multiplier. Das ist kein Wunder. Da du noch einen Slot für die 10G Karte brauchst, geht leider nicht mehr als 3x 6er plus 8 Onboard. Also eben 26 SATA Buchsen. Zwei Lösungen: A) Größere Platten kaufen B) 4 Server bauen So lahm? Dann hast du aber ein anderes Problem. @hawihoney konnte durch das CPU Upgrade auch seine Geschwindigkeit steigern. Eventuell liegt es bei dir ja auch an der CPU Leistung?! Oder du hast eine Platte, die alle anderen runterzieht oder dein SAS Controller hat nicht genug Bandbreite / Leistung. Die sind alle langsamer und haben weniger Ports als ASM1166 oder JMB585. Bestell direkt bei Aliexpress. Ist in der Regel günstiger als bei eBay. Dauert nur halt hundert Jahre bis es da ist ^^ Leg los 😁
  24. SMB oder NFS? Einfach auf Noctua umrüsten und normale ATX Netzteile reinbasteln. Dann hört man deinen Storage auch nicht mehr. 😉 Du musst auch unbedingt mal einen Storage alleine messen. Ich finde 300W immer noch zu viel. 24 Platten ziehen im Stand max 30W. Die 300W in Summe sind da für mich unerklärlich. Oder das liegt wirklich an den Doppel-Netzteilen, dem Powerboard und der Backplane. Die Frage ist dann allerdings ob es sich bei einem neuen Projekt nicht für @DataCollector eher lohnt ein Gehäuse mit passiver Backplane zu holen: https://www.fantec.de/produkte/serverprodukte/19-server-storagegehaeuse/produkt/details/artikel/1873_fantec_src_4240x07/ Das gepaart mit einem Corsair RM750x (2021), ein paar Noctua um die Lautstärke zu reduzieren und das Teil verbraucht keine 50W. Mit meiner oben genannten Idee sogar nicht mal inkl. Mainboard und CPU.
×
×
  • Create New...