Jump to content

DataCollector

Members
  • Posts

    3,967
  • Joined

  • Last visited

  • Days Won

    20

Everything posted by DataCollector

  1. Hallo @mgutt Da ich mich bei Xeon immer noch nicht wirklich auskenne. Wie sieht es eigentlich mit dem Xeon W-1290E aus? (bei ebay gerade für ca. 360 Euro gesehen) Der taktet doch nur ein bisschen niedriger (bei geringerem TDP), sollte aber doch ansonsten die selben Features haben, oder habe ich da etwas übersehen? Ich frage, weil der Händler bei ebay die angeblich als widerrufs-Rückläufer verkauft. Und da frage ich mich, weil der aktuellen Versorgungslage, warum gibt man den zurück? Weil man spontan doch noch ein paar Xeon W-1290P sehr billig bekommen konnte?
  2. Hallo @snowy00 Veileicht kommst Du auch von KEY A/E zu Key-M weiter? https://www.amazon.de/KALEA-INFORMATIQUE-Konverter-Stecker-Adapter-Cable/dp/B07887N7RH In letzter Zeit haben diese Franzosen (Kalea) diverse interessante Produkte (vermutlich nur umgelabelt von ausgesuchten chinesichen Produkten). Ich habe das Ding nicht, aber es wäre möglich, daß man darüber dann mit einem simplen M.2 Key-M auf PCIe x4 Adapter weiter machen kann. Ein ziemliches Gebastel, aber vielleicht bringt es Dir etwas.
  3. Hallo @b_tob Nein. Aber dann bleiben für das Array in der aktuell offiziellen Version nur noch maximal 28 Devices übrig. Der Rest kann aber in einem oder mehreren Pools platziert werden. ... nur so, falls es Dir bei Deiner Sammung um viel Platz geht. Ich baue gerade ein System, welches recht viel Platz bietet und da Parität einiges an Schreibgeschwindigkeit schluckt, habe ich im Array alle bis auf 2 Stück Festplatten ohne Parität eingebunden. Wenn das System dann befüllt ist, werde ich die Parität nachträglich erzeugen lassen und dann binaer prüfen ob auch alles korrekt angekommen ist.
  4. @hawihoney Wie Du es herausfinden kannst: Wenn im BIOS/UEFI dazu keine PCIe Einstellungen zu finden sind, ist die Chance gering. Was sagt der Mainboardhersteller Support dazu? Nein, leider bieten nicht alle modernen Systeme dies. Aber je teurer/Server, desto eher ist es möglich, aber eben nicht zwingend. Schlimmstenfalsl eien Bifucation Karte kaufen, einbauen und freuen oder fluchen und zurückgeben (Fernabsatz/Widerruf). Bei Mainboards, die das nicht unterstützen und die man beispielsweise mit mehreren NVMe oder so versorgen will, kommen dann eben PCIe Switchkarten ins Spiel, die aber einiges an zusätzlichem Strom schlucken. Ich nutze eine PCIe Switchkarte, die einen ASM1064 verwendet und in einem elektrischen PCIe 3.0 x8 Slot bis zu 4 NVMe als einzelne Laufwerke anbinden. @mgutt hatte vor kurzem einen PCIe Switch bei AliExpress gepostet, welcher per Plex Chipsatz vergleichbares für PCIe 3.0 16 auf bis zu 8 Anschlüße bietet (vgl. Die Firma LSI /Avago/Broamcom hat schon länger aber weitaus teurer entsprechende Kontroller im Angebot).
  5. Hallo. Dem kann ich nur zustimmen. Um mein System erstzubefüllen (seit nun schon einigen Tagen) nutze ich parallel den MC unter Firefox und krusader/ich777. Alle ca. 1,5 Tage Dauerdatentransfer von remote zu Disk(s) friert der Firefox ein, so daß der MC und die WebGUI des unraid nicht mehr reagieren. Anfangs dachte ich, das unraid selber abgeschmiert sei, aber das war und ist gar nicht der Fall. Anscheinend ist es wirklich immer nur der Firefox. (Edge habe ich noch nicht sehr lange ausprobiert, aber Edge bekommt bei mir Probleme nach einiger Zeit, wenn man mehrere MC Terminals gleichzeitig öffnet und mit beiden jeweils mehrere TB transferiert hat. Dann schmiert ein Edge Terminal mit MC ab und erneutes öffnen eines MC bringt nur einen sehr verzögert reagierenden MC im Terminal zustande.) FF geschlossen und neu gestartet und weiter geht es ohne unraid selber neu starten zu müssen. Der ebenfalls laufende krusader rennt die ganze Zeit kontinuierlich durch. Anfangs hatte ich den krusader auch über die Docker WebGUI gesteuert und gedacht, daß der auch angestürzt sei. Doch seit ich den krusader über RealVNC direkt von einem anderen PC steuere weiß ich, daß er (und unraid) stabil weiter läuft, wenn der FF auf dem steuernden PC eingefrohren ist. Leider werde ich im krusader aber die Kapazitätzprüfung nicht los, so daß es immer einiges an Handarbeit erfordert, wenn ich Disks (nicht shares) bis zu einem bestimmten Füllstand vollpumpen will. Deshalb parallel mit dem MC. Mit dem Krusader kann ich grob abschätzen, wieviel TB man auf eine leere Disk kopieren wird, aber wenn die eben fast voll ist, steuere ich mit MC nach und lasse parallel den Krusader auf die nächsten Disks los.
  6. Hallo @mgutt Eine 3,5Zoll Festplatte braucht 5V und 12V. SATA sieht auch 3,3V am Stecker vor und WD benutzt diesen Kontakt auch aktiv am Pin3 für sein idle feature. Wenn das Netzteil nur noch 12V bereit stellt und man nicht alle Festplatten über das Mainboard versorgt, wie soll ein 12V only Netzteil dann die Festplatten mit 5V und 3,3V versorgen, die sich eben aufgrund hoher Last nicht alle über das Mainboard versorgen lassen? Dies würde erfordern, daß man mit dem Netzteil und Mainboardtausch auch die teilweise weitaus teurere Grafikkarte gleich mit austauscht. Ich sehe da noch eine Übergangszeit, die aufgrund der Preise der Komponenten, recht lange bestehen wird.
  7. Hallo @mgutt Das befürchte ich. Ich vertraue der Mainboard Wandlung aber nicht genug Leistung zu um 20, 30 oder gar 70 Festplatten zu betreiben. Auch sind Grafikkarten keien Kostverächter und man bräuchte schon einiges an Kupfer in den Mainboards um die Leitungen durch die Boards zu den Grafikkarten zu transportieren. Ich kenne Businesskonstellationen bei denen das Netzteil nur noch das Mainboard versorgt und von dort alles ab geht und es sind kaum verläßliche Informationen zu bekommen wieviel Last man an die Anschlüsse hängen darf. Und dann noch die teilweise sehr eignene Stecker für die Verkabelung bei IBM, Lenovo, Delll und so weiter machen es auch nicht einfacher, die Hardware über die ursprungskonfiguration hinaus weiter aufzurüsten. Es hat einen Grund, warum Netzteile ab 500W aufwärts da viele Anschlußkabel und einiges an Technik drin haben. Und da unraid ja primär als NAS gedacht ist, gerne aber auch mit mehr GPU ausgestattet wird, wären es ein noch größeres Problem damit ein großes NAS oder ne Multi Gamemaschine mit PC Technik aufzubauen. Ich sehe noch nicht, daß für unsere Spartenanwendung 12V only Netzteile mit Resterzeugung auf dem Mainboard eine gute Lösung ist. Ich schätze, es wird sich ein Markt für "12V to other" Zusatzplatinen auftun und der wird aufgrund der kleinen Nische teuer werden.
  8. Hallo @blinddark Nur so als Info: ASUS XG-C100C [1d6a:d107] 07:00.0 Ethernet controller: Aquantia Corp. AQC107 NBase-T/IEEE 802.3bz Ethernet Controller [AQtion] (rev 02) auf Fujitsu D3644-B + I3-8100 + 64GB ECC RAM neben ASM1064 Karte, Adaptec HBA 7 Series, JMB 582 Kärtchen angeschlossen an einem Mikrotik-CRS312-4C+8XG-RM. Meine Asuskarte macht in dieser Konstellation bei mir keine Probleme. Aber ich nutze bisher auch noch keine komplizierten Netzwerkkonstellationen auf meinem unraid. (bisher hauptsächlich als NAS mit krusader/ich777 Docker und MC). Komischer Link. Meine XG-C100C ist nicht "wireless".
  9. Hallo @teqqyde Ich habe jetzt nicht vernommen ob Du dafür auch einiges an Geld in die Hand nehmen willst. Rein zu den Gehäusen: Einfaches 4U Geäuse mit ATX Netzteil-Einbauplatz und 8Stück 5,25Zoll Frontplätzen nehmen. Alle Links hier dienen nur als Veranschaulichung (keine Empfehlung für genau diesen mir ansonsten unbekannten Typ): https://www.ebay.de/itm/223317967305 Ich weiß jetzt aber nicht, ob Dein Mainboard da rein passt. Dort 2 Stück 5in3 Rahmen einsetzen. Schon hat man für 10 Festplatten Platz. Wenn man wirklich mehr will, ist auch noch ein 3in2 Rahmen möglich, so daß man 13 Festplatten rein bekommt. Nicht elegant, aber möglich. Solche Rahmen gibt es einmal als luxuriöse Wechselrahmen, so daß man bequem von vorne ran kommt: https://www.ebay.de/itm/224748822323 https://www.ebay.de/itm/224748813150 Oder auch als reine Metallrahmen, die die Festplatten halten. Je nachdem wie herum man die einbaut und wie elegant man Kabelführung und Lüftung gestalten will, kann man Regeleinbau von hinten oder eher bastlerisch von vorne die Festplatten stecken. https://www.ebay.de/itm/403142207725 https://www.ebay.de/itm/144341894755 Wenn ich für mich suchte würde ich noch ein bisschen drauf schlagen und direkt ein https://geizhals.de/inter-tech-4u-4420-88887121-a1178983.html?v=k&hloc=de oder so ähnlich für rund 500 Euro nehmen. Dazu dann das hier öfters als gut empfohlene Corsair RM550x (2021 Edition) oder etwas vergleichbar effizientes. (Ich habe für mein größeres System aktuell das RM850x 2021 genommen, aber da laufen auf 30 Festplatten drin.) Dann macht es noch mehr Sinn bei dem Netzteil anzusetzen, da sich die Last wohl reduzieren wird und die Effizienz eines Netzteiles sich auswirken wird.
  10. Hallo @Amr0d Nur so, falls Du vielleicht doch eien Verlängerung des SATA Kabels in Betracht ziehst: https://www.reichelt.de/sata-15pin-stecker-sata-15pin-buchse-30-cm-delock-60131-p179947.html?&trstct=pos_1&nbc=1 Bis 31.12.2021 (heute) kann man bei Reichelt per Paydirect/Giropay versandkostenfrei innerhalb Deutschland bestellen (an einigen Stellen auf der Webseite steht sogar 03.10.2022) https://www.reichelt.de/paydirekt-l1911.html?&trstct=tsr_163087
  11. Das ist sogar sehr wichtig. Wie schon erwähnt bearbeite ich meine Disks mit Preclear vor, bevor ich sie nutze. Mein I3-8100 ist bei 8 Disks gleichzeitig unter htop schon hart an der Grenze. Eine 9te Festplatte bringt ihn durchgängig auf allen 4 Kernen auf maximale rote Balken Daneben dann noch die eine oder andere VM würde ich der Kiste nicht zutrauen. Okay, Preclear macht man nicht oft, aber das ist einer der ersten Anwendungsfälle, bei denen mir die hohe Last aufgefallen ist. zu dem Thema ECC/Speicherfehler: Ergänzung: Schlimm ist es, wenn einem ein Memoryfehler erst dann auffällt, wenn das System schon Tage oder gar Wochen lang vorher verfälsche Daten geschrieben hat. Dann ist der gesamte potentiell Datenbestand auf den Disks kompromittiert.
  12. Hallo @jURRu12 Leider sind seit ein paar Jahren Towergehäuse mit ausreichend Platz um viele Festplatten von extern erreichbar zu haben nicht mehr in Mode. Deshalb bleiben entweder nur gebrauchte Gehäuse oder die Festplatten intern zu verbauen. Aber 18 Festplatten in einem Tower sind auch intern schon recht sportlich und auch bei dem Fractal Design 7 XL (siehe Erwähnung von mgutt muß man da etwas nacharbeiten und eine geignete Kühlung wird wohl weder geräuschlos, noch stromsparend werden). Abgesehen von meinen Altgehäusen (Sharkoon Rebel 9 und 12), die ich auch extern 15, bzw 20 Festplatten umgebaut habe/hatte, greife ich bei großen Festplattenzahlen eher zu 19Zoll Gehäusen. Evtl. kannst Du ein 4U/4HE Gehäuse mit Wechselrahmen ja auch hochkant stellen (mit kleinen Standfüßen, weil die Gehäuse seitlich noch die Befestigungswinkel und einr Kabelfürhung haben). Bis 20 Festplatten von vorne erreichbar: https://geizhals.de/inter-tech-4u-4420-88887121-a1178983.html?hloc=de Bis 24 Festplatten von vorne erreichbar: https://geizhals.de/inter-tech-4u-4424-88887122-a1178972.html?hloc=de Aber je so um die 500 Euro und recht tief. Leider sind aber auch seit einiger Zeit 19 Zoll Gehäuse für so viele Festplatten (vermutlich wegen dem Chia Hype und der zeitlich folgenden generellen Lieferschwierigkeiten) aktuell entweder kaum zu bekommen oder massiv überteuert. Vergleichbares gilt auch für SATA/SAS Kontroller (siehe unten) Viele Mainboards haben intern/onboard eben meist nur 6 oder 8 SATA Anschlüsse. Raidkontroller (also Kontroller, welche wirklich aktiv Raid nutzen) sind in unraid nicht sinnvoll. Aber wie mgutt schon schrieb sind HBA möglich. Eine Möglichkeit sind ein oder gar mehrere stromsparende SATA Kontroller, welche je 4 (beispielsweise AsMedia ASm1064 Chip basiert) oder 6 (AsMedia ASM1166 Chip basiert - siehe Info von mgutt) weitere SATA Anschlüsse bieten, muß aber auf dem Mainboard dann auch geeignete und viele PCIe Slots dafür haben um in Summe 18 Festplatten anzusteuern. Auch muß man aufpassen. Diverse SATA Kontroller stellen die hohe Anzahl der Ports durch eingebaute Portmultiplier bereit und diese stehen im Ruf mit unraid nicht empfehlenswert zu sein. Es gibt aber auch noch die Möglichkeit HBA Kontroller zu verwenden, welche SAS beherrschen (und gleichzeitig auch SATA). Aber zuerst: diese haben 2 miteinander zusammenhämngende Nachteile: 1. Sie benoetigen in der Regel mehr Strom/Energie als reine/einfache SATA Kontroller 2. Durch den höheren Energiebedarf entwickeln sie auch mehr Wärme, was in der Regel eine aktive Luftkühlung erfordert (wenn man sich da nicht etwas sehr individuelles zusammenbasteln will). Damit wird es also nicht die absolut stromsparenste und leieste Lösung. Dies SAS Kontroller gibt es mit 4, 8, 16 oder auch 24 SAS/SATA Anschlüssen. Gerne auch gebraucht bei ebay oder so. Man könnte auch einen SAS Kontroller mit wenigen Anschlüssen nehmen und dann mit einem SAS-Expander (ebenfalls aktiv zu kühlen und mit Stromverbrauch) die Anschlüsse erweitern. Ich habe bei meiner aktuell in Neuaufbau befindlichen 30 HDD +4 SATA SSD +1NVMe SSD Lösung zu einem 6 SATA Onboard Mainboard gegriffen, darauf einen alten Adaptec Series 7 Kontroller mit 24 SAS/SATA Anschlüssen (PCIe 3.0 x8) und als Ergänzung dann noch einen ASM 1064 (PCIe 3.0 x1) und einen JBM582 Kontroller (M.2 2230). Nur als Hinweis, daß es auch HBA mit mehr Anschlüssen gibt (aber mit wenig empfehlenswerten Neupreisen) hier GH vorgefiltert für alles ab 16 Anschlüssen: https://geizhals.de/?cat=iosasraid&xf=497_16~5678_ohne Aber bei den Neupreisen achte ich eben bei ebay darauf ob was passendes guenstig gebraucht zu haben ist. mgutt hatte auch solche HBA ja schon erwähnt. unrtaid heisst unraid, weil es die Festplatten im Array ohne Raid5 nutzt. Dafür nutzt es ParityFestplatten, von denen man 1 (ähnliche Sicherheit wie Raid5) oder auch 2 (ähnliche Sicherheit wie Raid6) einsetzen kann. Da Du damit vermutlich schon Erfahrung mit Raid hast, beachte, Du hast bei unraid keine addierte lese oder Schreibgeschwindigkeit der Festplatten im Array. unraid liest oder schreibt immer nur eine Datei und die ist immer nur auf einer Festplatte. Bei Raid hast Du die Datei evtl. auf mehreren Festplatten verteilt, wodurch sich höhere Geschwindigkeiten erreichn lassen. Dafür hat unraid eben andere Vorteile. Ich strebe aus Stromspargruenden an, meine Raid6 Systeme, bei denen immer alle Platten 24/7 laufen gegen unraid abzulösen weil dann bei unraid meist nur sehr wenige Festplatten laufen und somit der Stromverbrauch vormutlich bei nur rund 30% liegen wird. Und zwischenzeitlich können auch noch SSD und massig RAM Schreibzugriffe abfangen. Bei so vielen Festplatten muß das Mainboard zu den zu verwendeten SATA oder SAS Kontrollern passen. Deshalb ist so früh in einer Planungsphase noch nichts eindeutig festlegbar. Wenn Du Dich zu vielen kleinen 4x SATA Kontrollern mit ASM 1064 Chip (mit je maximal 4x SATA Ports zu je gleichzeitig ca. 250MByte/s) entscheidest muß das Mainboard dementsprechend viele PCIe 3.0 x1 Slots haben. Bei den von mgutt erwähnten 6x SATA Kontrollern mit dem ASM1166 hat man rechnerisch mehr Bandbreite (6x SATA zu je ca. 333MByte/s gleichzeitig), muß man aber beachten, daß der Chip zwar nur elektrisch PCIe 3.0 x2 braucht, aber da es kaum Mainboards mit PCIe 3.0 x2 Slots gibt. Deshalb braucht jede dieser Steckkarten in der Regel einen PCIe x4 (oder längeren) Slot. Wenn Du nur einen Zusatzkontroller (HBA) mit 16x oder mehr SAS/SATA Ports verwenden willst, brauchst Du hingegen mindestens einen freien PCIe 2.0 oder 3.0 x8 Slot. Beachte auch, daß die zu verwendeten Kontroller von den Festplatten oder gar SSD abhängen können. Alte oder kleine SATA Festplatten liegen zwar noch unter 250MByte/s, so daß man 4 alte/kleine Festplatten mit einem ASM1064 ohne Performanceeinbuße gleichzeitig betreiben kann, aber schon SSD oder moderne/große Festplatten liegen über 250MByte/s, so daß man hier vielleicht besser und 2 oder max 3 Geräte an einen solchen Kontrollerchip hängt, wenn man sie gleichzeitig maximal nutzen will. Die Kombinationsmöglichkeiten sind sehr zahlreich. Den Satz verstehe ich jetzt nicht ganz. Ich vermute mal, Du willst diesen Maximalausbau von 18 Festplatten (vermutlich im 3,5 Zoll Format) möglich haben, aber vorerst nur weniger Festplatten bestücken. Das hängt von Verfügbarkeit und Aufbauwiunsch ab. Ich bevorzuge es, wenn ich zum Festplattenwechsel nicht immer ein Gehäuse aufschrauben muss und nehme deshalb bevorzugt Wechselrahmen die dann von außen den Wechsel ermöglichen. Dieser Luxus kostet aber entweder mehr oder bedeutet einigen Bastelaufwand. Andere wollen es alles schön sauber innen verbaut haben und wieder Anderen ist dieser Punkt egal, dafür haben sie andere Punkte die wichtig sind. Simple Backplane oder Wechselrahmen sind eigentlich recht einfach zu verstehen. Aufgrund einer hohen Packungsdichte ist aber für den gleichzeitigen Betrieb aller Festplatten auf so kleinem Raum eine aktive Kühlung meist notwendig. Aber Backplanes mit aktiver Technik sind sowas wie SAS Expander und dazu habe ich oben ja schon etwas geschrieben (Strom/Belüftung). Ist die Frage erlaubt, was Du damit bezwecken willst (siehe weitere Punkte unten)? Massig viel Speicherplatz? Stromersparnis? Ist Lärm/Lüfung ein beachtenswertes Thema? Zusätzliche Funktionen (VM/Docker)? Bei Docker oder VM ist der Einsatz von SSD sinnvoll. Hier stellt sich dann auch die Frage nach SATA oder NVMe. Gibt es Komponenten, die kostensparend vorrhanden und vielleicht übernommen werden können? Weiterer Einsatz von vorhandenen alten und kleinen Festplatten oder doch neuere, größere, schnellere Modelle? Dann kann man vielleicht etwas genauer Deine Wünsche erkennen und empfehlungen oder zumindest Ideen ausschütten.
  13. Hallo @mgutt Ich bedanke mich herzlich bei Dir! Ich weiß nicht, warum ich das bei meiner Suche nicht gefunden habe. Es hat geholfen. Siehe Screenshot unten (ich habe es darin ausführlicher dokumentiert, damit ggf. andere das vielleicht schneller finden und verstehen können). Hier nochmal die Befehle in Textform, damit sie jemand auch simpel kopieren kann ohne die anderen Threads aufmachen zu müssen. hdparm -W 1 /dev/sdj smartctl -s wcache-sct,on,p /dev/sdj Und hier der Screenshot des Terminalfensters: Ergänzung: Ich Befülle je gerade das Array mit Daten von einem Remoteshare. Nachdem der WriteCache nun aktiv ist, stieg die angezeigte Schreibgeschwindigkeit im Main Tab bei der selben Festplatte von vorher rund 200MByte/s auf rund 240MByte/s. Auch zeigen das Dashboard und auch htop eine geringere CPU Belastung. Ich hatte befürchtet, daß durch den abgeschalteten WriteCache die kontinuierlichen Schreibvorgänge der Dateien und das Verzeichnen jeder einzelnen Datei und Position auf dem Datenträger sich gegenseitig negativ beeinflußt und bei langandauernden Schreibvorgängen nicht komplett durch PC RAM abgefedert werden kann (weil ab und zu eingelegte kurze Pausen einen performancesprung brachten). Ich schätze, die Vermutung war nicht ganz falsch.
  14. Bevor es unter geht: Du hast gelesen, daß Du bei einer Intel CPU der 11ten Gen diese nach aktuellem Stand nich so problemlos in unraid nutzen kann, wie bei iGPUs der Intel 10ten Gen? Zitat: "...In einer VM konnte man sie gar nicht verwenden. Das ist bei Intel bis zur 10ten Generation aber anders..."
  15. Hallo @mgutt Nicht, daß ich wüßte. Fix Common Problems meldet mir, daß der Writecache der gelisteten Festplatten abgeschaltet ist (ja, das ist eine steuerbare Funktion in der Hardware der Festplatten). Diese Meldung ist die Tage vorher auch bei mehreren Neustarts nie erschienen, weshalb ich davon ausgehe, daß der Writecache der Festplatten da nie ausgeschaltet war. Der Cachepool ist in den Shares gar nicht aktiviert, weil ich beim Erstbefüllen die SSDs nicht kaputtschreiben will. Siehe Screenshot unten. Ich habe als Gegenprobe mal die zwei als nicht betroffen gemeldeten Toshibas und eine Seagate mit dem Befehl angestoßen. Dort wird der Cache als on zurückgemeldet. Es ist also keine Problem, daß ursächlich in den Toshiba Platten liegt. Erst seitdem die Disk 17 Seagate 16TB Exos hinzugefügt wurde erscheint dieses Problem bei einigen der Toshiba Festplatten. Bisher habe ich in meiner Suche keine solche Besonderheiten im Netz gefunden. Mir ist klar, daß unraid das nicht absichtlich gesteuert hat, genau wie unraid bei ECC RAM Fehlern oder CPU Problemen oder so nicht absichtlich abschmiert. Aber es ist die einzige softwaremäßige Stellgröße an dem PC, die mir einfällt. Ich werde wohl zum weiteren Einkreisen Festplatten zwischen den Anschlüssen tauschen und die neu hinzugefügte Seagate (nach der das Problem zum ersten Mal angezeigt wurde) entfernen müssen.
  16. Hallo @hawihoney , @jj1987 und @alturismo. Danke für die Hilfestellung. Wenn ich mit meinem zweiten Unraid anfange, weiß ich nun, was ich da ausprobieren kann. Aktuell will mich mein jetziges System nicht mehr lieb haben und meine Priorität hat sich vor rund 1h auf den festplattencache verschoben (siehe anderen Beitrag). Wenigstens ist Wochenende und man kann sich darauf konzentrieren, bzw. erst einmal suchen, wie man das Problem angehen könnte. Weiterhin schönes Sonntag!
  17. allo. Heute zeigt mir mein unraid, daß es mich nicht mehr lieb haben will. Seit mehreren Tagen und Neustarts lief unraid. Ich fülle seit dem Dateien von einem Remoteshare auf das Array per Krusader/ich777 Docker (Array bisher ohne Parity). Gestern habe ich eine weitere Festplatte angeschlossen (Disk17 Seagate 16TB) und per Preclear bereinigt. Als Preclear heute durch war, habe ich das Array gestoppt, um diese Disk erweitert und gestartet. Krusader neu gestartet und weiter Daten von remote aufkopiert. Auf einmal meldet sich "Fix Common Problems" mit dem Hinweis, daß mehrere Disks den Writecache abgeschaltet haben. Dem dort angegebenen Link folgend habe ich es über das terminal versucht zu beheben. https://forums.unraid.net/topic/46802-faq-for-unraid-v6/page/2/?tab=comments#comment-755621 Kein Erfolg. Daraufhin habe ich Rebootet, Passphrase angegeben und Array gestartet. "Fix Common Problems" meldet wieder den Hinweis. Siehe Bildschirmkopie 1. Es wird auch ein Link mit Infos zum einschalten per Terminal mitgeliefert, doch das funktioniert eben nicht. Siehe Bildschirmkopie 2. Falls Systeminfos interessant sind siehe Bildschirmkopie 3. Nur die beiden Seagate 16TB stammen aus geöffneten externen USB Gehäusen. Alle anderen Festplatten sind als normale Platten gekauft worden. Any Idea wie ich den Cahe wieder einschalten kann? Ich gehe davon aus, daß der Cache vorher aktiv war, da Fix Common Problems die ganze Zeit installiert ist und sich erst jetzt deswegen gemeldet hat. Danke! Ich habe die Aufteilung der Festplatten mal zusammengefasst: Abgeschalteter Cache: 5 sdj Toshiba 18 TB an Adaptec Series 7 8 sdd Toshiba 16 TB an Adaptec Series 7 9 sde Toshiba 16 TB an Adaptec Series 7 10 sdf Toshiba 16 TB an Adaptec Series 7 11 sdg Toshiba 16 TB an Adaptec Series 7 12 sdh Toshiba 16 TB an Adaptec Series 7 13 sdi Toshiba 16 TB an Adaptec Series 7 14 sdm Toshiba 16 TB an Adaptec Series 7 15 sdn Toshiba 16 TB an Adaptec Series 7 16 sdc Toshiba 16 TB an Adaptec Series 7 == nicht als betroffen gelistet: 1 sdv Seagate 18 TB an an JMB582 M.2 2230 2 sdu Seagate 18 TB an an JMB582 M.2 2230 3 sdw Seagate 18 TB an an ASM1064 PCIe x1 4 sdx Seagate 18 TB an an ASM1064 PCIe x1 6 sdk Seagate 16 TB an Adaptec Series 7 7 sdb Toshiba 16 TB an Adaptec Series 7 17 sdl Seagate 16 TB an Adaptec Series 7 PoolSSDa sdo Crucial SSD 2TB an Intel Chipset Onboard PoolSSDa 2 sdp Crucial SSD 2TB an Intel Chipset Onboard PoolSSDb sdq Crucial SSD 2TB an Intel Chipset Onboard PoolSSDb 2 sdr Crucial SSD 2TB an Intel Chipset Onboard Reserviert für spätere Parity: sds Toshiba 18 TB an an Intel Chipset Onboard sdt Seagate 18 TB an an Intel Chipset Onboard
  18. Hallo @mgutt Ja, deshalb habe ich bisher ja das NAS dazwischen geschaltet. Das NAS kann von dem DVB Receiver per SMBv1 gefüttert werden und die PC selber können auf das NAS per SMBv2 oder v3 zugreifen. Wenn etwas abgefangen und ggf. angegriffen werden kann sind es Receiver und NAS. Alles andere ist vergleichsweise weniger unsicher. Da müßten dann wohl die Entwickler von Lime Tech vielleicht nochmal ran. Danke sehr. werde ich mir anschauen. Aber aktuell will mich Unraid seit kurzem wegen Cache ind en Wahnsinn treiben. Das hat bei mir jetzt Priorität, da das Befüllen ohne Cache länger dauert. Von rund knapp unter 300TB sind erst einige Dutzend TB drauf und da kann ich bremsendes Verhalten nicht gebrauchen. Hier werde ich mal schauen. Die VU beherrscht auch NFS und vielleicht ist das sinvoller. Danke Dir!
  19. Hallo @Björn f. Filezilla ist doch ein Client. Die Webcam speichert automatisch alls 5 Sekungen ein Standbild auf einen FTP Server, den ich im Netz bereitstellen will. Aktuell speichert die Webcam auf das NAS mit seinem FTP Dienst/Server. Wenn ich mir die Bilder später ansehen oder weiter verwerten will, greife ich dann auf das Share zu und lese von Windows per SMB/CIFS aus. Habe ich da bei Filezilla etwas falsch verstanden? Kann er auch Server spielen? Die VU+ Ultimo (ohne 4k) ist eine der älteren Sorte, deren Firmwareentwicklung 2017 vor der Einführung von SMBv2 eingestellt wurde. Vielleicht kann ich aber mit NFS weiter kommen. Daran hatte ich noch nicht gedacht. aber daran wurde ich ja in einem anderen Posting erinnert.
  20. Hallo @jj1987 Meine VU+ Ultimo ist sehr alt. Das war noch bevor die 4k Modelle auf den Markt kamen. Die VTi Firmwareentwicklung wurde leider schon 2017 einige Monate zu früh eingestellt, sonst wäre SMBv2 möglich. Aber NFS kann sie. Weil ich bisher windowsbasiert unterwegs bin / war war mir NFS ga nicht in den Sinn gekommen. Ich übe noch in unraid. Wenn ich in unraid einen Share einrichte war ich davon ausgegangen, daß dieser SMB/CIFS ist. Vermutlihch habe ich es übersehen: Wie kann ich in unraid einen NFS Share einrichten (es muß aber in unraid für die Windowsmaschinen SMB auch möglich bleiben)? Die VU soll ja auf den unraid Server schreiben und auch von dort lesen können. ❓
  21. Hallo @alturismo Ist die Nutzung dann möglich, wenn man FTP in unraid selber abschaltet? Vielleicht muß ich doch mal nach NFS schauen. Das kann die alte VU+ Ultimo auch. Die Weiterentwicklung der VTI Software für die alte VU+ Ultimo wurde ca. August 2017 eingestellt. OE-System: openvuplus 3.0 Firmware-Version: VTi 11.0.2 (2017-08-22-vti-master-release (113e92d91)) Kernel / Treiber: 3.9.6 / 3.9.6-r22-20171204 Dort ist meiner Recherche nach nur SMBv1 enthalten. Der Sambaserver auf den VU+ Boxen kann erst seit der V.13 (ca. Nov.2017) SMBv2 & v3. Für die alte Ultimo (ohne 4k) gibt es kein neueres VTI Image. Das deckt sich auch damit, daß ich nach einem Win10 Update (bei dem SMBv1 abgeschaltet wurde) keinen Zugriff mehr auf die interne VU+-Festplatte hatte. https://www.deskmodder.de/blog/2017/06/14/smb-1-wird-mit-der-windows-10-1709-per-standard-deaktiviert/ Ich musste damals extra in einer meiner Win10 Installationen SMBv1 wieder einschalten. Da ich das Sicherheitsrisiko für meine PC nicht eingehen wollte, habe ich dann später das NAS als SMBv1 fähigen Speicher angeschafft. Wenn irgendetwas in mein Netz rein kommt, darf es gerne auf dem NAS die DVB Aufnahmen verschlüsseln. Hauptsache die PC werden davon nicht befallen. Danke Dir für Deine Mühe
  22. Hallo Allerseits, ich gedenke auch ein vorhandenes NAS von mir gegen einen unraid-PC zu ersetzen. Das NAS hatte ich gekauft, weil ich dort mit älteren DVB-Receivern aufnehme (VU+ Ultimo erste Generation), welche nur SMB1 nutzen. Weiterhin dient das NAS als FTP Server für Snapshots im 5 Sekundentakt von billigen Webcams. Alles nur lokal im Heimnetz. Nun habe bei erneuter Durchsicht in den FAQ gelesen, daß man FTP abschalten solle: "in den Einstellungen den FTP Server deaktivieren (Achtung, ein FTP Nutzer hat Vollzugriff = SMB Sicherheit gilt nicht!)" Da ich nun aber FTP zwingend brauche und auch SMB1 sich ja auch nicht wirklich um hohe Sicherheit schert frage ich mal: Gibt es für unraid vorgefertigte Umgehungslösungen? Vielleicht einen FTP Server/SMB Server in einem abgeschotteten Docker, so daß die Unsicherheit nur für den Docker und nicht den ganzen unraid-PC gilt? Eine Suche hier im Forum brachte viel, aber irgendwie fand ich nichts passendes. P.S.: irgendwie ist die Suche bei mir immer sehr langsam. Es kann schon einmal mehreer Minuten dauern, bis mir Ergebnisse angezeigt werden. Ich wünsche weiterhin frohe Festtage!
  23. Hallo @Brotbox Ich gratuliere! Es gibt eine passive Sparschaltung um eine 8 adrige CAT5 (oder besser) Verkabelung mit je 4 Adern auf 2 Dosen zu verteilen, so daß beide Dosen dann mit max. 100Mbit/Fastnet) betrieben werden können. Das geht aber nur, wenn am anderen Ende der CAT5 (oder besser) Verkabelung dann auf die gleiche Weise gesplittet wird. Vorteil: Man kann mit einem 8 adrigen Verlegekabel an beiden Enden je 2 Dosen betreiben ohne dafür Strom zu verschwenden. Nachteil: Das funktioniert dann mit jeder Dose nur noch mit maximal 100Mbit/s = Fastnet. Wenn man 2 Endgeräte oder mehr mit 1 GBit/s oder mehr haben will (Cat5e ist auf kurze Strecken sogar bis 10GBit/s gut) kommt man um Switche nicht herum. Kannst Dir ja mal das hier ansehen: http://www.netzmafia.de/skripten/netze/twisted.html Wenn Du zu "Cable-Sharing, Y-Kabel" runter scrollst findest Du die Y-Verkabelung. Ein 1 GBit/s Switch ist heutzutage eine Sache ab ca. 10 Euro aufwärts und es gibt sie sogar in recht stromsparend (kleine 4 oder 5 Port Swtitche kommen mit 5V 0,5A (=USB) aus. Es hätten 100Mbit/s =Fastnet möglich sein müssen. Das deutet darauf hin, daß die Verkabelung zusätzlich irgendwo falsche Qualität/Dämpfungen/unsauber aufgelegte Adern oder so hatte. Hast Du auch die Y Verdrahttug/Adaptierung entfernt? Deine Verkabelung war mutmaßlich qualitativ so schlecht, daß PC und Speedport länger verhandelt und ausprobiert haben bis sie sich auf eine stabile Verbindung geeinigt haben (MDI/MDX). Man kann eine solche Y-Verkabelung ordentlich machen, dann ist stabil und zuverläßig 2x 100Mbit/s möglich. Aber wenn man es nicht ordentlich macht oder die Y-Adapter qualitativ sehr schlecht sind, dann stören die eher und es kann zu den von Dir beschriebenen Problemen/Besonderheiten kommen.
  24. Hallo @Brotbox Bei einigen Routern kann man Stromsparfunktionen einstellen, aber dnn sollten zumindestn 100MBit/s möglich sein, weshalb es das nicht sein kann. Warum nicht? schon getauscht? Ich kenne Deinen Wissensstand nicht, deshakb ganz pauschal/Back to the roots: Es gibt mehrere Stellen die Verantwortlich sein können. a) eine Netzwerkkarte/-Buchse oder Netzwerkeinstellung am PC, die auf 10MBit/s reduziert (also Dein MSI MEG X570 Unify mit 2.5GLAN mit vermutlich einer dieser Varianten RTL8125/RTL8125B(S)(G)) b) eine qualitativ fehlerhafte Verkabelung, wodurch die PC Seite oder der Router beim Handshake (MDI/MDX) die Geschwindigkeit reduziert. Zu a) Software der Netzwerkkarte/-Buchse/-Chip: Wenn man von einer defekten Schnittstelle absieht kann auch im Betriebssystem für und durch den Treiber eine Reduzierung eingestellt sein. Deinem Bild nach zu Urteilen scheinst Du auf dem PC Windows10 zu nutzen. Du schreibst "Habe schon alles mögliche am Netzwerkadapter versucht einzustellen" Leider schreibst Du nichts dazu, wie die jeweiligen Einstellungen aussehen oder welchen Treiber Du installiert hast (Version). Zur Treiber Version: MSI bietet auf der Webseite dazu folgenden Win10 Treiber an: WIN10 08/11/2021 10.051.0811.2021 Siehe auch Win10: Netzwerk und Freigabecenter> Status von Ethernet> Eigenschaften> Konfigurieren> Treiber Hast Du diesen Treiber oder eine andere Version installiert? Hast Du vielleicht schon einmal einen anderen Treiber ausprobiert? https://www.realtek.com/en/component/zoo/category/network-interface-controllers-10-100-1000m-gigabit-ethernet-pci-express-software Dort sind aktuell schon neuere Treiber der Version 10/01/2021 10.053.1001.2021 zu finden (Dateiname Install_Win10_10053_11222021.zip mit enthaltener *.exe, die man aber auch entpacken kann). Vielleicht mal mit dem neueren Treiber probieren. Und dort ist auch ein, mir bisher unbekanntes, "Diagnostic Program for Win7/Win8/Win10". Vielleicht bietet Dir das Programm genauere Infos zur Schnittstelle und dem Verhalten an? Zu den einzelnen Einstellungen der Netzwerkschnittstelle Win10: Netzwerk und Freigabecenter> Status von Ethernet> Eigenschaften> Konfigurieren> Erweitert Dort sollten sehr viele Einstellmöglichkeiten sein, die sich auf das Handshake zwischen PC und Speedport auswirken können und auch stark vom Treiber der Netzwerkhardware abhängen und bei jedem Treiber/Netzwerkkarte anders aussehen/heißen können. Ich habe an einem System eine externe USB 2,5GB LAN 'Karte' mit Realtek dran (mit einem älteren Treiber von 11.02.2019 V.10.31.211.2019), deswegen könnte es bei Dir ähnlich aussehen. Was hast Du bei Adaptive Link Speed Advanced EEE Energy-Efficent Ethernet Flow Control Gigabit Lite Green Ethernet Jumbo Frame Speed & Duplex eingestellt? Auch "Green Ethernet" kann sich im Zusammenhang mit schlechten Kabeln stark auswirken, weil höhere Geschwindigkeiten oft mehr Leistung verbrauchen. Zu b) Verkabelung Du schreibst "Mein PC -> Lan Verbindung zum "Telekom Speedport Hybrid"" Dies bitte genauer beschreiben. Ich vermute: "PC Netzwerkkarte RJ45 Buchse" - Patchkabel Cat5 oder besser muß aufgedruckt/eingepreßt sein - "Wanddose oder Patchpanel RJ45" Cat5 oder besser muß als Info aufgedruckt/eingegoßen sein - "Verlegekabel CAT5 oder besser" - "Wanddose oder Patchpabel RJ45" Cat5 oder besser muß als Info aufgedruckt/eingegoßen sein - Patchkabel Cat5 oder besser muß aufgedruckt/eingepreßt sein - "Telekom Speedport Hybrid". Der ist etwas älter und ich glaube der kann maximal 1GBit LAN an RJ45 Wenn das so stimmt könnte es sein, daß in einem der Kabel ein Problem besteht. Zuerst und am einfachsten kann man eines oder beide Patchkabel mal gegen ein anderes tauschen. Du kannst ja testweise eines der Unraidverkabelung nehmen um am PC in Windows dann zu schauen ob sich da etwas verbessert. Hintergrund: ich habe mir mal 3 Stunden lang einen Wolf gesucht um dann festzustellen, dass ein einem Speedport beiliegendes Kabel nicht für GBLan gedacht war, und auch nur 4adrig verbunden war. Oder ist es eine direktere Verbindung: "PC Netzwerkkarte RJ45 Buchse" - Patchkabel - "Telekom Speedport Hybrid" Auch dann erst einmal das Patchkabel tauschen. Vielleicht kommst Du damit schon weiter? Ansonsten wirklich mehr Details liefern. Viel Erfolg!
  25. Hallo @mgutt Ich habe mal die aktuellsten Infos zu meinem Motherboard gesucht und bei Kontron auch gefunden. Laut CPU Compatibility PDF (Stand 2019) zum Fujitsu D3644-B sind 8Core Xeon nicht vorgesehen. XEON E-21xxG 4-Core / 6-Core up to 95W XEON E-22xxG 4-Core / 6-Core up to 95W Laut Kontron (welche dieses Board nun seit kurzem Supporten) soll in den neuen CPU Infos 8Core nun doch möglich sein: 8-Core processors @ 95W TDP are supported; max. Turbo Mode may be slightly limited Wie gesagt kenne ich mich mit den Xeons nicht so gut aus, aber wenn ich richtig gefiltert habe, wäre das Maximum somit Intel Xeon E-2278G 8C/16T 3.4-5.0GHz Wenn lieferbar dann ab 830 Euro. Intel Xeon E-2288G 8C/16T 3.7-5.0GHz für ca. 740 Euro Bei den Preisen ist der Schritt zum Komplettaustausch Board & CPU nicht mehr weit. Ansonsten kämen für das Board wohl in Frage: Intel Xeon E-2286G 6C/12T 4.0-4.9GHz 95W ab ca. 610 Euro. Wobei mir aus Kostengruenden und TDP der Intel Xeon E-2246G 6C/12T 3.6-4.8GHz 80W ab ca. 400 Euro (laut GH nur ein Anbieter) oder der Intel Xeon E-2176G 6C/12T 3.7-4.7GHz 80W ab ca. 400 Euro sympatischer klingen. Dokus bei Kontron leider über FTP: ftp://ftp.kontron.com/Products/Motherboards/ExtendedLifeCycle/D3642-B_D3644-B/Documentation/Manuals_D364x-B_H.html
×
×
  • Create New...