mgutt

Moderators
  • Posts

    11265
  • Joined

  • Last visited

  • Days Won

    123

Posts posted by mgutt

  1. 1 hour ago, Issabanku said:

    weiß jemand oder hat jemand Erfahrung ob man ein ASRock

    H370M Pro4 Oder h370m/itx/ac  mainboard und einem i3-9100 CPU mit ECC tauglichem RAM betreiben kann?

    Nein geht nicht. Nur Xeon Chipsätze können das.

     

    Also C236, C246, W480, C256, etc

  2. 3 hours ago, Cupra-Bo said:

    was verstehst du unter Memory machen ? gibts da was in unraid zum Check ?

     

    Ja beim Booten kannst du den Memorytest auswählen.

     

    Welche Intel CPU und welche NVMe sind verbaut? Lass dir doch nicht alles aus der Nase ziehen. 🧐

  3. 34 minutes ago, ComExperte said:

    Nur um was zu lernen, habe ich das jetzt so verstanden die 2,5 Karten sind nicht RSS fähig?

    Korrekt. Eventuell kann man es nachträglich aktivieren. Dann müsste man mit ethtool probieren. 

     

    Ich meine das geht so:

    ethtool -K eth1 rxhash on

     

    Kann aber sein, dass falls das nicht klappt der Server offline geht und neu gestartet werden muss. Daher stoppe am besten erstmal das Array.

     

    Hier gibt es auch noch andere Varianten um das zu aktivieren:

    https://suricata.readthedocs.io/en/suricata-6.0.1/performance/high-performance-config.html

  4. Ich sehe keine Fehler. Hast du Container im br0 Netzwerk? Auch VMs? Bei br0 kann es zu Konflikten kommen, die zu einem Absturz führen können.

     

    Oder nutzt du ein AMD Board, das unter dem USB Bug leidet?

     

    Da was mit tsc in den Logs auftaucht wäre auch die Frage ob du eine Intel CPU verwendest, die unter dem hpet Bug leidet.

     

    Noch ein Grund können ASPM Fehler bezogen auf NVMes sein.

     

    Ansonsten Klassiker wie defekter RAM, etc.

     

    Letzteres würde ich zuerst mal prüfen. Also nur mit einem RAM Modul Booten und den Memory Test machen. Dann beim nächsten usw.

     

     

  5. 13 hours ago, nikeee said:

    SMB werde ich bei dem Use-Case nicht einsetzen (eher (S)FTP und HTTP). Daher wird's vielleicht auch ein simpler Webserver mit aggressivem Caching.

    Dann ist es "simpel". Pack die Daten der Website auf die HDDs und vor dem zb Apache Webserver Container lässt du einen Nginx Container alle Anfragen in den Cache schreiben. 

     

    Du musst dann vermutlich /var/nginx/cache vom Container auf den Cache des Hosts verweisen lassen und dann brauchst du nur noch ein Skript, dass jeden Tag / alle paar Stunden aufräumt. Also wenn größer als X GB, dann lösche Y GB an alten Dateien.

     

    Für SSHFS wird es komplizierter:

    https://serverfault.com/questions/293811/is-it-possible-to-set-the-cache-size-for-fuse-and-or-sshfs

     

    Scheinbar kann man nur die Zeit, aber nicht die Größe festlegen?! Falls doch, könnte man einen Mount von /mnt/cache/sharename/sshfs_mount nach /mnt/disk1/sharename/daten erstellen. Wobei die Frage ist, wohin der cached. Wenn das nach /tmp geht (RAM), müsste man noch den passenden Unterordner auf die SSD mounten.

  6. Führe bitte das auf beiden Servern aus:

    egrep 'CPU|eth*' /proc/interrupts

     

    Erhältst du als Antwort bei den 10G Karten mehrere CPUs? Muss ungefähr so aussehen:

    CPU0       CPU1       CPU2       CPU3       CPU4       CPU5       CPU6       CPU7       CPU8       CPU9       CPU10      CPU11
     128:   29913308          0          0          0          0          0          0          0          0          0          0          0  IR-PCI-MSI 524288-edge      eth0
     129:          0   11210660          0          0          0          0          0          0          0          0          0          0  IR-PCI-MSI 524289-edge      eth0
     130:          0          0   13256826          0          0          0          0          0          0          0          0          0  IR-PCI-MSI 524290-edge      eth0
     131:          0          0          0    7000893          0          0          0          0          0          0          0          0  IR-PCI-MSI 524291-edge      eth0
     132:          0          0          0          0   19946721          0          0          0          0          0          0          0  IR-PCI-MSI 524292-edge      eth0
     133:          0          0          0          0          0   15990550          0          0          0          0          0          0  IR-PCI-MSI 524293-edge      eth0
     134:          0          0          0          0          0          0   19140087          0          0          0          0          0  IR-PCI-MSI 524294-edge      eth0
     135:          0          0          0          0          0          0          0   11455140          0          0          0          0  IR-PCI-MSI 524295-edge      eth0
     136:          0          0          0          0          0          0          0          0          6          0          0          0  IR-PCI-MSI 524296-edge      eth0

     

    In meinem Fall sind das 12 CPU Threads, daher 12 Interrupts.

     

    Wenn das auf beiden Seiten gegeben ist, dann können die 10G Karten RSS (Receive Side Scaling).

     

    Dann kannst du dir den Config Editor installieren und über Tools die /boot/config/smb-extra.conf auf dem Stick bearbeiten.

     

    Hier fügst du nun folgende Zeilen ein um Multichannel und RSS bei der Karte zu aktivieren:

    server multi channel support = yes
    interfaces = "<IPvon10GKarte>;capability=RSS,speed=10000000000"
    aio read size = 1
    aio write size = 1

     

    Das natürlich bei beiden Servern. Beispiel:

    image.png.e8a16a6f127659a6364fa6a1552154d3.png

     

    Nun erstmal den SMB Mount trennen, danach auf beiden Seiten das Array stoppen und starten und den Mount wieder verbinden. Nun sollte RSS aktiv sein.

     

    Du kannst auch einen vorher/nachher Vergleich machen. Öffne dazu das WebTerminal und führe "htop" aus und starte einen großen Dateitransfer. Ohne RSS siehst du einen smbd Prozess, danach mehrere. Die Last wird nun auf mehrere CPUs verteilt.

     

     

  7. 7 hours ago, Enks said:

    Anderer Käufer berichtet, dass in seiner 28 Tb Version (Kauf im November 2021) White Label drin sind. Sprich gleiche Lotterie

    Nein, WD hat ganz offiziell die Red gestrichen. Früher standen die in der Produktbeschreibung im WD Store. Jetzt nicht mehr. Also da sind wirklich keine mehr drin.

     

    7 hours ago, Enks said:

    Was meinst du mit "gebrauchten" HDDs?

    WD verkauft im eigenen Store auch B Ware. Also Retouren anderer Kunden dürften das sein.

  8. 27 minutes ago, nikeee said:

    könnte es ja davon gebrauch machen und nicht nur Blöcke, sondern auf eine intelligentere Art Daten in den Cache schieben (z. B. über Zugriffsmuster oder durch Kopieren der gesamten Datei; wäre letztendlich nur ein Implementierungsdetail).

     

    Nicht ganz perfekt, aber man könnte das Mover Tuning Plugin verwenden und dort nach Dateialter verschieben lassen:

    Screenshot_20211126_180737.thumb.jpg.e3511d5fe89d8c0f34d65a8319739e45.jpg

     

    Sagen wir mal, man stellt 14 Tage ein. Und nun lässt man täglich ein Skript alle Dateien auf dem Cache per "touch" vom Datum her gleich setzen, wie das Access Datum. Wobei ich nicht weiß, ob Mover Tuning das Access Datum bei jedem Durchlauf aktualisiert?!

     

    Alternativ müsste man was über SMB Logs lösen. Also alle Zugriffe mitloggen und an Hand der Logs die Zeitstempel aktualisieren.

     

    Komplett live alle Dateizugriffe auf dem Cache überwachen, würde zu viel CPU Leistung kosten.

  9. 3 minutes ago, willi.butz said:

    Es gibt NBB ein Angebot für die KIOXIA EXCERIA PLUS G2 SSD 1TB M.2 PCIe 3.0 x4 NVMe 

    Nach Abzug für eff. 70,59€ zzgl. Versand. Würde 2 bestellen und als Cache Pool verwenden.

    Da gibt es noch keine Erfahrungswerte für in unRAID. Die Frage ist ob die Ärger unter Linux macht zb wegen ASPM.

     

    Ist in jedem Fall mit DRAM und SLC Cache, also ein gutes Modell. Hat im Vergleich zur 970 EVO statt 600TBW aber "nur" 400TBW.

     

    Gibt es schon Tests zur Kioxia, wie schnell die ist, wenn der Cache aufgebraucht wurde bzw wie groß der ist?

     

     

  10. 13 minutes ago, neuer_unraider said:

    Kann ich bei meinem alten Mainboard einfach 2x diese PCIe Adapter hier einbauen und normale NVMe M.2 SSDs nutzen? (habe nämlich keinen einzigen M.2 Anschluss nativ am Mainboard).

    https://www.amazon.de/Cablecc-Express-Adapter-Halterung-schwarz/dp/B096K72MGT

    Normal ja. Es gibt manchmal nur Ausnahmen, dass zb ein PCIe Slot deaktiviert wird, wenn eine GPU installiert wird oder bestimmte SATA Buchsen genutzt werden. Musst du mal in der Anleitung schauen.

  11. 19 minutes ago, neuer_unraider said:

    Der Deal ist ja einfach mal extrem attraktiv!

    Normal ^^

     

    15 € pro TB ist so der Standardkurs für White Label im Angebot.

     

    20 minutes ago, neuer_unraider said:

    Sind die Platten darin 24/7 geeignet?

    Alle Platten sind 24/7 geeignet. Siehe Backblaze, die viele Jahre Consumer Platten genutzt haben.

     

    21 minutes ago, neuer_unraider said:

    Kann man die einfach so ausbauen und per SATA3 anschließen?

    Ja, aber manche Netzteile sind nicht richtig verkabelt und brauchen daher einen Adapter von Molex auf PowerSATA, sonst läuft die Platte nicht an, weil 3.3V anliegen.

     

    22 minutes ago, neuer_unraider said:

    Wo steht da was zum RMA?

    Garantie ist Glückssache. Ich würde die Gehäuse aufheben und im Falle des Defektes wieder einbauen. Man muss aber auch die Ersparnis berücksichtigen. Mir ist die Garantie jedenfalls egal. Von der Ersparnis kann ich mir zig neue Platten kaufen (habe 8 Stück).

     

    22 minutes ago, neuer_unraider said:

    Sind die Platten CMR?

    Ja.