Ford Prefect

Members
  • Posts

    4298
  • Joined

  • Last visited

  • Days Won

    10

Everything posted by Ford Prefect

  1. Soweit ich die Specs des MB lese, wird ECC-Unterstützt, teilweise...und dann nur mit nem PRO Prozessor. Kingston hat einen eigenen Konfigurator...MB eingeben und das kompatible RAM von Kingston finden, sollte dort klappen
  2. Eigentlich ist er das, da er auffindbar ist. Ein PCIex4 Slot reicht....Wie oben schon erwähnt nutze ich eine Quad...jeder Port ist einzeln durchreichbar.
  3. Du hast im Moment 2x Parity (mehr geht im Array nicht) und 2x Daten im Array. Der Cache-Pool ist ein zfs mirror, also auch komplett redundant Nimmst Du eine SSD ins Array hast Du 3x Daten - damit ist die Redundanz im Array geringer als vorher...mit dann nur einer SSD im Cache verlierst Du auch da Performance und Redundanz Edit: Du kannst auch diesen Pool simultan als als Cache nutzen. ...einfach grössere Disks nehmen...SSDs gibt es auch in 4TB zu inzwischen annehmbaren Preisen...HDDs mit 20+TB sind auch verfügbar.
  4. Grundsätzlich besser wäre es, der VM einfach eine echte Netzwerkkarte durchzureichen, die Du dann an den entsprechend konfigurierten Switch-Port hängst. Ich habe für solche Zwecke extra ne i350-T4 eingebaut. Selbst wenn Du dem unraid Host auf dem vlan keine IP konfigurierst (geht das überhaupt? - noch nie probiert) wäre der Host auf dem (v)LAN...mit IP sowieso und daher nicht sicher.
  5. ...hast Du / ist die Shelly Dose kalibriert?
  6. Ahhh, dann war es Adaptec...thx!
  7. Richtig, ich bin einfach von nem Megaraid ausgegangen.. @Ayitoswoher ist der Controller und was für einer ist es genau? Kann auch ein China Fake sein, wenn neu und billig geschossen in der Bucht... Edit: ...und schick mal Deine Diagnostics, wenn es ein HBA ist. Edit2: das ist Dein Faden im Luxx? ... mal sehen was Du da raus bekommst...alternativ zu Ubuntu auch Fedora Ich bin unsicher, ob bei den Neuesten nicht sogar ein umschalten in den IT-Mode (nicht JBOD) per BIOS möglich ist...weiss aber nicht, ob das bei Broadcom war.
  8. Das ist kein HBA, sondern ein Raid Controller....wie hast Du die SSDs dort eingebunden...Als JBODs, also ohne Raid-Mode oder hast Du einen Raid-Mode versucht? Raid-Controller sind nicht für unRaid, da im Array mit Parity ein spezieller Software-Raid Mode benutzt wird...auch in pools wird Software Raid benutzt....und gerade bei zfs ist das ein NO-GO, ein Raid Controller Bei schnellen SSDs sollten schon 2 in einem striped Volumen reichen um ne 10G Verbindung auszulasten. Interessant wird die performance beim Scrub.... Hat der Controller noch nen Cache? Du solltest ihn, auch bei TrueNAS/FreeNAS nicht als Raid-Controller einsetzen. -> umflashen in IT-Mode
  9. Nein, es ist umgekehrt. Mit macvlan ist de Fritte zufrieden, mit ipvlan nicht...nur macht(e) macvlan eigene Probleme, daher der Hinweis in der 6.12.4
  10. Das ist nicht der unraid Stick, weil der nicht BTRFS formatiert ist...sondern md1 ist Disk1 im Array...nach Deinem Screenshot zu urteilen, die Samsung Evo SSD. Das allerdings scheint im ZFS-Pool zu sein. Ob ZFS oder Samba / smbd Problem vermag ich nicht zu sagen.
  11. ...probier mal beim Host-Path für den Ordner das letzte Forward-Slash ("/") wegzulassen, zB "/mnt/user/gamesordner" und nicht "/mnt/user/gamesordner/"
  12. Der Docker ist schon im Docker-Hub vorhanden: https://hub.docker.com/r/a1ex4/ownfoil In den unraid Apps ist eh immer nur ein Template, quasi as Wrapper, um einen Docker inkl. der notwendigen Parameter aus dem Docker Hub in unraid zu installieren. @cz13hat Dir oben verlinkt, wie Du einen Docker vom Hub einfach selbst installierst, ohne Umweg über die Apps. ...lies Dich ein...ein template um über die unraid Apps zu installieren ist nicht nötig. Im der Beschreibung des Docker selbst steht, was Du noch alles machen musst, nachdem der Docker installiert ist...das geht auch mit dem App-Template nicht.
  13. In dem Screenshot oben ist nur eine Ethernet Karte zu sehen....auch eine i211, aber ich denke das ist onboard...denn die onboard ist auch eine i211, soweit ich sehe und die IMMO Group würde auch dafür sprechen. Wenn nur die onboard zu finden ist, ist deine Karte wahrscheinlich DOA.
  14. unraid läuft im RAM. Ein "normal" installiertes Paket ist nach einem Reboot wieder weg. Daher der Hinweis auf das Plugin umd die pakete auf dem Stick zu parken und beim boot neu zu installieren.
  15. ...es gibt TLP wohl auch als Slackware Paket. @ich777 hat ein Plugin dafür, um Slackware Pakete auf den unraid Stick zu laden und beim start zu installieren ... ob es dann das tut, was es soll bleibt zu überprüfen.
  16. ...oder screen installieren und nutzen: https://wiki.ubuntuusers.de/Screen/
  17. .. Installiere am besten das unassigned devices Plug-in. Bevor Du das Array konfigurierst und die Platten also noch einzeln im System sind, wird Dir das Plug-in sagen, ob da ein Dateisystem drauf ist und Du kannst sie damit mounten und anschauen. Die Parity hat eben kein Dateisystem.
  18. Das ist doch super. Wobei SMB nochmals overhead erzeugt. Netzwerk allein/pur am besten erstmal mit iperf testen. Edit: wobei...das steht 1Gbit/s, nicht 1Gbyte/sec ... was sind das für Array Disks??
  19. Die Parity ist die einzige Disk, die nicht formatiert ist. Packe alle anderen ex-Array Disks wieder in das Array. Reihenfolge ist ohne Parity egal. Dann das Array starten, dann stop und Parity wieder einbauen und als solche konfigurieren. Nach dem Start wird Parity neu gebaut/befüllt.
  20. @eFrame OK, ich glaube ich hab da gestern mein Gehirn in nem anderen Modus gehabt. Das stimmt natürlich nicht. Dem Switch ist es egal, managed oder unmanaged, wir gross die L2MTU ist, solange er hardwareseitig die Frame-Grösse unterstützt (max L2 MTU). Die sollte eigentlich bei einem Switch, der Jumbo-Frames können soll gross genug sein, kann aber je nach Modell/Switch Chip unterschiedlich sein. Die MTU, welche Du einstellst ist übrigens die L3-MTU, also IP-Layer...L2 Frames kommen dann noch dazu. Daher auch Unterschiede im Support bei den Switch Chips (kaskadierende VLANs u.ä. erhöhen die Frame-Länge auf L2-level). -> https://help.mikrotik.com/docs/display/ROS/MTU+in+RouterOS?preview=/21725296/135856347/MTU_general_explanation.jpg Hier mal zwei Beispiele aus unterschiedlichen Geräten: Also 1500 ist Standard und sollte Dir die 10G Performance bringen. Ob Dir 9000 was bringt kannst Du ja versuchen...nötig ist es nicht...das war der Hit bei TokenRing und 100M-Ethernet Verbindungen und bleibt halt in den Köpfen drin Das wichige ist, dass Geräte es unterstützen müssen und das auch alle Endpunkte, die Pakete generieren oder empfangen sollen, gleich eingestellt sind. Gibt hier auch Beispiele, MTU hin oder her, wo User überhaupt nicht in die Gegend von 10G Performance kommen....Es ist nicht das Heilmittel, wenn man nur 6G schafft...eher ob man 9.6Gbps oder 9.7Gbps schafft.
  21. Stell alles auf default....im Zweifel ist das 1500
  22. Die MTU wird nie "zwischen" zwei Endpunkten konfiguriert, sondern immer für den eigenen, lokalen Endpunkt. Das ist ein unmanaged Switch und daher kann man an den Ports keine MTU konfigurieren. Daher würde der Traffik, zwischen unraid + Switch bzw PC + Switch jeweils wieder auf 1500er Pakete "zerhackt werden...die 9000er MTU der Endgeräte wäre also unwirksam. Im übrigen komme ich auch bei MTU 1500 in meinen Systemen auf volle Leistung.
  23. neue IP -> neuer Server (denkt Windows) - siehe den Hinweis von @MAM59