Jump to content

mgutt

Moderators
  • Posts

    11,366
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. At the moment the two default VM network adapters have the following names: This is really confusing as "virtio" and "virtio-net" are using the same virtual network adapter "virtio-net-pci" (which cost me hours to find out). The only difference is that "virtio-net" disables "vhost-net" access. My suggestion is to use the real name, but with different notes (and its time for more adapters of course):
  2. Ok, ich habe endlich den Unterschied herausgefunden: Unraid Adaptername : virtio QEMU Adaptername: virtio-net-pci Treiber in VM: virtio_net Unraid Adaptername : virtio-net QEMU Adaptername virtio-net-pci Treiber in VM: virtio_net Unterschied nicht gesehen? Richtig, es gibt auch keinen. Beide sind die selben virtuellen Adapter, die mit den selben Treibern genutzt werden. Der Unterschied liegt ganz woanders. QEMU erlaubt optional, dass der "virtio-net-pci" Adapter direkt über den Kernel des Host schreiben kann. Und genau diese Option namens "vhost=on" ist nur bei Unraids "virtio" aktiv, was man in den VM Logs sehen kann: Und genau deswegen ist die Performance auch so viel besser. Es gibt dazu ein paar interessante Artikel: https://insujang.github.io/2021-03-15/virtio-and-vhost-architecture-part-2/ https://www.redhat.com/en/blog/introduction-virtio-networking-and-vhost-net Die Entwickler haben wohl festgestellt, dass ein paar VMs damit nicht klar kommen. Zumindest sprechen sie in der Hilfe von "stability", weshalb sie "virtio-net" als Standard voreingestellt haben, wo vhost deaktiviert ist. Wer möchte, darf das aber gerne ignorieren und "virtio" nutzen. Falls jemand eine Stellungnahme von Limetech dazu finde, welches OS hier eigentlich der Grund für diese Entscheidung war, darf sie gerne verlinken. Ich konnte jedenfalls nichts finden. Da ich übrigens die Namen sehr verwirrend finde, habe ich einen Bug Report eröffnet:
  3. Both methods work, but with host it's more stable in an ipv6 network. I tried to use the custom network solution with ipv6, but it fails if my router gets a new ipv6 prefix. Sadly it's not possible to create custom networks with "dynamic" ipv6 prefixes or automatically update the fixed ipv6 of a container. I will update my post and show the "host" method.
  4. Stimmt. Bei deiner Variante ist ja address ein Kindelement von source, hatte ich übersehen.
  5. Dein Netzwerkadapter (Network Interface Card). Er meint damit die Einstellungen des Netzwerkadapters über den Gerätemanager. Dort kann man verschiedene Optionen einstellen wie zb 1G fest einstellen statt automatisch oder die MTU. Aber da du das Problem ja sowohl über WLAN als auch LAN hast, wäre das schon komisch, wenn es daran liegt. Aber probieren geht über studieren
  6. Both settings use the same "virtio-net-pci" device as "virtio-net" is only an alias: qemu -device help ... name "virtio-net-pci", bus PCI, alias "virtio-net" The only difference is that the slower "virtio-net" setting removes the "vhost=on" flag (open the VM logs to see this setting): virtio-net -netdev tap,fd=33,id=hostnet0 \ -device virtio-net,netdev=hostnet0,id=net0,mac=52:54:00:99:b8:93,bus=pci.0,addr=0x3 \ virtio -netdev tap,fd=33,id=hostnet0,vhost=on,vhostfd=34 \ -device virtio-net-pci,netdev=hostnet0,id=net0,mac=52:54:00:99:b8:93,bus=pci.0,addr=0x3 \ And it's absolutelly logic that this causes a bad performance for the "virtio-net" setting as QEMU then creates an additional "virtio-net device": https://www.usenix.org/sites/default/files/conference/protected-files/srecon20americas_slides_krosnov.pdf Instead of sharing the memory with the host: A good write-up can be found here: https://insujang.github.io/2021-03-15/virtio-and-vhost-architecture-part-2/ And now we understand the help text as well: Not sure about the stability thing, but if the Guest supports it, I would use "virtio", which enables vhost. As I think the names of the adapters are confusing I opened a bug report:
  7. Wir sprechen von Windows. Da ist alles möglich ^^ Übrigens kann man iperf auch auf der Fritz!Box aktivieren: https://stadt-bremerhaven.de/fritzbox-durchsatz-des-wlan-mit-iperf-messen/ Ich glaube man braucht aber dann den iperf2 Client.
  8. Was haben die Anschlüsse mit der Anzahl der Pools zu tun? Von welchem Board und wie vielen HDDs, SSDs und NVMes sprechen wir denn? EDIT: Von dem QNAP TS-1079 Pro? Also du hast bereits 10 HDDs verbaut und daher keinen Platz mehr für SSDs oder was ist damit gemeint? Dann verbau doch zwei SATA SSDs über die zwei eSATA Anschlüsse. Daraus bildest du dann ein RAID für deine VMs und Docker. Schlussendlich würde ich aber mal über größere HDDs nachdenken um die Pools verkleinern und Bays freischaufeln zu können. Wobei das bei ZFS ja nur geht, wenn man erst mal alles wegsichert und einen neuen Pool erstellt. Das wäre denke ich über ein Script realisierbar. Man könnte zB per iptables auf eine Datei im RAM loggen lassen: https://superuser.com/questions/604998/monitor-tcp-traffic-on-specific-port/848966#848966 Und ein anderes Script startet dann zeitnah den Docker, wenn sich etwas in der Datei getan hat. Das ginge also sogar ohne spezielles WoL Paket. Die Frage ist nur, ob man wirklich alle Container pausieren lassen kann. Also zB ein Proxy Container oder Smart Home Container usw braucht man ja dauerhaft. Außerdem muss man sich dann noch überlegen wie man einen inaktiven Container erkennt, damit er zeitnah gestoppt wird. Ich denke die Variante den Container alles in den RAM schreiben zu lassen, ist da deutlich einfacher umzusetzen. Oder man macht sich wie gesagt gar keinen Kopf und packt gleich alles auf SSDs. Ein TR wird nicht für Unraid empfohlen, da es hohe Latenzen bei der Virtualisierung gibt. Mal davon abgesehen ist der genau das Gegenteil von Strom sparen. Und du brauchst auch gar nicht viele Lanes für HDDs. Eine HDD hat 100 bis 250 MB/s. Dh eine Lane reicht für 4 bis 10 HDDs.
  9. Wenn du alle USB Controller, also auch den wo der Unraid USB Stick dran hängt an die VM übergibst, kann das natürlich auch nicht gehen. Also bitte nur einen USB Controller an VFIO binden und diesen dann der VM durchreichen und nicht alle. Außerdem den Unraid Stick so umstecken, dass er nicht an dem durchgereichten Controller hängt. Das VM Template enthält nicht nur die ID, sondern auch bereits den Bus und das Device. Das siehst du wenn du die XML bearbeitest. Beispiel:
  10. Es gibt meiner Ansicht nach kein separates "Feature", was das freischaltet. Wichtig ist nur, dass die CPU neben x8x8 auch x4x4x4x4 unterstützt. Eine gewisse Aufteilung kann "jede" CPU, da man sonst nicht mehrere PCIe Slots eines ATX Boards über die CPU verwenden könnte. Zufälligerweise hatte ich Asrock mal gefragt welche Boards Bifurcation können, aber die haben dann auch nur mehr oder weniger aus der Anleitung vorgelesen: Matisse = Ryzen 3xxxx Pinnacle Ridge = Ryzen 2xxxx Die Antwort ist damit leider unvollständig, da nichts zu Picasso (3xxxG/U), Vermeer (5xxx) oder Renoir (4xxxG/U) geschrieben wurde. Aber klar ist, dass es wenn, die ganze Plattform es kann und nicht nur einzelne CPU Modelle. Beim MSI X570 Godlike kann man mehr oder weniger herauslesen, dass der 2xxxG kein X8X4X4 kann: https://download.msi.com/archive/mnu_exe/mb/E7C34v1.2.pdf Aber in den technischen Daten wird zumindest der 4000G mit dieser Funktionalität erwähnt: Jetzt müssen wir nur noch herausfinden welche X4X4X4X4 können, wobei du wissen musst, dass wenn die CPU X8X8 kann und das sollte denke ich quasi alle können, dann sollte zumindest ein Dual M.2 Bifurcation Adapter gehen. EDIT: Hier wird bestätigt, dass der 3xxxG es auch nicht kann, da er sogar nur 8 Lanes für PCIE Slots übrig haben soll: https://www.reddit.com/r/Amd/comments/h0t3jk/pcie_bifurcation_and_ryzen_g_pro/ EDIT: Hier hat jemand das mit einem 4750G getestet: https://www.hardwareluxx.de/community/threads/ein-e-ryzen-7-pro-4750g-desktop-workstation-entsteht.1274748/ Theoretisch geht es also, aber praktisch scheiterte es an unbekannten Dingen. Hier hat jemand auch nur 3 NVMe geschafft: https://tekdeeps.com/reviews-asus-rog-strix-b550-xe-gaming-wifi-and-ryzen-7-pro-4750g-introduction-of-motherboard-and-processor/ In der Anleitung von dem Board ist nur von 5xxx und 3xxx die Rede (was nicht 3xxxG einschließt): Was wissen wir nun: Wenn es ein Ryzen mit iGPU können sollte, dann nur der 4xxxG (bzw der bald erscheinende 5xxxG). Wie viele NVMe gehen sollten, wissen wir damit zwar noch nicht, aber es müsste auf jeden Fall mehr als eine NVMe gehen, denn bei zwei Leuten gingen 3 von 4 NVMe. Hat das Gigabyte Board ein Menü für RAID? Weil sowohl bei Asus als auch bei Asrock muss man den RAID Mode dafür aktivieren. Das hatte mir Asrock damals nämlich auch geschrieben:
  11. Stimmt. Ich brauche ja nur die IMDB ID mit der Bitrate des Videos und der Länge abgleichen. Alles in Kombination sollte denke ich immer bei verschiedenen Versionen eines Filmes unterschiedlich sein. Audiokanäle und Untertitel muss ich dagegen ignorieren, da wie gesagt beide mit unterschiedlichen Regeln gerippt haben. Wenn das als Unterscheidungskriterium reicht, könnte ich mir die rechenaufwendige Erstellung des MD5 Hash sparen und der Ablauf wäre so: 1.) Beide Seiten erstellen einen neuen Share namens /MoviesSync und darin wird ein Ordner "/Softlinks" mit CHMOD 111 versehen 2.) In diesem Ordner werden Softlinks erstellt, deren Dateiname aus der IMDB ID, der Bitrate und der Länge des Videotracks besteht (welche man sich alle aus der Plex DB zieht) wie zB /MoviesSync/Softlinks/tt123456_01h35m_29.9mbit/ 3.) Diese Softlinks verweisen auf den real existierenden Film-Ordner wie zB /Movies/Filmname (2021)/ 4.) Der externe Server kann also nur auf den Filmordner zugreifen, wenn er selbst den Namen des Softlinks nachbilden kann Allerdings habe ich damit wieder ein Problem, da man alle drei Werte herausfinden kann, auch ohne, dass man den Film selbst mal gerippt hat, da viele Leute diese Werte im Internet veröffentlichen: https://forum.blu-ray.com/showpost.php?s=094c6ccc7a537be13200b1943c368b44&p=4243409&postcount=13
  12. Did you enable cache assets? (you should not) Your said RTSP. Doesn't it use Port 554? NPM listens only to port 80 and 443. If NPM should listen to 554 you need to: - open the port 554 on your router with NPM as your target - open the advanced config tab of the proxy host and add the following rule: listen 554; If this does not work we need to check the nginx.conf. This the nginx conf, created by NPM if no option has been enabled: # ------------------------------------------------------------ # example.com # ------------------------------------------------------------ server { set $forward_scheme http; set $server "127.0.0.1"; set $port 80; listen 80; listen [::]:80; server_name example.com; access_log /data/logs/proxy-host-2_access.log proxy; error_log /data/logs/proxy-host-2_error.log warn; location / { # Proxy! include conf.d/include/proxy.conf; } # Custom include /data/nginx/custom/server_proxy[.]conf; } As you can see it includes "/data/nginx/custom/server_proxy.conf", but this file needs to be created by the user. So it adds nothing. And it includes "conf.d/include/proxy.conf" which contains the following rules: add_header X-Served-By $host; proxy_set_header Host $host; proxy_set_header X-Forwarded-Scheme $scheme; proxy_set_header X-Forwarded-Proto $scheme; proxy_set_header X-Forwarded-For $remote_addr; proxy_set_header X-Real-IP $remote_addr; proxy_pass $forward_scheme://$server:$port; Why I'm posting this: Maybe it includes a rule or misses a rule which breaks video streaming. Try to search in the internet for an nginx.conf which works for security webcams and then we compare the rules.
  13. There is no easy fix possible as this is a limitation of docker itself: https://stackoverflow.com/a/51973512/318765
  14. This is something which will be removed in future Unraid versions. My suggestion: Run NPM as host and run all other containers as bridge.
  15. Auf jeden Fall. Bifurcation ist Bifurcation. Gigabyte hat selbst auch eine Karte, die ich aber noch nie irgendwo gesehen habe und die auch schlechter ist also die von Asus, weil die nicht zusätzlich 12V in 3.3V umwandelt: https://www.gigabyte.com/de/Enterprise/Accessory/CMT2014-rev-10 Dh wenn vier NVMe zu viel Strom über 3.3V vom Board ziehen, gehen die die vermutlich einfach aus. So zumindest eine Aussage von einem User bei Computerbase. Gigabyte hat im Kleingedruckten auch extra erwähnt, dass es nur für Server-Boards gedacht sei. Also sie selbst haben gar kein offizielles Produkt für Consumer Boards mit Bifurcation. Damit können die sich aber nicht einfach aus der Affäre ziehen. Entweder bieten sie die Option laut Anleitung / BIOS an oder eben nicht. Ja, ich baue auch Unraid Server für meine Kunden und supporte diese. Ok, ich erinnere mich. Sorry, wenn ich das nicht direkt im Gedächtnis hatte. Zu viele verschiedene Threads hier im Forum Das war sie ja schon nicht wegen deiner CPU Kern Verteilung. Ist die Frage ob das überhaupt an der NVMe lag. Ist ja aber auch egal. Du kannst das natürlich so aufteilen, wie es dir am liebsten ist. Und klar, physisch durchschleifen ist noch mal besser in Sachen Performance. Prefer ist wie Only, nur dass der Mover bei Only aus ist. Dh wenn warum auch immer Dateien auf den HDDs erstellt wurden, dann werden die niemals auf den Cache Pool verschoben. Auch ein Nachteil bei Only ist, dass wenn die SSD vollläuft, dass es dann zum "Platte voll" Fehler kommt. Bei "Prefer" schreibt er einfach weiter auf den HDDs. Bei VM Images ist das kein Thema, weil das ja eine große Datei ist, die nicht neu erstellt wird. Das ist nur relevant bei Shares, wo man neue Dateien hochlädt. So gesehen ist Only also ein abgespecktes Prefer. Einen Vorteil habe ich in Only noch nicht gesehen, daher empfehle ich es auch keinem. Genauso wenig wie No.
  16. Die nützt mir aber nichts, weil sich diese nicht nur die DVD, Blu-Ray und 4K teilen, was man ja noch an der Auflösung erkennen könnte, sondern es gibt ja oft mehrere Versionen eines Films auf Blu-Ray zB Remaster, Extended, usw. Es soll aber nicht möglich sein, dass jemand, der die alte Version von zB Fight Club besitzt, in der Lage ist die Fight Club Remaster des anderen herunterzuladen und das selbe gilt eben auch bei Herr der Ringe vs Herr der Ringe Extended, die sich ebenfalls die selbe IMDB ID teilen. Dann ist mir aber klar geworden, dass bei meinem bisherigen Plan ja jeder alles herunterladen kann, wenn er einfach sein Script ändert. Aus dem Grund denke ich über diese Lösung nach: 1.) Beide Seiten generieren aus dem Video Track aller MKVs den MD5 Hash 2.) Beide Seiten erstellen einen neuen Share namens /MoviesSync und darin wird ein Ordner "/Softlinks" mit CHMOD 111 versehen 3.) In diesem Ordner werden Softlinks erstellt, die die MD5 als Namen tragen wie zB /MoviesSync/Softlinks/317370c74c1bf17a97474826006d11fc/ 4.) Diese Softlinks verweisen auf den real existierenden Film-Ordner wie zB /Movies/Filmname (2021)/ 5.) Der externe Server kann also nur auf den Filmordner zugreifen, wenn er selbst die MD5 kennt (also aus seinem Video Track den MD5 Hash generiert hat), da er die ganzen Softlinks in /MoviesSync/Softlinks sonst nicht sehen kann. Dann könnte jeder nur das herunterladen, was er selbst auch mal gerippt hat. Ich habe das auch schon getestet (über SMB). Wenn ich da dem Ordner /chmod111 das chmod Recht 111 gebe, dann kann ich diesen Ordner nicht öffnen: Ich kann aber, wenn ich den Pfad kenne und direkt aufrufe, auf Dateien und Unterordner direkt zugreifen und wenn die Rechte des Unterordners passen, sogar Dateien und Ordner darin erstellen: Das sollte entsprechend auch mit Soflinks und dem rsync daemon funktionieren. Ja klar. Ich dachte nur, falls sich der andere für das "warum" interessiert. Ist aber vermutlich nicht wichtig. Man könnte den anderen dann ja einfach fragen.
  17. Ich würde erstmal mit MTU 1500 testen. Meist liegt es aber an anderen Dingen, die ich hier beschrieben habe: https://forums.unraid.net/topic/97165-smb-performance-tuning/
  18. In unRAID und SMB stimmt das nicht. Mein Windows PC mit i5 ruckelte als ich noch kein SMB Multichannel mit RSS nutzte. Daher geht nichts über Single Thread Leistung. Noch eine Frage offen gewesen?
  19. Docker sind wie kleine VMs. Es ist statistisch gesehen quasi unmöglich, dass zB 10 von 10 Docker Container dauerhaft wirklich nichts schreiben. Ich würde zB sagen, dass 80% aller Docker regelmäßig was in Logs schreiben und ca 20% haben den Healthcheck aktiv. Aus dem Grund deaktiviere ich zB den Healthcheck aller meiner Container. Siehe auch diesen Bug Report (dessen Ursache bei Docker liegt): https://forums.unraid.net/bug-reports/stable-releases/683-unnecessary-overwriting-of-json-files-in-dockerimg-every-5-seconds-r1079/ Aber das ist nur ein Teil des Problems. Ein User hat zB mal alle Schreibvorgänge aller seiner Container ausgewertet und sie "bekämpft", konnte aber auch nur einen (großen) Teil davon in den Griff bekommen: https://forums.unraid.net/topic/110999-guide-on-how-to-stop-excessive-writes-destroying-your-cache-ssd/ Komplett auf Null ist echt schwer. Da müsste man im Detail jeden Container analysieren und zB über RAM Disks arbeiten. Eine SSD als Cache ist bei ZFS eigentlich unnötig bzw bringt nicht viel. ZFS nutzt die SSD wie eine RAM Erweiterung. Dh wenn man Dateien aus dem Pool liest, werden diese niemals ausschließlich von der SSD geladen. Die Situation, dass bei einem ZFS Pool nur die SSD läuft, gibt es nicht. Aus dem Grund habe ich zb von Syno zu Unraid gewechselt, da das bei deren SSD Cache auch so ist. Ich wollte, dass die HDDs stehen können und genau das bietet Unraid beim Array + SSD Cache Pool. Das geht bei Unraid, weil dort die Dateien (bei Prefer) ausschließlich auf der SSD liegen. Eine Abhängigkeit zu den HDDs gibt es dann nicht. Der Mover ist zB nichts anderes als ein Verschieben der Dateien mit rsync. Lange Rede kurzer Sinn. Was du machen solltest: ZFS Pool oder BTRFS Pool mit SSDs Hier legst du deinen Hot Storage ab. Also appdata, vms, docker.img etc ZFS Pool mit HDDs oder Unraid Array Hier legst du deinen Cold Storage ab. Also Backups, Mediendateien, etc Der ZFS Pool würde natürlich immer vollständig anspringen, wenn eine Datei gelesen wird. Beim Unraid Array immer nur die entsprechende Datei. Willst du Sicherheit gegen Bitrot, würde ich das Unraid Array mit dem File Integrity Plugin nutzen. Das Plugin erstellt von allen Dateien Hashes und wenn sich der Hash ändert, kannst du dich darüber benachrichtigen lassen und die betroffene Datei aus deinem Backup wiederherstellen. Das ist natürlich nicht so zeitnah wie bei ZFS, aber bei einem Cold Storage ist das meiner Ansicht nach akzeptabel, wenn man dafür Strom sparen kann.
  20. Ich habe den Teil aus dem anderen Thread extrahiert und hier nun zusammengelegt. Wenn du magst kannst du den ersten Beitrag entsprechend anpassen. Versprichst du dir davon eine bessere Performance oder war es eher eine finanzielle Entscheidung, weil ein 2TB Cache zu teuer geworden wäre? Weil ich frage mich warum man das unbedingt teilen will. So eine NVMe hat ja schließlich massig IOPS.
  21. Asus listet dort nur Asus Mainboards auf 😉 Du sprichst dort von Bifurcation, steckst die Karte dann aber in irgendeinen Slot?! Bifurcation funktioniert nur im obersten PCIEX16 Slot und auch nur, wenn der auf 4x X4 eingestellt wird. Alle anderen Slots hängen am Chipsatz und unterstützen kein Bifurcation (hätten dafür ja auch gar keine Lanes). Wenn ich das richtig verstanden habe, geht die GPU nicht im PCIEX4 Slot, obwohl du das im BIOS eingestellt hast? Dann würde ich das Board solange zum Verkäufer zur Reparatur zurücksenden, bis du vom Kauf zurücktreten kannst und dann holst du dir eben ein Asus Board. Ich mein du kannst doch nicht stumpf akzeptieren, dass du ein fehlerhaftes Produkt erhältst und das mit noch mehr Geld ausgeben ausgleichst (QNAP Karte). Das muss einfach gehen. Das mit der NVMe Bandbreite am Chipsatz ist ja noch so ein Punkt, der komisch ist.
  22. Dann ist es auch kein Wunder, wenn die Karte nicht funktioniert. Die Quad Bifurcation Karte ist 4x X4 und im BIOS muss man das einstellen, ansonsten wird der X16 Slot einfach nur auf X4 gedrosselt und es wird nur eine NVMe erkannt. Bifurcation ist Bifurcation. Wenn das nicht geht, wäre das ein Bug vom Mainboard. Die Karten besitzen sonst meiner Ansicht nach nichts, was irgendwie inkompatibel sein könnte. Und was sagt Gigabyte dazu oder die einschlägigen Foren? Das kann doch nicht normal sein. Sicher, dass die NVMe nicht einfach zu heiß wurde und sich selbst gedrosselt hat?
  23. Das Board hat zwei voll nutzbare M.2 Slots. Wie kommst du darauf, dass der M.2 Slot des Chipsatzes limitiert sei? Der ist ebenfalls X4. Da geht zwar alles über 4 Lanes zur CPU, aber solange nicht alles was am Chipsatz hängt, parallel voll ausgelastet wird, ist da gar nichts limitiert. Wir sprechen hier immerhin von 4 GB/s. Deine 6 HDDs mit Ihren popeligen 1 GB/s, müssten da schon einen Parity Check machen, damit das in einem Benchmark zu sehen ist (und dann auch nur da). Das ist ziemliche Geld- und Stromverschwendung. Dein Board unterstützt Bifurcation: Du kannst also eine ganz billige Bifurcation Karte wie diese verbauen: https://www.idealo.de/preisvergleich/OffersOfProduct/6789513_-hyper-m-2-x16-v2-asus.html Oder die: https://www.idealo.de/preisvergleich/OffersOfProduct/5831481_-pcie-m-2-adapter-aoc-slg3-2m2-supermicro.html Die von QNAP ist eine mit einem integrierten PCIe Switch Controller. Das verbaut man nur, wenn das Board kein Bifurcation kann. Hast du nicht. Nutze die zwei bereits vorhandenen M.2 Slots und du hast volle Bandbreite. Im Gegenteil. Die kleine 128GB wird so einen kleinen SLC Cache besitzen, dass die deutlich langsamer ist als die 1TB, insbesondere wenn die voll wird. Du machst dir da zu viele Gedanken. Hattest du schon mal eine SATA SSDs im Einsatz und war die "super lahm"? Wohl kaum. Und die hat nur einen Kommunikationskanal. Eine NVMe hat 8. Im RAID0 wären es 16 (8 hin und 8 zurück = 2x 4 Lane-Paare). Die bekommst du nicht überlastet. Außer es ist eine Billig-QLC-NVMe ohne SLC Cache und ohne DRAM etc. Aber wenn du ein ganz normales Modell wie eine WD 750N, Samsung Evo oder Crucial P5 kaufst, bringst du die nicht mit einem bisschen VM oder Docker ans Limit. Da lacht die drüber. Ganz viele NVMe machen meiner Ansicht nach nur Sinn, wenn man den VMs jeweils eine NVMe physisch durchschleifen möchte. Aber da noch extra was unterverteilen macht keinen Sinn. Darüber würde ich mir erst Gedanken machen, wenn du da wirklich was bemerkst. Meine Empfehlung wäre daher: 1x 2TB NVMe und zeitnahe Backups oder 2x 1TB NVMe im RAID0 und zeitnahe Backups oder 2x 2TB NVMe im RAID1 und wöchentliche Backups
  24. Da die Fehler wirklich überall auftauchen, sogar direkt im Boot-Bereich der HDD, würde ich sagen, dass das nicht an der HDD liegt, sondern eher am Kabel / der Verbindung: Jul 31 13:22:26 UnRaid emhttpd: shcmd (498): /usr/sbin/cryptsetup luksClose md5 Jul 31 13:22:26 UnRaid kernel: md: disk5 read error, sector=0 Jul 31 13:22:26 UnRaid kernel: md: disk5 read error, sector=16 Jul 31 13:22:26 UnRaid kernel: Buffer I/O error on dev md5, logical block 2, async page read ### [PREVIOUS LINE REPEATED 1 TIMES] ### Jul 31 13:22:26 UnRaid kernel: md: disk5 read error, sector=32 Jul 31 13:22:26 UnRaid kernel: Buffer I/O error on dev md5, logical block 4, async page read Jul 31 13:22:26 UnRaid kernel: md: disk5 read error, sector=64 Jul 31 13:22:26 UnRaid kernel: Buffer I/O error on dev md5, logical block 8, async page read Jul 31 13:22:26 UnRaid kernel: md: disk5 read error, sector=128 Jul 31 13:22:26 UnRaid kernel: Buffer I/O error on dev md5, logical block 16, async page read Jul 31 13:22:26 UnRaid kernel: md: disk5 read error, sector=256 Jul 31 13:22:26 UnRaid kernel: Buffer I/O error on dev md5, logical block 32, async page read Jul 31 13:22:26 UnRaid kernel: md: disk5 read error, sector=512 Jul 31 13:22:26 UnRaid kernel: Buffer I/O error on dev md5, logical block 64, async page read Jul 31 13:22:26 UnRaid kernel: md: disk5 read error, sector=1024 Jul 31 13:22:26 UnRaid kernel: Buffer I/O error on dev md5, logical block 128, async page read Jul 31 13:22:26 UnRaid kernel: md: disk5 read error, sector=2048 Jul 31 13:22:26 UnRaid kernel: Buffer I/O error on dev md5, logical block 256, async page read Jul 31 13:22:26 UnRaid kernel: md: disk5 read error, sector=4096 Jul 31 13:22:26 UnRaid kernel: Buffer I/O error on dev md5, logical block 512, async page read Jul 31 13:22:26 UnRaid kernel: md: disk5 read error, sector=8192 Jul 31 13:22:26 UnRaid emhttpd: shcmd (499): /usr/sbin/cryptsetup luksClose sdg1 Jul 31 13:22:26 UnRaid kernel: mdcmd (43): stop Dass keine SMART-Werte in den Logs stehen, ist auch komisch. So als könnte Unraid diese nicht wegen USB auslesen. Führe mal über das Web Terminal das Kommando aus, um dir die SMART Werte anzeigen zu lassen: smartctl -A /dev/sdf Nun versetz die Disk in den Spindown und check mit dem Kommando den Power-State: hdparm -C /dev/sdf Hier aus deinem Report die SMART Werte. Die sind wichtig und stehen alle auf Null: 5 Reallocated_Sector_Ct PO--CK 200 200 140 - 0 7 Seek_Error_Rate -OSR-K 200 200 000 - 0 196 Reallocated_Event_Count -O--CK 200 200 000 - 0 197 Current_Pending_Sector -O--CK 200 200 000 - 0 198 Offline_Uncorrectable ----CK 200 200 000 - 0 Der hier bezieht sich auf die Verbindung zwischen Mainboard und HDD: 199 UDMA_CRC_Error_Count -O--CK 200 200 000 - 21 Diesen gilt es zu beobachten. Der sollte nicht weiter steigen, weil das sonst bedeutet, dass weiterhin ein Verbindungsfehler vorhanden ist. Meine Glaskugel sagt bis hier hin, dass USB schlafen geht und die Verbindung zur Platte kurz komplett weg ist. Nutzt du Stromsparmechanismen im BIOS oder hast du in Unraid powertop installiert oder sonst irgendwas in der Richtung eingestellt? Dann allgemein: Verschlüsselung und USB und Array und kein Backup (?) sind eine ganz böse Kombination.
  25. Die Kerne selbst tun zwar nichts, aber die CPU selbst wird ganz normal über die Spannungswandler mit Strom versorgt. Das Paket hängt dabei von den Core States ab (also das was rechts steht). Wenn die C8 erreichen, kann auch das Paket C8 erreichen usw. Siehe auch die Beschreibung von Intel: Wenn du mit dem Pfeil nach unten scrollst, siehst du die GPU? Wenn nein, dann hast du keinen GPU Treiber installiert. Das kann sich negativ auf die C-States auswirken. Nein, das fehlt direkt im Linux Quelltext. Denn hatte ich irgendwann mal gesehen und die "neuen" Intel CPUs haben da einfach noch keinen Eintrag. Aber wie gesagt scheint sich das nicht auf die C-States auszuwirken, sondern man kann sie nur einfach nicht ordentlich auslesen. Vielleicht ist das ja schon das Problem. Kannst du bitte mal den Server mit einem Ubuntu Stick starten und vergleichen? Du kannst auch über "sudo apt-get install -y powertop" dort dann kurz powertop installieren, um die C-States zu vergleichen. Es gibt nämlich Nutzer, die haben mit Ubuntu andere Ergebnisse: https://forums.unraid.net/topic/111921-why-is-aspm-disabled-in-unraid-while-its-enabled-in-ubuntu/
×
×
  • Create New...