Jump to content

mgutt

Moderators
  • Posts

    11,366
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. And which error was returned after you used the IP instead? Because "Name does not resolve" is a really clear error message. But it's strange that it happens only with the new version of the container. Stop Nextcloud and Gitea. Stop MariaDB. Execute this, to copy the container files: mkdir /mnt/user/appdata/MariaDB-Copy cp -a /mnt/user/appdata/MariaDB-Official /mnt/user/appdata/MariaDB-Copy Rename MariaDB to "MariaDB-Live" or whatever. By renaming the container it becomes available for a second installation: Install the container a second time and name it "MariaDB-Copy" and change all paths (!): Now you have a container copy to play with. Upgrade it. Open the Nextcloud console and use "curl name:3306" or "curl ip:3306" to check the connection to this db container. What are the results? And what are the logs of the upgraded mariadb container?
  2. Und warum? 500GB ist ja ziemlich viel für ein bisschen Upload Cache. Und wenn es zu wenig ist, dann hol dir eben 1TB. Besser wie gesagt 2x 1TB, damit du auch eine Ausfallsicherheit hast. Zusätzliche SSDs gehören zu den anspruchsvolleren VM Techniken, die nur die anwenden, die eben nicht mehrere VMs auf einer SSD haben wollen. Vor allem wäre es absolut kontraproduktiv mehrere VMs auf einer SATA SSD zu haben. SATA ist ein serielles Protokoll, eine NVMe hat dagegen 4 Lanes mit jeweils 2 Hin- und Rückkanälen, also 8 parallele Kanäle und damit viel besser um mehrere VM-Disks darauf abzulegen. Also entweder nutzt du für jede VM eine eigene SATA SSD oder du sorgst für einen ausreichend großen Cache Pool für Uploads, Docker und VM-Disks. Andere Alternativen kann ich nicht empfehlen.
  3. Du schleifst damit die Hardware, also die komplette SSD durch. Schon alleine, dass du eine physische SSD verwendest, ist schon "ungewöhnlich", da du ja extra recherchiert hast wie das geht. Normal erstellst du eine VM, gibst die Größe der Disk an und das war es. Die VM bekommt dann eine virtuelle Disk-Datei "vdisk1.img" auf deinem Cache Pool: Wenn du keinen Cache-Pool hast, ist das bereits dein erster Fehler. Der zweite wäre es, wenn es keine NVMe ist (mehrere VMs brauchen viele IOPS) und der Dritte, wenn es keine zwei NVMe im RAID1 sind (wegen der Ausfallsicherheit).
  4. Glaube ich nicht, dass das passiert ist. Du hast eher eine falsche Schlussfolgerung gezogen. Glaube ich nicht, dass das nötig gewesen wäre. Auch hier eher falsche Schlussfolgerung. Ist natürlich jetzt zu spät, aber was kam denn überhaupt für ein Fehler, dass du gedacht hättest den Server zerschossen zu haben? XFS formatierte Festplatten, die im Unraid Array verbaut waren? Im Leben nicht. Vor allem wie formatiert man XFS Festplatten an einem anderen PC und nutzt sie weiter in Unraid?! Was soll das heißen? Dann hat der Server keine Internetverbindung oder erreicht keinen DNS Server um die Domain aufzulösen. Einfach im Terminal das machen: ping -c 2 8.8.8.8 ping -c 2 google.com Ich tippe darauf, das google.com nicht erreichbar ist (= DNS Server nicht erreichbar).
  5. 🤷‍♂️😅 Was steht denn fest: Sockel 1200 2x M.2 2x x8 GPU Slots Das reduziert die Auswahl wie folgt: Z490: https://geizhals.de/?cat=mbp4_1200&xf=11925_2~12418_2 W480: https://geizhals.de/?cat=mbxeon&xf=11924_2~12418_2~317_W480 Was ist denn mit dem: https://geizhals.de/gigabyte-z490-aorus-ultra-g2-a2290234.html?hloc=de Das ist nicht so teuer, hat 2x PCIe X8 Slots und einen X4 Slot und außerdem drei M.2 Slots. Die sind auch alle drei nutzbar: Also zwei SATA Buchsen gehen drauf, aber das ist ja egal. Das Block Diagramm sieht auch in Ordnung aus: Wenn man das braucht, könnte man sogar den X4 Slot mit so einem Adapter ausstatten um eine vierte M.2 installieren zu können: https://geizhals.de/raidsonic-icy-box-ib-pci208-hs-60830-a2540050.html?hloc=de Ich nehm' immer Noctua 😁 Da gibt es ja massig Auswahl: https://noctua.at/de/productfaqs/productfaq/view/id/236/ Wenn das Gehäuse genug Platz hat, nehme ich immer den NH-D15.
  6. Häh? Mit PiKVM bedient man doch Remote eine dritte Hardware oder verstehe ich jetzt was falsch?
  7. Ein Intel wäre im Vorteil, da du die iGPU in einer VM verwenden könntest: https://forums.unraid.net/topic/108650-plugin-intel-gvt-g/ Außerdem ist ein Intel Setup sparsamer als ein AMD Setup. Wobei es bei einem 4xxxG gepaart mit manchen (nicht allen) B550 Boards auch ein sparsamer Server werden könnte. Du solltest die CPU Kerne nicht limitieren. Überlasse der CPU die Verteilung der Lasten. Deine aktuelle CPU sollte abgesehen von der fehlenden GPU denke ich genug Leistung haben. Check mal mit dem Kommando was deinen Server überlastet: htop Welche GPU verwendest du? Du weißt, dass GPUs nicht ausgehen, wenn die VM beendet wird? Die einzige Lösung könnte eine eGPU sein (Thunderbolt), die man nur bei Bedarf einschaltet. Hat aber meines Wissens nach noch keiner umgesetzt.
  8. Btrfs restore kann Dateien wiederherstellen. Du solltest aber erstmal über die systemlogs prüfen warum die Platte nicht mehr gemountet werden kann. Außerdem die SMART Werte prüfen.
  9. Wenn im Ordner Config eine Datei "stop" liegt, führt Unraid diese automatisch bei einem Reboot / Shutdown aus. Das ist das selbe wie mit der "go" Datei, die beim Start des Servers ausgeführt wird. Es kommt auf deine Ordnerstruktur an, aber du könntest ja problemlos mehrere rsync parallel ausführen, die auf unterschiedliche Disks schreiben. Also zb Filme/A auf Disk 1 und Filme/B auf Disk 2. Eben so wie es von der Gesamtgröße eines Ordners Sinn macht. Führe einfach mal htop aus, während 3 laufen. Dann addiere alle SHFS Prozesse. Das sind die, die nur kommen, wenn man auf /mnt/user/bla schreibt. Das ist auch absolut OK. Ich meine auch später, dass man gezielt auf /mnt/cache/sharename schreiben kann, ohne einen SHFS Prozess auszulösen. Wie gesagt. Addiere mal die Auslastung. Du wirst dich wundern was da alles ackert.
  10. Dieses Problem hatte ich öfter wenn rsync noch arbeitet. Und zwar trennt Unraid beim Runterfahren alle Disks. rsync schreibt aber noch und wenn der Pfad zur Disk weg ist, schreibt rsync einfach weiter, erstellt also den Ordner neu, der eigentlich vorher eine gemountete Disk war und flutet damit lustig den RAM. In den Logs erscheint dann immer wieder, dass Unraid versucht die Disk zu unmounten, was aber fehlschlägt, weil der Mount ja schon längst gelöst wurde und nach kurzer Zeit ist der RAM voll und nichts geht mehr. Aus dem Grund habe ich bei mir die Datei /boot/config/stop mit folgendem Inhalt erstellt (also "touch /boot/config/stop" ausführen und dann mit dem Config File Editor bearbeiten): #!/bin/bash # ------------------------------------------------- # Kill all rsync processes # ------------------------------------------------- pkill -x rsync Für eine Analyse ist es in deinem Fall jetzt zu spät. Für den nächsten Fall solltest du dir merken wie man laufende Prozesse anzeigen lassen kann: htop Weiteres zur Abstürzen hatte ich hier geschrieben: https://forums.unraid.net/topic/99393-häufig-gestellte-fragen/?tab=comments#comment-1008640 Du willst ja meine ich, dass Unraid die Verteilregeln anwendet. Dabei opferst du einiges an CPU Leistung. Würdest du in den Global Share Settings die Disk Shares aktivieren, könntest du direkt auf /mnt/disk1/realvideo, /mnt/disk2/realvideo usw kopieren. Dann musst du dir aber überlegen wie viel auf welche Disk kopiert werden soll. Der Vorteil ist aber, dass die CPU Last deutlich sinkt. 30 bis 50% sind keine Seltenheit, gerade beim Schreiben. Da muss man abwägen ob Komfort oder Performance wichtiger ist. Manche wie @hawihoney arbeiten deswegen ausschließlich mit Disk Shares. Ich mache beides im Wechsel, je nach Bedarf. zB schreibe ich über 10G meist direkt auf den Cache statt über den User Share zu gehen. Auch erklärt in meinem Guide unter #3: https://forums.unraid.net/topic/97165-smb-performance-tuning/
  11. I updated my post: https://forums.unraid.net/topic/110019-support-mariadb-official/?tab=comments#comment-1004285
  12. Kannst du alles kaufen. Toshiba baut auch sehr gute HDDs. Nur eben kurz checken, dass es wirklich eine CMR ist und keine SMR.
  13. Nein. Das WU2 ist ITX und das WU4 mATX. Das WU4 ist also größer. Beide haben gleich viele SATA Ports (8x), aber das WU2 braucht ein Adapterkabel für die 4 zusätzlichen Ports. Das WU2 verbraucht weniger Strom. Das WU4 hat mit 2x M.2 Slots einen mehr als das WU2. Beide akzeptieren 32GB Module. Das Maximum des WU4 liegt entsprechend bei 128GB. Hat aber meine ich noch keiner getestet. Nein. Das WU2 auch 😉 Man kann die zwei 1G Ports übrigens mit SMB Multichannel bündeln. Also doppelter Durchsatz. Ich habe noch keine kaputte gehabt, aber wenn du dir unsicher bist, kannst du ja bei eBay mit Käuferschutz kaufen. Wie gesagt ist das WU2 nicht ganz soweit weg, aber das WU4 ist neben dem W480M das beste was man aktuell für einen Unraid Server kaufen kann. Das W480M hätte sogar eine 2.5G Buchse, aber es verbraucht noch etwas mehr als das WU4 und ECC RAM geht nur mit einem teuren Xeon. Daher empfehle ich jedem das WU4, wenn es nicht so kompakt und sparsam wie möglich sein muss.
  14. mgutt

    Freigabeproblem

    Die Parity enthält keine Dateien, sondern nur die "Quersumme" aller Daten aller anderen Disks. Für sich alleine genommen enthält die Parity also nur Kauderwelsch. Wenn du also das damalige Cache Laufwerk nun als Parität verwendest, sind alle Dateien gelöscht worden.
  15. Sieht richtig aus. Wenn du stattdessen die Parity als neue Disk dem Array hinzufügst, könntest du den Server inkl Docker und VM normal weiterlaufen lassen. Falls du während dem Sync noch Datenänderungen durch Docker / VM erwartest, könntest du nach dem Sync alles stoppen und kurz einen zweiten Sync drüber laufen lassen. Der bräuchte dann vermutlich nur ein paar Sekunden. Bei der Variante wäre also die Ausfallzeit von Docker / VM deutlich kürzer. Wenn das aber egal ist, kannst du es natürlich auch wie bei deiner Idee machen.
  16. mgutt

    Freigabeproblem

    Ich hatte dich in meinem letzten Beitrag genau davor gewarnt?! Ja, wenn eine Parity vorhanden ist, dann wird sie erstmal komplett genullt. @Hoax85 Hast du eine Parity und hast du dem Löschen zugestimmt? Bzw ist die, die du ins Array gepackt hast die, die vorher der Cache war?
  17. In most parts. NPM does not have plugins like geo IP blocking. Feel free to test it with a new subdomain.
  18. mgutt

    Freigabeproblem

    Was ist mit Ordner gemeint? Share, welche Platte? Welcher Pfad? Dateien verschwinden nicht einfach. Hattest du evtl Dateien auf einem Cache, der jetzt ausgebaut wurde?!
  19. Die iGPU wird locker vier 4K Streams transcodieren können. Wenn nicht sogar mehr. Mit dem Plugin kannst du sogar die iGPU verwenden (aber nicht, wenn es eine CPU der 11ten Generation wird, sondern nur 10te Generation, die ja auch auf das W480 passt) : https://forums.unraid.net/topic/108650-plugin-intel-gvt-g/ Tja und das W480M hätte gleich 8x SATA, so dass du genau das nicht bräuchtest (wie ja auch das W480 Vision W, aber das verschwendet gleich mal Lanes und Strom für einen Mini SATA Controller für den 9. und 10. SATA Port). Ich weiß, du bist jetzt Gigabyte gebrandmarkt, aber für mich gibt es aktuell nichts besseres als das C246M und W480M. Du magst mir das W480 nicht mal zum Testen zusenden oder? Oder kommst du zufällig aus meiner Region (Bonn)?
  20. Das ist richtig, aber zwei Slots hast du auch auf einem mATX Board. Hier zb von deinem gewählten ATX Board: Wenn du da also die x16 für der GPU verwendest, werden zwei PCIE Slots deaktiviert. Oder du nutzt sie leicht gedrosselt mit X8. Dann hättest du tatsächlich mehr Slots als bei einem mATX Board (Asus Z590 Prime Plus): Da hätte man "nur" x16 (CPU), X4 (Chipsatz) und 2x X1 (Chipsatz). Andere mATX Boards haben 2x x8 (CPU) und 2x X1 (Chipsatz). Also zwei Karten bekommt man immer unter. Erst die dritte wird der Knackpunkt sein. Also zb zwei GPUs und eine 10G Karte ginge bei einem mATX nicht. Aber wirst du wirklich einen Gaming-Server draus machen, der 24/7 über 60W zieht und der bei einer Gaming VM nur eine X4 GPU nutzen kann? Wobei das eh komisch ist, dass man bei dem Asus ATX Board nicht 2x X8 (CPU) und 1x X4 (Chipsatz) nutzen kann. Also wie beim W480 Vision W. Das wäre sowohl für GPU + GPU besser als auch GPU + Dual 10G oder GPU + HBA. Oder GPU + HBA + Single 10G. Schlussendlich verstehe ich diese X1 Slots auf den mATX Boards aber eh nicht. Das W480 Vision W ATX Board hat neben der 2x X4 NVMe (DMI + Chipsatz) noch einen X4 PCIe Slot (Chipsatz). Und die CPU kann X8 X4 X4. Also müsste man doch problemlos 2x X8 und 2x X4 auf einem mATX Board realisieren können. Der zweite X8 würde bei Vollbelegung natürlich auf X4 gedrosselt oder man nutzt eben X8 X8 (CPU) und X4 (Chipsatz) und lässt einen X4 Slot leer. Also drei "schnelle" Karten auf mATX wären technisch sehr wohl möglich, wird aber einfach nicht gebaut.
  21. Du weißt aber schon, dass du eh nur 16 Lanes hast? Weil wenn man die Anleitungen studiert, stell man meist fest, dass eh nicht alle PCIe Slots parallel nutzbar sind. Der einzige echte Vorteil ist eigentlich nur, dass man mehr Abstand zwischen den Slots hat.
  22. Ich habe für alle relevanten Ordner (Dokumente, Desktop, usw) per rechter Maustaste eine lesende Freigabe mit Login erstellt und dann den PC in unRAID gemountet. Den Rest macht rsync (startet alle 3 Stunden, ist also nicht "zeitnah"): https://forums.unraid.net/topic/97958-rsync-incremental-backup/ Nextcloud würde live sichern. Nextcloud würde auch einen Zugriff per Smartphone erlauben und das Teilen mit Dritten.
  23. Von Prinzip geht jedes Z5xx Board. Außer es ist eines dabei wo SATA Ports abgeschaltet werden, wenn man die M.2 nutzt. Musst du mal die Anleitung studieren. Warum wolltest du eigentlich unbedingt ein ATX Board?
  24. @ph0b0s101 Hast du schon mal zwei NVMe bei deinem Vision W ausprobiert? Und wenn ja, welche? @chatman64 Und du?
×
×
  • Create New...