Jump to content

mgutt

Moderators
  • Posts

    11,356
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Hat sich deutlich verbessert mit Ryzen 4000 und 5000, aber wie gesagt leider nur mit dem B550 Chipsatz. Der X570 ist auch mit mind 20W dabei. Es gibt von Asrock eine IPMI Karte. Ansonsten gibt es noch https://pikvm.org/ und ich nutze einfach einen HDMI Capture Stick und meinen Laptop. Für Reboot/Hochfahren geht auch eine smarte Steckdose.
  2. mgutt

    Backuplösung

    Da steht "\r". Für mich sieht das so aus als hättest du Copy & Paste ein Script erstellt und dabei die Zeilenumbrüche verändert. Nimm bitte einen Editor der Unix Zeilenumbrüche beherrscht. zB PSPad oder Notepad++.
  3. In Unraid 6.9.x heißt der Punkt nun "Pool hinzufügen". Der Grund ist, dass man nun mehrere Cache Pools haben kann bzw mehrere RAID Pools.
  4. Epyc ist nicht gerade stromsparend und hat auch relativ geringe Single Core Performance. Den holt man sich, wenn man viele GPUs und M.2 SSDs verbauen will (wegen der ganzen Lanes, die der Epyc bietet). Dann eher was aus dem Consumerbereich. Mit iGPU also ein 4000er Ryzen. Kommen aber alle nicht von der Effizienz an einen 1151v2 dran. Außer mit einem B550 Board, aber die haben meist nur 4 SATA Ports. In der Hinsicht sind C246 und W480 unschlagbar. Ich liebe zB mein Gigabyte C246N-WU2. Auch schick ist das Gigabyte C246M-WU4 und Gigabyte W480M Vision D. W480 in ITX gibt es leider nichts empfehlenswertes. Da entwickeln die Hersteller am Markt vorbei.
  5. Ja, weil es keinerlei Fortschritt bei Intel gibt. 8te bis 11te Generation sind alle gleich effizient. Im Gegenteil. 10te Generation hat eher noch abgebaut. 11te kann ich nicht sagen. Fortschritte wird es erst mit der 12ten Generation geben. Aber bis die kommt und bis Unraid dann die Treiber dafür dabei hat... Ich würde einfach darauf achten, dass du nicht zu teuer kaufst. Was ja aktuell leicht gesagt ist
  6. Ja, der Mover darf keine Dateien bewegen, die gerade in Verwendung sind. Daher muss man erst den Docker-Dienst deaktivieren und dann den Mover starten. Danach bleiben sie aber auf dem Cache. Denk dran, dass du ein Backup brauchst. Wenn die SSD kaputt geht, ist alles auf dem Cache weg.
  7. Ist das sicher mit der iGPU? Hat das Supermicro bestätigt? EDIT: Ok, sagen zumindest alle in den Foren. Was für ein bescheidener Chipsatz. Ich würde trotzdem eine CPU mit iGPU nehmen. Einfach damit man es später ändern kann. Weil eine P400 ist auch nicht kostenlos und sie verursacht höhere laufende Kosten.
  8. Warum verzichtest du auf die iGPU? Gerade das erleichtert dir so einiges. VM kann sie nutzen, Transcoding kann sie nutzen und wenn du mal eine GPU für eine VM anschaffst, musst du Unraid nicht die GPU abgewöhnen.
  9. Dann hätte aber weder der Cache noch die VMDisks eine Ausfallsicherheit in Form eines RAID1. Besser wäre, wenn du 2x 2TB im RAID1 betreibst und Cache UND VMDisks darauf ablegst. Dann hast du für beides die Ausfallsicherheit und genug Platz für die VMs. Du kannst es auch so machen wie du sagtest, aber dann musst du zeitnahe Backups von Cache und evtl den VMs machen. Und mit zeitnah meine ich mehrere Cache-Backups pro Tag, denn wenn du Dateien auf den Server hochlädst, landen sie ja erst im Cache und wenn diese SSD dann defekt ist, sind alle Daten auf dem Cache verloren. Das gilt auch für alle Container-Daten, die dort ebenfalls liegen.
  10. Wenn du in der selben Workgroup bist und der Server den Export des Shares aktiv hat, braucht es keinen gültigen Login um die Shares zu sehen. Also nein, das ist keine Bestätigung, dass der Login stimmt. Um aber den Share öffnen bzw mounten zu können, braucht es natürlich einen gültigen Login. Das ist korrekt
  11. Ähh nein. Mach es so: Array: 4TB Parität 4TB + 1TB + 1TB + 2TB als Disks für die Shares Cache Pool: 2x 1TB NVMe im RAID1 Jetzt hast du einen 1TB großen Cache Pool auf dem die VM Disks, die Docker Container UND die Array Uploads aller Shares landen. Das ist das übliche Setup, was man in Unraid fährt. Warum keine NVMe im Array: Wäre beim Schreiben gedrosselt auf 50 bis 80 MB/s. Willst du nicht. Warum keine Aufteilung der VMs auf mehrere Disks: Unnötig, die NVMe bietet dir 2000 bis 4000 MB/s und das sollte wohl locker reichen um 3 bis 4 VMs parallel zu betreiben. 250GB VMDisks? Wofür? 20 bis 100GB reichen doch oder was hast du vor? Du hast doch einen Server wo du Mediendateien usw ausgelagert hast. Wenn die VMs wirklich so groß werden sollen, hol dir zwei 2TB NVMe für den Cache Pool. Dann hast du noch Luft für weitere VMs und noch genug Luft für Array Uploads. Alternativ: Array: 4TB Parität 4TB + 1TB + 1TB + 2TB als Disks für die Shares Cache Pool: 2x 500GB SSD im RAID1 für Docker Container und Array Uploads Unassigned Disks: 3 bis 4x 120GB SSD für die VMs Bei der Alternative werden dann keine VMDisks erstellt, sondern die SSDs physisch den VMs zugeordnet. Das reduziert etwas den Overhead, also die CPU wird entlastet (da sie die Disk-Schnittstelle ja sonst virtualisiert), hat aber den Nachteil, dass man keine Ausfallsicherheit bei den VMs hat. Backups müsste man also aus der VM heraus erstellen oder von der gesamten SSD ein Image machen. Jedenfalls würde ich niemals SSDs und HDDs im Array mischen. Damit wird man einfach nicht glücklich. Außer die Parität ist eine SSD. Aber dann muss das Budget passen
  12. Aus deinem Bild wird mir nicht klar wo du den Unterschied zwischen einzelner HDDs und dem Array siehst. Du weißt schon, dass die HDDs im Array einzeln formatiert sind und für sich alleine stehen? Die Parität könnte daher jederzeit entfernt werden (wodurch natürlich die Ausfallsicherheit wegfällt). Du könntest auch jederzeit eine HDD ausbauen und mit einem anderen PC verbinden (warum auch immer). Das macht ja gerade das Unraid Array so aus. Selbst wenn dir 5 von 10 Platten kaputt gehen. Die Daten der 5 intakten Platten bleiben verfügbar. Also anders als bei einem RAID.
  13. mgutt

    Array reorganisieren

    Dazu gibt es bereits mehrere Bug Reports. Deswegen nutze ich auch noch 6.8.3
  14. Genau deswegen sind ja Nutzerdaten im Share appdata. Du hast sie aber im Share system im Unterordner appdata. Das ist ungewöhnlich.
  15. Dazu nur mal kurz gefragt. Obwohl es mit einem ERROR endete, hat es trotzdem geholfen?
  16. In Unraid liegen alle Shares und Platten unter /mnt. Hast du zB eine disk1 im Array, dann erreicht man die über /mnt/disk1. Hast du einen Cache Pool mit dem Namen "cache", dann den über /mnt/cache. Hast du einen Share erstellt, dann erreichst du den über /mnt/user/sharename. hawihoney hat zB als Quelle "mnt/nvme_pool/system" genommen. Er will also, dass sein Backup Script direkt auf den Pool namens "nvme_pool" zugreift. Genauso gut hätte er aber auch "mnt/user/system" schreiben können. Warum er dann noch appdata unterhalb von system hat ist sein Geheimnis. Ist auf jeden Fall "nicht normal" ^^ Jedenfalls liegen standardmäßig alle Container Nutzerdaten im share "appdata" und wenn du also nun "mnt/user/appdata" als Quelle angibst, dann wirst du alle Nutzerdaten aller Container auf die Art erfassen können. Was du nun als Ziel angibst, liegt dir natürlich frei. Sagen wir du hast einen Share namens "Backups". Dann wäre zB ein passendes Ziel "/mnt/user/Backups/appdata". Hinweis: Es ist nicht empfohlen Container zu sichern, die gerade laufen. Besser ist es alle Container zu stoppen und erst dann ein Backup zu erstellen. Ich verkompliziere ungern die Sache, aber das muss einfach gesagt werden. Aus dem Grund empfehle ich dir kein Script, sondern das Plugin "Appdata Backup". Der Entwickler hat diesen Punkt bereits berücksichtigt. Analog dazu kannst du natürlich zusätzlich noch das Script ausführen um die Datenbanken als SQL zu exportieren.
  17. Vom Array geht immer alles aus, ja, aber man kann einen Share auch so einstellen, dass er niemals Dateien auf dem Array ablegt, sondern ausschließlich auf einem Pool deiner Wahl. Die Option heißt "only" Und solange man bei "only" bleibt, kann man im Array auch einen zb 16GB USB Stick haben und mehrere x TB große Pools. Dateien sind niemals auf dem Array und dem Pool. Nur oder, und du entscheidest wo sie liegen sollen. Eventuell hilft dir auch das: https://forums.unraid.net/topic/99393-häufig-gestellte-fragen/?tab=comments#comment-951565
  18. Mach erst das Backup von allen Datenbanken als SQL Datei. Danach stoopst du Nextcloud und WP. Erst dann kannst du den Namen vom Repository zurück ändern. Das entspricht dann "latest". @hawihoney alpine ist noch nicht im normalen Release. Dazu müsste man extra einen separaten alpine tag angeben. Und das machst du in Zukunft immer so. Erst die anderen Container stoppen, bevor du die DB aktualisierst. Ich vermute nämlich, dass während dem DB Update zb Nextcloud gerade was in die DB schreiben wollte, was dann nicht mehr vollständig erledigt werden konnte.
  19. Container Console: mysqld_safe --log-error=er.log Und dann: cat /config/databases/er.log
  20. Ich würde auch mal das machen, was er in seinem 1. Beitrag gemacht hat: https://github.com/linuxserver-archive/docker-mariadb-armhf/issues/7 Also die Fehlerlogs generieren lassen und dann hier posten.
  21. mgutt

    Backuplösung

    Nein, aber laut ein paar Syno Nutzern soll mein Script auch da gehen. Dann eben über den Aufgabenplaner und mit Pfaden der Syno. Den Unraid SMB Share kannst du ja meine ich über den Finder einbinden. Probier doch durch und sag bescheid wo es hängt.
  22. Pools sind völlig unabhängig vom Array. Du kannst sie auch ohne Array nutzen und zb auf "only" stellen, damit auf dem Array niemals Dateien landen. Du brauchst allerdings mindestens einen Datenträger um das Array und damit den VM, Docker und sonstige Dienste starten zu können. Das kann aber ein leerer USB Stick sein. Nur, wenn die Dateien vom Pool runter sollen. Also soll die VM eine VMDisk auf der NVMe erstellen. Dir ist klar, dass die dann immer vollständig gesichert wird? Und es erfordert, dass die VM heruntergefahren wird, wenn man keinen Datenverlust riskieren möchte. Es gibt da echt viele Möglichkeiten. Zb könntest du auch eine einzelne NVMe direkt an die VM durchschleifen. Siehe dieses Video: Aber das dann logischerweise ohne Ausfallsicherheit wie bei einem RAID.
  23. mgutt

    Backuplösung

    Du könntest das Script auch in der Syno ausführen und die Dateien über SMB read-only von Unraid abholen. Das finde ich eh sicherer, denn wenn Unraid gehackt wird, könnte der Angreifer auch das Backup platt machen.
  24. Kannst du einfach Es gibt doch bestimmt Befehle wo man den Status der Datenbanken prüfen kann oder?
×
×
  • Create New...