Jump to content

mgutt

Moderators
  • Posts

    11,355
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Ich vermute du meinst 200GB in Summe. Wie groß ist die größte Datei? Größer als 2GB? Das müsste nämlich in den Global Share Settings und min space stehen. Dieser Wert muss immer größer sein als die größte Datei. Bei paralleler Übertragung sogar die Summe mehrerer Dateien. Ich bin gerade nicht sicher. Fehlte min space nicht in der RC @ich777 bzw ist jetzt woanders? Allerdings ist es eh sinnfrei den Cache eingeschaltet zu lassen. Du nutzt die SSD nur unnötig ab, da das Ziel ja eh immer die HDD sein wird. Warum sicherst du eigentlich nicht inkrementell? Man installiert sich User Scripts und erstellt ein Script mit dieser Zeile: powerdown Als Scheduler wählst du Custom und gibst * 20 * * * ein. Hochfahren über WoL geht aber nur, wenn dein Board das über das BIOS erlaubt. Manchmal gibt es sogar Zeitpläne im BIOS.
  2. @Jojo1965 Bitte nur PayPal nutzen: https://www.mydealz.de/diskussion/alzade-serios-1549153
  3. Beten, dass sich das Lieferdatum bestätigt? https://www.future-x.de/intel-xeon-w-1250-3-3-ghz-p-8479379/
  4. Hast du Gigabyte gefragt oder woher weißt du das? Es ginge sonst noch das Asus und Gigabyte C246 in Full ATX. Beide ~250 €. Alternativ ginge das Asus C246M mit einer M.2 PCIe Karte. In Summe dann ~240 €. Ähnliches ginge mit einem Fujitsu D3644-B. Dann aber nur 6x SATA. Dafür dann auch nur ~160 €. Das Gigabyte C246M-WU4 ist beliebt ohne Ende, da es schlicht alternativlos ist. Da hilft sonst nur warten. AMD wäre bis auf Ryzen 4000/5000 ein Stromschlucker und deren Preise sind auch heftig, weil du sie wegen der SATA Ports mit einem X570 Board kombinieren musst. ECC ist Glückssache, iGPU nicht in Plex nutzbar und VM Hardware passthrough kann zickig sein. Wegen der Platten: Einfach mal alle in Unraid verbinden und schauen was die Smart Daten sagen. Was schon Ermüdungszeichen anzeigt, würde ich ich einfach mehr nutzen. Ich habe mir gebrauchte Hardware besorgt und damit ein Backup NAS gebaut. Auch das könnte man machen.
  5. Die WD Blue NVMe schaffen dauerhaft doch keine 1 GB/s?! Die 1TB Samsung Evo schaffen dauerhaft 1.3 GB/s. Warum sollte dir 1TB nicht reichen? Wegen VM Images? Nimmst du eben zwei 2TB. Das sollte denke ich reichen oder wie viele VMs sollen das werden? Die iGPU nützt dir mit Aufwand was bei Emby oder Jellyfin. Plex unterstützt sie nicht. Für eine VM kann man sie wohl nicht nutzen: https://www.reddit.com/r/unRAID/comments/iqr49o/possible_to_passthrough_an_amd_igpu/ Wegen dem RAM: Ich denke Größe schlägt Frequenz. Mehr Caching nützt mehr als 2% mehr CPU Geschwindigkeit oder was man bei der Steigerung von 2933 auf 3200 herausbekommt.
  6. Diese Art von Fehler (manches geht, anderes nicht), hatte ich bisher 2x und zwar weil ich Dateien in den RAM oder USB Stick geschoben habe, statt auf die Platte. Die waren dann also komplett voll. Dann passieren die komischsten Sachen. Check mal ob einer deiner Docker zu ramhungrig ist bzw limitiere grundsätzlich alle. Eventuell macht es Sinn die System Logs auf den Stick schreiben zu lassen, damit bei Wiederholung nachgeschaut werden kann was war.
  7. Ich habe es noch mal in der Anleitung ergänzt. Danke für die Anregung.
  8. Das kommt durch einen Parity-Check, der Änderungen festgestellt hat. Dh die Parität war nicht in Ordnung bei diesen Sektoren. Das kann bei einem Crash durchaus passieren, darf aber nicht im laufenden Betrieb auftreten. Denk dran, dass wenn du das Plugin aktualisierst, deine Änderung nicht mehr vorhanden ist. Die müsste man dann erneut einbauen.
  9. Nextcloud installiert man am besten mit einer externen Datenbank wie MariaDB. Also würde man erst den MariaDB Container installieren. Soll Nextcloud ins Internet, bräuchte es evtl einen Proxy wie Nginx Proxy Manager (NPM). Vor diesem würde man natürlich erst MariaDB und Nextcloud installieren. Allerdings gibt es keine Pflicht erst den und dann den zu installieren. Die laufen alle alleine und du sorgst dann dafür, dass der eine den andern nutzt. Zb bei Nexcloud würde man bei der Installation die IP vom MariaDB Container und das Passwort angeben. Bei NPM wiederum die IP von Nextcloud. Nextcloud würde aber auch komplett alleine laufen, wenn man SQLite, also eine dateibasierte Datenbank verwendet. Allerdings ist die Performance dann miserabel
  10. This is not a bug. br0 simply does not use port mapping. Port mapping is for the bridge network.
  11. In den NPM Dashboard or where? Open the Containers console and check with curl if you can reach your router and your app container. Like: curl IP:80 > router webgui If curl is missing: apk add curl
  12. Dann wird es vermutlich ein "richtiger" Reset des BIOS gewesen sein. Weil wenn die Uhr weiter läuft, hatte der auch durchgängig Strom. Aber ist doch super, dass es jetzt geht
  13. @Ford Prefect Danke. Die Befehle aus dem Link sind mir bekannt. Die Reihenfolge halte ich auch ein. scrub kann ich aber leider vergessen, weil ich nicht schreibend mounten kann. Was ich noch herausgefunden habe und was wohl durch den Wechsel auf Single passiert sein muss, dass "data" auf Single steht und nicht auf RAID1: btrfs fi us /mnt/nvme0n1p1 Overall: Device size: 1.82TiB Device allocated: 136.06GiB Device unallocated: 1.69TiB Device missing: 931.51GiB Used: 112.67GiB Free (estimated): 1.71TiB (min: 884.98GiB) Data ratio: 1.00 Metadata ratio: 2.00 Global reserve: 78.56MiB (used: 0.00B) Multiple profiles: no Data,single: Size:134.00GiB, Used:112.50GiB (83.96%) /dev/nvme0n1p1 67.00GiB missing 67.00GiB Metadata,RAID1: Size:1.00GiB, Used:87.02MiB (8.50%) /dev/nvme0n1p1 1.00GiB missing 1.00GiB System,RAID1: Size:32.00MiB, Used:16.00KiB (0.05%) /dev/nvme0n1p1 32.00MiB missing 32.00MiB Unallocated: /dev/nvme0n1p1 863.48GiB missing 863.48GiB Und der Fehler mit der Missing Disk kommt wohl durch den erste Chunk-Fehler: Jan 23 12:02:06 nas kernel: BTRFS warning (device nvme0n1p1): chunk 360832827392 missing 1 devices, max tolerance is 0 for writable mount Jan 23 12:02:06 nas kernel: BTRFS warning (device nvme0n1p1): writable mount is not allowed due to too many missing devices Durch rsync wurde quasi jede 2. Datei in jedem Ordner gesichert. Es ist also nicht ein Ordner vollständig wiederhergestellt worden. Der nächste Versuch ist nun btrfs restore. Dummerweise kann ich dieses Kommando wohl nicht unbeaufsichtigt ausführen lassen. Das wird zwar bei manchen Seiten behauptet, aber das ist nicht der Fall, da man zwischenzeitlich Fragen beantworten muss: btrfs restore -i /dev/nvme1n1p1 /mnt/disk2/nvme1n1p1_restore No valid Btrfs found on /dev/nvme1n1p1 Could not open root, trying backup super We seem to be looping a lot on /mnt/disk2/nvme1n1p1_restore/domains/Win10/vdisk1.img, do you want to keep going on ? (y/N/a) Da dies aber eine unwichtige Datei ist, habe ich den restore davon abgelehnt, was den Vorgang etwas beschleunigen dürfte. Wenn das durch ist, mache ich noch einen restore von der ersten SSD. Dann habe ich die erste mit rsync und btrfs restore und die zweite nur mit btrfs restore wiederhergestellt. EDIT: Ok schon fertig. Also alle Dateien wurden wiederhergestellt. Witzigerweise von der zweiten SSD, die kein gültiges Dateisystem mehr besaß. Die erste hat auch beim BTRFS Restore nur Fehler produziert. Ich habe dann abschließend mit rsync dry-run die gemountete SSD1 (konnte ich ja noch mounten) mit dem BTRFS restore von SSD2 verglichen und alle Dateien sind mit der gleichen Dateigröße noch da, nur das Dateidatum ist nicht mehr gleich. Aber damit kann man denke ich leben
  14. Also ich konnte zwar eine NVMe lesend mounten und habe auch schon rsync ausgeführt, aber das Ergebnis ist ernüchternd, von 9137 Quelldateien nur 4646 übertragen wurden. Ich kann sie nicht schreibend mounten, weil ich dann diese Fehlermeldung erhalte: writable mount is not allowed due to too many missing devices Laut Dokumentation passiert das nur, wenn zB eine Disk aus einem RAID0 fehlt: degraded (default: off) Allow mounts with less devices than the RAID profile constraints require. A read-write mount (or remount) may fail when there are too many devices missing, for example if a stripe member is completely missing from RAID0. Was mich erstaunt, dass trotz RAID0 trotzdem so viele Dateien verfügbar waren. Ich ging immer davon aus, dass die vollständig gestriped werden?! Da die zweite NMVe bereits als einzelne Cache SSD zugewiesen worden war, hat sie kein korrektes Dateisystem mehr. Da normalerweise nur die Partitionen gelöscht bzw angelegt werden, besteht allerdings Hoffnung, dass auf der zweiten eigentlich noch alles fehlende drauf ist. Nun die Frage: Wie bekomme ich die Partion auf der zweiten wieder so hin wie sie früher waren? Dann könnte ich sie ja evtl mounten und eine Reparatur starten. EDIT: Nein es muss ein RAID1 sein, aber warum kann ich nur die Hälfte der Dateien auslesen und warum kann ich das nur ro degraded mounten?! btrfs fi df /mnt/nvme0n1p1 Data, single: total=134.00GiB, used=112.50GiB System, RAID1: total=32.00MiB, used=16.00KiB Metadata, RAID1: total=1.00GiB, used=87.02MiB GlobalReserve, single: total=78.56MiB, used=0.00B
  15. Doch, der Grund steht da. "File exists". Die Datei existiert also auf der SSD und HDD. Die Frage ist warum. Ich tippe darauf, dass du diese Dateien 2x auf Unraid kopiert hast. 1x als der Share Homeserver die Cache-Einstellung "No" hatte und einmal als sie auf "Yes" stand. Oder du hast sie mit rsync synchronisiert?! Jedenfalls ist nun Vorsicht geboten. Die einzige Lösung ist nämlich löschen. Je nachdem ob die von der SSD oder HDD bleiben sollen muss man sie vorher auf die HDD kopieren oder einfach nur von der SSD löschen. Mehr dazu in diesem Post: https://forums.unraid.net/topic/101628-cache-drive-defekt-was-nun/page/2/?tab=comments#comment-937996 Diese Eigenheit vom Mover niemals zu überschreiben/löschen, sondern nur zu verschieben, ermöglicht übrigens einen Trick. Man kann gezielt einzelne Dateien auf die SSD kopieren, so dass der Zugriff auf diese niemals die HDD dahinter hochfahren lässt. Also wie bei der Cache Einstellung "Prefer", nur dass man das eben für einzelne Dateien machen kann. Hatte ich hier mal beschrieben: https://forums.unraid.net/topic/100398-erster-unraid-server-hilfe/page/5/?tab=comments#comment-929648
  16. Baumberger hat mich nun offiziell beauftragt das zu regeln. Wen es interessiert: Er hat ZeroTier installiert und ich bin nun Remote mit seinem Server verbunden. Aktuell lasse ich Images von den beiden SSDs erstellen und dann versuche ich das Dateisystem zu reparieren bzw Daten dort zu retten. Wir werden sehen ob das von Erfolg geprägt sein wird Aktuell setze ich meine Hoffnungen in ein btrfs check + repair bzw falls eine noch als RAID1 konfiguriert ist in eine Konvertierung in eine Single Disk. Die letzte Möglichkeit wäre eine Datenrettung mit btrfs restore. Seine disk.cfg.bak war übrigens von vor dem Upgrade auf die Beta35. Die aktuelle sieht nun aus wie bei Jojo. Keine Ahnung wo die SSD Info nun bei der 6.9.0 abgespeichert wird. Das checke ich dann, wenn es soweit ist.
  17. Also warum der Container auf Unraid zugreifen kann weiß ich wie gesagt nicht, aber man kann es mit der folgenden iptables Regel leicht lösen: iptables -A INPUT -s 172.19.0.0/24 -d 192.168.178.0/24 -j DROP Damit darf also kein Container, der eine IP aus 172.19.0.0/24 besitzt, Kontakt zu einem Teilnehmer aus dem 192.168.178.0/24 Netz aufnehmen. Testergebnis an Hand des Nextcloud-Containers: Was mich wundert, dass die Nextcloud-Konsole trotzdem noch funktioniert. Weil das Webterminal wird ja durch Unraid geladen, also durch eine IP aus dem 192.168.178.0/24 Netz. Oder gilt das jetzt als eingehende Verbindung und ist daher erlaubt? Naja, keine Ahnung. Schadet jedenfalls nicht, dass es geht Bis hier hin läuft die Sache aber schonmal so wie ich es mir vorgestellt habe. Der Traffic aus dem Internet landet bei NPM und von da wird er intern an die anderen Container weitergeleitet. Damit ist der einzige Schwachpunkt nun NPM, wo noch folgendes zu machen wäre: Internetzugang verhindern Zugang zu 192.168.178.0/24 verhindern bis auf 192.168.178.1 (Router) Möglichst viele "Capabilites" entfernen, was auch von RedHat empfohlen wird. Was mir noch aufgefallen ist: Wenn man die Ports von NPM verstellt, dann muss man den folgenden Befehl noch mal ausführen: docker network connect nextcloud_internal NginxProxyManager Am besten führt man ihn also jedes mal aus, wenn man den Container startet. Geht das nicht über das Feld "Post Arguments"? Darüber könnte man dann ja auch gleich die iptables Regel raushauen 😬
  18. 8x SATA und 2x M.2 und ECC RAM auf einem mATX Board sind leider selten. Man könnte noch auf die Full ATX C246 Boards von Gigabyte oder Asus ausweichen: https://geizhals.de/asus-ws-c246-pro-90sw00g0-m0eay0-a1857698.html?hloc=de https://geizhals.de/gigabyte-c246-wu4-a1944409.html?hloc=de Oder man nimmt die nächste Generation: https://geizhals.de/gigabyte-w480m-vision-w-a2376223.html?hloc=at&hloc=de&v=e https://geizhals.de/asrock-w480-creator-a2301763.html?hloc=de Da wird ECC RAM aber erst ab einem Xeon unterstützt. Oder man ist mit 1x M.2 zufrieden und 6x SATA und besorgt sich eine M.2 PCIe Adapterkarte, damit ein Cache RAID möglich ist. Dann ginge das C246 von Fujitsu: https://geizhals.de/fujitsu-d3644-b-s26361-f5110-v162-a1904781.html Es kommt jetzt also auf deinen Bedarf an oder ob du einfach warten willst. Da das C246N-WU2 aber schon seit 2 Wochen ausverkauft ist, habe ich da wegen dem C246M-WU4 mittlerweile wenig Hoffnung. Gefühlt baut während Corona gerade jeder ein NAS ^^
  19. Also der Sockel vom mATX hat keine verbogenen Pins? Ich vermute die CPU hast du übernommen, dh die kann man ebenfalls als Problem ausschließen?
  20. Dafür müsste man aktuell selbst Hand anlegen und die rsync Kommandos anpassen. Filtern steht aber auf der Todo ^^
  21. Vom Prinzip schon, wobei immer die Frage ist wie eine Anwendung programmiert wurde. Plex macht zb automatisch Backups von der Datenbank. Selbst wenn also die Live-Datenbank korrupt gesichert wurde, könnte man einfach die von gestern nehmen: Was verliert man da schon. Die Wunschliste, die man gestern angelegt hat? Kann man denke ich verkraften. Bei Nextcloud habe ich keine Ahnung, aber wenn man da intern täglich ein Backup von der DB erstellen kann, hätte man die selbe Situation. Wobei man Nextcloud ja nicht mal stoppen müsste. Die Datenbank ist ja im MariaDB Container. Die könnte man zb mit dem Container sichern: https://hub.docker.com/r/databack/mysql-backup Wenn man den dann mit rsync sichert, hat man ein konsistentes Datenbank-Backup als .sql Datei.
  22. Du musst schon mehr Input geben. Hast du damit den Server neu gestartet oder was? War die zweite MVMe bereits in dem 2. Cache Slot oder hast du sie manuell hinzugefügt? Können wir sicher sein, dass die beiden in der richtigen Reihenfolge sind?
  23. Oh stimmt. Aber wieso hatte er einen Cache Bereich in seiner Datei und Jojo nicht?!
  24. Die WebGUI ist ausschließlich für den Administrator gedacht. Die User sind dagegen für die Netzwerkfreigaben. Vom Prinzip gibt es auch in der GUI nichts was ich einem anderen zugänglich machen wollte.
  25. Damit hat der Container aber Zugriff auf das Internet und das gesamte lokale Netz. Also alles erlaubt außer die IP von Unraid. Selbst die Fritz!Box könnte man so angreifen: Das "internal" Netz schottet dagegen alles ab. Bis auf die IP von Unraid. Also genau das Gegenteil. Mit der iptables Regel ist es dann komplett dicht.
×
×
  • Create New...