Jump to content

zero_neverload

Members
  • Posts

    316
  • Joined

  • Last visited

Everything posted by zero_neverload

  1. Du kannst doch die alten Platten in den neuen Server Stecken. (ist eh am schnellsten was das kopieren angeht) Oder zum Kopieren die Platten per USB anstöpseln. Alternativ wie alturismo schon schrieb, gibt es ja die Option der Testlizenz aber über das Netzwerk kopierst du halt mit max Netzwerkspeed (1Gbit = 112Mb/s) Ich kenne halt deine Gegebenheiten bzw. Möglichkeiten nicht.
  2. Ja das kann ich verstehen. Wenn du auf nummer sicher gehen willst, platte austauschen und Daten wiederherstellen lassen, oder wie du bereits geschrieben hast, daten verschieben, so das diese auf den funktionierenden Hdds liegen. Ich habe halt von meinem wichten DAten weitere Backups, weil auch eine Parrytät ist kein Backup.
  3. Stell mal dein Cache manuell auf BTRFS. Einfach unter Start auf Cache Cklicken (oder wie es eben bei dir heisst) Array muss gestopt sein dafür. Es scheint als wolle er das Filesystem nicht aktzeptieren. So sollte dein Cache wieder verfügbar sein. Ich empfehle dir jedoch den Cache auf XFS zu stellen, wenn es denn eben nur eine Platte ist, oder bei mehr als eine ZFS in betracht zu ziehen. Ich mag BTRFS überhaupt nicht und meide es wie der Teufel das Weihwasser PS. Man kann auch die Docker unter XFS laufen lassen (wenn man das möchte), da die meistens unter default auch unter BTRFS erstellt werden. Wenn man das aber vorher nicht beachtet hat, muss man die vDisk löschen und die Docker neu installieren. Geht aber mit Backup Appdata relativ schnell.
  4. Deine Docker sollten dauerhaft auf dem Cache liegen, aber nicht weitere Daten. (beispiel wären da bei Nextcloud die Userdaten oder Bei Emby deine Medien) Die Daten legst du ja auf deine Freigaben und bindest die im Docker ein. Wenn du als Beispiel im Docker Daten anhäufst, wächst der Docker Container und dein Cache immer mehr und wenn es eben nicht so groß ist, dann voll läuft. Wenn du jetzt dazu noch eine Freigabe erstellt hast, wo die Daten erstmal gecacht werden, werden diese Daten nach der geplanten Zeit (siehe Aufgabenplanung unter Einstellungen) auf dein Array geschoben. Es werden aber keine Daten verschoben die sich inerhalb deines Containers befinden, ebenso keine Appdata Verzeichnisse (da ja die Docker laufen) Die Sicherst du mit der App Backup Appdata
  5. Soweit ich weiss, kann Unraid das (noch) nicht
  6. also ich mache es immer so: Backup mittels Backup Appdata aus dem Community Appstore Dann erstellst du einen Ordner wo du deine Appdata sicherst. Auf der neuen Maschine erstelle ich mir ebenfalls einen Ordner Backup. Auf der neuen Maschine ebenfalls Backup Appdata installieren. Jetzt kopierst du den Inhalt des Backupordners vom alten Server auf den neuen. (achtung das Backup muss sauber durchgelaufen sein, ansonsten siehst du das Backup nicht als Wiederherstellungsordner. Wenn alles kopiert, gehst du auf der neuen Maschine auf dein Backupinterface und dann auf Restore Klickst zweimal auf Next bis du weiter unten dein Backup auswählen kannst Jetzt wählst du unten erstmal nur die gewünschten XML aus die du wiederherstellen möchtest: Die Tar dateien kommen später Wenn du das wiederhersgestellt hast, kannst du unter Docker deine nun importierten Docker mit deinen bereits verwendeten Einstellungen installieren. Wenn du deine Docker alle installiert hast, stopst du sie wieder und gehst zurück zu der Backup App und wählst nun die Tar dateien aus, die du wiederherstellen möchtest. Nun sollten deine Docker genauso wie auf dem alten System laufen. Es sollten natürlich auch alle Freigaben wie auf dem alten Server vorhanden sein, damit die Einstellung passen. Als Beispiel Freigabe/Medien/Filme auf welche vielleicht deine Docker verweisen.
  7. Das ist genau das was ich dir oben geschrieben hatte. Stell es einfach zum testen um, sind zwei drei Klicks Array stoppen -> Netzwerkeinstellungen Einstellungen -> Docker Docker prüfen ob umgestellt wenn vorher Custom: br0 sollte jetzt custom: eth0 sein so aus sehen Wenn der Docker nicht im custom br lief ist es wie gehabt auf Bridge und kann so bleiben
  8. Ich denke da er den Adapter im Windows erkannt hat, scheint er den Treiber nicht richtig im Windows anzunehmen. Lösch mal das Gerät und lass ihn es neu erkennen. (Neustart oder nach geänderter Hardware suchen) Wie sehen deine Vm Einstellungen aus? Manche Adapter möchten erzwungen werden Mach mal ein Screenshoot von dir. Bin da aber auch nicht zu 100% im Thema und fummel da meistens selbst auch nur hin und her bis es irgendwann geht. Edit: Soweit ich weiss laufgen ja Bluetooth und Wifi auf einem Adapter. Manchmal muss man die als einen zusammenfügen hierüber: Da musst du mal im Forum hier suchen, wie man das am besten einstellt.
  9. Poste doch mal dein Mainboard (Typennummer) Vielleicht kann es ja wirklich nur 100Mbit
  10. Ich hätte als Threadersteller die Lösung dem Problemlöser (ich777) zugesprochen anstatt sich selbst. Gibt ja auch ein Ranking hier im Forum.
  11. Sind deine Festplatten in einem USB Gehäuse zu Hause? Wenn Ja, sieht es so aus, als ob der USB Controller dir ein Problem bereitet hat, oder vielleicht auch das Kabel. In dem Fall (das hatte ich auch in der Vergangenheit) hat bei mir teilweise ein Reboot geholfen, allerdings, musste ich die Platten neu zuordnen. Du kannst ja dein Array stoppen und die defekte Platte RO mounten. Wenn da die Daten noch vorhanden sind ist es vermutlich so wie ich es vermutet habe (ohne Garantie) Ich beschreibe dir hier wie ich es bei mir gemacht habe, weise dich aber darauf hin das im Falle eines Festplattendefektes deine Daten verloren gehen könnten, da du dann nicht mehr den Arrayverbund bzw. die Sicherheit der Parrytät hast. Dumachst ein Screenshoot von deiner Plattenbelegung, bzw. schreibst dir auf, wie du die Platten im Array plaziert hast. Dann gehst du unter Werkzeuge und setzt deine Config zurück (aber nur für das Array) Die aktuelle Zuweisung für den Pool kannst du so belassen (so auswählen wie im Screenshoot) Danach weist du deine Platten erneut im Array zu und dann sollte alles wieder laufen. Jetzt prüfst du deine Disks über die Diskfreigabe auf Inhalt. (Nicht über die Freigaben, sondern über die Disks selbst) Wenn alles gut ist, sind die Daten auf den ursprünglichen Platten verfügbar. (Parrytätsprüfung muss danach erfolgen wenn alle daten auf den Disks vorhanden sind)
  12. diesen Grund verstehe ich nicht, warum da erneut etwas includierst? Du sagst ihm ja im Quell und Zielpfad was er tun soll und dann includierst doch erneut was? Hat das einen besonderen Grund? Ich versetehe das so: Quelle=dein Pfad. Alles was da enthalten ist wird gesichert in dein Ziel. Willst du noch von woanders was mitnehmen dann sollte das in die Includes. Willst du Daten explizit nicht mit sichern, dann gehört das in den Exclude bereich. Bei mir sage ich Ihm von wo er was wohin sichern soll. (keine Includes/keine Excludes) Bei mir läuft das ganze. (auch wenn ich am Anfang ein paar Probleme mit den Crons hatte) Vielleicht verstehe ich da auch etwas falsch. Aber offensichtlich hat er schonmal was gesichert
  13. Ich bin mal über deine Logs geflogen und konnte jetzt nichts aufälliges finden. (bin aber auch kein Crack) Du hast eine Fritzbox wie ich am IP Range gesehen habe. Fährst du vielleicht gerade MCVlan und Bridge paralell? Du hast zwar geschrieben, das du es wieder umgestellt hast, hast du auch was in den Dockern aktualisiert? (Hast du überhaupt welche) Installier mal die App Fix Common Problems aus dem Appstore und poste mal was er da ausgibt
  14. Dann wird dein geplanter Task eh nicht durchlaufen, da der Job einmal erfolgreich ausgeführt werden muss. Er sollte da ja nichts löschen sondern einfach sichern und fertig (deine 5 Ordner) Korrekt? Poste doch bitte mal deine Docker Einstellungen.
  15. Das stimmt, wollte dich nicht verwirren🙄 Die Frage ist nur, ob Revan335 mittlerweile sein ursprüngliches Problem lösen konnte.
  16. Hm das ist ja echt komisch. Hast du mal am Stecker gewackelt, oder den mal nach oben oder unten gedrückt? Auch ein Netzwerkport kann mal kaputt gehen. Alternativ hätte ich einfach zum Testen mal bonding deaktiviert. Denke nicht das es hilft, aber es sind zwei Klicks. Gesendet von iPhone mit Tapatalk
  17. Poste doch am besten mal deine Dockereinstellungen. Scheint so als ob der nicht richtig speichern kann. Gesendet von iPhone mit Tapatalk
  18. Das ist vollkommen richtig Ich mache das so, dass ich auf beide Pfade (Local und Remote) im Docker zugriff habe. So bin ich flexibler und habe die Selbe Struktur wie im Unraid Host selbst Letztendlich kann das ja jeder machen wie er will, nur sollte Quelle und Ziel nicht das selbe sein beim sichern Hatte Revan335 aber bereits gelesen
  19. Ich habe mir ein paar mal mein Filesystem damit abgeschossen und seit dem distanziere ich mich von BTRFS. Viele Hier im Forum denken genauso, aber es gibt auch wenige andere die das BTRFS ganz gut finden. An sich wäre die Snapshotfunktion in BTRF gegenüber XFS ja super, aber das hast du ja auch im ZFS. ZFS geht halt (soweit ich weiss) bisl mehr auf die Performance. (wenn man keinen ZFS Cache verwendet) ZFS wird aber offiziell erst im nächsten Release (6.13) voll unterstützt. In den Community Apps gibt es aber dafür das ZFS Master Plugin, damit du das jetzt schon nutzen kannst. Letztendlich muss man es selber entscheiden.
  20. Da hast du recht, aber es kommt an, wie man es im Docker einrichtet. Bei mir sieht das so aus: ist der eingehängte Pfad im Unraid Meine Dockereinstellungen von Lucky Backup:
  21. Wenn du mehrer Platten in einen Pool packst, wird Unraid wie hawihoney oben geschrieben hat, auch einen BTRFS Raid erstellen. Davon würde ich persönlich dir abraten. Hier kannst du alternativ ein ZFS Raid erstellen. Wenn du auf den ersten Datenträger im Pool klickst, kannst du das einstellen: und bei mehr als einem datenträger zeigt er dir dann rechts daneben die Raidoptionen an (kann ich dir leider nicht zeigen, da in dem Server gerade keine Platten zuzuordnen sind)
  22. Dann müsste aber eines deiner Ziele /mnt/user/remotes heissen
  23. Ich vermute mal da hing was im Bezug auf den Port. Ich hatte das auch mal, das sich ein Docker nicht starten lies, da der Port angeblich noch in verwendung war, obwohl der Docker ja aus war. Ich versuche eh so viel es geht meine Docker mit eigener IP zu betreiben, weil mir die ganze Sucherei nach freien Ports irgendwann zu mühselig war. So habe ich auch die Option, Docker schnell auf andere Maschinen zu wechseln und muss dann am Client der die DB verwendet, nichts ändern, weil die IP ja geblieben ist.
  24. Weiss nicht, ob die Moderatoren das so gerne sehen, wenn du das hier auf die Weise pusht
×
×
  • Create New...