Franky

Members
  • Posts

    19
  • Joined

  • Last visited

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

Franky's Achievements

Noob

Noob (1/14)

2

Reputation

1

Community Answers

  1. Danke für den Tip, hat funktioniert. Allerdings nicht mit 180 sondern mit meinem nächsten Versuch mit 240. Ich habe 9 Festplatten in dem Server, vielleicht brauchts da etwas länger. Vor dem Update hatten die 90 sek immer gereicht. Mal sehen was passiert wenn ich meinen anderen Server ( der Wichtige ) update, aber bei dem warte ich bei einem großen Update immer etwas ab. Viele Grüße Frank
  2. Der Timeout steht auf 90. Ist wohl die Grundeinstellung. Hatte bisher auch ausgereicht. In den LOG Datein sehe ich hinweise das etwas beim herunterfahren nicht in Ordnung ist. Passt ja zu deinem Hinweis. Ich verdoppel mal die Zeit auf 180, vielleicht hilft das ja. Viele Grüße Frank
  3. Seit dem Update auf 6.12.2 macht der Server nach dem hochfahren IMMER eine Paritätsprüfung. Sie wird immer ohne Fehler beendet. Das System wurde ganz normal heruntergefahren. Das System läuft in dieser Form schon seit 2 Jahren. Erst nach dem letzten Update gibt es diese Probleme. Viele Grüße Frank
  4. Franky

    Paritäts HD

    Alles klar, war nur so ein Gedanke. Hätte ja sein können, das ich was überlesen habe. Vielen dank
  5. Franky

    Paritäts HD

    Das die Paritäts HD die größte sein muß ist mir klar. 1 Paritäts HD kann eine Array HD wiederherstellen, 2 können 2 wiederherstellen, soweit klar. Hat die größe der Paritäts HD sonst noch einen Einfluß ? Kann eine besonders große Paritäts HD mehre Array HD wiederherstellen ? z.b. eine 10 TB Paritäts HD bei nur 2TB Array HD´s. Gruß Frank
  6. Danke für den Tip. Versuche ich heute abend einmal. Gruß Frank
  7. Ich bin mir natürlich nicht sicher. Auf jeden fall keine Unterbrechung, die ich aktiv verursacht habe. Der Cache ist auf keinen Fall vollgelaufen, habe ich beobachtet. 2 TB maximal in einem Fall 45% voll. Es muß aber mit dem Cache zusammenhängen. Seit ich diesen abgeschaltet habe für das Verzeichnis, passiert nichts mehr. Die Backups laufen ohne Fehler durch.
  8. Ich sichere auch von einem Unraid Server auf einen 2. Unraid Server. Es laufen beide 24/7. Der 2. Server ist über Unassigned Device eingebunden. Als Backup für die Shares nutze ich Luckybackup. Leider passierte mir oft, das dass Device nicht mehr "ansprechbar" war. Zu sehen daran das die Größe auf 0 angezeigt wurde, obwohl es NICHT ausgehängt war. Teilweise wurde auch eine falsche Größe angezeigt. 10 TB statt 8TB. Bei 10 TG hat er wohl die 2TB SSD Cache dazu gerechnet. Erst nach einem Reboot des 1. Servers war wieder alles ok, aber nicht lange. Nach x Versuchen habe ich auf dem 2. Server nun den Cache für den Share auf dem die Sicherung gespeichert wird abgeschaltet. Nun läuft es seit 2 Tagen ohne Probleme. Luckybackup war mir von ich777 vorgeschlagen worden. Bin mit Luckybackup im moment recht zufrieden. Was könnte die Ursache dafür sein ? Gruß Frank
  9. Ich hatte vor Wochen auch eine WD RED PRO bei AMAZON bestellt, die ware grottenschlecht verpackt. Aussen nur ein dicker Papierumschlag, innen nur die Festplatte in der Folie eingeschweißt. Auch viele Fehler bei Pre-Read. Hab direkt über den Service eine Erstsatzlieferung bekommen, auch nicht besser verpackt. aber diesmal keine Fehler. 3 Wochen vorher habe ich 3 WD RED PLUS bestellt, die waren ordentlich verpackt. Aussenverpackung ein Karton, jede einzelne HD in einem eigenen Innenkarton mit Luftpolsterfolie. Keine Fehler bei allen drei. Ich hatte die schlechte Verpackung reklamiert, hatte aber nicht geholfen. War schon etwas enttäuscht, eigentlich verpackt AMAZON in der Regel besser.
  10. Most-free habe ich gestern zum ersten mal eingestellt. Bisher stand alles auf High-Water. Die Idee mit der Einstellung meiner Backupsoftware war eine gute Möglichkeit in meinen Augen das Problem zu umgehen. Nur das Programm spind rum wenn ich diese Einstellung mache. Bei Größeneinstellung sind verschiedene Medien vorgegeben CD,DVD,Blu-ray usw. und natürlich Benutzerdefiniert. Habe ich dann so eingestellt wie ich geschrieben habe. Dann das Backup neu gestartet, natürlich die Daten im Array vorher gelöscht. Das Backup braucht gut 6-8h, nach einer halben Stunde hatte ich schon 10 Datein unterschiedlicher Grösse als Backupdatein im Array stehen. Im Bereich von 5-60 GB 😆. Also hat die Software meine Einstellung ignoriert. Ursprünglich hatten die Backupdatein eine Größe von 2 x 1,2tb. Nun sichere ich den ersten Server nicht mehr komplett, sondern jede Freigabe einzeln. Sind in meinem Fall also 7 einzelne Backups. Ich würde sagen, ich schaue mich in Zukunft nach einer besseren Lösung um. Die Sicherung meiner PC´s lief seit monaten ohne Probleme. Auch seit 40 Tagen mit UNRAID. Im Prinzip habe ich erst Probleme, seit dem ich meine 2 Unraid Server sichern möchte, sprich von Server 1 auf Server 2 und umgekehrt. Es ist sowieso nicht auf Dauer von mir geplant diese Sicherung über meinen PC zu machen. Besser ist es natürlich wenn die zwei Server sich direkt gegenseitig Sichern würden. Habe schon einiges darüber gelesen. Aber mein Englisch bremst mich da schwer aus. Viele Grüße Frank Baujahr 1964 🤣😂 Ps. Ein tolles Forum
  11. Ich probiere im Moment folgendes: Minimum freier Speicher 260GB Im Backupprogramm habe die Grösse auf 250GB festgelegt. Die Vollbackupdatein hatte eine Größe bis zu 1,2TB. Durch einige anderen kleinen Datein ist die erste HD 100% voll geworden. Dadurch konnten die Datein nicht mehr zum schreiben geöffnet werden. Vermute ich. Gruß Frank
  12. In der Freigabe sind 4 Datein gespeichert, 1 x 620 GB, 1 x 170 GB, 2 x 1,2 TB Wobei es sich bei den 2 x 1,2 TB um eine Sicherung eines anderen Server handelt die das Backupprogramm wohl geteilt hat. Wie gesagt, ich versuche die Datein erstmal auf 2 Verzeichnisse zu teilen. Mache ich im Moment über meinen PC. Werde ich in Zukunft über die Console machen, hab nur von Linux noch keinen blassen Schimmer, werde ich mich noch drum kümmern. Auf jeden Fall schreibt das Backupprogramm in die Vollsicherungen rein. Und da geht es in die Hose. Scheinbar ist das der Knackpunkt in meinem Fall. Wird wohl nur passieren wenn die HD 100% voll ist. Frei sind nur noch 65,5 KB Werde ich in Zukunft über die Console machen, hab nur von Linux noch keinen blassen Schimmer, werde ich mich noch drum kümmern. Bin nunmal ein Windows Jünger.😂 Ich komme noch aus der MS-DOS Zeit. Werde ich schon hin bekommen. Meinen ersten PC hatte ich 1989 🤣 Gruß Frank
  13. Eins hatte ich noch vergessen zu sagen. Sorry das mit den Hilftexten hatte ich voll verpeilt.😂 Soll nicht wieder vorkommen. Aber ihr habt mich ja wirklich nett darauf hingewiesen. Das hat man schon anders erlebt. Vielen Dank Gruß Frank
  14. Ich glaube damit kann mein Problem zusammenhängen. Wenn ich inkrementell oder differentiell sichere wird erstmal eine Vollständige Sicherung gemacht. Beim nächsten Backup natürlich nur noch die Unterschiede, diese sind ja dann viel kleiner. Scheinbar werden die Vollständigen Sicherungen aber dann auch geöffnet, wie am letzten Schreibzugriff zu sehen. Da die HD aber zu 100% voll ist, geht das wohl in die Hose. Das Problem habe ich erst seit die 1 HD mir 100% voll ist. Ich habe erstmal auf Most-free umgestellt und das Backup Verzeichnis aufgeteilt. Jeweils eins für jeden Rechner. Das läuft jetzt erstmal ein paar Stunden. Nein es ist keine HD hinzugefügt worden. Vielen Dank erstmal an euch für die guten Tips. Wird mir sicher helfen. Mal sehen wie es in ein paar Stunden weitergeht. Gruß Frank
  15. Ja hab Version 2021. Im Acronis Forum hatte ich nur eine Lösung gefunden für mein Problem. Dort war der Fehler der Cache. Durch die Große Datenmenge die ich sichern möchte würde mein 1TB Cache auch überlaufen. Daher habe ich diesen für das Backupverzeichnis/Freigabe abgeschaltet. Was ist der Unterschied von High-water, Fill-up, Most-free ?? Kann es auch daran liegen ? Im moment Teste ich das normale Kopieren mit großen Datenmengen.