BigChris

Members
  • Posts

    134
  • Joined

  • Last visited

Everything posted by BigChris

  1. Ich habe rsync ausgeführt. Leider ist das Ergebnis identisch... root@Tower:/mnt/cache# du -sh /mnt/cache/* 14G /mnt/cache/appdata 270G /mnt/cache/domains 101G /mnt/cache/system 2.3M /mnt/cache/zoneminder-data root@Tower:/mnt/cache# du -sh /mnt/disks/191322452512/* 14G /mnt/disks/191322452512/appdata 68G /mnt/disks/191322452512/domains 14G /mnt/disks/191322452512/system 56K /mnt/disks/191322452512/zoneminder-data
  2. Hm, so sieht das gerade aus, nachdem ich mit MC alles kopiert habe: Bei dem rsync Befehl bekomme ich seltsamerweise jede Menge Ausgabe. Wie kann man das denn wieder ändern mit den Nullen?
  3. Bei dem Schritt bin ich gerade und frage mich wie ich das verstehen soll. Auf meinem alten Cache, den ich gemounted habe liegen laut Anzeige 102GB (used) Ich kopiere es gerade rüber und auf dem neuen Cache liegen nun bereits 191GB Daten? Wie kommt das denn nun zustande? Der mc sagt, es werden 385GB Daten kopiert. Warum passen die Werte nicht zusammen? Auf dem Array liegt erst mal nichts, dass hat so weit bei mir geklappt. Trotzdem traue ich mich noch nicht die Docker wieder zu starten...
  4. Ich habe ja ein ähnliches Problem. Ich konnte aber die Daten vom Cache Laufwerk komplett sichern. Wie lege ich denn einen neuen Cache an? Und wie kopiere ich die Daten dann zurück in den Cachepool? Kann man direkt in den Cache schreiben? Wie?
  5. Ich wollte heute aus meinem Single Disk Cache einen Cache Pool machen. Ist schief gegangen - ich hatte es mir einfacher vorgestellt. Was ich gemacht habe: - Array gestoppt - zweite Cacheplatte eingebaut - Slots auf zwei erhöht - Array stand auf Valid - gestartet Anschließend waren beide Platten vom Cache nicht mountable. Ich habe die zweite Platte wieder entfernt aus dem Pool, die Anzahl Slots wieder auf 1 gestellt. Array stand wieder auf Valid, gestartet. Die Cacheplatte weiterhin nicht mountable. Also, was habe ich falsch gemacht? Wie komme ich aus der Nummer wieder raus? Wie baue ich mir den Cachepool? Kann ich erstmal über "NewConfig" zum alten Stand zurück? Vielen Dank!
  6. Ja, mir würde eine m2 reichen. Damit dann einen cache pool machen und etwas mehr Ausfallsicherheit erhalten. Wenn ich es richtig verstehe, darf doch dann eine Platte vom Cachepool ausfallen, ohne das es Datenverlust gibt?
  7. Ich habe in meinem Dell ein Array mit 3 Festplatten und eine Cache SSD (1TB). Umso älter man wird umso mehr sorgen macht man sich Um meine Cache-Sicherheit zu erhöhen überlege ich einen Cachepool einzurichten. Leider hat der Dell nur 4 Sata Ports. Habt ihr Erfahrung was am wenigsten Strom verbraucht / Ärger verursacht? Ein kleiner Sata Controller mit zwei Ports oder ein PCIe zu m2 Adapter? Beste Grüße Christian
  8. @mgutt Mit Biosoptimierung und Powertop bin ich jetzt bei 15,6W Idle. Das finde ich hinnehmbar Neuanschaffungen lohnen sich vor dem Hinblick Energie nicht wirklich.
  9. Der hat 4 Sata-Buchsen. Ich habe 3 3,5 Zoll und eine 2,5 SSD Platte drin. Vom Prinzip bekommt man eine weitere 3,5er rein. Das Powertop hat keinen merklichen Unterschied gemacht beim ersten Test. Wahrscheinlich muss ich noch mal im Bios schauen.
  10. Ja, korrekt ich nutze das S3 Sleep. Ok, die Befehlskette habe ich da ehnschon eingetragen, dann schaue ich mal was ich mit Powertop rausholen kann 22Watt macht der T20 im Idle momentan.
  11. Ich würde mal gerne Powertop auf meinen Dell T20 loslassen. Irgendwie mache ich mir aber Sorgen, dass nach dem autotune was nicht mehr so läuft wie es sollte Verstehe ich das richtig, nach einem Neustart der Maschine ist powertop wieder hinfällig? Wie kann ich nach powertop autotune die wake on lan Funktion der Netzwerkkarte wieder einschalten?
  12. Das schaut interessant aus. Was nimmst du für ein Gehäuse?
  13. Die kleinen Lenovo sind super. Ich habe einen als Proxmox Server bei mir laufen. Wie würdest du denn die Festplatten unterbringen @mgutt? Eine Bastellösung?
  14. Ich würde gerne einen neuen Unraid Server aufsetzen. Leider kenne ich mich im Hardwaredschungel quasi gar nicht aus und hoffe hier auf ein wenig Unterstützung. Meine Anforderungen sind bescheiden denke ich. - Energieeffizient soll er sein - Hauptsächlich als NAS eingesetzt werden - vielleicht ganz wenige docker (Emby würde ich wohl mit drauf laufen lassen) - 6 Sata-Anschlüsse hätte ich gerne Ich denke das war es schon was ich wirklich brauche. Hat da jemand Vorschläge? Vielen Dank!
  15. Vielen Dank, läuft erstmal wieder. Verstehen kann ich es nicht, warum es nur da zu Problemen kam. Die Nutzerrechte sahen woanders ähnlich bis gleich aus. Wie das passiert ist, weiß ich allerdings komplett gar nicht. Mir ist das mit den Nutzerrechten leider auch nicht klar, wenn ich per NFS ein Share eingebunden habe. Viele meiner Dateien hatten die seltsamen Nutzerrechte. Wenn ich jetzt mal eine Datei erstellt habe, waren die Nutzerrechte wie von dir erwähnt 99:100. Wie kann das passiert sein?
  16. Hallo, aufgefallen ist mit das Problem nach dem Update auf 6.11.1, ob es vorher schon da war, kann ich nicht genau sagen, da auf den Share nicht so oft zugegriffen wird. Folgendes Problem: Wenn ich auf den Share zugreife will, kann nicht mehr in die Ordner des Shares. Weder per NFS noch per Samba. Der Export ist aktiviert und der Zugriff bei beiden Diensten auf Public. Auf die Dateien der obersten Ebene des Shares kann ich zugreifen. Versuche ich auf einen Ordner der per NFS eingebunden ist zuzugreifen, kommt ein Popup mit: Authentifikation benötig. Anmeldung ist für die Ausführung des Dienstes gvfsd-admin erforderlich. Keines meiner Passwörter funktioniert. Greife ich per SMB von meiner Ubuntumaschine zu kommt: Der Ordnerinhalt konnte nicht angezeigt werden. Lege ich einen neuen Ordner an, kann ich auf diesen zugreifen. Ich habe test weise einen neuen Share angelegt. Kopiere ich die Daten aus dem alten Share dahinein, passiert exakt das gleiche wieder. Mit ist aufgefallen, dass wenn ich mir die Struktur des Share in der Konsole anschaue alle Dateien mit einem Sternchen gekennzeichnet sind. Das weiß ich auch nicht was das bedeutet. Als root auf der Konsole komme ich in die Ordner rein. Was ist hier passier und vor allem: Was kann ich tun? LG Christian
  17. Ich konnte den Fehler finden. Ein fehlerhafter DNS Eintrag... Auf so was kommt man als letztes.
  18. Hallo, ich versuche bei einem neuen Unraid-Server die Telegram-Benachrichtigungen zu erhalten, scheitere aber aus unbekanntem Grund. Auf der Notification Seite sind die Haken bei "Agents" gesetzt. Bei Telegram steht Agent function auf Enabled. Der Bot Token ist korrekt eingetragen (überprüft bei /boot/config/plugins/dynamix/telegram/token Die ChatID ist ebenfalls korrekt eingetragen (/boot/config/plugins/dynamix/telegram/chatid Token und Chatid wurden aus einer funktionierenden Unraid-Installation gegen getestet. Auch nach einem kompletten Neustart von Unraid werden keine Nachrichten zugestellt. Was mache ich falsch, was habe ich vergessen? Danke schön Christian
  19. Ich hatte die Meldung vom Unraid, dass die Cache-Disk voll läuft. Die Cache-Disk ist eine 1TB SSD Eigentlich sollter der Mover jeden Tag starten, ich habe dann gesehen das der Mover läuft aber nichts bewegt. Ich hatte dann die VMs weggeschaltet und auch die Docker, was nichts geholfen hat. Dann habe ich die Mover-Logs angeschaltet und den Mover nach einem Reboot neu gestartet. Ich erhalte die folgenden Meldungen: Aug 23 11:27:55 Tower shfs: copy_file: /mnt/cache/zoneminder-data/events/1/2022-08-13/377481/00125-capture.jpg /mnt/disk2/zoneminder-data/events/1/2022-08-13/377481/00125-capture.jpg (28) No space left on device Aug 23 11:27:55 Tower move: move_object: /mnt/cache/zoneminder-data/events/1/2022-08-13/377481/00125-capture.jpg No space left on device Aug 23 11:27:55 Tower move: move: file /mnt/cache/zoneminder-data/events/1/2022-08-13/377481/00126-capture.jpg Aug 23 11:27:55 Tower shfs: copy_file: /mnt/cache/zoneminder-data/events/1/2022-08-13/377481/00126-capture.jpg /mnt/disk2/zoneminder-data/events/1/2022-08-13/377481/00126-capture.jpg (28) No space left on device Aug 23 11:27:55 Tower move: move_object: /mnt/cache/zoneminder-data/events/1/2022-08-13/377481/00126-capture.jpg No space left on device Aug 23 11:27:55 Tower move: move: file /mnt/cache/zoneminder-data/events/1/2022-08-13/377481/00127-capture.jpg Aug 23 11:27:55 Tower shfs: copy_file: /mnt/cache/zoneminder-data/events/1/2022-08-13/377481/00127-capture.jpg /mnt/disk2/zoneminder-data/events/1/2022-08-13/377481/00127-capture.jpg (28) No space left on device Aug 23 11:27:55 Tower move: move_object: /mnt/cache/zoneminder-data/events/1/2022-08-13/377481/00127-capture.jpg No space left on device Meine Disk 2 wurde vollgeschrieben, die Disk 1 hat noch mehr als 4TB frei. Ich verstehe nicht, warum der Mover es immer versucht die Daten in die Disk2 zu schreiben. Zumindest verstehe ich das Log so. Den Share habe ich so eingestellt, dass alle Festplatten benutzt werden sollen. (Screenshot anbei) Irgendwas läuft hier schief, ich weiß nur nicht wo ich suchen soll....
  20. Das habe ich noch nicht ganz verstanden. Die 6TB zusätzlich ins Array, ok das bekomme ich hin Und dann die Platten raus, ohne vorher die Daten zu kopieren? Und dann die Daten wieder einspielen? Könntest du das genauer beschreiben, oder mir die stelle vom manual nennen bitte?
  21. Guten Abend, ich habe folgendes Array. 1 x 6TB Parity 1 x 1TB Cache 1 x 6TB Daten xfs 1 x 4TB Daten btrfs 1 x 2TB Daten btrfs Ich würde gerne die 2TB und die 4TB durch eine weitere 6TB Festplatte austauschen und frage mich, wie ich dabei am besten vorgehe. Vom Prinzip würde ich die 6TB Platte wieder gern xfs haben. Ein Bauchgefühl - mehr nicht. Ich kann mich nicht mehr erinnern, warum ich verschieden FS habe. Irgendwie würde ich mit einem besser fühlen. Oder ist das völlig egal? Wie würdet ihr vorgehen? Die 2TB Festplatte umkopieren, neu formatieren und dann durch die 6TB austauschen? Anschließend die 4TB umkopieren und aus dem Array entfernen? Oder die neue 6TB zusätzlich ins Array hängen, dann die beiden 4TB und 2TB Platten leer kopieren und anschießend die beiden aus dem Array entfernen? Wenn ich Platten bzw. deren Inhalte umkopiere, muss dann das Array beim kopieren gestoppt sein? Wie merkt unraid dann, wo die Daten liegen? Oder kopiert man im laufenden Array? Hat das unbalance tool hier vorteile? Oder geht was anderes einfacher / besser? Vielen Dank für Eure Hilfe!
  22. Hallo, ich würde gerne einer dritten Person aus der Ferne ermöglichen bei mir die Backups wichtiger Dateien abzulegen. Für so etwas halte ich FTP für eine gute Lösung. Zugang würde ich per Wireguard ermöglichen. Ich habe mal einen User angelegt und diesem FTP Zugang gewährt. Leider sehe ich keine Möglichkeit den User per FTP auf einen Ordner zu beschränken. Ist dies bei dem im Unraid integrierten FTP Server möglich? Oder muss ich einen separaten FTP Server aufsetzen und gezielt dort den einen Ordner mounten? Oder würdet ihr für so einen Anwendungsfall eine ganz andere Lösung empfehlen? Vielen Dank für Eure Ideen Christian
  23. Hallo. Ich habe das Problem, dass einige Dateien durch den Mover nicht in die Shares verschoben werden. Somit habe ich auf einigen Shares die gelben Ausrufezeichen. Wie kann ich das lösen? Grüße Chris
  24. Da weiß ich gerade nicht was du mir damit sagen willst? Es wäre effizienter eine andere Software zu nutzen? Da wäre ich sogar offen für, wenn ich eine gute Alternative finden würde. Das frisst wirklich Ressourcen.
  25. Guten Tag, Mein Dell T20 kommt langsam doch an seine Grenzen und ich frage mich,welche Hardware wohl empfehlenswert wäre. Auf meinem unraid laufen derzeit einige Docker (Größenordnung 15) und zwei VMs. Ein Docker (Zoneminder) macht meine Videoüberwachung mit 4 Kameras, der benötigt am meisten Leistung denke ich. Das andere ist denke ich relativ genügsam. Unifi Controller Zwei mariaDB Piwigo Emby Zwei OCR Docker Und noch n bissel Krams. Eine VM ist mein Smarthome mit IObroker und noch eine LinuxVM für FTP Funktionen. Sonst ist das unraid das Datengrab für 4 Personen. Derzeit habe ich 4 HDD und 2 SSD verbaut. Ich denke damit komme ich auch weiterhin hin. Ich überlege ein Upgrade, weil der T20 meist so um 70 - 80 Prozent ausgelastet ist. Da die Hardware 24/7 läuft wegen der Videoüberwachung sollte auch der Stromverbrauch nicht ausser Acht gelassen werden. Was nimmt man am besten für so was? Einen Intel Core i5 als Basis? Lohnt sich der Aufpreis der aktuellen Generationen? Oder würde die 10. Generation z.b. reichen? Wieviel RAM sollte man haben,damit es vernünftig läuft? Reichen 16GB oder gleich mindestens 32? Vielen Dank für die Hilfe.