Digikus

Members
  • Posts

    37
  • Joined

  • Last visited

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

Digikus's Achievements

Noob

Noob (1/14)

11

Reputation

  1. Hallo Zusammen, ich habe heute zufällig eine seltsame Feststellung gemacht. Meine Unraid Serverzeit läuft ungefähr 3 Sekunden / Minute zu langsam. So etwas habe ich noch nie gehört und gesehen. Und das egal ob mit oder ohne NTP. NTP funktioniert einmalig bei der Aktivierung, danach verzögert es sich genauso. Da der Server zumindest immer den richtigen Tag hat, gehe ich davon aus, dass er einmal am Tag die Zeit wieder zurückstellt.. Gibt es dafür eine logische Erklärung, hat das schon mal jemand zufällig gehabt oder kenn Rat? Mein Mainboard ist ein Gigabyte C246M-WU4-CF, Bios in Version F4. Besten Dank und Grüße Digikus
  2. Backup in Clouds oder verschlüsselt in Clouds An sich ist es ziemlich identisch zum Backup auf UADs, nur muss die Cloud gemounted werden und ein Verzeichnis angelegt werden. Hier bediene ich mich an rclone, aus den community apps. Man kann sich gut an das Tutorial von Spaceinvader One zum Einrichten der Clouds halten: How to use rclone in unRAID Copy sync and encrypt files to the cloud So können sämtliche Clouds gemountet werden, bei Spaceinvader wird es dauerhaft gemacht, ich gehe jetzt nur mal auf eine Cloud ein, die ebenfalls nur nachts gemountet wird, ein verschlüsseltes Backup macht und wieder unmountet. danach sollten euch alle Anpassungen möglich sein. In Luckybackup wieder ein neues Profil anlegen, bei mir "cloud" mount-user-skript #!/bin/bash mkdir -p /mnt/remotes/encrypt_backup #Connect to remote secure via rclone and mount it locally to mnt/remotes/encrypt_backup rclone mount --allow-non-empty --max-read-ahead 1024k --allow-other secure: /mnt/remotes/encrypt_backup & sleep 10s Im Hintergrund ausführen Nun Vorgehen analog zu 1. und 2. Post unmount-user-skript #!/bin/bash sleep 20s sync -f /mnt/remotes/encrypt_backup umount /mnt/remotes/encrypt_backup && rmdir /mnt/remotes/encrypt_backup ich habe meine magentacloud, da 25GB, als "secure" in rclone angelegt, die ich so nun lokal mounten kann. Nun noch das komplette Backup-Skript anlegen #!/bin/bash mkdir -p /mnt/remotes/encrypt_backup #Connect to remote secure via rclone and mount it locally to mnt/remotes/encrypt_backup rclone mount --allow-non-empty --max-read-ahead 1024k --allow-other secure: /mnt/remotes/encrypt_backup & sleep 10s #als root user ausführen #docker exec -i luckyBackup /usr/bin/luckybackup -c --no-questions --skip-critical /root/.luckyBackup/profiles/cloud.profile #als luckybackup user ausführen docker exec -i --user luckybackup luckyBackup /usr/bin/luckybackup -c --no-questions --skip-critical /luckybackup/.luckyBackup/profiles/cloud.profile sleep 20s sync -f /mnt/remotes/encrypt_backup umount /mnt/remotes/encrypt_backup && rmdir /mnt/remotes/encrypt_backup Wie oben im Hintergrund laufen lassen, checken, Zeitplan des User-Skripts anlegen und fertig. An dieser Stelle macht bitte ein Backup des Flash-Stick Sinn, da eure rclone.conf wichtig ist, damit ihr später wieder an eure verschlüsselten Daten kommt. Auch die User-Skripts werden so ins Backup vom Stick geschrieben. Ich habe zusätzlich in meiner Keepass Datenbank mir die Secrets aus der Unraid Oberfläche "Einstellungen-->Rclone" gesichert, was faktisch der Inhalt der rclone.conf ist und ich sie so nicht verlieren kann. Ich hoffe das hilft ein paar von euch, die noch eine gute Backuplösung im Step-by-Step Verfahren gesucht haben!! MfG digikus
  3. Backups auf UADs Ich mache meine Backups immer nachts um 2:00 Uhr, damit ich sie am Tage jederzeit wechseln kann ohne vorher ins System zu gehen zum unmounten etc. Heißt was aus dem Keller holen oder Wäsche machen = Festplatte wechseln am Server. zum Einrichten in Luckybackup müssen die Unassigned Devices jedoch erst einmal gemountet werden. hierfür meine mount / unmount Skripts: Mount UAD - skript \#!/bin/bash \# 1TB Crucial SSD MX500 /usr/local/sbin/rc.unassigned mount /dev/disk/by-id/ata-CT1000MX500SSD1_xxxxxxxxxxxx \# 8TB Western Digital WD White /usr/local/sbin/rc.unassigned mount /dev/disk/by-id/ata-WDC*WD80EDAZ-xxxxxxxxxxxx \# 5TB Seagate 2,5" Portable /usr/local/sbin/rc.unassigned mount /dev/disk/by-id/ata-ST5000LM000-xxxxxxxxxxxx sleep 10s Die genaue Bezeichnung lässt sich ja auf der Main Page kopieren und hier einsetzen, anschließend im Hintergrund ausführen Natürlich lässt sich auch auf der Main Page per Mausklick mounten, aber wir brauchen das sowieso für das backup-skript gleich und so können wir das gleich Stück für Stück ausprobieren. Anschließend ist die / sind die Platte/n für Luckybackup sichtbar und ihr könnt ein neues Profil anlegen, bei mir ext_backup: . Hier habe ich bereits einige Backups für verschiedene Platten mit auch unterschiedlichen Inhalten angelegt. Anschließend analog zum 1.Post verfahren: - Backups anlegen - Zeitplan erstellen, in Cron-Datei eintragen - Inhalt Kopieren / mit dem Skript hier abgleichen - Zeitplan löschen, in Cron-Datei eintragen - Backup erstmalig ausführen in Luckybackup Nach dem erfolgreichen Backup, Luckybackup wieder schließen und das User-Skript zum unmounten erstellen und im Hintergrund ausführen: #!/bin/bash sync -f /mnt/disks/CT1000MX500SSD1_2xxxxxxxxxx sync -f /mnt/disks/WDC_WD80EDAZ-xxxxxxx_xxxxxxx sync -f /mnt/disks/ST5000LM000-xxxxxx_xxxxxxxxxx sleep 10s /usr/local/sbin/rc.unassigned umount /dev/disk/by-id/ata-CT1000MX500SSD1_xxxxxxxxxxxx /usr/local/sbin/rc.unassigned umount /dev/disk/by-id/ata-WDC_WD80EDAZ-xxxxx_xxxxxxx /usr/local/sbin/rc.unassigned umount /dev/disk/by-id/ata-ST5000LM000-xxxxxx_xxxxxxxx Jetzt legen wir das komplette Backup User-skript an: #!/bin/bash # 1TB Crucial SSD MX500 /usr/local/sbin/rc.unassigned mount /dev/disk/by-id/ata-CT1000MX500SSD1_20xxxxx # 8TB Western Digital WD White /usr/local/sbin/rc.unassigned mount /dev/disk/by-id/ata-WDC_WD80EDAZ-11xxxxxx # 5TB Seagate 2,5" Portable /usr/local/sbin/rc.unassigned mount /dev/disk/by-id/ata-ST5000LM000-2Axxxxxxxxxxx sleep 10s #luckybackup als root user ausführen #docker exec -i luckyBackup /usr/bin/luckybackup -c --no-questions --skip-critical /root/.luckyBackup/profiles/ext-backup.profile #luckybackup als luckybackup user ausführen docker exec -i --user luckybackup luckyBackup /usr/bin/luckybackup -c --no-questions --skip-critical /luckybackup/.luckyBackup/profiles/ext-backup.profile sync -f /mnt/disks/CT1000MX500SSD1_20xxxxxxxxxxxxxxx sync -f /mnt/disks/WDC_WD80EDAZ-1xxxxx-xxxxxx sync -f /mnt/disks/ST5000LM000-xxxxx_Wxxxxxxxx sleep 30s /usr/local/sbin/rc.unassigned umount /dev/disk/by-id/ata-CT1000MX500SSD1_2xxxxxxxxxxxxx /usr/local/sbin/rc.unassigned umount /dev/disk/by-id/ata-WDC_WD80EDAZ-1xxxxx_Vxxxxxxx /usr/local/sbin/rc.unassigned umount /dev/disk/by-id/ata-ST5000LM000-2xxxxxxxxx_xxxxxx Bei jedem Ausführen versucht nun Luckybackup alle UADs zu mounten, das backup zu machen und zu unmounten. Sollte eine UAD nicht zur Verfügung stehen, so wird das Backup dieser einen Platte mit einem Fehler übersprungen. Einmal im Hintergrund ausführen und nach den Logs schauen. Wichtig ist dass ihr während die Platten gemounted sind, nichts separat dort kopiert oder in Unterordner geht, dann wird die Platte u.u. nicht mehr automatisch geunmounted. Nun noch Zeitplan beim User-Skript hinterlegen und das war es schon. Funktioniert bei mir sehr zuverlässig, mit Abstand das schnellste Backup, dass ich probiert habe und dazu ist es sehr Platzsparend und einfach zu bedienen.
  4. Hallo Zusammen, nachdem ich einige Backup-Möglichkeiten ausprobiert habe und dank des tollen Supports hier, möchte ich gerne meine Backup-Routine hier an alle Einsteiger und Interessierte gerne zurück geben. Was war mein Ziel? Ich habe alle wichtigen Dokumente eingescannt und vernichtet, somit alles einzig nur noch digital. Diese wollte ich unbedingt nicht nur mit Snapshots auf einer Parity gesichert wissen, sondern zusätzlich verschlüsselt in einer cloud und auf wechselnden USB-Platten, die ich hin und wieder tausche und so automatisiert zusätzlich ein echtes "cold-backup" erzeuge. Dazu sollen natürlich auch die Appdata, VMs, boot-stick gesichert werden (können), wie ich es will. Bei Appdata sollen beispielsweise einzelne Dateiendungen ausgeschlossen werden um Platz zu sparen (Gameserver). Also eine one for all - Lösung. Meine Lösung besteht aus dem Docker "Luckybackup", das verschiedene Profile, Snapshots und sämtliche Zusatzfunktionen beherrscht, und aus drei Userscripts aufgerufen wird, die vorher entsprechend die Remotes oder UADs mounten und anschließend unmounten. Zu lokalen Backups muss ich denke nicht viel sagen, einfach Quellordner und Zielordner auswählen, Anzahl Snapshots, unter Erweitert mögliche exklusive Ausschlüsse und Einbezüge benennen und fertig. Anschließend oben mit dem Zeitplaner einen Zeitplan erstellen, "Konsolen-Modus" aktivieren, "in Cron-Datei eintragen", und "cron anzeigen" auswählen: Ergebnis: Das nun abschreiben, bzw. gegen mein Script überprüfen und anschließend den Zeitplan löschen und "in Cron-Datei eintragen" auswählen. sonst wird später doppelt ein backup gefahren. Lokal gibts da keine Probleme, aber bei uad und remote später ohne mounten sonst schon.. In den Userscripts nun ein neues Script anlegen und folgenden Inhalt übernehmen: #!/bin/bash #als root user ausführen #docker exec -i luckyBackup /usr/bin/luckybackup -c --no-questions --skip-critical /root/.luckyBackup/profiles/default.profile #als luckybackup user ausführen docker exec -i --user luckybackup luckyBackup /usr/bin/luckybackup -c --no-questions --skip-critical /luckybackup/.luckyBackup/profiles/default.profile sleep 20s Ich habe hier mal beide Befehle drin, einen für LuckyBackup eingestellt als User und einmal der Befehl als Root (wer boot/ zusätzlich sichern will z.B.). Nun zuerst in Luckybackup das Erste Backup erstellen, danach einmal das Userscript im Hintergrund ausführen und die Logs checken, der Zweite Log sollte dann so aussehen: Das Backup ist Inkrementell als Snapshot, im 2. Durchlauf wurden nur noch 4 Files geschrieben und 2 gelöscht. Auf Eurer Userscript-Seite könnt ihr nur den gewünschten Zeitplan hinterlegen, bei mir ist es z.B. jeden Tag um 2:30 Uhr: Damit ist das täglich lokale Backup aktiv. Natürlich würde lokal auch der Zeitplan in Luckybackup funktionieren, allerdings nur der lokale ohne mounten. Ich habe daher alle in den Userscrips, damit ich die Übersicht über alle Backups habe: Wie ihr seht habe ich insgesamt 7 Skripte angelegt, auf die restlichen gehe ich in den nächsten 2 Posts ein. Erst da wird es eigentlich interessant.
  5. Wow, danke für die schnelle und ausführliche Rückmeldung! Die Unicable LNB Lösung klingt sehr gut und einfach, wäre eine echte Option für mich! 8+3 Würden für meine Installation ausreichend sein. Welche DD Karte wäre denn dann für das 4-fach Unicable geeignet? Weißt Du das so aus dem Kopf spontan? Ich beginne dann erst einmal, und wenn es funktioniert melde ich mich wegen des Octopus nochmal, falls er dann noch da ist Kommt Oscam dann aus TVH oder ist es separat als Docker, so dass man in der Reihenfolge Octopus-->Oscam-->TVH bekannt machen muss?
  6. Oh ich sehe schon... :-D Vielen Dank für den Link!
  7. Nachdem nun das Awway funktioniert und Nextcloud (im Aufbau, derzeit gibt es noch einen unbekannten Fehler beim Hochladen..) und ein Gameserver schon läuft, möchte ich nun den nächsten Schritt gehen und mich dem Live-TV widmen. @ich777, von Dir habe ich die meisten Beiträge dazu gesehen und würde Dich gerne fragen, bevor ich einfach etwas kaufe, das nicht so recht passt. Ich hoffe das ist okay 🙂 Am Wochenende werde ich aus meinem Erdgeschoss zwei SAT-Kabel in den Keller bis zum Server verlegen, mehr ist mir derzeit noch nicht möglich. Ich würde mir einen dd Cine S2 V7 Advanced dafür anschaffen wollen, oder hast Du da einen besseren Vorschlag? Es darf gerne auch Stromsparend sein Wenn ich saniere kann ich auch nochmal 4 Kabel bis in den Keller ziehen, das dauert aber noch ein paar Jahre.. Du verwendest TVH mit Emby an den Clients, das würde ich dann auch so angehen, es scheinen viele so zu machen und zufrieden zu sein. Dann bräuchte ich noch ein CI+ Modul für HD+ nehme ich an. das läuft dann über einen Oscam Docker oder wie spielt das zusammen? Besten Dank und Grüße
  8. Ja ich denke deine Zusammenrechnung kommt hin. Dann versuche ich die zwei Gehäuselüfter noch zu eliminieren und somit auf etwa 15 Watt zu kommen. Damit wäre ich schon sehr happy mit der Konfiguration. Ich würde das mit dem Raid testen auch übernehmen, kann ich einfach die Zweite NVMe rausnehmen aus dem Cache und damit das Raid auflösen, oder ist der Cache mit den Dockern etc. dann ebenfalls hinüber? Ein echtes Raid teilt ja die Datein auf.. Und aus reiner Neugier: Wie passt man den die Lüfterkurve entsprechend der HDDs oder auch überhaupt an in Unraid? Oder macht man das über das BIOS? Das mit dem Ubuntu-Stick zum testen ist nochmal ein guter Hinweis, so zerschieße ich mir mein Array wenigstens nicht beim nächsten Mal 🙂
  9. Ich habe gestern Abend noch etwas Zeit gefunden und konnte etwas testen. Der Server startet wie erwartet auch mit nur einem Riegel 32GB RAM ohne Probleme. Also tippe ich in den anderen Fällen auch erst einmal auf das notwendige BIOS Update des MB mit Hilfe eines kleinen RAM. Zum Stromverbrauch bin ich auch ein kleines Stück weitergekommen. Habe nochmal 2 Lüfter getauscht und habe jetzt 16,5 Watt im Idle. Wenn ich mir das zusammenrechne kommt das wahrscheinlich am Ende sogar hin. - Der Xeon mit seinen 8 Kernen verbraucht sicher einen Tick mehr, als die Modelle mit 4 oder 6 Kernen - Dazu das Netzteil mit seinen 3 Watt mehr-Verlust, - Zwei 80mm Lüfter mit jeweils 1 Watt im Dauerbetrieb, - Zwei 60mm Gehäuselüfter mit jeweils 1 Watt im Dauerbetrieb, - Die zweite NVMe im Raid 0 Verbund zieht sicher auch nochmal 1 Watt, So komme ich ja schon auf 6 Watt plus dem XEON mit seiner möglichen Mehrleistung Den kleineren Käfig habe ich im Betrieb mal abgestöpselt, das waren so ca. 1,5-2 Watt weniger, wovon der Lüfter 1 W ausmacht und 0,5-0,7 müsste die HDD im Standby haben. Jetzt läuft erst einmal die Wiederherstellung einer Disk da noch eine notgedrungen drin war (Ohne HDD schaltet der Lüfter ab und es lässt sich nichts messen). Den größeren Cage mit den 5 LED's habe ich daher noch nicht testen können. Tippe da aber auch nur auf maximal 1-2 Watt Mehrverbrauch durch die LED's mit Elektronik und Lüftersteuerung. Vielleicht kann ich mich da nochmal rantrauen, wenn ich rausbekomme, wie ich das mit den HDDs machen kann, ohne dass sie dann deaktiviert werden und bei Reaktivierung ein neuer Parity Check notwendig wird. Wie würdest Du das einschätzen @mgutt, lohnt sich das weitertesten oder sollte ich den Verbrauch so hinnehmen? Würde ich den Deckel dauerhaft abnehmen, könnte ich mir die zwei Gehäuselüfter wohl sparen und noch sparsamere 80mm Lüfter für die HHD's verwenden. Vielleicht spreche ich noch einen Freund an, ob er mir nicht ein Lochblech als Ersatz biegen kann, dann wäre noch immer alles "geschlossen" und ich könnte mir dennoch die Gehäuselüfter sparen.. Wünsche einen angenehmen Start in die neue Woche!
  10. Kann ich gerne machen, werde spätestens am Wochenende dazu kommen den Server wieder aus dem Keller zu holen um diverse Messungen und Tests zu machen. Haben alle für den Fall der 1x 32GB ECC RAM's schon das BIOS update durchgeführt? Das war ja mein Problem aus diesem Thread, da wurden auf Version 1 kein 32GB ECC RAM erkannt:
  11. Okay, danke für Deine Einschätzung. Das werde ich spätestens am Wochenende testen. Das eine Cages hat "nur" eine Lüftersteuerung mit den Stellungen AUTO-LO-HI, da probiere ich mal rum. Das andere hat sogar nur ein manuelles Poti vorne. ansonsten hat jede Disk eine eigne LED und eigenen Port für Strom und Data vom MB. Falls dem aber wirklich so ist, dass daher der höhere Verbrauch kommt, müsste ich mir eine andere "Hot-Plug" Lösung für die zwei Schächte überlegen. In diesem Zuge könnte ich auch schauen ob ein ATX Netzteil durch die Platzersparnis passt, dann könnte ich auch dort nochmal Hand anlegen.. Nur um nochmal Klarheit zu bekommen: Im Bios brauche ich nichts weiter suchen zum Deaktivieren wie USB-Ports, Controller, LAN-Ports, "Turbo" Einstellungen oder was es alles so geben könnte? CEC, ERP und C-States enabled genügen aus Deiner Erfahrung? Ich möchte bei Gelegenheit noch eine 10GBit und eine GPU Karte nachrüsten, da fürchte ich mich ein wenig vor dem Stromverbrauch bei den jetzigen Werten.
  12. Zwischenstand: Mittlerweile läuft bei mir erfolgreich meine Nextcloud, diverse Shares, sogar ein Gameserver. VM folgt als nächstes und hoffentlich gibt es irgendwann mal wieder eine akzeptable und effiziente Grafikkarte a la GTX 1660S zu kaufen.. Nun komme ich zum Stromverbrauch, der kommt mir noch etwas hoch vor. Die Hardware: Mainboard: GIGABYTE C246M-WU4 PSU: Corsair SF450 Platinum CPU: XEON E-2278G CPU-Kühler: ARCTIC Alpine 12 CO RAM: 2xKingston KSM32ED8/32ME // 64 GB ECC NVMe: Kingston A2000 1 TB WD Black SN750 1 TB Cages: ICY DOCK FlexCage MB975SP-B R1 mit Arctic F8 PWM Lüfter 80mm ICY DOCK flexyDOCK MB830SP-B- mit Arctic F8 Silence Lüfter 80mm Gehäuselüfter: 1x Nanum SE-F6010 60mm USB-Stick: Transcend JetFlash 600 Disks: 2x WD RED PLUS 14 TB CMR 1x 8 TB WD WHITE CMR 1x 8 TB Seagate Barracuda SMR Im Bios habe ich CEC, ERP und alle C-States aktiviert, sonst habe ich (noch) keine Änderungen vorgenommen. In Unraid über Powertop -autotune laufen lassen und ins go-file geschrieben. States sehen m.E. auch gut aus: Mein Messgerät ist ein DECT200 misst, wenn alle Docker gestoppt sind und alle Festplatten im Spin-Down sind, 17-18W. @mgutt, hardwaretechnisch habe ich mich weitgehend an Deine Empfehlungen gehalten und ich denke Du bist gerade beim Stromsparen sehr erfahren. Sind 17-18W im reinen Idle bei meiner Hardware denn realistisch oder kann ich noch über diverse Einstellungen im Bios den Stromverbrauch optimieren? Ich brauche an Anschlüssen am MB eigentlich nur die beiden internen USB 2 Header und später für die VM's wahrscheinlich den Audio-Controller? Ich danke Dir für Deine Rückmeldung
  13. Ich fasse es nicht, jetzt gehts! Danke!!
  14. Hallo Zusammen, ich versuche gerade ebenfalls nextcloud über duckdns und swag nach außen zu verbinden und scheitere gerade am Zertifikat von swag / duckdns. Wie in den Tutorials habe ich einen eigenen Netzwerktyp erstellt, die Ports auf 180 und 1443 weitergeleitet, auch in der Fritzbox die Ports freigegeben. Dennoch bekomme ich beim Start von Swag folgende Fehlermeldung: Mein Swag Docker: Meine Fritzbox 7490 Freigaben auf Port 443 (Port 80 analog dazu) Damit sollten doch die Freigabe funktionieren und irgendein Zertifikat erstellt werden können um die Einrichtung weiter zu machen? Könnt ihr mir sagen, was bei mir noch nicht klappt und warum? Besten Dank und Grüße Digikus