SidM

Members
  • Posts

    204
  • Joined

  • Last visited

Recent Profile Visitors

974 profile views

SidM's Achievements

Explorer

Explorer (4/14)

25

Reputation

3

Community Answers

  1. Hallo zusammen, ich habe gemerkt dass bei mir die größe der Docker vdisk voll läuft. Wenn ich unter Docker/Containergrösse nachschaue, stelle ich fest dass dies von IoBroker Container kommt: Dass hatte ich vor 2-3Tagen auch schon einmal und konnte durch stoppen und erneutes starten des Containers den Speicherplatz wieder freigeben. Dass funktioniert jetzt aber nicht mehr, der Speicherbedarf bleibt gleich. Dass Problem ist aber eigentlich das der Container Dateien in das Image bzw. vdisk schreibt anstatt in appdata. Ich habe aber die Konfiguration des Containers nicht geändert und die Pfade passen auch noch: Wo kann ich noch nachsehen? P.s. Warum gibt es eigentlich zwei spalten mit Container und Beschreibbar? Wie muss ich das deuten? Vielen Dank!
  2. Hello everyone, I managed to install Big Sur and logged into the cloud and app store also worked. I also updated Opencore to the latest 0.9.8 and also updated the KEXTE accordingly. I then installed Ventura, which also worked without any problems! Now I would like to pass on my GPU as it is useless without video acceleration. I bought a Radeon Pro WX 4100 a long time ago specifically for this purpose. But I want to run the VM headless most of the time, i.e. remotely, for example. via VNC, Parsec etc. How do the settings have to be made? If I simply add the WX 4100 as a second card with a sound card and run the helper script and then start the VM, I only get to the Apple logo and the loading bar only goes up to about 2/5 after that nothing happens. Can any of you who also use VNC and GPU provide your XML as an example? Thank you!
  3. Is there anything new about this yet? I'm trying to install Big Sur and I get the message "An Internet connection is required to install macOS" I've already tried different variants under the VM's network interface. Thank you in advance for your help!
  4. Hallo @mgutt, ich möchte es gerne nochmal probieren und dich wie hier fragen wie ich den Standart Port ändern kann, damit ich es mit dem rsync-server und einen individuellen Port nutzen kann. Ich hab mehrere Sachen probiert, bin für so etwas aber zu blöd. Vielen Dank!
  5. Hi @mgutt, ich habe Frigate seit ca 2 Jahren im Einsatz und der Anfang war wirklich nicht Leicht (zu dieser Zeit habe ich auch frisch mit Server und Unraid angefangen) zu 1. und 4.: Ja ist gewöhnungsbedürftig, wobei ich dazu sagen muss, dass das am Anfang noch Umständlicher war, weil man die config,yaml nur im externen Editor bearbeiten konnte und jetzt dieses onboard möglich ist. zu 7. Hier verfolgt Blake so einen "ähnlich" Ansatz wie Unraid. Das nötigste ist mit drinnen und der Rest kann über MQTT und Homeassistant aufgebohrt werden. Ich für mein Teil habe es über MQTT mit IoBroker gekoppelt. zu 8. Hier wird die Auslastung der iGPU angezeigt: zu 9. Ja die haben eine Funktion wenn du MQTT nutzt😉 Damit kann du dann den State überwachen als auch Steuern. zu 11. Das zeigt dir an wieviel Speicherplatz die jeweilige Kamera pro stunde Aufnahme benötigt. zu 12. Das wird deine Tatsächliche FPS der Kamera sein. Die Einstellung wählt man so, dass der Mainstream für die Aufnahmen und der Substream für die Detektierung zuständig ist. Der Substream hat bei den meisten Kameras eine weniger hohe Auflösung und weniger FPS. Dieser wird auch Standartmäßig für die Verbindung extern mit einer App vom Hersteller (z.b. Reolink) verwendet. (Schnellerer Aufbau bzw. Anzeige des Streams) Edit: Habe auch ein Google Coral TPU aber als USB variante im Einsatz. Worauf planst du deine Aufnahmen zu speichern? Ich wollte mir dafür schon vor längerer Zeit extra ne WD Purple zulegen, aber muss gestehen dass die Aufnahmen immer noch auf die NVME landen. Vielleicht ändere ich den Speicherpfad auch einfach nur auf die MX500 und belasse es dann so. 🤷‍♂️ Bisher gab es damit keine Probleme.
  6. @mgutt Zu Reolink würde ich dir persöhnlich abraten. Habe 3stk. davon mit Frigate im Einsatz (RLC410 5MP, RLC510A und E1 Zoom) Die Streams haben öfters Aussetzer bzw. sind nicht Stabil und Personen sind von ein zum anderen Moment verschwunden. Die E1 Zoom al einzige WLAN Kamera, hat am Anfang mal gut funktioniert, aber zuletzt unbrauchbar, da nach wenigen Stunden keine Verbindung mehr zur Kamera besteht. Schau auch mal bei Dahua, welche auch der Entwickler unteranderem empfiehlt. Frigate Kamera
  7. Ich möchte nicht nerven, aber hat keiner eine Idee wie ich den Port ändern kann?
  8. @mgutt könntest du mir noch mit dem Port behilflich sein? ich habe jetzt viele konstellationen probiert, aber ich bekomme immer die Meldung: created directory /mnt/user/backup/isos/link_dest >f+++++++++ empty.file removed '/tmp/_tmp_user.scripts_tmpScripts_rsync-incremental-backup_script/empty.file' *deleting link_dest/empty.file *deleting link_dest/ Create full backup from 192.168.188.40:/mnt/user/isos to /mnt/user/backup/isos/20231230_111735 rsync: connection unexpectedly closed (0 bytes received so far) [Receiver] rsync error: unexplained error (code 255) at io.c(231) [Receiver=3.2.7] File count of rsync is 0 Error: Host key verification failed. rsync: connection unexpectedly closed (0 bytes received so far) [Receiver] rsync error: unexplained error (code 255) at io.c(231) [Receiver 3.2.7] (255)! # ##################################### Clean up outdated backups in Protokoll des Quellserver sehe ich auch immer dass er den Port 5533 nicht berücksichtigt: Dec 30 20:17:36 Unraid sshd[7790]: Connection from 192.168.178.103 port 39814 on 192.168.188.40 port 22 rdomain "" Dec 30 20:17:36 Unraid sshd[7790]: Connection closed by 192.168.178.103 port 39814 [preauth] ich habe versuchsweise in Zeile 89, in Zeile 92 als auch in beiden gleichzeitig alias ssh='ssh -p 5533' eingegeben. Auch ohne alias, an verschiedenen Positionen... und gebe ich als Source meine Quelle so "192.168.188.40:/mnt/user/isos" oder so "[email protected]:/mnt/user/isos" an? Ich habe wirklich zig Beiträge hier als auch im Netz durchsucht, aber ich werde nicht fündig. Vielleicht wäre hier noch eine kleine Anleitung für Dummies wie mich hilfreich😅
  9. Entweder war es gestern schon zu spät für mich oder das Weihnachtsessen ist schuld 😁 Irgendwie stand ich auf dem Schlauch. Beim Template hab ich gestern auf Dockerhub und Github nachgesehen um dort was im Code zu finden. Und warum ich nicht auf edit des Pfad's geklickt habe, ist mir auch ein Rätsel. Verzeiht mir bitte mein törichtes Verhalten😅 Ich hoffe der Knoten ist jetzt gelöst Dennoch komme ich mit 2 weiteren Fragen; -an welcher Stelle des Skript's kann ich den SSH Port ändern? Ich denke in der Zeile 92 #alias ssh='sshpass -p "<password>" ssh -o "StrictHostKeyChecking no"' aber wie genau check ich nicht. oder einfach alles löschen und nur das hier rein: ssh -p 5533 - kann ich bestimmte Ordner bzw. Docker ausschließen? IoBroker würde ich eigentlich gerne durchlaufen lassen und dieser macht schon sein eigenes Backup in der Cloud. der Pfad von iobroker ist /mnt/cache/appdata/iobroker ginge das hier in der Zeile 56 z.b.: --exclude="iobroker/*" Vielen Dank!
  10. Wenn ich es in dem Thread richtig vernommen habe wird es so eingerichtet: -rsync-Server auf Quell-Server installieren -SSH Key des Backupserver hinterlegen -Skript mit gewünschten Pfaden auf Backup-Server ausführen (z.b. täglicher CRON) Was mich aber noch verwundert: In der Version 1.7 des Skript steht unter ToDo: "docker container stop and start for SSH sources" Im passenden Thread dazu aber : "Unraid exclusive: Stops docker containers if the source path is the appdata path, to create consistent backups Unraid exclusive: Creates a snapshot of the docker container source path, before creating a backup of it. This allows an extremely short downtime of the containers (usually only seconds). Wie muss ich das jetzt deuten? Funktioniert das Starten und stoppen der Dockercontainer noch nicht, oder aber nur wenn das Skript auch auf dem Quell-Server ausgeführt wird?
  11. Das war auch mein erster Gedanke, aber dort ist nichts zu finden. Beim Template habe ich auch nicht wirklich etwas gefunden, das kann aber auch mangelnden Wissen liegen.
  12. SidM

    NVME Cache upgraden

    Hallo lbjim, Ich habe seit einer Weile 2x 2TB Samsung 980 PRO Heatsink verbaut und keinerlei Probleme bzw, Meldung damit. Beste Grüße.
  13. Wenn möchte ich schon den optimalen und sichersten Weg gehen. Okay also rsync Server installieren ✔️ Dort gebe ich dann nur die Pfade des eigentlichen Server's an die ich sichern möchte? Standartmäßig ist hier ja /mnt/user/ angegeben also alles. Sollte ich das nur auf die benötigten Freigaben ändern oder kann ich das auch bedenkenlos so lassen? Bei schreiben bin ich gerade etwas verunsichert wurden. Der rsync-Server läuft ebenfalls auf dem Backup-Server und durch die Generierung des SSH Key's auf dem Client (Hauptserver) kann sich der Backup-Server als vertrauenswürdig verifizieren. Richtig? Die Pfadangaben und auch das Readonly bezieht sich aber auf den Backup-Server und nicht des Hauptserver's? Damit wird quasi verhindert dass der Hauptserver Datein auf den Backup-Server Manipulieren kann, wenn er mal kompromittiert wird? Andersherum würde es aber gehen? Ich einem Screenshot von dir gab es im rync-Server die Variable Acess Mode mit der Option auf Read Only. Das ist im aktuellen Docker jetzt nicht mehr vorhanden also gehe ich richtig der Annahme, dass dies jetzt fest hinterlegt ist? Im Skript gebe ich dann z.b. folgendes ein: # source # destination "192.168.188.40:/mnt/cache/appdata" "/mnt/user/backup/appdata" "192.168.188.40:/mnt/cache/Nextcloud" "/mnt/user/backup/Nextcloud"
  14. Hallo zusammen, da der Titel ganz gut passt, dachte ich mit meinen Anliegen hier gut reinzupassen. Nach über 2 Jahren Unraid bin ich richtig begeistert von den System und habe nun bereits viele Docker im Einsatz wovon ich zu beginn nicht geträumt hatte. Dazu noch 2-3 VM'S WireGuard Tunnel etc. Seit ca. 1 Jahr ist auch Nextcloud mein täglicher Begleiter für Fotos, Dokumente etc. geworden und nicht mehr weg zu denken. Die Daten von Nextcloud und auch alle anderen Docker einschließlich appdata befindet sich auf einem Cachepool bestehend aus 2x2TB NVME, die gespiegelt sind. Nun ist es aller höchste Zeit sich um Backups dessen zu kümmern. Ich habe mir dazu vor ein paar Wochen einen Intel Nuc (NUC7i3BNK) mit 4GB RAM gekauft und dort noch eine 2TB NVME eingesetzt. Als Betriebssystem kommt hier auch Unraid zum Einsatz. Ich habe nun schon sehr häufig die Erwähnung des rsync Backup Skript von @mgutt gehört und denke, dass dies auch für mich passen würde. Allerdings ist mir manches noch nicht ganz klar. -das Skript läuft auf dem Backup-Server? -benötige ich zusätzlich den Docker rsync-Server? (ich denke nein, weiß aber nicht wo ich dann den SSH Key vom Server im Skript eintragen soll) Vielleicht noch nützlich Infos zum "Aufbau": Der Server steht bei mir und der Backup-Server bei meiner Freundin. Beide Standorte sind mit einer Fritzbox ausgestattet und permanent über VPN (IPSec) miteinander verbunden. Wireguard ist auf der 6590 leider nicht möglich, aber ich könnte durch den Backup-Server einen Wireguard-Tunnel zwischen beiden Servern einrichten. Zusätzlich ist noch geplant 2 Festplatten zu holen, die ebenfalls beide abwechselnd mit dem Skript beschrieben werden wovon eine dann immer bei bekannten untergebracht ist und ich Monatlich die alte Sicherung gegen die neue Tausche. (Hier wäre es noch cool wenn man diese evtl. verschlüsseln könnte) Macht das soweit sinn wie ich es mir vorstelle und das 321 Backup richtig verstanden habe?