SidM

Members
  • Posts

    204
  • Joined

  • Last visited

Everything posted by SidM

  1. Hallo zusammen, ich habe gemerkt dass bei mir die größe der Docker vdisk voll läuft. Wenn ich unter Docker/Containergrösse nachschaue, stelle ich fest dass dies von IoBroker Container kommt: Dass hatte ich vor 2-3Tagen auch schon einmal und konnte durch stoppen und erneutes starten des Containers den Speicherplatz wieder freigeben. Dass funktioniert jetzt aber nicht mehr, der Speicherbedarf bleibt gleich. Dass Problem ist aber eigentlich das der Container Dateien in das Image bzw. vdisk schreibt anstatt in appdata. Ich habe aber die Konfiguration des Containers nicht geändert und die Pfade passen auch noch: Wo kann ich noch nachsehen? P.s. Warum gibt es eigentlich zwei spalten mit Container und Beschreibbar? Wie muss ich das deuten? Vielen Dank!
  2. Hello everyone, I managed to install Big Sur and logged into the cloud and app store also worked. I also updated Opencore to the latest 0.9.8 and also updated the KEXTE accordingly. I then installed Ventura, which also worked without any problems! Now I would like to pass on my GPU as it is useless without video acceleration. I bought a Radeon Pro WX 4100 a long time ago specifically for this purpose. But I want to run the VM headless most of the time, i.e. remotely, for example. via VNC, Parsec etc. How do the settings have to be made? If I simply add the WX 4100 as a second card with a sound card and run the helper script and then start the VM, I only get to the Apple logo and the loading bar only goes up to about 2/5 after that nothing happens. Can any of you who also use VNC and GPU provide your XML as an example? Thank you!
  3. Is there anything new about this yet? I'm trying to install Big Sur and I get the message "An Internet connection is required to install macOS" I've already tried different variants under the VM's network interface. Thank you in advance for your help!
  4. Hallo @mgutt, ich möchte es gerne nochmal probieren und dich wie hier fragen wie ich den Standart Port ändern kann, damit ich es mit dem rsync-server und einen individuellen Port nutzen kann. Ich hab mehrere Sachen probiert, bin für so etwas aber zu blöd. Vielen Dank!
  5. Hi @mgutt, ich habe Frigate seit ca 2 Jahren im Einsatz und der Anfang war wirklich nicht Leicht (zu dieser Zeit habe ich auch frisch mit Server und Unraid angefangen) zu 1. und 4.: Ja ist gewöhnungsbedürftig, wobei ich dazu sagen muss, dass das am Anfang noch Umständlicher war, weil man die config,yaml nur im externen Editor bearbeiten konnte und jetzt dieses onboard möglich ist. zu 7. Hier verfolgt Blake so einen "ähnlich" Ansatz wie Unraid. Das nötigste ist mit drinnen und der Rest kann über MQTT und Homeassistant aufgebohrt werden. Ich für mein Teil habe es über MQTT mit IoBroker gekoppelt. zu 8. Hier wird die Auslastung der iGPU angezeigt: zu 9. Ja die haben eine Funktion wenn du MQTT nutzt😉 Damit kann du dann den State überwachen als auch Steuern. zu 11. Das zeigt dir an wieviel Speicherplatz die jeweilige Kamera pro stunde Aufnahme benötigt. zu 12. Das wird deine Tatsächliche FPS der Kamera sein. Die Einstellung wählt man so, dass der Mainstream für die Aufnahmen und der Substream für die Detektierung zuständig ist. Der Substream hat bei den meisten Kameras eine weniger hohe Auflösung und weniger FPS. Dieser wird auch Standartmäßig für die Verbindung extern mit einer App vom Hersteller (z.b. Reolink) verwendet. (Schnellerer Aufbau bzw. Anzeige des Streams) Edit: Habe auch ein Google Coral TPU aber als USB variante im Einsatz. Worauf planst du deine Aufnahmen zu speichern? Ich wollte mir dafür schon vor längerer Zeit extra ne WD Purple zulegen, aber muss gestehen dass die Aufnahmen immer noch auf die NVME landen. Vielleicht ändere ich den Speicherpfad auch einfach nur auf die MX500 und belasse es dann so. 🤷‍♂️ Bisher gab es damit keine Probleme.
  6. @mgutt Zu Reolink würde ich dir persöhnlich abraten. Habe 3stk. davon mit Frigate im Einsatz (RLC410 5MP, RLC510A und E1 Zoom) Die Streams haben öfters Aussetzer bzw. sind nicht Stabil und Personen sind von ein zum anderen Moment verschwunden. Die E1 Zoom al einzige WLAN Kamera, hat am Anfang mal gut funktioniert, aber zuletzt unbrauchbar, da nach wenigen Stunden keine Verbindung mehr zur Kamera besteht. Schau auch mal bei Dahua, welche auch der Entwickler unteranderem empfiehlt. Frigate Kamera
  7. Ich möchte nicht nerven, aber hat keiner eine Idee wie ich den Port ändern kann?
  8. @mgutt könntest du mir noch mit dem Port behilflich sein? ich habe jetzt viele konstellationen probiert, aber ich bekomme immer die Meldung: created directory /mnt/user/backup/isos/link_dest >f+++++++++ empty.file removed '/tmp/_tmp_user.scripts_tmpScripts_rsync-incremental-backup_script/empty.file' *deleting link_dest/empty.file *deleting link_dest/ Create full backup from 192.168.188.40:/mnt/user/isos to /mnt/user/backup/isos/20231230_111735 rsync: connection unexpectedly closed (0 bytes received so far) [Receiver] rsync error: unexplained error (code 255) at io.c(231) [Receiver=3.2.7] File count of rsync is 0 Error: Host key verification failed. rsync: connection unexpectedly closed (0 bytes received so far) [Receiver] rsync error: unexplained error (code 255) at io.c(231) [Receiver 3.2.7] (255)! # ##################################### Clean up outdated backups in Protokoll des Quellserver sehe ich auch immer dass er den Port 5533 nicht berücksichtigt: Dec 30 20:17:36 Unraid sshd[7790]: Connection from 192.168.178.103 port 39814 on 192.168.188.40 port 22 rdomain "" Dec 30 20:17:36 Unraid sshd[7790]: Connection closed by 192.168.178.103 port 39814 [preauth] ich habe versuchsweise in Zeile 89, in Zeile 92 als auch in beiden gleichzeitig alias ssh='ssh -p 5533' eingegeben. Auch ohne alias, an verschiedenen Positionen... und gebe ich als Source meine Quelle so "192.168.188.40:/mnt/user/isos" oder so "[email protected]:/mnt/user/isos" an? Ich habe wirklich zig Beiträge hier als auch im Netz durchsucht, aber ich werde nicht fündig. Vielleicht wäre hier noch eine kleine Anleitung für Dummies wie mich hilfreich😅
  9. Entweder war es gestern schon zu spät für mich oder das Weihnachtsessen ist schuld 😁 Irgendwie stand ich auf dem Schlauch. Beim Template hab ich gestern auf Dockerhub und Github nachgesehen um dort was im Code zu finden. Und warum ich nicht auf edit des Pfad's geklickt habe, ist mir auch ein Rätsel. Verzeiht mir bitte mein törichtes Verhalten😅 Ich hoffe der Knoten ist jetzt gelöst Dennoch komme ich mit 2 weiteren Fragen; -an welcher Stelle des Skript's kann ich den SSH Port ändern? Ich denke in der Zeile 92 #alias ssh='sshpass -p "<password>" ssh -o "StrictHostKeyChecking no"' aber wie genau check ich nicht. oder einfach alles löschen und nur das hier rein: ssh -p 5533 - kann ich bestimmte Ordner bzw. Docker ausschließen? IoBroker würde ich eigentlich gerne durchlaufen lassen und dieser macht schon sein eigenes Backup in der Cloud. der Pfad von iobroker ist /mnt/cache/appdata/iobroker ginge das hier in der Zeile 56 z.b.: --exclude="iobroker/*" Vielen Dank!
  10. Wenn ich es in dem Thread richtig vernommen habe wird es so eingerichtet: -rsync-Server auf Quell-Server installieren -SSH Key des Backupserver hinterlegen -Skript mit gewünschten Pfaden auf Backup-Server ausführen (z.b. täglicher CRON) Was mich aber noch verwundert: In der Version 1.7 des Skript steht unter ToDo: "docker container stop and start for SSH sources" Im passenden Thread dazu aber : "Unraid exclusive: Stops docker containers if the source path is the appdata path, to create consistent backups Unraid exclusive: Creates a snapshot of the docker container source path, before creating a backup of it. This allows an extremely short downtime of the containers (usually only seconds). Wie muss ich das jetzt deuten? Funktioniert das Starten und stoppen der Dockercontainer noch nicht, oder aber nur wenn das Skript auch auf dem Quell-Server ausgeführt wird?
  11. Das war auch mein erster Gedanke, aber dort ist nichts zu finden. Beim Template habe ich auch nicht wirklich etwas gefunden, das kann aber auch mangelnden Wissen liegen.
  12. SidM

    NVME Cache upgraden

    Hallo lbjim, Ich habe seit einer Weile 2x 2TB Samsung 980 PRO Heatsink verbaut und keinerlei Probleme bzw, Meldung damit. Beste Grüße.
  13. Wenn möchte ich schon den optimalen und sichersten Weg gehen. Okay also rsync Server installieren ✔️ Dort gebe ich dann nur die Pfade des eigentlichen Server's an die ich sichern möchte? Standartmäßig ist hier ja /mnt/user/ angegeben also alles. Sollte ich das nur auf die benötigten Freigaben ändern oder kann ich das auch bedenkenlos so lassen? Bei schreiben bin ich gerade etwas verunsichert wurden. Der rsync-Server läuft ebenfalls auf dem Backup-Server und durch die Generierung des SSH Key's auf dem Client (Hauptserver) kann sich der Backup-Server als vertrauenswürdig verifizieren. Richtig? Die Pfadangaben und auch das Readonly bezieht sich aber auf den Backup-Server und nicht des Hauptserver's? Damit wird quasi verhindert dass der Hauptserver Datein auf den Backup-Server Manipulieren kann, wenn er mal kompromittiert wird? Andersherum würde es aber gehen? Ich einem Screenshot von dir gab es im rync-Server die Variable Acess Mode mit der Option auf Read Only. Das ist im aktuellen Docker jetzt nicht mehr vorhanden also gehe ich richtig der Annahme, dass dies jetzt fest hinterlegt ist? Im Skript gebe ich dann z.b. folgendes ein: # source # destination "192.168.188.40:/mnt/cache/appdata" "/mnt/user/backup/appdata" "192.168.188.40:/mnt/cache/Nextcloud" "/mnt/user/backup/Nextcloud"
  14. Hallo zusammen, da der Titel ganz gut passt, dachte ich mit meinen Anliegen hier gut reinzupassen. Nach über 2 Jahren Unraid bin ich richtig begeistert von den System und habe nun bereits viele Docker im Einsatz wovon ich zu beginn nicht geträumt hatte. Dazu noch 2-3 VM'S WireGuard Tunnel etc. Seit ca. 1 Jahr ist auch Nextcloud mein täglicher Begleiter für Fotos, Dokumente etc. geworden und nicht mehr weg zu denken. Die Daten von Nextcloud und auch alle anderen Docker einschließlich appdata befindet sich auf einem Cachepool bestehend aus 2x2TB NVME, die gespiegelt sind. Nun ist es aller höchste Zeit sich um Backups dessen zu kümmern. Ich habe mir dazu vor ein paar Wochen einen Intel Nuc (NUC7i3BNK) mit 4GB RAM gekauft und dort noch eine 2TB NVME eingesetzt. Als Betriebssystem kommt hier auch Unraid zum Einsatz. Ich habe nun schon sehr häufig die Erwähnung des rsync Backup Skript von @mgutt gehört und denke, dass dies auch für mich passen würde. Allerdings ist mir manches noch nicht ganz klar. -das Skript läuft auf dem Backup-Server? -benötige ich zusätzlich den Docker rsync-Server? (ich denke nein, weiß aber nicht wo ich dann den SSH Key vom Server im Skript eintragen soll) Vielleicht noch nützlich Infos zum "Aufbau": Der Server steht bei mir und der Backup-Server bei meiner Freundin. Beide Standorte sind mit einer Fritzbox ausgestattet und permanent über VPN (IPSec) miteinander verbunden. Wireguard ist auf der 6590 leider nicht möglich, aber ich könnte durch den Backup-Server einen Wireguard-Tunnel zwischen beiden Servern einrichten. Zusätzlich ist noch geplant 2 Festplatten zu holen, die ebenfalls beide abwechselnd mit dem Skript beschrieben werden wovon eine dann immer bei bekannten untergebracht ist und ich Monatlich die alte Sicherung gegen die neue Tausche. (Hier wäre es noch cool wenn man diese evtl. verschlüsseln könnte) Macht das soweit sinn wie ich es mir vorstelle und das 321 Backup richtig verstanden habe?
  15. Unfortunately you can forget the log completely, it only contains the following: 2023/12/27 20:48:43 [notice] 203#203: signal process started 2023/12/27 20:52:23 [notice] 221#221: signal process started 2023/12/27 20:52:31 [notice] 242#242: signal process started 2023/12/27 20:53:10 [notice] 259#259: signal process started 2023/12/27 20:53:17 [notice] 280#280: signal process started 2023/12/27 21:00:13 [notice] 197#197: signal process started 2023/12/27 21:00:27 [notice] 215#215: signal process started 2023/12/27 21:00:38 [notice] 237#237: signal process started 2023/12/27 21:00:38 [notice] 265#265: signal process started 2023/12/27 21:02:36 [notice] 283#283: signal process started 2023/12/27 21:03:06 [notice] 304#304: signal process started 2023/12/27 21:05:10 [notice] 321#321: signal process started 2023/12/27 21:05:27 [notice] 342#342: signal process started I have now deleted the container including all files and then reinstalled it. I also changed the network setting from Bridge to Custom: eth0 (including changing the port forwarding on the Fritzbox) The first domain worked straight away and with the second one I get the error message “Internal error” again. With the second domain everything is really the same as with the first, except that the domain name is different. I don't understand it and I can't figure it out. Fortunately, I now have 3 months of peace with one domain. But it would be nice if I knew where to look or where I'm doing something wrong
  16. Hello everyone, every month... It's that time again when the certificates have expired and have not been automatically renewed again. It is also not possible to renew the certificates in the Webui. (Internal error) The log says the following: [12/26/2023] [12:46:46 PM] [SSL ] › ℹ info Renewing Let'sEncrypt certificates for Cert #1: meine.Domain [12/26/2023] [12:46:46 PM] [SSL ] › ℹ info Command: certbot renew --force-renewal --config "/etc/letsencrypt.ini" --work-dir "/tmp/letsencrypt-lib" --logs-dir "/tmp/letsencrypt-log" --cert-name "npm-1" --preferred-challenges "dns,http" --no-random-sleep-on-renew --disable-hook-validation [12/26/2023] [12:46:58 PM] [Express ] › ⚠ warning Command failed: certbot renew --force-renewal --config "/etc/letsencrypt.ini" --work-dir "/tmp/letsencrypt-lib" --logs-dir "/tmp/letsencrypt-log" --cert-name "npm-1" --preferred-challenges "dns,http" --no-random-sleep-on-renew --disable-hook-validation Saving debug log to /tmp/letsencrypt-log/letsencrypt.log Failed to renew certificate npm-1 with error: Some challenges have failed. All renewals failed. The following certificates could not be renewed: /etc/letsencrypt/live/npm-1/fullchain.pem (failure) 1 renew failure(s), 0 parse failure(s) Ask for help or search for solutions at https://community.letsencrypt.org. See the logfile /tmp/letsencrypt-log/letsencrypt.log or re-run Certbot with -v for more details. Does anyone have a solution for this please? Unfortunately, turning off “force SSL” on Github doesn’t help. Thank you.
  17. Hallo Zusammen, alle Monate wieder.... es ist mal wieder soweit, dass die Zertifikate abgelaufen sind und sich nicht wieder automatisch verlängert haben. Auch ist es wieder nicht Möglich in der Webui die Zertifikate zu erneuern. (Internal Error) im Log steht dazu folgendes: [12/26/2023] [12:46:46 PM] [SSL ] › ℹ info Renewing Let'sEncrypt certificates for Cert #1: meine.Domain [12/26/2023] [12:46:46 PM] [SSL ] › ℹ info Command: certbot renew --force-renewal --config "/etc/letsencrypt.ini" --work-dir "/tmp/letsencrypt-lib" --logs-dir "/tmp/letsencrypt-log" --cert-name "npm-1" --preferred-challenges "dns,http" --no-random-sleep-on-renew --disable-hook-validation [12/26/2023] [12:46:58 PM] [Express ] › ⚠ warning Command failed: certbot renew --force-renewal --config "/etc/letsencrypt.ini" --work-dir "/tmp/letsencrypt-lib" --logs-dir "/tmp/letsencrypt-log" --cert-name "npm-1" --preferred-challenges "dns,http" --no-random-sleep-on-renew --disable-hook-validation Saving debug log to /tmp/letsencrypt-log/letsencrypt.log Failed to renew certificate npm-1 with error: Some challenges have failed. All renewals failed. The following certificates could not be renewed: /etc/letsencrypt/live/npm-1/fullchain.pem (failure) 1 renew failure(s), 0 parse failure(s) Ask for help or search for solutions at https://community.letsencrypt.org. See the logfile /tmp/letsencrypt-log/letsencrypt.log or re-run Certbot with -v for more details. Hat bitte jemand eine Lösung dafür? Der hinweiß auf github "force SSL" auszuschalten bringt leider nichts. Vielen Dank.
  18. Hallo Zusammen, seit gestern habe ich mal wieder ein wenig Trouble mit Nginx. Ich habe für meine Nextcloud Instanz 2x DynDNs (Strato und DuckDNS) eingerichtet, falls mal eins von beiden nicht gehen sollte, ich immer noch über die jeweilige andere Domain gehen kann. (Ursprünglich hatte ich nur DuckDNS, da ich aber einen schöneren Namen für die Domain haben wollte, kam Strato dazu) Das ganze hab ich nun seit nen 3/4 Jahr soweit laufen und zugriff über https mit Zertifikaten von Let's Encrypt. Nun sind gestern mal wieder die Zertifikate abgelaufen und ich wollte diese im WebUI erneuern. Für die DuckDNS Domain hat dies funktioniert, aber bei der Strato Domain kommt die Meldung "Internal Error". Dies hatte ich beim Letzen mal auch schon gehabt, nur konnte ich dort das Zertifikat weder für die eine noch die andere Domain erneuern. Irgendwann hat es funktioniert, nur leider weiß ich nicht mehr was der Fehler war. Was habe ich getestet/kontrolliert: - DynDNS ist bei der Strato Domain aktiv - Wenn ich die aktuelle öffentliche IPv4 Adresse im Browser eingebe, komme ich auf die "Congratulations!" Seite von NGINX - In der Fritzbox sind die Ports 443 und 80 eingerichtet und zeigen auf NGINX - Im Log von NGINX steht "Another instance of Certbot is already running" ( Ich erinnere mich, dass diese Meldung beim letzten mal auch da stand. - Wenn ich den Proxy Host lösche und neu anlege funktioniert es ohne Fehler - Zusätzlich habe ich beim neu anlegen bemerkt, dass die Optionen "Force SSL", "HTTP/2 Support" "HSTS enabled" nach den speichern wieder deaktiviert wurden. Ich kann diese zwar dann nochmal aktivieren und er behält dieses mal die Einstellung, aber ist das Normal? Danke und viele Grüße!
  19. @Kilrah Thank you very much for your help. Nextcloud is running again as before! What was the mistake? I happened to see that my UPS was not accessible in IoBroker. In Unraid, however, this was accessible and also provided current data (Unraid is the APCDamon for IoBroker) That's why I restarted the server (I already had it yesterday) and then IoBroker reached the UPS again. So Nextcloud changed back to br:0 and put the Config.php back and now everything is running as it should. We had thunderstorms with power outage two days in a row. However, the server is supported by the UPS and is shut down in a controlled manner. So I can't explain the behavior other than a hiccup.🤷‍♂️🤷‍♂️
  20. I was just able to narrow down the error or make Nextcloud work for the time being. I switched the Nextcloud container from br:0 to bridge. (192.168.18.40) and host port 8222. In the Config.php I added the IP to the trusted_domains. In the Nginx proxy manager, I also switched the IP from my domain to the new IP. Now I have access again. That's nice at first, but it shouldn't stay like this. However, "Host access to user-defined networks" is still activated in the Docker settings. What could it be?
  21. How do they recognize that there is no communication between them? No, I did not make any changes to the network myself
  22. Good day! Unfortunately I've been having problems with Nextcloud since yesterday. I noticed it when I couldn't access my data with my iPhone. Then I just restarted Docker on my cell phone in the hope that it would help (of course not) Then I was so "clever" and updated the container because it showed me an update and also had the hope that it would work again. Then today I checked the log again while I was at rest on the PC. This is in the log: I've searched the internet up and down, but can't find a solution. However, the yellow message no longer appears in the LOG: Mariadb's log is also unremarkable: Where can and must I start? I'm very clueless right now.
  23. Hat es einen bestimmten Grund, warum du Cache SSD und Docker SSD getrennt haben möchtest? Bedenke, dass wenn eine der Platten ausfällt die Daten futsch sind bzw. (Backup vorausgesetzt) sie den Stand des letzten Backups haben. Bei der Cache SSD kommt es darauf an, welches Intervall der Mover eingestellt ist. Shares die aber auf Cache YES stehen, sind komplett ungeschützt. Und Nein, Unraid benutzt nicht automatisch die Pool Platten als Cache. Das kannst du für jedes Share separat einstellen. Ich habe bei mir 2x2TB im Pool als RAID 1 die mir als Cache und Speicherpfad für Dockercontainer dienen. Ebenfalls für ein paar Shares auf die ich ständig zugreife. Zusätzlich ist noch eine 4TB Sata SSD für aktuelle Downloads, Kameraaufnahmen etc. verbaut, wo es nicht so schlimm ist, wenn dieses abraucht. Und wie schon meine Vorredner gesagt haben, nur das installieren was du wirklich benötigst. Der Rest kommt dann bei Bedarf automatisch.
  24. Grüße! Deine 3 HDD packst du in das Array. Dabei können diese entweder 3x Daten ohne Parity oder 2x Daten mit 1x Parity oder 1x Daten mit 2x Parity sein, je nachdem was du vor hast/benötigst. Die Cache SSD kommt in den Pool und dient wenn so konfiguriert als schneller Zwischenspeicher. Beachte wenn nur eine Platte im Pool ist und diese ausfällt auch die Daten futsch sind, ähnlich im Array wenn dort keine Parität vorhanden ist. Anzumerken sei noch dass die Parität die größte Festplatte sein muss, falls du unterschiedlich große HDD's einsetzen willst. Ich würde beide SSD's in den Pool packen und diesen sowohl als Cache als auch Speicherlaufwerk für dein Docker nutzen. Für die grundsätzliche NAS Funktion (SMB Share) brauchst du kein Docker.