Jump to content

SidM

Members
  • Posts

    208
  • Joined

  • Last visited

Posts posted by SidM

  1. Hello everyone,

    I expanded my server to a total of 128GB RAM and, by a lucky coincidence, upgraded it from the E-2176G to the E-2278GE.

    Now I started my MacOS VM (Ventura) again to see if it still works --> Yes, it still works.

    So I shut down the VM and then gave it 64GB and expanded the cores from 4 (8 threads) to 8 (16 threads).
    Then run the helper script and then start the vm again.

    Unfortunately, I discovered that with the new config the VM takes significantly longer to start. (It used to be about 1 minute, now it's about 3-4 minutes),
    I also see that in the utilization of the CPU cores. For a while, only one core is used, until later all cores are involved.

    Now I tried a little and with the following arguments the VM starts in just under 40 seconds:

    <qemu:arg value='host,vendor=GenuineIntel,+hypervisor,+invtsc,kvm=on,+fma,+avx,+avx2,+aes,+ssse3,+sse4_2,+popcnt,+bmi1,+bmi2'/>

     

    Originally, as I found it online, it also said "+sse4a", but this caused the following errors in the log:

    qemu-system-x86_64: warning: host doesn't support requested feature: CPUID.80000001H:ECX.sse4a

     

    And the standard configuration before looked like this:

    <qemu:arg value='host,kvm=on,vendor=GenuineIntel,+invtsc,+hypervisor'/>

     

    Now I've been looking for quite a while, but unfortunately I haven't found anything specific.
    What do all the points do, is there a list for them and can I use them to get something out of performance or optimize it?

  2. Einen schönen Pfingstmontag euch allen,

     

    ich melde mich wieder zurück und kann berichten, dass der Server jetzt mit 128GB RAM läuft. Ich bin, nachdem mir @DataCollector Wertvolle Tipps mit mitgegeben hat, nochmal die verschiedenen Punkte durchgegangen.

     

    - DUAL Channel ausschalten --> keine Option im BIOS vorhanden

    - Speichertakt Einstellung fix auf 2666 setzen --> ebenfalls keine Option vorhanden

    - RAM-Riegel in verschiedenen Bänken probiert --> kein Booten mit 4 Modulen möglich

     

    Letztendlich habe ich jetzt noch ein weiteren Riegel mit 3200Mhz gekauft und diesen mit den 2933MHz Riegel ausgetauscht, damit läuft die Kiste nun wie gewünscht. 

    • Like 1
  3. 11 hours ago, DataCollector said:

    Du hast bisher schon eine gemische Bestückung verwendet:

    Ja das Stimmt. ist leider so gewachsen😀 Wenn ich die KSM32ED8/32ME Module bekommen hätte, wären es auch die geworden.

     

     

    11 hours ago, DataCollector said:

     

    Ich befürchte aber, daß die unterschiedlichen Speichertakte die CPU dazu verleiten (weil das Mianboard vermutlich "full power vorgibt) zu hoch zu takten oder per DualChannel zuzugreifen, was leichte Timingdiskrepanzen verursachen kann.

    Die CPU soll zwar nur DDR4-2666 (PC4-21300, 42.7GB/s) machen udn somit wären alle Module nutzbar, aber irgendwoher muß das Problem ja stammen.

    Das ist Interessant.

     

    11 hours ago, DataCollector said:

    Wie lange hast Du gewartet, bis zu zu dem Schluß kamst?

    Meine W480 Mainboards haben bei Speicherveränderungen etwas über (ich glaube es waren) 3 Minuten im Start+Speichertest verbracht, bevor das Board dann zum Bootscreen kam.

    Nachdem die Speicher einmal durchgetestet waren startet es nun so in ca. 1Minute bis zum Bootscreen.

    Wie gesagt, die Zeit habe ich nicht gestoppt, ich denke so 2-3 Minuten. Da ich das Startverhalten aber nicht als normal erachtet habe, habe ich dann auch abgebrochen.

    Ich hatte es auch 2mal, dass nach diesen An,Aus,An,Aus der Server länger anblieb für vielleicht so 45s , dann wieder ausging, dann wieder 45s an etc. Da ich aber auch keine Ausgabe auf dem TV bekommen habe, auch hier abgebrochen.

     

    Was ich noch vergessen habe:

    - dass ich ein Pieper verbaut habe und dieser bei den Konstellationen die nicht funktioniert haben, kein einziges mal gepiept hat.

    - die Num-Lock Taste einer angeschlossene USB-Tastatur hat dann ebenfalls nicht aufgeleuchtet 

     

    11 hours ago, DataCollector said:

    Welches der beiden alten Mo9dulen hast Du im 3er Verbund getestet?

    Ich vermute die 3x DDR3200 Module laufen besser zusammen als das DDR2933 Module mit den anderen 3200ern.

    Versuche das nochmal und schaue ob es so ist, wie ich vermute. Dann wird das 2933er Modul einfach nicht gut mit den schnelleren zusammen arbeiten.

    Das sollte zwar nicht der Fall sein, da alle oberhalb der CPU Fähigkeiten liegen, aber gerade bei Speichermodulen kann es immer "Animositäten geben".

    wenn es doch am PSU liegt. Aber wie gesagt. das wäre jetzt nicht wirklich meine naheliegenste Vermutung.

    Ich glaube hier hast du dich verlesen😉

    Ich habe 2x Alt (1x KSM29ED8/32ME 1x KSM32ED8/32ME) und 1x Neu (KSM32ED8/32HC) verbaut.

    In dieser Konstellation läuft der Server auch gerade den 2ten Tag durch. 

     

    11 hours ago, DataCollector said:

    Nur aus Spass gib der Kiste mal 5 Minuten. Wenn dann auf keinem Videoausgang etwas kommt, sehe ich schwarz. (Wie ich an einem Z690 Mainboard feststellet, sind BIOSse vielleicht per default etwas empfindlich und geben das Signal nur auf einem iGPU Anschluß aus. Der zweite blieb bei mir schwarz und ich dachte auch, daß das Mainboard sich tod stellen würde. in wirklichkeit hat es auf dem anderen digitalen iGPU Anschluß munter seine Meldungen abgespult.)

    Mit der Information von dir werde ich das nochmal Probieren. 

     

     

    11 hours ago, DataCollector said:

    Zusatzinformation:

    a) Wegen Deinem langsamen Speichermodul, ist es einen Versuch wert, erst einmal irgendwie (mit nur 1, 2 oder 3 Modulen) in das BIOS/UEFi rein zu kommen und Dual Channel-Speicherzugriff abzuschalten! Danach nochmal mit allen 4 versuchen. Dadurch kommen die Timingunterschiede der Module nicht mehr so zum Tragen.

    b) sollte das Mainboard automatisierte Speichertakteinstellungen haben, schalte die Auotmatik für den Ram Takt mal ab und klopfe die auf die CPU fähigkeit 2666 fest.

    c) ich würde die beiden alten Speichermodule testweise in die RamSlots A1 und B1 rein, damit diese den Speicherbus heruntertakten.

    Das langsamste Module bevorzugt in B1 (der CPU am nächsten, weil es da die kürzeste Signalbahn hat und somit noch das beste Signal von der CPU bekommt).

    Die schnelleren (neuen) Module sind vermutlich toleranter und kommen am Ende des Speicherbusses (in den Slots A2 und B2) vermutlich besser damit klar den längeren Signalweg zu haben.

    Alle drei sind aber nur je ein Schuß ins Blaue!

    Das sind auch nochmal sehr wertvolle Tipps, die ich gerne Probiere!

     

    11 hours ago, DataCollector said:

    Ich drück die Daumen! (oder wie man im englischen sagt: fingers crossed🤞)

    Vielen Dank🍻🍻

     

    11 hours ago, DataCollector said:

    Diese mehrfachen Start/Stopps beim Start stören mich auch, sind aber bei neueren (ab ich glaube 8. gen Intel) notwendig.

    Die Info ist auf jeden Fall Gold Wert!!! Ich habe früher öfters am PC's geschraubt aber das ist auch ne Weile her und da ist mir sowas nicht untergekommen.

     

     

    11 hours ago, DataCollector said:

    Wenn Du die Laufwerke bei den Basteleien abklemmst. laufen die auch nicht hoch.

    Sollte das Mainboard dann doch mit den 4 Speichermodulen klar kommen und dann später in kürzerer Zeit starten, kannst Du die wieder anklemmen und unraid normal laufen lassen.

    Das Stimmt. Ich habe auch gelernt, dass man solche Aktionen nicht Abend's mal schnell machen sollte in der Hoffnung "wird schon gehen" . Kurz vor 22 Uhr angefangen und 2 Uhr war ich froh das die Kiste wieder läuft, da auch ein paar Docker nicht mehr so wollten. 

    (Durch das CMOS reset war jetzt Standartmäßig die dGPU gesetzt, was ich erstmal nicht geblickt hatte)

     

    12 hours ago, DataCollector said:

     

    Mich hatte mal ein vom Händler Mindfactory neu geliefertes aber dennoch defektes Kingston ECC Ram Modul (fast) in den Wahnsinn getrieben, das habe ich dann nur durch Einzeltests mit memtest86 herausgefunden.

    Du hattest zwar angedeutet, daß Du meinst die seien alle in Orgnung, aber sofern Du nicht jedes Modul einzeln in dem Board mit Memtest einige Stunden (24h) durchgetestet hast, empfehle ich das dennoch mal zu machen.

    Puhh... ich hoffe nicht. Dass müsste ich dann irgendwann mal anders Timen. Ich brauche Nextcloud und IoBroker täglich andere Docker ebenso.

     

    12 hours ago, DataCollector said:

    Grundlegend ja, aber ECC Selbsttests dauern anscheinend länger und zumindest mein W480 reagiert auf jede Art des Speicherwechsels mit einer erhöhten POST-testzeit mit schwarzem Bildschirm.

    Gut zu Wissen!

     

    Vielen vielen Dank für deine Ausführliche Hilfe. Ich werde mal Schritt für Schritt alles durchgehen und melde mich wieder mit neuen Erkenntnissen.

    • Like 1
  4. Guten Abend zusammen!

     

    Ich dachte ich gönne mein Server mal was schönes und habe 2 neue 32GB RAM Riegel von Kingston bestellt um auf 128GB zu kommen.

    Also Rechner runtergefahren, vom Netz getrennt und die beiden Riegel eingesetzt. Aber genau das gleiche Problem wie @Bigbrother gehabt--> der Server geht kurz an und geht dann sofort wieder aus, geht wieder kurz an und sofort wieder aus usw. Er kommt also noch nicht mal in das BIOS.

     

    ich habe dann mehrere Konstellationen probiert:

    - komplett Bestückung mit 4x32GB Modulen--> geht nicht

    - komplett Bestückung mit 4x32GB Modulen und in verschiedenen Bänken getauscht--> geht nicht

    - nur die beiden neuen Riegel zusammen als auch nochmal die alten zusammen probiert--> geht

    - Bestückung mit 3x32GB Modulen (2x Alt, 1x Neu)--> geht

    - CMOS Clear gemacht, aber mehr wie 3x32GB geht nicht

     

    Daraus schlussfolgere ich erstmal, dass alle Riegel funktionieren und keiner davon defekt ist.

    @Bigbrother schrieb, dass sein Netzteil defekt war.

    Dazu muss ich sagen, dass ich das auch in Verdacht hätte, WENN! ich nicht dieses schonmal vor 2 Jahren gegen den gleichen Typ (Corsair RM550x 2021) getauscht hätte. 

    Ich hab das oben geschilderte Verhalten (An,Aus,AN etc.) wenn ich jetzt Revue passieren lasse, glaube schon immer gehabt wenn ich den Server um eine weitere Festplatte erweitert habe. Bei der Grafikkarte bin ich mich nicht sicher.

    Nach mehreren Ein-Ausschaltversuchen hat es dann auch irgendwann funktioniert und lief nach diesen "Prozedere"@ dann einwandfrei und auch Neustarts waren kein Problem.

     

    @DataCollector Du scheinst dich damit gut auszukennen. Ist das Verhalten wirklich normal und ich muss den Server nur mehr Zeit zum "Voll" starten geben? Ich meine ich habe ca. 2-3 Minuten gewartet, habe aber auch nicht die Zeit gestoppt.

    Gibt es irgendwo Quellen wo man das nachlesen kann?--> ich habe hierzu leider noch nichts gefunden.

     

    Was ich auch blöde finde, dass dann bei jeden Versuch die Platten unnötig hochgefahren und wieder gestoppt werden...

     

    Das Verhalten was ich Erwartet hätte, wäre halt runterfahren, einbauen, hochfahren und sich auf 128GB im Dashboard freuen. 

    Was sagt ihr? Nochmal alle Riegel einbauen und mehr zeit (wieviel ist genug?) zum starten geben? 

    Oder hab ich vielleicht Pech und das gleiche Netzteil ist wieder defekt?

     

    Hier noch ein Teilauszug meiner Hardware:

    - Intel Xeon E-2176G

    - Gigabyte C246M-WU4-CF

    - Corsair RM550x 2021

    - 1x Kingston KSM29ED8/32ME (Alt)

    - 1x Kingston KSM32ED8/32ME (Alt

    - 2x Kingston KSM32ED8/32HC (Neu)

     

    Vielen Dank vorab!

     

  5. Hallo zusammen,

     

    ich habe gemerkt dass bei mir die größe der Docker vdisk voll läuft. Wenn ich unter Docker/Containergrösse nachschaue, stelle ich fest dass dies von IoBroker Container kommt:

     

    787203676_2024-03-07(9).png.701c18e1f55c4eaac5c86f38b3770780.png

     

    Dass hatte ich vor 2-3Tagen auch schon einmal und konnte durch stoppen und erneutes starten des Containers den Speicherplatz wieder freigeben.

    Dass funktioniert jetzt aber nicht mehr, der Speicherbedarf bleibt gleich.

     

    Dass Problem ist aber eigentlich das der Container Dateien in das Image bzw. vdisk schreibt anstatt in appdata.

    Ich habe aber die Konfiguration des Containers nicht geändert und die Pfade passen auch noch:

     

    1491473251_2024-03-07(12).thumb.png.12442d741453f4ab1a46b4a069dc77a6.png

     

    Wo kann ich noch nachsehen?

     

     

    P.s. Warum gibt es eigentlich zwei spalten mit Container und Beschreibbar? Wie muss ich das deuten?

     

    Vielen Dank!

  6. Hello everyone,

    I managed to install Big Sur and logged into the cloud and app store also worked.

    I also updated Opencore to the latest 0.9.8 and also updated the KEXTE accordingly.

    I then installed Ventura, which also worked without any problems!

    Now I would like to pass on my GPU as it is useless without video acceleration.

    I bought a Radeon Pro WX 4100 a long time ago specifically for this purpose.
     
    But I want to run the VM headless most of the time, i.e. remotely, for example. via VNC, Parsec etc.

    How do the settings have to be made?

    If I simply add the WX 4100 as a second card with a sound card and run the helper script and then start the VM, I only get to the Apple logo and the loading bar only goes up to about 2/5 after that nothing happens.

    Can any of you who also use VNC and GPU provide your XML as an example?

     

    Thank you!

  7. On 1/20/2021 at 10:17 AM, WPCom said:

    Would anyone know why I can not pass my internet connection through to the mac VMs? I have tried all the diffrent OS installs, and I can not get past the reinstall macOS because it does not propperly pass through nic.

     

    Thoughts? or am I missing somthing obvious?

    Is there anything new about this yet? I'm trying to install Big Sur and I get the message "An Internet connection is required to install macOS"

    I've already tried different variants under the VM's network interface.

    Thank you in advance for your help!

  8. Hi @mgutt,

     

    ich habe Frigate seit ca 2 Jahren im Einsatz und der Anfang war wirklich nicht Leicht (zu dieser Zeit habe ich auch frisch mit Server und Unraid angefangen)

     

    zu 1. und 4.: Ja ist gewöhnungsbedürftig, wobei ich dazu sagen muss, dass das am Anfang noch Umständlicher war, weil man die config,yaml nur im externen Editor bearbeiten konnte und jetzt dieses onboard möglich ist.

     

    zu 7. Hier verfolgt Blake so einen "ähnlich" Ansatz wie Unraid. Das nötigste ist mit drinnen und der Rest kann über MQTT und Homeassistant aufgebohrt werden. Ich für mein Teil habe es über MQTT mit IoBroker gekoppelt.

     

    zu 8. Hier wird die Auslastung der iGPU angezeigt:

    2024-01-08.png.833f823f8018fbbbfe4f04a88a1d6fa0.png

     

    zu 9. Ja die haben eine Funktion wenn du MQTT nutzt😉 Damit kann du dann den State überwachen als auch Steuern.

    1116047081_2024-01-08(1).thumb.png.7578f760a4ad5715061f680e83abf6d2.png

     

     

    zu 11. Das zeigt dir an wieviel Speicherplatz die jeweilige Kamera pro stunde Aufnahme benötigt.

    1232099640_2024-01-08(2).png.c8c2a749420c5bb782cd84022fc9668a.png

     

    zu 12. Das wird deine Tatsächliche FPS der Kamera sein. Die Einstellung wählt man so, dass der Mainstream für die Aufnahmen und der Substream für die Detektierung zuständig ist. Der Substream hat bei den meisten Kameras eine weniger hohe Auflösung und weniger FPS. Dieser wird auch Standartmäßig für die Verbindung extern mit einer App vom Hersteller (z.b. Reolink) verwendet. (Schnellerer Aufbau bzw. Anzeige des Streams)

     

    Edit:

     

    Habe auch ein Google Coral TPU aber als USB variante im Einsatz.

     

    Worauf planst du deine Aufnahmen zu speichern? Ich wollte mir dafür schon vor längerer Zeit extra ne WD Purple zulegen, aber muss gestehen dass die Aufnahmen immer noch auf die NVME landen. Vielleicht ändere ich den Speicherpfad auch einfach nur auf die MX500 und belasse es dann so. 🤷‍♂️ Bisher gab es damit keine Probleme.

     

     

    • Like 1
    • Upvote 1
  9. @mgutt

     

    Zu Reolink würde ich dir persöhnlich abraten. Habe 3stk. davon mit Frigate im Einsatz (RLC410 5MP, RLC510A und E1 Zoom)

     

    Die Streams haben öfters Aussetzer bzw. sind nicht Stabil und Personen sind von ein zum anderen Moment verschwunden.

    Die E1 Zoom al einzige WLAN Kamera, hat am Anfang mal gut funktioniert, aber zuletzt unbrauchbar, da nach wenigen Stunden keine Verbindung mehr zur Kamera besteht.

     

    Schau auch mal bei Dahua, welche auch der Entwickler unteranderem empfiehlt. Frigate Kamera

    • Thanks 1
  10. @mgutt könntest du mir noch mit dem Port behilflich sein?

     

    ich habe jetzt viele konstellationen probiert, aber ich bekomme immer die Meldung:

     

    created directory /mnt/user/backup/isos/link_dest
    >f+++++++++ empty.file
    removed '/tmp/_tmp_user.scripts_tmpScripts_rsync-incremental-backup_script/empty.file'
    *deleting link_dest/empty.file
    *deleting link_dest/
    Create full backup from 192.168.188.40:/mnt/user/isos to /mnt/user/backup/isos/20231230_111735
    
    rsync: connection unexpectedly closed (0 bytes received so far) [Receiver]
    rsync error: unexplained error (code 255) at io.c(231) [Receiver=3.2.7]
    File count of rsync is 0
    Error: Host key verification failed. rsync: connection unexpectedly closed (0 bytes received so far) [Receiver] rsync error: unexplained error (code 255) at io.c(231) [Receiver 3.2.7] (255)!
    # #####################################
    Clean up outdated backups

     

    in Protokoll des Quellserver sehe ich auch immer dass er den Port 5533 nicht berücksichtigt:

    Dec 30 20:17:36 Unraid sshd[7790]: Connection from 192.168.178.103 port 39814 on 192.168.188.40 port 22 rdomain ""
    Dec 30 20:17:36 Unraid sshd[7790]: Connection closed by 192.168.178.103 port 39814 [preauth]

     

     

    ich habe versuchsweise in Zeile 89, in Zeile 92 als auch in beiden gleichzeitig

    alias ssh='ssh -p 5533'

    eingegeben. Auch ohne alias, an verschiedenen Positionen...

     

    und gebe ich als Source meine Quelle so

    "192.168.188.40:/mnt/user/isos"

    oder so

    "[email protected]:/mnt/user/isos"

    an?

     

    Ich habe wirklich zig Beiträge hier als auch im Netz durchsucht, aber ich werde nicht fündig.

     

    Vielleicht wäre hier noch eine kleine Anleitung für Dummies wie mich hilfreich😅

  11. Entweder war es gestern schon zu spät für mich oder das Weihnachtsessen ist schuld 😁 Irgendwie stand ich auf dem Schlauch. Beim Template hab ich gestern auf Dockerhub und Github nachgesehen um dort was im Code zu finden. Und warum ich nicht auf edit des Pfad's geklickt habe, ist mir auch ein Rätsel.

     

    Verzeiht mir bitte mein törichtes Verhalten😅

    Ich hoffe der Knoten ist jetzt gelöst

     

    Dennoch komme ich mit 2 weiteren Fragen;

     

    -an welcher Stelle des Skript's kann ich den SSH Port ändern? Ich denke in der Zeile 92

    #alias ssh='sshpass -p "<password>" ssh -o "StrictHostKeyChecking no"'

    aber wie genau check ich nicht. oder einfach alles löschen und nur das hier rein:

    ssh -p 5533

     

     

    - kann ich bestimmte Ordner bzw. Docker ausschließen? IoBroker würde ich eigentlich gerne durchlaufen lassen und dieser macht schon sein eigenes Backup in der Cloud.

    der Pfad von iobroker ist /mnt/cache/appdata/iobroker ginge das hier in der Zeile 56 z.b.:

    --exclude="iobroker/*"

     

     

    Vielen Dank!

  12. Wenn ich es in dem Thread richtig vernommen habe wird es so eingerichtet:

     

    -rsync-Server auf Quell-Server installieren

    -SSH Key des Backupserver hinterlegen

    -Skript mit gewünschten Pfaden auf Backup-Server ausführen (z.b. täglicher CRON)

     

    Was mich aber noch verwundert: In der Version 1.7 des Skript steht unter ToDo: "docker container stop and start for SSH sources"

    Im passenden Thread dazu aber :

     

    "Unraid exclusive: Stops docker containers if the source path is the appdata path, to create consistent backups

    Unraid exclusive: Creates a snapshot of the docker container source path, before creating a backup of it. This allows an extremely short downtime of the containers (usually only seconds).

     

    Wie muss ich das jetzt deuten? Funktioniert das Starten und stoppen der Dockercontainer noch nicht, oder aber nur wenn das Skript auch auf dem Quell-Server ausgeführt wird? 

  13. 3 minutes ago, Revan335 said:

    Wenn du den Erweiterten Modus (im Template Editor) einschaltest oder in das Template selbst schaust, dann solltest du die entsprechende Option sehen. Ob die jetzt auf RO oder RW steht.

    Das war auch mein erster Gedanke, aber dort ist nichts zu finden. Beim Template habe ich auch nicht wirklich etwas gefunden, das kann aber auch mangelnden Wissen liegen.

  14. On 10/31/2023 at 4:25 PM, Ibjim said:

    Hallo @SidM

    Es tut mir leid, ein altes Thema zurückzubringen, und ich entschuldige mich für die schlechte Übersetzung (ich muss Google Translate verwenden), aber ich hatte ein Problem mit der NVME-Kompatibilität mit meinem Gigabyte c246m-wu4 und habe mich gefragt, welche Laufwerke Sie derzeit verwenden und Waren sie bisher in Ordnung? Ich habe 2 TB Crucual P3s und sie fallen immer wieder aus. Ich bin beim Durchstöbern des Forums auf dieses Thema gestoßen. Danke

     

    Hallo lbjim,

     

    Ich habe seit einer Weile 2x 2TB Samsung 980 PRO Heatsink verbaut und keinerlei Probleme bzw, Meldung damit.

     

    Beste Grüße.

  15. 52 minutes ago, jspeeples said:

    Fresh install of NPM using the br0 network and its own IP. Have both 443 and 80 ports forwarded with my router and even able to ping them from outside the network. 

    When I try to add a new Proxy Host and enable SSL its says: "Internal Error"

    If I go to SSL Certificates and create a new one it says:

    "Error: Command failed: certbot certonly --config "/etc/letsencrypt.ini" --work-dir "/tmp/letsencrypt-lib" --logs-dir "/tmp/letsencrypt-log" --cert-name "npm-12" --agree-tos --authenticator webroot --email "[email protected]" --preferred-challenges "dns,http" --domains "mydomain.org" Saving debug log to /tmp/letsencrypt-log/letsencrypt.log Some challenges have failed. Ask for help or search for solutions at https://community.letsencrypt.org. See the logfile /tmp/letsencrypt-log/letsencrypt.log or re-run Certbot with -v for more details. at ChildProcess.exithandler (node:child_process:402:12) at ChildProcess.emit (node:events:513:28) at maybeClose (node:internal/child_process:1100:16) at Process.ChildProcess._handle.onexit (node:internal/child_process:304:5)"

    Seems quite familiar to me...😒

    • Like 1
  16. 1 minute ago, mgutt said:

    Optimal wäre es, wenn das Skript auf dem Backup Server läuft und der nur lesend auf den Quellserver zugreifen kann. Dh der rsync Docker ist dann sinnvoll. Ansonsten nutzt der Backupserver den root Login, was dich extrem anfällig bei Attacken macht.

     

    Wenn möchte ich schon den optimalen und sichersten Weg gehen.

    Okay also rsync Server installieren ✔️

    Dort gebe ich dann nur die Pfade des eigentlichen Server's an die ich sichern möchte? Standartmäßig ist hier ja /mnt/user/ angegeben also alles. Sollte ich das nur auf die benötigten Freigaben ändern oder kann ich das auch bedenkenlos so lassen?

     

    Bei schreiben bin ich gerade etwas verunsichert wurden. 

    Der rsync-Server läuft ebenfalls auf dem Backup-Server und durch die Generierung des SSH Key's auf dem Client (Hauptserver) kann sich der Backup-Server als vertrauenswürdig verifizieren. Richtig?

     

    Die Pfadangaben und auch das Readonly bezieht sich aber auf den Backup-Server und nicht des Hauptserver's? 

    Damit wird quasi verhindert dass der Hauptserver Datein auf den Backup-Server Manipulieren kann, wenn er mal kompromittiert wird?

    Andersherum würde es aber gehen?

     

    Ich einem Screenshot von dir gab es im rync-Server die Variable Acess Mode mit der Option auf Read Only. Das ist im aktuellen Docker jetzt nicht mehr vorhanden also gehe ich richtig der Annahme, dass dies jetzt fest hinterlegt ist?

     

    Im Skript gebe ich dann z.b. folgendes ein:

     

    # source                          				# destination
    "192.168.188.40:/mnt/cache/appdata"              "/mnt/user/backup/appdata"
    "192.168.188.40:/mnt/cache/Nextcloud"            "/mnt/user/backup/Nextcloud"

     

     

     

     

  17. Hallo zusammen,

     

    da der Titel ganz gut passt, dachte ich mit meinen Anliegen hier gut reinzupassen.

     

    Nach über 2 Jahren Unraid bin ich richtig begeistert von den System und habe nun bereits viele Docker im Einsatz wovon ich zu beginn nicht geträumt hatte. Dazu noch 2-3 VM'S WireGuard Tunnel etc.

     

    Seit ca. 1 Jahr ist auch Nextcloud mein täglicher Begleiter für Fotos, Dokumente etc. geworden und nicht mehr weg zu denken.

     

    Die Daten von Nextcloud und auch alle anderen Docker einschließlich appdata befindet sich auf einem Cachepool bestehend aus 2x2TB NVME, die gespiegelt sind.

     

    Nun ist es aller höchste Zeit sich um Backups dessen zu kümmern. Ich habe mir dazu vor ein paar Wochen einen Intel Nuc (NUC7i3BNK) mit 4GB RAM gekauft und dort noch eine 2TB NVME eingesetzt. Als Betriebssystem kommt hier auch Unraid zum Einsatz.

     

    Ich habe nun schon sehr häufig die Erwähnung des rsync Backup Skript von @mgutt gehört und denke, dass dies auch für mich passen würde.

     

    Allerdings ist mir manches noch nicht ganz klar.

     

    -das Skript läuft auf dem Backup-Server?

    -benötige ich zusätzlich den Docker rsync-Server? (ich denke nein, weiß aber nicht wo ich dann den SSH Key vom Server im Skript eintragen soll)

     

    Vielleicht noch nützlich Infos zum "Aufbau":

     

    Der Server steht bei mir und der Backup-Server bei meiner Freundin. Beide Standorte sind mit einer Fritzbox ausgestattet und permanent über VPN (IPSec) miteinander verbunden. Wireguard ist auf der 6590 leider nicht möglich, aber ich könnte durch den Backup-Server einen Wireguard-Tunnel zwischen beiden Servern einrichten.

     

    Zusätzlich ist noch geplant 2 Festplatten zu holen, die ebenfalls beide abwechselnd mit dem Skript beschrieben werden wovon eine dann immer bei bekannten untergebracht ist und ich Monatlich die alte Sicherung gegen die neue Tausche. (Hier wäre es noch cool wenn man diese evtl. verschlüsseln könnte)

     

    Macht das soweit sinn wie ich es mir vorstelle und das 321 Backup richtig verstanden habe?

     

  18. On 12/26/2023 at 7:28 PM, mgutt said:

    The error is written to this logs. I still don't understand why NPM is hiding them in a different log file instead of writing them to the default container logs.

     

    Unfortunately you can forget the log completely, it only contains the following:

    2023/12/27 20:48:43 [notice] 203#203: signal process started
    2023/12/27 20:52:23 [notice] 221#221: signal process started
    2023/12/27 20:52:31 [notice] 242#242: signal process started
    2023/12/27 20:53:10 [notice] 259#259: signal process started
    2023/12/27 20:53:17 [notice] 280#280: signal process started
    2023/12/27 21:00:13 [notice] 197#197: signal process started
    2023/12/27 21:00:27 [notice] 215#215: signal process started
    2023/12/27 21:00:38 [notice] 237#237: signal process started
    2023/12/27 21:00:38 [notice] 265#265: signal process started
    2023/12/27 21:02:36 [notice] 283#283: signal process started
    2023/12/27 21:03:06 [notice] 304#304: signal process started
    2023/12/27 21:05:10 [notice] 321#321: signal process started
    2023/12/27 21:05:27 [notice] 342#342: signal process started

     

    I have now deleted the container including all files and then reinstalled it.

    I also changed the network setting from Bridge to Custom: eth0 (including changing the port forwarding on the Fritzbox)

     

    The first domain worked straight away and with the second one I get the error message “Internal error” again.

    With the second domain everything is really the same as with the first, except that the domain name is different.

     

    I don't understand it and I can't figure it out.

     

    Fortunately, I now have 3 months of peace with one domain.

    But it would be nice if I knew where to look or where I'm doing something wrong

  19. Quote

    Hello everyone,

     

    Since yesterday I've been having a bit of trouble with Nginx again.

    I have set up 2x DynDNs (Strato and DuckDNS) for my Nextcloud instance, so if one of the two doesn't work, I can still use the other domain. (Originally I only had DuckDNS, but since I wanted a nicer name for the domain, Strato was added)

     

    I've had the whole thing running for 3/4 years now and accessed via https with certificates from Let's Encrypt.

    Yesterday the certificates expired again and I wanted to renew them in the WebUI.

    This worked for the DuckDNS domain, but for the Strato domain the message “Internal Error” appears.

     

    I already had this the last time, but I couldn't renew the certificate for one or the other domain. At some point it worked, but unfortunately I don't remember what the error was.

     

    What did I test/check:

     

    - DynDNS is active on the Strato domain

    - When I enter the current public IPv4 address in the browser, I come to the “Congratulations!” page of NGINX

    - Ports 443 and 80 are set up in the Fritzbox and point to NGINX

    - The NGINX log says “Another instance of Certbot is already running” (I remember this message was there last time too.

    - If I delete the proxy host and recreate it, it works without errors

    - Additionally, when I recreated I noticed that the options “Force SSL”, “HTTP/2 support” “HSTS enabled” were deactivated again after saving. I can then activate it again and it will keep the setting this time, but is that normal?

     

    Thanks and best regards!

     

     

    Hello everyone, every month...

     

    It's that time again when the certificates have expired and have not been automatically renewed again.

    It is also not possible to renew the certificates in the Webui. (Internal error)

     

    The log says the following:

     

    [12/26/2023] [12:46:46 PM] [SSL      ] › ℹ  info      Renewing Let'sEncrypt certificates for Cert #1: meine.Domain
    [12/26/2023] [12:46:46 PM] [SSL      ] › ℹ  info      Command: certbot renew --force-renewal --config "/etc/letsencrypt.ini" --work-dir "/tmp/letsencrypt-lib" --logs-dir "/tmp/letsencrypt-log" --cert-name "npm-1" --preferred-challenges "dns,http" --no-random-sleep-on-renew --disable-hook-validation 
    [12/26/2023] [12:46:58 PM] [Express  ] › ⚠  warning   Command failed: certbot renew --force-renewal --config "/etc/letsencrypt.ini" --work-dir "/tmp/letsencrypt-lib" --logs-dir "/tmp/letsencrypt-log" --cert-name "npm-1" --preferred-challenges "dns,http" --no-random-sleep-on-renew --disable-hook-validation 
    Saving debug log to /tmp/letsencrypt-log/letsencrypt.log
    Failed to renew certificate npm-1 with error: Some challenges have failed.
    All renewals failed. The following certificates could not be renewed:
      /etc/letsencrypt/live/npm-1/fullchain.pem (failure)
    1 renew failure(s), 0 parse failure(s)
    Ask for help or search for solutions at https://community.letsencrypt.org. See the logfile /tmp/letsencrypt-log/letsencrypt.log or re-run Certbot with -v for more details.

     

    Does anyone have a solution for this please? Unfortunately, turning off “force SSL” on Github doesn’t help.

    Thank you.

     

  20. On 9/26/2023 at 8:54 PM, SidM said:

    Hallo Zusammen,

     

    seit gestern habe ich mal wieder ein wenig Trouble mit Nginx. 

    Ich habe für meine Nextcloud Instanz 2x DynDNs (Strato und DuckDNS) eingerichtet, falls mal eins von beiden nicht gehen sollte, ich immer noch über die jeweilige andere Domain gehen kann. (Ursprünglich hatte ich nur DuckDNS, da ich aber einen schöneren Namen für die Domain haben wollte, kam Strato dazu)

     

    Das ganze hab ich nun seit nen 3/4 Jahr soweit laufen und zugriff über https mit Zertifikaten von Let's Encrypt.

    Nun sind gestern mal wieder die Zertifikate abgelaufen und ich wollte diese im WebUI erneuern.

    Für die DuckDNS Domain hat dies funktioniert, aber bei der Strato Domain kommt die Meldung "Internal Error".

     

    Dies hatte ich beim Letzen mal auch schon gehabt, nur konnte ich dort das Zertifikat weder für die eine noch die andere Domain erneuern. Irgendwann hat es funktioniert, nur leider weiß ich nicht mehr was der Fehler war.

     

    Was habe ich getestet/kontrolliert:

     

    - DynDNS ist bei der Strato Domain aktiv

    - Wenn ich die aktuelle öffentliche IPv4 Adresse im Browser eingebe, komme ich auf die "Congratulations!" Seite von NGINX

    - In der Fritzbox sind die Ports 443 und 80 eingerichtet und zeigen auf NGINX

    - Im Log von NGINX steht "Another instance of Certbot is already running" ( Ich erinnere mich, dass diese Meldung beim letzten mal auch da stand.

    - Wenn ich den Proxy Host lösche und neu anlege funktioniert es ohne Fehler

    - Zusätzlich habe ich beim neu anlegen bemerkt, dass die Optionen "Force SSL",  "HTTP/2 Support" "HSTS enabled" nach den speichern wieder deaktiviert wurden. Ich kann diese zwar dann nochmal aktivieren und er behält dieses mal die Einstellung, aber ist das Normal?

     

    Danke und viele Grüße!

     

     

    Hallo Zusammen, alle Monate wieder....

     

    es ist mal wieder soweit, dass die Zertifikate abgelaufen sind und sich nicht wieder automatisch verlängert haben. 

    Auch ist es wieder nicht Möglich in der Webui die Zertifikate zu erneuern. (Internal Error) 

     

    im Log steht dazu folgendes:

    [12/26/2023] [12:46:46 PM] [SSL      ] › ℹ  info      Renewing Let'sEncrypt certificates for Cert #1: meine.Domain
    [12/26/2023] [12:46:46 PM] [SSL      ] › ℹ  info      Command: certbot renew --force-renewal --config "/etc/letsencrypt.ini" --work-dir "/tmp/letsencrypt-lib" --logs-dir "/tmp/letsencrypt-log" --cert-name "npm-1" --preferred-challenges "dns,http" --no-random-sleep-on-renew --disable-hook-validation 
    [12/26/2023] [12:46:58 PM] [Express  ] › ⚠  warning   Command failed: certbot renew --force-renewal --config "/etc/letsencrypt.ini" --work-dir "/tmp/letsencrypt-lib" --logs-dir "/tmp/letsencrypt-log" --cert-name "npm-1" --preferred-challenges "dns,http" --no-random-sleep-on-renew --disable-hook-validation 
    Saving debug log to /tmp/letsencrypt-log/letsencrypt.log
    Failed to renew certificate npm-1 with error: Some challenges have failed.
    All renewals failed. The following certificates could not be renewed:
      /etc/letsencrypt/live/npm-1/fullchain.pem (failure)
    1 renew failure(s), 0 parse failure(s)
    Ask for help or search for solutions at https://community.letsencrypt.org. See the logfile /tmp/letsencrypt-log/letsencrypt.log or re-run Certbot with -v for more details.

     

     

    Hat bitte jemand eine Lösung dafür? Der hinweiß auf github "force SSL" auszuschalten bringt leider nichts. 

    Vielen Dank.

  21. Hallo Zusammen,

     

    seit gestern habe ich mal wieder ein wenig Trouble mit Nginx. 

    Ich habe für meine Nextcloud Instanz 2x DynDNs (Strato und DuckDNS) eingerichtet, falls mal eins von beiden nicht gehen sollte, ich immer noch über die jeweilige andere Domain gehen kann. (Ursprünglich hatte ich nur DuckDNS, da ich aber einen schöneren Namen für die Domain haben wollte, kam Strato dazu)

     

    Das ganze hab ich nun seit nen 3/4 Jahr soweit laufen und zugriff über https mit Zertifikaten von Let's Encrypt.

    Nun sind gestern mal wieder die Zertifikate abgelaufen und ich wollte diese im WebUI erneuern.

    Für die DuckDNS Domain hat dies funktioniert, aber bei der Strato Domain kommt die Meldung "Internal Error".

     

    Dies hatte ich beim Letzen mal auch schon gehabt, nur konnte ich dort das Zertifikat weder für die eine noch die andere Domain erneuern. Irgendwann hat es funktioniert, nur leider weiß ich nicht mehr was der Fehler war.

     

    Was habe ich getestet/kontrolliert:

     

    - DynDNS ist bei der Strato Domain aktiv

    - Wenn ich die aktuelle öffentliche IPv4 Adresse im Browser eingebe, komme ich auf die "Congratulations!" Seite von NGINX

    - In der Fritzbox sind die Ports 443 und 80 eingerichtet und zeigen auf NGINX

    - Im Log von NGINX steht "Another instance of Certbot is already running" ( Ich erinnere mich, dass diese Meldung beim letzten mal auch da stand.

    - Wenn ich den Proxy Host lösche und neu anlege funktioniert es ohne Fehler

    - Zusätzlich habe ich beim neu anlegen bemerkt, dass die Optionen "Force SSL",  "HTTP/2 Support" "HSTS enabled" nach den speichern wieder deaktiviert wurden. Ich kann diese zwar dann nochmal aktivieren und er behält dieses mal die Einstellung, aber ist das Normal?

     

    Danke und viele Grüße!

  22. @Kilrah

     

    Thank you very much for your help.


    Nextcloud is running again as before!

    What was the mistake?
    I happened to see that my UPS was not accessible in IoBroker.
    In Unraid, however, this was accessible and also provided current data (Unraid is the APCDamon for IoBroker)

    That's why I restarted the server (I already had it yesterday) and then IoBroker reached the UPS again.

    So Nextcloud changed back to br:0 and put the Config.php back and now everything is running as it should.

     

    We had thunderstorms with power outage two days in a row.

    However, the server is supported by the UPS and is shut down in a controlled manner. So I can't explain the behavior other than a hiccup.🤷‍♂️🤷‍♂️

    • Like 1
  23. I was just able to narrow down the error or make Nextcloud work for the time being.

    I switched the Nextcloud container from br:0 to bridge. (192.168.18.40) and host port 8222.
    In the Config.php I added the IP to the trusted_domains.
    In the Nginx proxy manager, I also switched the IP from my domain to the new IP.
    Now I have access again.

    That's nice at first, but it shouldn't stay like this.
    However, "Host access to user-defined networks" is still activated in the Docker settings.
    What could it be?

×
×
  • Create New...