-
Posts
2794 -
Joined
-
Last visited
-
Days Won
2
Content Type
Profiles
Forums
Downloads
Store
Gallery
Bug Reports
Documentation
Landing
Everything posted by hawihoney
-
Multiple Unraid Array support. And don't forget to enhance "New config" to work with more than one main Unraid array
-
So mache ich es: 1.) rsync einmal täglich komplett von der aktiven NVMe M.2 zur zweiten NVMe M.2. Da dieser Backup heiß ist (Container werden nicht gestoppt) ... 2.) ... zusätzlich einmal täglich relevante Container (z.B. Datenbanken) runterfahren und per rsync ins Array sichern. Im Katastrophenfall die zweite NVMe ins Spiel bringen und die Datenbanken drüber legen. Der Grund liegt in der Differenz der Größe und der damit verbundenen Laufzeit. Komplett ist ~250 GB, relevantes unter 10 GB.
-
Hab isch. Dann bleibt es halt beim alten. Danke.
-
Kurze Nachfrage: Bei mir ist das seit ewigen Zeiten wohl auf macvlan - war wohl mal Standard. Kann man einfach auf das neuere und leichtere ipvlan umstellen oder hätte das Nebenwirkungen für existierende Konfigurationen.
-
Steht auch auf meiner Liste Hab da grad einen Fall da sind lausige 4 Worte alles was es an Info gibt: Da Du SABnzbd explizit erwähnt hattest, wollte ich Dir nur den Hinweis geben, dass IMHO SABnzbd mehr Ressourcen frisst als zum Beispiel NZBGet - und das nicht zu knapp. Wo NZBGet meinen Server zu 12-15 % CPU belastet hat, da kommt SABnzbd auf bis zu 25 %. Bei meinem Prozessor W1290P sind das Welten.
-
Nur so am Rande: Ich habe letzte Woche von NZBGet auf SABnzbd umgestellt da NZBGet von LSIO als deprecated ausgewiesen wurde. NZBGet ist seit Jahren nie abgestürzt, war immer zuverlässig, besitzt eine glasklar strukturierte Oberfläche. Ich hätte es weiterverwenden können, wollte aber das von LSIO gleichzeitig empfohlene SABnzbd ausprobieren. Mein Erfahrung mit SABnzbd im Verhältnis zu NZBGet ist ernüchternd. Nahezu 50 % mehr CPU Auslastung und damit zusammenhängender Strombedarf, etc. Ich weiß nicht woran das liegt. Ich kann nur raten das NZBGet in C/C++ entwickelt wurde und SABnzbd vermutlich im Python, o.ä. - ich muss das mal nachlesen. Jedenfalls trage ich mich mit dem Gedanken zurück zu gehen. Da die GUI von SABnzbd zudem in meinen Augen ein heftiger Rückschritt zu NZBGet ist, wird mein erneuter Wechsel sehr wahrscheinlich sein. Ich müsste wahrscheinlich ein paar A4 Seiten beschreiben um meinen Frust mit der SABnzbd GUI zu dokumentieren. Nur ein Beispiel von dutzenden: Du trägst etwas in eine Dropdown Liste ein (z.B. Priorität), klickst auf eine Checkbox und eine Änderung der Daten (nicht der Anzeige) erfolgt. Das ist IMHO ein klarer Verstoß gegen jede CUA (Common User Access) Regel. Oder wer benennt eine Checkbox "Check all" nur um dann die Elemente der aktuellen Seite zu markieren und die der weiteren Seiten dieser Liste nicht. Sorry, es galoppiert mit mir durch. Habe selten eine derart schlechte Oberfläche gesehen. Also wenn Performance des SABnzbd Containers ein Problem sein sollte, installiere doch mal parallel NZBGet. Vielleicht ist das schon die Lösung.
-
Oder der Host ist zu klein, oder der Host hat ggfs. irgendwann einen Engpass. Gut ich habe seit Larry Laffer keine Computer Spiele mehr gespielt, kann das Szenario also nicht beurteilen. Spiele-VMs scheinen wohl eine Ausnahme zu bilden ... In der normalen Arbeitswelt ist es wurscht ob ein Backup oder Mux parallel läuft, merkt man nicht bei einem ausreichend dimensionierten Rechner.
-
Warum überhaupt? Sicher es mag Hochleistungs-Szenarien geben wo man das macht, aber hier, so unter uns, ist das einfach nicht erforderlich. Es gibt niemanden der die Ressoucenverteilung besser regeln kann als der Scheduler. Der hat zu jeder Zeit alle Details und kann alle Threads dynamisch anpassen. Und dem Scheduler ist es einfach egal ob es sich um Unraid als NAS, einen Docker Container oder eine VM handelt. Für den Scheduler sind das einfach Ressourcen und der managed das auf höchstem Niveau - passend zu der verbauten Hardware und den momentanen Anforderungen. Gebt jeder VM alle Kerne: Lasst die CPU Isolation leer: Lasst das Container Pinning leer: Damit erhaltet Ihr den bestmöglichen Support den Linux für Euch bereitstellen kann.
-
Webgui Fehlerhaft, Array online Webgui zeigt angehalten an
hawihoney replied to stubennatter's topic in Deutsch
Ich muss passen. Wenn nicht jemand anderes hier eine Idee hat, dann würde ich mich an Deiner Stelle an den offiziellen Support wenden. Ohne Diagnostics und aussagefähigere Screenshots wirst Du da aber nicht weiter kommen (wer kommt auf die Idee das Wort Array zu schwärzen?). -
Unraid heute nun das 2.mal innerhalb von ca 2 Wochen komplett weg.
hawihoney replied to moonsorrox's topic in Deutsch
Das komplette syslog findest Du mittels Konsole unter /var/log/ oder alternativ Diagnostics erstellen und posten. Ist das ca.turbo ein externes Plugin? Das sagt mir jedenfalls nichts. Was macht das? Ich würde es einfach mal deaktivieren. -
Webgui Fehlerhaft, Array online Webgui zeigt angehalten an
hawihoney replied to stubennatter's topic in Deutsch
Ohne gehts halt nicht - und z.B. ein Screenshot gibt nichts Geheimes preis ... -
Webgui Fehlerhaft, Array online Webgui zeigt angehalten an
hawihoney replied to stubennatter's topic in Deutsch
hab ich noch nie gesehen und noch nie gehört. Mach mal bitte Screenshots und poste Diagnostics. -
Hat sich erledigt: https://sabnzbd.org/wiki/configuration/3.7/api
-
Auch wenn NZBGet seit 2 Jahren nicht mehr weiter entwickelt wurde, und LSIO diesen Container als "Deprecated" markiert hat, so war ich doch sehr glücklich damit. In diesen 2 Jahren ist das Produkt nie abgeraucht. Trotzdem, weil es empfohlen wurde, habe ich gestern SABNZBD installiert. Allerdings habe ich sofort etwas vermisst: NZBGet ließ sich von außen steuern (RPC). So konnte ich den remote Durchsatz von Plex abfragen und NZBGet für die Dauer eines Engpass maschinell pausieren. Das lief als ein User Script auf Unraid völlig problemlos alle 5 Minuten. Ich finde ein solches Feature nicht in SABNZBD. Gibt es irgendeine Möglichkeit das von außen maschinell zu pausieren und wieder anzuwerfen? Vielen Dank.
-
Du hast meinen Punkt nicht erfasst. Bin doch bei Dir Im Übrigen können mehrere Instanzen auf einer einzelnen Server-Installation gebildet werden inkl. eigenständiger Konfigurierbarkeit. Eine komplette Installation beinhaltet so viel Krimskrams und bindet so viele Ressourcen, das bei mehreren Instanzen auf einer Server-Installation einfach wegfällt. Ich kenne eine Umgebung, da ist die zentrale Datenbank im Backend eine DB2. Im Frontend werkeln dutzende Web-Server auf dem statische Inhalte in MySQL vorgehalten werden. Das Frontend bestehend aus Web-Server und MySQL-Server wird einmal erzeugt, in einen Container gepackt und dutzendfach ausgerollt. Aber wie gesagt: Bin bei Dir. Bei "Leichtgewichten" wie MariaDB mache ich mir da eh keinen Kopf.
-
Dann müsste man MariaDB und Nextcloud in einen Container packen - dann wäre das vergleichbar. Ich denke @mgutt liegt richtig auch wenn ich selbst dazu umdenken muss. Komme selbst aus der fetten DB2 Welt und meine "alte" Einstellung ist/war: Das ist Server-Software, designed um alles und jeden hoch performant und umfassend zu bedienen. Gibt's einen Engpass den ich nicht durch Tuning von Server oder Anwendung eliminieren kann, dann kaufste halt potentere Hardware. Deshalb habe ich mir nie die Mühe gemacht den Ressourcenbedarf mehrerer Instanzen bzw. Datenbanken auf einem Server mit dem Bedarf mehrerer Server-Installationen zu vergleichen. Ich tippe mal, dass erstere gewinnen würden - was für einen einzelnen Container sprechen würde. Trotzdem: Ein einzelner Datenbank-Server, in einem einzelnen Container, der Datenbanken mehrerer anderer Container verwaltet, widerspricht IMHO einfach dem Container Konzept. Löse einfach die Anwendung x mit "ihrer" Datenbank y raus und schieb sie woanders hin - geht nicht so einfach. Aber wenn man das zu Ende denkt, dann bräuchte man auch mehrere NPM, SWAG, Apache, ... Container - für jede Anwendung einen.
-
Genau. Ich kenne den speziellen Container nicht, aber ist das nicht die übliche Kombination der folgenden Befehle in der Container Konsole: mysql -uroot -p create user 'username' identified by 'password'; create database if not exists dbname; grant all privileges on dbname.* to 'username' identified by 'password';
-
Nein. Klingt als würde von einem Programmteil ein anderes Programmteil geladen. Und von dem geladenen Programmteil passt die geladene Version nicht zur erwarteten Version. Das Gesamtpaket erscheint nicht stimmig. Kann mich allerdings auch irren. Ich kenne weder das Produkt noch den Container ... urllib3 ist meines Wissens eine externe Python Bibliothek und muss nachträglich installiert werden. Vielleicht ist das der Grund. Nachtrag: Könnte aber auch Python2 vs. Python3 sein ...
-
Alles klar. Kannte ich nicht.
-
-
Optionen: 1.) Wenn es läuft, kann man ja dabei bleiben (ggfs. zukünftig risikobehaftet) 2.) Irgendjemand erbarmt sich und bietet einen Migrationspfad an (unwahrscheinlich) 3.) Neu beginnen und das Original installieren - mit eigener Migration der Daten (Aufwand?) Also, man wählt zwischen Pest und Cholera ...
-
Das sind zwei Datenbanksicherungen. Schnell wegkopieren und dann mit der uralten vom 11.08.2022 gucken ob Du zumindest teilweise etwas erkennen kannst.
-
Wenn Du keine ältere Sicherung der Datenbank hast - ja. Ich hatte Dich aber so verstanden, dass Du die automatische Sicherung in Plex aktiviert hattest. Dort müssten somit drei Versionen liegen, oder? Warum bei Third-Party-Pages suchen? Hier das Original: https://support.plex.tv/articles/200289326-emptying-library-trash/