Jump to content

mgutt

Moderators
  • Posts

    11,366
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Habe ich mittlerweile auch gemacht, denn Plex "spinnt" bei dem Menüpunkt einfach nur herum. Manchmal kommt nämlich trotzdem ein Fehler, obwohl das gar nicht sein kann. Ich habe es jetzt übrigens auch endlich voll IPv6-fähig umgesetzt. Das war eine Geburt sage ich dir. Muss ich auch noch einen Guide für machen 🙈
  2. Ja mit einer Quersumme / Hash ginge das bei Musik. Bei Filmen ginge die Methode allerdings nicht, weil unterschiedliche Tonspuren gerippt wurden. Und wie den Abgleich machen? Aktuell fällt mir das ein: - das mit den Barcode-Dateien in den Film-Ordner - beide betreiben einen rsync daemon mit Leserechten (also keiner kann auf dem Server des anderen Daten verändern) - beide holen per rsync ab Zu Anfang: - ein Server wird zum Master erklärt, also dessen Rips gelten als Basis für beide - wenn der Barcode gleich ist, aber die MKV unterschiedlich, dann lädt rsync vom Master die MKV herunter - Ordner ohne Barcode oder mit unterschiedlichen Barcodes werden verschlüsselt auf dem Server des jeweils anderen gespeichert Später, wenn beide die selbe Datenbasis haben: - jemand ändert etwas an der MKV (Kopfdaten wie zB die Sprachbezeichnung einer Audiospur) - rsync lädt von dem herunter, der die neuere Datei hat Wenn ein Hacker auf einem Server alle MKV gegen leere Dateien ersetzt, aber mit neuerem Dateidatum: - der andere Server lädt die leere Datei per rsync herunter, aber dank der Option "--backup --backup-dir=/mnt/user/Removed/<timestamp>/" gehen diese nicht verloren, sondern werden einfach nur in einen anderen Share verschoben - die rsync Logs gehen per E-Mail raus (großes Log = irgendwas stimmt nicht) Eventuell verpflichten sich dann beide noch eine "change.log" zu pflegen, wo drin steht warum man etwas an einer MKV verändert hat. Aber das ist glaube ich nicht so wichtig.
  3. Ich bleibe bei Bug, denn NodeJS ist zu 99.9% abwärtskompatibel zu alten Versionen. Ich sehe keine Fehler und der Restore war erfolgreich?! In der restore.log gibt es nur vereinzelte "Object is marked as non deletable" Einträge, aber die kann man laut hier ignorieren: https://forum.iobroker.net/topic/27271/howto-iobroker-restore-unter-linux-durchführen/103?_=1627403726481&lang=de Was geht denn nicht, wenn 1. durch ist?
  4. In Unraid 6.8 ruckelte bei mir Plex, wenn ich powersave genutzt habe und performance hat bei mir nur 1W ausgemacht, weshalb ich dabei geblieben bin. Ich habe auch schon gelesen, dass mit powersave bei manchen die VMs ruckeln. Das solltest du im Hinterkopf behalten.
  5. Ich habe diesen Fehler erneut, aber in einem etwas anderen Kontext. Ich habe die IP-Adressen vom Server geändert, dann den Docker Dienst gestartet und festgestellt, das mein NPM Container nicht mehr startet. Nach einigem Herumprobieren stelle ich fest, dass er auf den folgenden IP-Adressen nicht mehr geht: 192.168.178.8 (eth0, Unraid = logisch) 192.168.178.9 (eth1, Unraid = logisch) 192.168.178.10 (durch nichts in Verwendung, unlogisch) 192.168.178.11 (durch nichts in Verwendung, unlogisch) 192.168.178.12 (durch nichts in Verwendung, unlogisch) Erst auf 192.168.178.13 funktioniert der Container. Hier ein Beispiel-Fehler: Andere Container verwenden keine festen IP-Adressen, sondern nur Bridge: Von außen ist auch alles logisch (also 8, 9 und 13 sind erreichbar, Rest nicht): Ich muss dazu sagen, dass ich die 10, 11 und 12 beim Ändern der Netzwerk-Einstellungen und beim Starten des NPM immer wieder mal ausprobiert hatte und auch zeitweise erfolgreich verwenden konnte. Daraus schließe ich also, dass irgendwo diese IPs nun "geblockt" sind. Aber wo und wie bekomme ich sie wieder "frei"? EDIT: Ich habe nun den Autostart bei NPM entfernt. Dann den Docker-Dienst gestoppt. Dann den Docker-Dienst gestartet. Dann NPM bearbeitet und die .10 vergeben. Danach konnte ich den Container starten und habe Autostart auch wieder aktiviert. Ich weiß jetzt nicht ob es daran lag oder ob die IP durch was anderes wieder freigeworden ist?!
  6. Wie gesagt. Recherchiere in Sachen Single GPU Passthrough. Es gibt einige, die das zum Laufen gebracht haben. Eventuell hilft schon das Video:
  7. Das würde den Komfort deutlich verbessern, aber auch den Stromverbrauch weiter erhöhen. Da muss man abwägen ob einem das wichtig ist. Aber rumprobieren kannst du ja mit der Testlizenz ohne Probleme.
  8. Ok, dann haben wir etwas aneinander vorbeigeredet. Ich meinte die ausgehandelte WLAN Geschwindigkeit zwischen dem Client und dem Access Point. Diese findest du zB in Android, wenn du die Details des WLANs anzeigen lässt. Oder in Windows beim Status der Verbindung: Da steht zB 585 Mbps, also 585 Mbit/s und davon muss man 40 bis 60% abziehen um auf das theoretische Maximum der Verbindung zu kommen. Da du mit ~400 Mbit/s herunterladen kannst, gehe ich aber davon aus, dass deine ausgehandelte Verbindung um die 900 Mbit/s sind, was ja schon viel ist. Dein Problem muss aber sowieso etwas anderes sein, da du ja schnell runterladen kannst und nur langsam hochladen. Beim WLAN ist die Richtung egal. Nehmen wir an dein Share heißt "Musik" und dieser nutzt die Cache Einstellung "Yes" oder "Prefer". Außerdem greifst du über den Nutzer "Max" darauf zu. Installiere dir nun bitte über die Apps den Config File Editor und bearbeite über Tools > Config File Editor > die Datei /boot/config/smb-extra.conf und füge dort das ein (Die Worte "Musik" und "Max" passt du natürlich an): [cache-Musik] path = /mnt/cache/Musik comment = browseable = yes # Private writeable = no read list = write list = Max valid users = Max case sensitive = auto preserve case = yes short preserve case = yes Sollte die Datei nicht existieren, musst du sie kurz über das Web Terminal >_ oben rechts anlegen: touch /boot/config/smb-extra.conf Sobald du mit "Apply" die Datei dann gespeichert hast, startest du den Samba Dienst über das Web Terminal neu: samba restart Dein Nutzer "Max" sieht nun über das Netzwerk diesen neuen Ordner. Bitte lege nun in dort eine 1GB große Datei ab. Diese wird nun garantiert direkt auf dem Cache erstellt und sie umgeht den SHFS Overhead von Unraid. Ist das immer noch langsam? Falls nein, hast du vermutlich eine zu schwache CPU, falls ja, nutzt die Windows? Dann schreib mal bitte in den Explorer nicht den Namen vom Server, sondern dessen IP-Adresse, also zB so: Nun wiederholst du den Upload. Wurde es dadurch verbessert? Falls ja: Irgendwas "blockiert" die SMB Verbindung über den Namen des Servers (zB ein paralleles Backup, was gerade im Hintergrund läuft).
  9. Backups sind essentiell, aber die Kosten bei einer immer größer werdenden Medien-Sammlung nicht ohne. Ich kenne jemanden, der eine ähnlich große Sammlung wie ich besitzt und wir kamen nun auf die Idee, dass wir unsere Unraid-Server jeweils als Backup des anderen nutzen. Wir werden uns also auf ein Datei-Namensschema einigen und natürlich auch darauf welche Inhalte in welchem Format und Umfang erhalten bleiben sollten. Der Knackpunkt ist aber ein ganz anderer. Nämlich das Wie. Also wie synchronisieren wir die Sammlungen und zwar nur die Inhalte, die wir beide in der exakt selben Version besitzen und ohne, dass ein gehackter Server die Sammlung des anderen zerstören kann? Nehmen wir zB ein Musik Album. Davon gibt es zwei Versionen und auf einer ist ein Bonus Track. Nun soll beim Abgleichen dieses Album nicht synchronisiert werden, denn der andere besitzt ja nicht die selbe Original CD, wodurch ein Verstoß gegen das Urheberrecht resultieren würde. Stattdessen soll in so einem Fall dieses Album nur verschlüsselt auf dem externen Server gesichert werden. Passiert das allerdings zu oft, hat man am Ende doppelt so viel Speicherplatz belegt. Das gilt es also möglichst zu vermeiden. Mir fällt aktuell nur ein, dass man den Barcode der CD als Datei wie zB 1234534534543.barcode im Verzeichnis ablegt und dann nur die unverschlüsselt synchronisiert, wo der Barcode übereinstimmt. Hat dazu jemand eine Idee?
  10. Nein, du wählst alle aus. Wie gesagt gibt es zwei Möglichkeiten: a) Man wählt alle aus und überlasst der CPU wie die Prozesse auf die Kerne verteilt werden b) Man wählt bestimmte aus, und isoliert sie vollständig über Settings > CPU Pinning > CPU Isolation Alle anderen Methoden bedeuten, dass Kerne von verschiedenen Prozessen überlappen und das ist eben nicht gut für latenzkritische Anwendungen wie zB das Bewegen von Fenstern in einem Betriebssystem, denn das was die CPU in dem Fall berechnen muss ist ja die Bewegung des Fensters, auch wenn das wenig anspruchsvoll ist, muss es trotzdem ohne Latenz berechnet werden können. Da bin ich raus, aber ich denke die Templates sind da schon gut gewählt worden. Ja und nein. Du verstehst scheinbar noch nicht wie der Cache funktioniert: https://forums.unraid.net/topic/99393-häufig-gestellte-fragen/?tab=comments#comment-951565 Also ja, der Share wird natürlich einer HDD im Array zugewiesen, aber nein, die VM Disk Datei darf auf keinen Fall auf einer HDD liegen. Die muss über "Prefer" auf den SSD Cache erzwungen werden (was durch Prefer automatisch passiert). Schlussfolgerung: Bei Prefer landen niemals Dateien auf der HDD im Array (nur in dem unwahrscheinlichen Fall, dass die SSD voll ist). Das ist in dem Fall ausnahmsweise egal, denn die Entwickler von Unraid haben erkannt wie lahm der Pfad "/mnt/user" ist und "überschreiben" den automatisch gegen "/mnt/cache", wenn die VM gestartet wird. Davon sieht der Nutzer aber nichts. Im Template steht weiterhin "/mnt/user". Du kannst natürlich selbst auch direkt "/mnt/cache" hinterlegen. Ich habe das quasi überall, wo ich die beste Performance haben möchte. Beispiele: Docker VM (ISOs werden nicht beschrieben, daher ist der iso Share bei mir auf Cache "Yes", also auf der HDD): Sieht man auch bei meiner VM: Und bei Containern mache ich das natürlich auch so: Man muss aber beachten, dass sobald man den Cache mal kurz ausbaut / austauscht / aufrüstet etc, dass man niemals VM oder Docker starten darf, denn die finden dann im Pfad /mnt/cache ja keine Dateien mehr. Auch darf man nicht vergessen, dass Docker Container abstürzen können, wenn die SSD voll werden sollte, daher muss man einen Min Free Space auf dem Cache festlegen. Die Frage verstehe ich nicht, aber ich denke das resultiert aus dem "wie funktioniert das mit dem Cache". Also lies noch mal wie der Cache funktioniert, dann wird die Frage denke ich beantwortet.
  11. Dein Vorgehen verstehe ich absolut (also Update erstmal testen), ich verstehe allerdings nicht, warum es nach einem Update überhaupt zu Problemen kommt. Das wäre dann ja ein Bug. Der wäre doch dann konkret zu recherchieren / melden, statt ihn über eine interne Backup Funktion zu umgehen. Wie gesagt gibt es so gut wie keinen Docker Container, der eine interne Backup-Funktion besitzt und die gehen nach einem Update ja auch nicht alle kaputt.
  12. Wie soll das gehen, wenn man nur über einen Tunnel drauf kommt? SWAG kann das Zertifikat dann doch gar nicht verifizieren?!
  13. C-States sind Schlafzustände. Bei so vielen aktiven PCIe Lanes und durchgehend über 15% Last auf der CPU ist es kaum möglich einen C-State zu erreichen. Eventuell siehst du einen, wenn du die VMs heruntergefährst?!
  14. Du kannst die GPU nur für unRAID oder eine VM nutzen. Nicht für beides. unRAID ohne GPU zu starten ist nicht standardmäßig vorgesehen. Recherchiere nach unraid single gpu passthrough. Der Rest ist Trial & Error. Ich rate jedem davon ab. Bedenke auch, dass die GPU immer Strom verbraucht, auch wenn die VM aus ist.
  15. Dann hatte deine WLAN Verbindung in dem Moment aber keine 12 Mbit im Status. Nur dass wir uns nicht falsch verstehen. Status und Transfergeschwindigkeit sind unterschiedliche Dinge.
  16. Wenn du die network.cfg und network-rules.cfg löschst, sind die Netzwerkeinstellungen zurückgesetzt. Danach einfach den Adapter zu eth0 machen, den du haben willst (Interface Rules bei den Netzwerkeinstellungen. Den Rest bei Bedarf deaktivieren. Also einfach gar keinen Bond nutzen, sondern nur eine Buchse solo. Ein 10g als eth0 wird dir ja denke ich reichen.
  17. Lass auch mal die Logs auf den Stick schreiben, damit du alle Einträge bis zu einem Absturz / Neustart erhältst: https://forums.unraid.net/topic/99393-häufig-gestellte-fragen/?tab=comments#comment-1008640
  18. Meiner Erfahrung nach ist das ein "veralteter" Zugriff auf die GUI über den selben oder anderen PC. Ich hatte das zb mal als ich in einem Tab unRAID auf eine neue Version aktualisiert habe und dann mit einem anderen Tab weitergearbeitet habe. Ich konnte das aber nicht mehr nachstellen. In dem Thread ist es übrigens auch die häufigste gemeldete Ursache: https://forums.unraid.net/topic/84681-odd-ngnix-error-filling-up-my-syslog/ Wäre schön wenn man mal herausfindet wie dieser Bug entsteht.
  19. Rechts ist ein Ordnersymbol. 😉 Schaust du auf die Transferrate in unRAID bei dem USB Laufwerk? UD zeigt dass meiner Ansicht nach falsch an. Aber die Transferrate bei der NVMe sollte stimmen. Ist die auch nur 150 MB/s? Bedenke aber, dass das immer nur eine Momentaufnahme ist und durch das RAM Caching von Linux immer nur schwer nachvollziehbar ist. Eine andere Frage wäre ob die CPU eventuell überlastet ist?! Schau mal ins Dashboard auf die Auslastung beim Kopieren. Ganz genau kannst du es prüfen über das WebTerminal oben rechts und "htop" ausführen.
  20. Naja. Dann hast du schon dein Problem. Davon 40% runter wären ja nur 7 Mbit/s und das geteilt durch 8 sind grob 1 MB/s. Du hast also ein Empfangsproblem bzw der aktuell genutzte WLAN Standard ist zu schlecht. Erzwing mal 5 GHz in dem du in der Fritz!Box testweise 2.4 GHz deaktivierst. Damit sinkt zwar die Reichweite aber die 5 GHz WLAN Bandbreite ist normalerweise deutlich größer. Außerdem siehst du am WLAN Empfangsbalken dann genau wie gut/schlecht der Empfang ist (sonst ist meist eine Mischung aus 2.4 GHz und 5 GHz Empfangsstärken). Natürlich kannst du den Test auch umdrehen und 2.4 GHz erzwingen. WLAN ist halt scheiße. Ich habe mittlerweile 4 Ubiquiti APs im Haus, weil ich überall perfekten Empfang haben will.
  21. Nein. Welche SSDs sind das? Korrekt Das bezweifle ich. Wie viel Mbit zeigt denn der WLAN Status vom Endgerät an? WLAN hat einen Verlust von 40 bis 60% von diesem Wert. Außerdem die Frage ob es viele kleine Dateien sind oder große. Über SMB? Hast du es mal besonders nah am Router probiert? Evtl mal keinen Upload über SMB probieren, sondern klick über die WebGUI auf eine große Datei, damit sie über den Browser heruntergeladen wird. Auch nur 1 MB/s?
  22. Und da krebst du mit so alter Hardware rum. Von dem Preis des Gehäuses hättest du ja längst was neueres haben können 🙈 Mach das. Ich würde aber bei mATX bleiben, damit du flexibel bleibst.
  23. https://forums.unraid.net/topic/69582-solved-vmdk-image-to-run-on-unraid/
  24. Sieht für mich auf den ersten Blick in Ordnung aus. Gab es eigentlich Fehlermeldungen in den Logs als Fehler 43 auftrat?
×
×
  • Create New...