Jump to content

mgutt

Moderators
  • Posts

    11,371
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Falls 3200 MHz RAM das selbe kostet oder gar weniger, dann den nehmen. Der RAM taktet automatisch nach unten auf das was die CPU kann. Vorteil: Kann später auch bei einer schnelleren CPU verwendet werden.
  2. Kommt auf die TTL an. Stell einfach 3 Monate oder so ein. Der Client merkt sich das dann solange. Oder hast du Clients, die niemals online sind?
  3. Hinterleg die Subdomain doch einfach vwh Cloudflare mit der lokalen IP?!
  4. Such mal bitte innerhalb von Docker: grep -riIls full_audit /var/lib/docker Bzw stoppe mal Docker und schau ob dann die Einträge aufhören.
  5. Ich bin da nach Noctua Website gegangen. Ansonsten schraub das Netzteil einfach mal rein und mess nach.
  6. Bedenke, dass solche ineffizienten Netzteile 5 bis 10W für nichts verbrauchen. Also grob 10 bis 20 € Stromkosten pro Jahr.
  7. Brauchst du denke ich nicht. In der CPU ist ja schon eine iGPU. Da wäre ich mir gar nicht so sicher. Intel fing ab der 4ten Generation an stromsparender im Leerlauf zu werden. Bei der 6ten mit DDR4 ging es dann noch weiter runter. Hängt also stark vom Board und dem Netzteil ab, würde ich sagen. Das bringt vielleicht 1W. Lohnt nicht, dass System dadurch evtl zu destabilisieren. Bleibt es bei den 4 HDDs? Dann käme vielleicht eine PicoPSU in Frage. Wenn es mehr kosten darf, dann empfehle ich dir das Corsair RM550x (2021). Ein sehr effizientes Netzteil im Niedriglastbereich.
  8. Ich habe meinen PC jetzt mal über Nacht laufen lassen. Jetzt ist die App ruhig. Scheint wirklich so zu sein, dass der Server bei Bedarf einen Client "missbraucht", wenn er es selbst nicht gebacken bekommt. 🤷‍♂️
  9. Der Cache beeinflusst die Performance quasi Null. Ich meine wie oft lädst du Dateien auf den Server? Wenn würde es nur Sinn machen Docker und VMs zu trennen oder VMs auf mehrere NVMe, aber dafür muss man es auch erstmal schaffen die NVMe zu überlasten bzw dann bliebe immer noch die Option einfach eine NVMe zu kaufen, die besser mit Lesen/Schreiben parallel umgehen kann (WD Black, 980 Pro, etc). Ich habe allerdings auch nur eine NVMe, weil ich wie alturismo BTRFS in unRAID ebenfalls nicht mag. Gestern habe ich zb auf meinem Testserver einen Cache mit einem BTRFS RAID1 aus drei NVMe auf eine NVMe reduziert. War nicht ohne Kommandozeile zu retten (Mount degraded, devices removen, balance, usw) und ich musste bestimmt 30 Minuten recherchieren. Zu allem Übel war es trotzdem jederzeit möglich das Array zu starten und unRAID bot mir an die eine übrig gebliebene NVMe mit den wertvollen Daten zu formatieren. Und das war RAID1. Bei RAID5 kann es ganz andere Probleme in BTRFs geben, insbesondere wenn man Probleme mit AER Fehlern hat (fehlerhafte PCIe Übertragung), was gar nicht mal so selten vorkommt. Ohne das BTRFs RAID hat man aber den klaren Nachteil, dass man zeitnahe Backups braucht und trotzdem mit einem gewissen Datenverlust bei Defekt leben muss. Also egal was man macht. Nicht ohne Backups 🤪 Wofür den extra Stromschlucker, das Board hat doch 8x SATA?! Für die Stromersparnis kann man sich eher mal größere HDDs gönnen (10 bis 15W beim HBA gespart plus 2 bis 8W pro HDD).
  10. MSI hat mit dem PRO H610M 12VO ein neues Board: https://www.msi.com/Motherboard/PRO-H610M-12VO Das wird nur noch ausschließlich mit 12V versorgt, ist also für den neuen ATX12VO Netzteil Standard gedacht. Dh das Mainboard wandelt selbst alles in 5V und 3.3V, um die Wege zum Verbraucher möglichst kurz und damit effizient zu halten. Leider hat das Board nur 4x SATA und 1x M.2, was ja für mATX gerade zu ärmlich erscheint. Bleibt also zu hoffen, dass auch storage-freundliche Boards kommen.
  11. 6.9, kann natürlich sein, dass es bei 6.10 was anderes gibt 🤷
  12. Also ich hab die Einträge nicht und ich hab das Plugin ja auch. Oder gibt es eine bestimmte Einstellung dafür?!
  13. Das und eigentlich hätte aus Sicherheitsgründen der Autostart nicht funktionieren dürfen.
  14. Innerhalb von unRAID? Da geht nur USB, dann sobald du das Array stoppst, sind wieder die Logs weg.
  15. Ich habe die Plex App in Windows eine Weile offen und stelle fest, dass diese App gerade Vorschaubilder generiert: Wohlgemerkt nutze ich den Plex Server ja als Docker in Unraid und ich habe die Option um Vorschaubilder zu generieren auch aktiviert: Aber das ist schon seit Wochen fertig. Was genau macht die Windows App da also? Kann es sein, dass der Docker nicht alle Codecs versteht und das nun meinem PC überlässt oder warum passiert das?! Die iGPU vom PC ackert ganz schön:
  16. Das Gehäuse ist hochwertig, aber der Zugang zu den HDDs ist nicht so prickelnd. Der Airflow soll auch nicht so toll für die HDDs sein. Die meisten nehmen daher lieber einen normalen Tower wie das Define R5. Ich denke das ist eine gute Wahl. Das neuere B365 soll ja einen schlechteren Node beim dem Chipsatz haben. Wäre also ineffizienter. Wäre schon spannend zu wissen wie gut der Verbrauch vom B360M-A ist Das erklärt dann denke ich auch warum das Asrock B365 Pro4 keine Bestwerte beim Verbrauch schafft. Damit wäre aber auch das Asrock B360 Pro4 eine Option. Das hat neben 2x M.2 auch 1x Wifi mit PCIe. Dh man könnte später eine Dual SATA Karte verbauen und hätte direkt 8x SATA ohne einen PCIe Slot verschwenden zu müssen. Willst du die CPU unbedingt neu kaufen? Bei dem Alter bietet sich der Gebrauchtmarkt an und wie schon DataCollector meinte, könnte man dann vielleicht sogar günstig einen i5 schießen. Die Leistung brauchst du zwar nicht, nachdem was du so vor hast. Aber haben ist besser als brauchen ^^ Ich würde einfach das nehmen, was man gerade günstig schießen kann. Denk dran, dass es auch noch den 8100, 8300, 8350K, 9100 und 9350K gibt. Im Leerlauf unterscheiden die sich alle nicht.
  17. Bitte den syslog server mirror aktivieren. Die Logs sind nach jedem Neustart leer. Man kann aktuell nicht genau erkennen, was dein Problem sein könnte. Man sieht, dass du das Nerd Pack installiert hast. Hast du darüber "atop" installiert? Das Paket ballert einem gerne mal die Logs voll.
  18. Es gibt die Option SMB "full_audit" und wenn die gesetzt ist, schreibt der diese "smbd_audit"-Einträge in die Logs: https://www.samba.org/samba/docs/current/man-html/vfs_full_audit.8.html#idm198 Dass er nun keine SMB Config Datei gefunden hat, wo diese Option enthalten ist, ist komisch. Ich habe schon recherchiert, konnte aber keine andere Option finden, die zu "smbd_audit"-Einträgen führt?! Hast du Samba oder den Server danach neu gestartet? Wenn nein, dann das mal ausführen: samba restart
  19. Ich bezog mich dabei auf den Unraid Mover. Proxmox kann das, weil es innerhalb der VM erst einen Flush macht, dh alle offenen Inodes werden auf die vdisk geschrieben, damit der RAM quasi leer ist. Dann wird gesynct und bei Bedarf der Zugriff auf gelockte Dateien eingefroren. So kann eine VM bei hoher I/O Last während dem sichern / bewegen auch kurz mal komplett stehen. Damit der Mover von Unraid gerade gelockte Dateien bewegen kann, müsste Unraid sich ja quasi selbst einfrieren. Ich vermute mal, dass das schlicht nicht geht. Das braucht in der Regel auch keiner, weil die meisten ihre VMs möglichst klein gestalten. Also <100GB vdisks und alles was in Richtung Cold Storage geht, wird auf SMB/NFS/WebDAV Ziele ausgelagert. Damit hat man dann auch mehr Möglichkeiten inkrementell / versioniert zu sichern. Klingt stark nach SMR HDDs.
  20. Dieser Container wurde noch nicht in den Unraid Apps gepflegt. Du kannst aber jeden Container manuell installieren. Einfach Docker > Add Container und alles was du in meinem Screenshot siehst von Hand eintragen. Bei anderen Containern dann entsprechend die Dokumentation lesen welche Variablen und Pfade für den Betrieb notwendig sind. Hier noch ein Beispiel: Ah stimmt. Das habe ich ganz vergessen im BIOS zu aktivieren. Wobei sich Unraid aktuell nicht stört, dass ich die abgesteckt habe. Die werden nach wie vor ohne Fehler im Dashboard angezeigt 🤨 Allerdings gibt es diverse Meldungen im syslog Das würde die SnapRAID Parität absichern. Ich muss jetzt erst mal HotPlug aktivieren, denn wieder anstecken hat nicht geholfen. Vor allem habe ich einen nicht so schönen Fehler von Docker: root@Tower:~# docker exec -it snapraid snapraid sync Error response from daemon: read /var/lib/docker/overlay2/e8494c34efef9861dd3c45f5c83465711110fc9ca8f509c6fe3c2e4c3a4532b0/lower: input/output error
  21. So, jetzt mit SATA SSDs. Auf der einen Array Disk liegt die SnapRAID Parity-Datei und d1d bis d4d sind die einzelnen Data Disks von SnapRAID: Container: Config (ich musste explizit einen Unterordner ausschließen, weil da ein Block-Device enthalten war, was von SnapRAID nicht gesichert werden kann): parity /mnt/disk1/snapraid.parity content /mnt/disk1/snapraid.content content /mnt/d1d/snapraid.content data d1 /mnt/d1d/ data d2 /mnt/d2d/ data d3 /mnt/d3d/ data d4 /mnt/d4d/ exclude /docker/overlay2/ Jetzt ziehen wir mal von allen dXd Disks den Strom und schauen was passiert 😅
  22. Als @DataCollector danach fragte was eigentlich passiert, wenn man Unraid ohne die Disks eines Pool startet, kam mir gleich noch eine Idee: - jede HDD, die Filme enthält. über ein separates Netzteil mit Strom versorgen - jede dieser HDDs einzeln als Pool hinzufügen - bei jedem Pool einen Spindown konfigurieren - das separate Netzteil über eine smarte Steckdose überwachen, die vollständig den Strom trennt, sobald alle HDDs im Spindown sind Jetzt fehlt aber noch die Ausfallsicherheit: - SnapRAID Container - alle Pools mit den Filmen dem Container zuweisen - ein Pool mit leerer HDD dem Container als Parity zuweisen - "docker exec -it snapraid snapraid sync" ausführen um die Parität aufzubauen Die Idee ist nun folgende: Sobald Plex startet, wird die smarte Steckdose eingeschaltet und die HDDs fahren alle hoch. Startet man einen Film, gehen die restlichen HDDs nach x Minuten in den Spindown. Hat man fertig geschaut, geht auch die letzte HDD in den Spindown. Die smarte Steckdose schaltet nun alle HDDs ab. Solange Plex also nicht läuft, verbraucht keine HDD Strom. Bei zB 10 HDDs immerhin ~15W Ersparnis. Was ich schon mal getestet habe ist SnapRAID und zwei NVMe als separate Pools. Das geht soweit: Pools: SnapRAID Container: snapraid.conf parity /mnt/p1p/snapraid.parity content /mnt/p1p/snapraid.content content /mnt/d1d/snapraid.content data d1 /mnt/d1d/ snapraid-runner.conf [snapraid] executable = snapraid config = snapraid.conf deletethreshold = 40 touch = false Testdatei erstellen und Parität aktualisieren: root@Tower:~# echo "test2" > /mnt/d1d/test2.txt root@Tower:~# docker exec -it snapraid snapraid sync Self test... Loading state from /mnt/p1p/snapraid.content... Scanning... Scanned d1 in 0 seconds WARNING! UUID is unsupported for disks: 'd1'. Not using inodes to detect move operations. Using 0 MiB of memory for the file-system. Initializing... Resizing... Saving state to /mnt/p1p/snapraid.content... Saving state to /mnt/d1d/snapraid.content... Verifying... Verified /mnt/p1p/snapraid.content in 0 seconds Verified /mnt/d1d/snapraid.content in 0 seconds Using 16 MiB of memory for 32 cached blocks. Selecting... Syncing... 100% completed, 1 MB accessed in 0:00 d1 63% | ************************************** parity 0% | raid 11% | ****** hash 0% | sched 23% | ************** misc 0% | |______________________________________________________________ wait time (total, less is better) Everything OK Saving state to /mnt/p1p/snapraid.content... Saving state to /mnt/d1d/snapraid.content... Verifying... Verified /mnt/p1p/snapraid.content in 0 seconds Verified /mnt/d1d/snapraid.content in 0 seconds root@Tower:~# Leider kann man NVMe SSDs nicht einfach rausziehen. Ich muss das jetzt noch mal mit SATA SSDs probieren, die ich dann im laufenden Betrieb vom Strom trenne. Mal sehen was dann passiert.
×
×
  • Create New...