Jump to content

mgutt

Moderators
  • Posts

    11,371
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Du kannst in den Einstellungen die Disk Shares aktivieren. Dann gibt es einen Share pro Disk. Direkt über rsync würde die CPU im Vergleich zu SMB aber deutlich weniger belasten, sofern dir das überhaupt wichtig ist. Es gibt einen rsync-server Container in den apps. Da könntest du dann alle Disks rein lesend verlinken.
  2. No It's meant to be executed every night by cron or similar. Of course you can change the timeout to whatever you prefer
  3. Machst du das einzeln? Ich führe nur die beiden Setups aus. Danach ist alles installiert. Siehe auch Video:
  4. There should be two ports. Ok, and both target NPM? Then your router does not forward 443 to 12345. Instead 12345 is only an open Port with the target 12345. But you need source 443 and target 12345.
  5. Did you forward 12345 to NPM? I don't think so. Usually a proxy is used only for the ports 80 and 443.
  6. Wenn du das kannst, kann das auch jeder andere. Kannst du damit leben? Für Nextcloud solltest du dir eine eigene Domain besorgen. Diesen kryptischen Link von unRAID.net kann sich ja keiner merken und du kannst auch keine eigenen Subdomains anlegen. Damit wäre es also nicht möglich Nextcloud und unRAID parallel zu nutzen, außer du änderst die Ports so, dass nicht beide auf Port 80 (http) und 443 (https) lauschen. Entweder kaufst du dir also eine Domain oder du holtst dir eine kostenlose Domain bei einem DDNS Anbieter zb DuckDNS. Diese Domain muss dann regelmäßig die IP deines Internetanschlusses zurückgeben. Das geht zb per Skript, manche Router bieten diese Funktion oder es gibt auch einen DuckDNS Container, der das macht. Nachdem die Domain klar ist, braucht man einen Proxy. Zb Swag oder den Nginx Proxy Manager. Eine Freigabe im Router muss dann Zugriffe aus dem Internet über Port 80 und 443 auf diesen Proxy leiten. Im Proxy widerrum muss die Domain und dessen Ziel, also der Nextcloud Container, hinterlegt werden.
  7. Der Link ist übrigens nicht zensiert. Du hast in deinem Post nur den Text geändert. Gibt es eigentlich einen Grund warum du das nutzen willst?
  8. Das heißt gar nichts. Hat das Mainboard eine Fehlercode Anzeige? Wenn nein, hat das Gehäuse einen Lautsprecher und ist der angeschlossen? Wenn nein: https://www.amazon.de/CABLEPELADO-Mini-Lautsprecher-Mainboard-Pins-Schwarz/dp/B08KFTCM6L/
  9. Jo gibt es auch noch nicht. Erstmal werden scheinbar die Enterprise Kunden mit ihren Servern bedient. EDIT: Obwohl. Scheint doch mittlerweile hergestellt zu werden: https://www.dell.com/de-de/shop/dell-memory-upgrade-32gb-2rx8-ddr5-udimm-4800mhz-ecc/apd/ac027076/memory Edit2: Denke mal, das ist der von Micron: https://www.crucial.com/memory/server-ddr5/mtc20c2085s1ec48ba1r Sollte es bei DDR5 nicht auch größere Module als 32GB geben?
  10. mgutt

    Backup System

    Supermicro kann/will nicht helfen. Kann die EU nicht endlich Energiesiegel für PC Hardware rausbringen. Das ständig selber nachmessen nervt 😑
  11. Stell wieder auf macvlan um, dann weißt du es 😅
  12. Ja, Burn In ist Endgegner bei 4K: https://forums.unraid.net/topic/97593-intel-i3-8100-with-uhd630-the-plex-transcoding-beast/?do=findComment&comment=941483 Daher exportiere ich alle Forced Subtitle als SRT: https://forums.unraid.net/topic/109668-mkv2sub-export-all-mkv-subtitles-blu-ray-sup/ Irgendwann werde ich alle exportieren. Wobei Plex auch auf Untertitel Datenbanken zugreifen kann, aber da sind nie alle verfügbar.
  13. Ich denke da kommt es darauf an wie sauber die CPU runtertaktet. Aber im Härtefall kann man ja den Basistakt (3.7 GHz) und Maximaltakt (4.6 GHz) im BIOS wie beim i5-9400 (2.9 / 4.1 GHz) einstellen oder sogar noch geringer. Oder eben die TDP limitieren, aber das beeinflusst ja nur den maximalen Verbrauch / Hitze. Große Leistungsunterschiede gibt es ja nicht und die deutlich höhere TDP Klasse des K zeigt, dass der ab Werk schon recht hoch getaktet ist: https://www.cpubenchmark.net/compare/Intel-i5-9400-vs-Intel-i5-9600K/3414vs3337
  14. Ja, weil bei einem RAID ist das Limit immer der langsamste Datenträger. Damit würdest Du also nur den Cache künstlich bremsen. Kannst du kaufen. Da ist nichts Besonderes an diesen Adaptern. Extra Kühlkörper brauchst du bei Samsung NVMes eigentlich nicht. Die müssen übrigens nicht in einen X16 Slot. X4 Slot reicht. Die restlichen PINs des Adapters sind nur Show. Bei dir ist der zweite X16 Slot von oben ein X4 Slot. Ja, weil in unRAID die nicht genutzte Platte steht (wenn du es so eingestellt hast) Wenn du also zb selten Filme schaust, aber häufig auf deine Bilder zugreifst, verbraucht die Platte mit den Filmen nur wenig Strom. Ich habe das bei mir deswegen so, dass meine komplette MP3 Sammlung auf der NVMe liegt und Nextcloud mit allen Dateien ebenfalls. Daher habe ich auch direkt 2TB genommen.
  15. Demnach ist eBPF eine von Usern gewünschte Funktion um bestimmte Docker Container starten zu können: Ich frage mich nur, ob es sicher implementiert wurde. Weil Spectre sollte das natürlich nicht ermöglichen. Du kannst es denke ich auch umgehen, in dem du Hyper Threading im BIOS deaktivierst. Dann hast du allerdings nur noch die Kerne der CPU in Betrieb und keine zusätzlichen Threads. Damit also ca 15% weniger Gesamtleistung.
  16. Isn't this feature a security risk? https://access.redhat.com/security/cve/cve-2021-33624
  17. Die Parität hat keine Partition. Xfs_repair solltest du außerdem über die GUI ausführen. Array in den Wartungsmodus. Auf die Disk klicken und ohne -v ausführen. Bei den Pools geht das ganz normal während das Array läuft.
  18. Kommt drauf an wie groß das Backup bzw der RAM Schreibcache ist.
  19. Wenn ich könnte, würde ich sofort 2TB RAM einbauen. Jede einzelne Datei, die von einem Datenträger gelesen und nicht geändert wird, wird automatisch von Linux im RAM vorgehalten und RAM ist bekanntlich viel schneller als jeder Datenträger. Beim Schreiben ist es ähnlich. Die Dateien landen erstmal im RAM und Linux räumt dann auf und kopiert die Daten auf die Datenträger. Standard ist: - 20% des freien RAMs wird für den Schreibcache benutzt - 80% des freien RAMs wird für den Lesecache genutzt - 30 Sekunden nachdem neue Daten im Schreibcache gelandet sind, werden diese auf den Datenträger kopiert - Auf den Datenträger kopierte Daten aus dem Schreibcache, bleiben im RAM und werden dem Lesecache zugeordnet PS freier RAM, der von Linux fürs Caching verwendet wird, bleibt frei. Braucht also eine Applikation den RAM, kann es diesen jederzeit in Anspruch nehmen. Das mit dem RAM Caching wird auch in diesem Video thematisiert:
  20. Ist korrekt so. /config enthält alle deine Einstellungen. Der Lizenzschlüssel ist in der .key Datei im selben Ordner.
  21. Ja Das darf nicht sein. Ich habe nie Fehler. Weder nach einem Crash, noch wenn ich hart abschalte. Als erstes solltest du mal alle Datenträger reparieren. Also xfs_repair im Array und scrub im Pool. Ansonsten lösen diese selbst die Crashes aus. Dann musst du herausfinden warum der Server crasht. Die Kernel Fehler sind wie so oft wenig aussagekräftig. Was hast du an Hardware verbaut? Welches NVMe Modelle? Nutzt du Stromspar-Mechanismen wie zb powertop? Hast du zwei RAM Module verbaut, wenn ja nutze mal nur eines und nach dem nächsten Crash nur das andere (um RAM Fehler auszuschließen)?
  22. mgutt

    Unraid und AD

    Die UID sollte so ziemlich egal sein. Wichtig ist doch nur, dass die Gruppe "users" (GID 100) verwendet wird. Und die jeweilige Dateien müssen dann natürlich auch Leserechte für die Gruppe haben. In unRAID bekommen über SMB aber bereits alle Dateien 666 und alle Ordner 777. Daher kann jeder User, der Zugriff auf einen Share hat, die Dateien von anderen Users öffnen und bearbeiten.
  23. Ich halte die 500GB SSDs für ziemlich überflüssig in dem Szenario. Der Cache wird ja nur temporär genutzt für Uploads. Also werden die quasi dauerhaft leer sein. Das was du dann als appdata separat auflistest, ist auch der Cache. Da bleiben die Dateien aber meist durch die Cache Einstellung "Bevorzugt/Prefer" dauerhaft auf der SSD und genau diese NVMe besitzt in deinem Setup keinen Ausfallschutz. Fazit: Weg mit den 500GB SSDs und installiere eine zweite NVMe und pack alles auf die NVMe. PS Eine NVMe verkraftet 8x mehr paralelle Zugriffe als eine SATA SSD. Wenn du befürchtest, diese zu überlasten (schaffst du nicht), kannst du immer noch eine noch schnellere 980 Pro oder WD Black kaufen. PPS falls du dich fragst wie du die zweite NVMe verbauen sollst: Es gibt PCIe M.2 Adapter. PPPS: Hast du die 980 schon gekauft? Das bisschen was man da spart, lohnt sich meiner Ansicht nach nicht. Ich würde eher eine 970 Evo im Angebot kaufen.
  24. mgutt

    [Kaufberatung]

    Warum überhaupt Xeon? Weil von ECC hast du nichts geschrieben. Dann ginge ja auch ein i7 oder i9. Die wären deutlich günstiger.
  25. 2TB WD Black für unter 200 € https://www.mydealz.de/deals/western-digital-wd-black-sn770-nvme-ssd-2tb-18727eur-2011731
×
×
  • Create New...