Jump to content

mgutt

Moderators
  • Posts

    11,355
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Jetzt mit dem Aufrufen der URL oder wie? Falls ja, müssen wir uns noch was einfallen lassen was man macht, wenn dein Internetanschluss eine neue IP bekommt.
  2. Du kannst die SSD ja als UD mounten. Aber dann muss man sich über Backups Gedanken machen. Oder halt eine SSD als Parity. ^^
  3. Sockel 2066 gibt es nur ohne iGPU. Leider nur eine M.2. Dadurch ziemlicher Fail das Board. Kein PCIe 4.0. Das fänd ich jetzt beim X570 verlockend. Sonst natürlich auch egal. W480 kann man meine ich alles nehmen. Nur eben die Frage wegen ECC/Xeon, weil der Support beim i3 gestrichen wurde. Den W-1250 habe ich die Tage ganz kurz bei einem Händler gesehen. Ansonsten ist nur der größte W-1290P verfügbar. In der Schweiz müsstest du mal schauen. Das sind alle die es gibt: https://en.wikipedia.org/wiki/List_of_Intel_Comet_Lake-based_Xeon_microprocessors Ansonsten spricht bis auf die iGPU auch nichts gegen AMD. Wenn Plex jetzt endlich mal AMD iGPUs unterstützen würde, würde ich dir direkt einen Ryzen 4350G/4650G/4750G empfehlen: https://en.wikipedia.org/wiki/Template:AMD_Ryzen_4000_desktop_APUs Oder du nimmst so einen (iGPU = Unraid) und nutzt dann solange zwei dGPUs (1x VM und 1x Plex) und sobald Plex auch AMD unterstützt, wirfst du die zweite dGPU raus oder nutzt sie für eine andere VM. Ich mein Strom ist doch bei dir eh günstig. Allerdings muss es dann für Plex mindestens eine GT 1050 (Ti) sein. Die GT 710 oder 1030 ist zu schwach. Die GTX 1050 bekommst du doch bestimmt günstig gebraucht. Nur dann wären wir wieder beim ausgehenden Problem: Wie bekommst du 2 GPUs, 10G und die extra SATA Karte auf ein X570 Board ^^ Was ist mit dem? https://www.asrock.com/mb/AMD/X570 Creator/index.asp Das Board hat x8, x8 (GPUs) und x4 (SATA Karte) und 10G Onboard. Die restlichen Slots sind PCIe 2.0 x1. Da könnte man höchstens mal eine Netzwerkkarte der USB Karte zum Durchschleifen an eine VM nutzen. Sowas ähnliches gibt es auch als W480, aber man hat da nur 7 SATA Slots, da der letzte PCIe Slot die dritte M.2 und einen SATA Port killt: https://www.asrock.com/mb/Intel/W480 Creator/index.asp
  4. Ja Ja, nur braucht man die? Cache bestehend aus 2x NVMe als RAID1, weil du sonst keine Ausfallsicherheit hast. Ich fahre das mit einer NVMe, muss aber jeder wissen ob er mit Datenverlust klar kommt. Auf dem Cache liegt dann alles, was schnell sein soll. VM Images, Docker Container, Uploads (die später automatisch mit dem Mover auf die HDDs verschoben werden), etc Optional kann man auch SSDs physisch einer VM zuordnen. Da die Frage ob man einen dritten M.2 Slot benötigt oder eine SATA SSD reicht. Muss man sich nur über das Backup Gedanken machen. Parallel oder nacheinander? Wie viele davon benötigen eine GPU? Dann direkt 10G, weil die Auswahl sonst zu klein wird. Hier auch eine separate 10G Karte berücksichtigen, was ebenfalls die Auswahl vergrößert. Dann ein Board mit 8 SATA Ports und zwei SATA Karten oder einer (teuren) HBA Karte. Letztere könnte sogar direkt 16 oder sogar 24 HDDs bedienen. Zwei SATA Karten, weil es keine schnelle 10 Port SATA Karte gibt und Motherboards mit 10 SATA Ports selten sind bzw meist auch nur einen zusätzlichen SATA Controller verwenden. ECC ist nicht verkehrt. Aber wieso ZFS? Du bist hier bei Unraid und nicht TrueNAS. Bei Unraid ist ZFS nur rein optional über ein Plugin und per Kommandozeile möglich. Von Haus aus nutzt Unraid einzeln formatierte HDDs (XFS) und eine oder zwei separate Paritätsplatten. Das heißt 16 durchgehend laufende HDDs sind vom Stromverbrauch her kein Thema? https://geizhals.de/nanoxia-deep-silence-6-rev-b-schwarz-nxds6bb-600060605-a1218523.html?hloc=at&hloc=de
  5. Nimm SATA und den disk/by-id/ Pfad: https://forums.unraid.net/topic/53964-passthrough-an-entire-ssd-directly-to-a-windows-vm/?tab=comments#comment-526820
  6. Ja Dann dürfen 2 statt nur 1 Platte ausfallen. Backups sind allerdings in meinen Augen wichtiger. Paritäten sind für mich nur ein Komfort-Element, falls es mal zu einem Ausfall kommt. Sollten wirklich mal 2 Platten gleichzeitig ausfallen, hole ich die Daten eben aus einem Backup. Das kommt drauf an wie viele "heiße" Daten du so haben wirst. Ich liege zB aktuell bei ~600GB, die sich wie folgt ergeben: 40GB appdata (Docker Container) 200GB music (ich möchte nicht, das wegen Hörspielen/Musik die HDDs anlaufen) 300GB domains (Virtuelle Maschinen mit jeweils 30GB Festplatten) 25GB system (Docker Image + VM Treiber Image) Dann die Frage wie viel "Luft" man für Uploads frei haben will, die nicht auf den langsamen HDDs landen sollen. Mir reichen 500GB alle 6 Stunden (dann startet der Mover und verschiebt die Uploads auf die HDDs). https://wiki.unraid.net/Replacing_a_Data_Drive
  7. Ok, du hast also nextcloud.domain.de und jellyfin.domain.de? Die Jellyfin WebGUI läuft bei dir auf Port 8096 und als Network ist Bridge eingestellt? Hast du in NPM die Domain jellyfin.domain.de auf Unraid IP + Port 8096 geleitet? Scheinbar ja: https://jellyfin.org/docs/general/networking/index.html#running-jellyfin-behind-a-reverse-proxy Diese Werte trägt man normalerweise bei der nginx.conf von Jellyfin selbst ein: https://jellyfin.org/docs/general/networking/nginx.html Das geht bei einem Docker-Container aber nicht so ohne weiteres. Welchen Container verwendest du? Bei Linuxserver gibt es zB die Variable "JELLYFIN_PublishedServerUrl": https://hub.docker.com/r/linuxserver/jellyfin Keine Ahnung ob es die ist, die das Problem löst. Wie ist das bei deinem Container @ich777?
  8. Findest du was in Richtung Netzwerk und "fail" in deinen Logs? Oder "timeout"? Wenn es SMB ist, worauf Port 137/138 hindeutet, könnte man das doch denke ich auch ohne Neustart provozieren. Führe mal im Webterminal das aus: samba restart Dauert das mehr als ein paar Sekunden? Ansonsten könntest du noch mit deaktiviertem SMB starten. Und dann könnte man überlegen SMB2 als kleinste Version vorauszusetzen. Dann dürfte Port 137/138 nicht mehr benötigt werden: # Set minimum SMB protocol server min protocol = SMB2_10 client min protocol = SMB2_10 client max protocol = SMB3 Auch danach samba restart ausführen. Wenn du dagegen SMB1 benötigst, musst du logischerweise auch die Ports dafür öffnen.
  9. Ne, ich meinte das anders. Ist aber auch egal, weil das Bild schon alles sagt: Eine letzte Idee wäre evtl das Akasa Cypher ST: http://www.akasa.com.tw/update.php?tpl=product/product.detail.tpl&no=181&type=Active Chassis&type_sub=Active Mini STX&model=A-STX04-M1B Es erlaubt eigentlich nur eine 15mm, aber da es breiter ist, schwebt die HDD über der M.2 und nicht über dem Kühler. Daher müsste man denke ich nur den HDD Halter modifzieren/neu machen: Sind aber auch schon wieder 60 € + Modifikationskosten.
  10. Es gibt auch Lifetime Lizenzen bzw ich kenne keinen der das monatlich zahlt ^^ Dann brauchst du eine sehr potente CPU. zB kann ein i3-9350K nur über die CPU keinen 4K Film ruckelfrei mit Tone Mapping transcodieren. Und das wohlgemerkt bei voller Auslastung, also um die 90W, nur die CPU. Wenn du deswegen dann auf eine potente CPU umschwenkst, verlierst du die Kosten von der Lifetime-Lizenz alleine bei der Stromrechnung. Nicht wegen dem Transcoding, sondern wegen dem höheren Idle. Kühlung etc wird dann ja auch größer. Die iGPU des i3-9350K kann übrigens problemlos 4x 4K transcodieren. Also einfach mal, damit du ein Gefühl für iGPU und CPU Transcoding bekommst. Nein, tut er nicht. Kann kein ECC und T-Prozessoren sparen keinen Strom. Du kannst auch einen K-Prozessor mit dem Multiplikator und TDP-Limit des T-Prozessors laufen lassen. Macht nur keinen Sinn, weil der Prozess, der von der CPU bearbeitet wird, deutlich später fertig wird. Also geht auch die restliche Hardware später schlafen = mehr Stromverbrauch beim T-Prozessor. Im Leerlauf verbrauchen alle CPUs quasi gleich wenig, weil alle den selben Die nutzen. Nur die deaktivierten Kerne sparen ein bisschen. Daher ist ein Pentium Gold mit 2 Kernen sparsamer als ein i3 mit 4 Kernen und der sparsamer als ein Xeon mit 6 Kernen, usw Gibt es nicht, aber auf einem C246 Board kannst du mit einem 50 € G5400 anfangen. Wenn der irgendwann nicht mehr reicht, kannst du immer noch einen Xeon E-2288G verbauen (und natürlich alles was dazwischen liegt). Vom Prinzip kannst du alles verbauen. Ich wollte die günstigsten 7200 rpm Platten und das sind die DC HC520 aus dem WD D10 Gehäuse gewesen. 13 € pro TB sind unschlagbar für 250 MB/s. Von der Ersparnis bei 10 Platten bräuchte ich nicht mal eine Garantie, aber sie haben sogar volle 3 Jahre. Selbst schon getestet. Es geht beides. Man kann in einen SFP+ Port ein RJ45 Modul stecken. SFP+ habe ich vorgeschlagen, weil der Server in der Regel da steht, wo der Switch ist und SFP+ mit DAC Kabeln ist das sparsamste was möglich ist. SFP+ zu den Clients ist ein anderes Thema, weil teurer und manchmal gar nicht realisierbar. Ich hatte damit schon sechs parallel laufende W10 VMs. Ist immer die Frage was die VMs gerade machen.
  11. Hast du über UD einen SMB Share auf Auto Mount stehen? Weil bei mir kommt direkt nach der Registrierung der IPv6 (ich habe auch IPv6 deaktiviert, keine Ahnung warum Docker sich trotzdem eine holt) ein Auto Mount: Feb 8 02:36:13 Thoth kernel: docker0: port 1(vethf60763d) entered blocking state Feb 8 02:36:13 Thoth kernel: docker0: port 1(vethf60763d) entered disabled state Feb 8 02:36:13 Thoth kernel: device vethf60763d entered promiscuous mode Feb 8 02:36:13 Thoth kernel: IPv6: ADDRCONF(NETDEV_UP): vethf60763d: link is not ready Feb 8 02:36:13 Thoth kernel: docker0: port 1(vethf60763d) entered blocking state Feb 8 02:36:13 Thoth kernel: docker0: port 1(vethf60763d) entered forwarding state Feb 8 02:36:13 Thoth kernel: docker0: port 1(vethf60763d) entered disabled state Feb 8 02:36:13 Thoth kernel: eth0: renamed from vetha78f512 Feb 8 02:36:13 Thoth kernel: IPv6: ADDRCONF(NETDEV_CHANGE): vethf60763d: link becomes ready Feb 8 02:36:13 Thoth kernel: docker0: port 1(vethf60763d) entered blocking state Feb 8 02:36:13 Thoth kernel: docker0: port 1(vethf60763d) entered forwarding state Feb 8 02:36:13 Thoth kernel: IPv6: ADDRCONF(NETDEV_CHANGE): docker0: link becomes ready Feb 8 02:36:13 Thoth rc.docker: Plex-Media-Server: started succesfully! Feb 8 02:36:14 Thoth avahi-daemon[5031]: Joining mDNS multicast group on interface docker0.IPv6 with address fe80::42:2bff:xxxx:xxxx. Feb 8 02:36:14 Thoth avahi-daemon[5031]: New relevant interface docker0.IPv6 for mDNS. Feb 8 02:36:14 Thoth avahi-daemon[5031]: Registering new address record for fe80::42:2bff:xxxx:xxxx on docker0.*. Feb 8 02:36:14 Thoth avahi-daemon[5031]: Joining mDNS multicast group on interface vethf60763d.IPv6 with address fe80::40f3:58ff:fe66:c31e. Feb 8 02:36:14 Thoth avahi-daemon[5031]: New relevant interface vethf60763d.IPv6 for mDNS. Feb 8 02:36:14 Thoth avahi-daemon[5031]: Registering new address record for fe80::40f3:58ff:xxxx:xxxx on vethf60763d.*. Feb 8 02:36:15 Thoth unassigned.devices: Mounting 'Auto Mount' Remote Shares... Feb 8 02:36:15 Thoth sudo: root : TTY=unknown ; PWD=/ ; USER=root ; COMMAND=/bin/bash -c /usr/local/emhttp/plugins/unbalance/unbalance -port 6237 Feb 8 02:36:15 Thoth unassigned.devices: Mount SMB share '//DESKTOP-xxxx/Users' using SMB default protocol. Feb 8 02:36:15 Thoth unassigned.devices: Mount SMB command: /sbin/mount -t cifs -o rw,nounix,iocharset=utf8,file_mode=0777,dir_mode=0777,uid=99,gid=100,credentials='/tmp/unassigned.devices/credentials_Users' '//DESKTOP-xxxx/Users' '/mnt/remotes/DESKTOP-xxxx_Users' Feb 8 02:36:15 Thoth kernel: No dialect specified on mount. Default has changed to a more secure dialect, SMB2.1 or later (e.g. SMB3), from CIFS (SMB1). To use the less secure SMB1 dialect to access old servers which do not support SMB3 (or SMB2.1) specify vers=1.0 on mount. Feb 8 02:36:15 Thoth unassigned.devices: Successfully mounted '//DESKTOP-xxxx/Users' on '/mnt/remotes/DESKTOP-xxxx_Users'. Sollte dieser Server offline sein, kann es tatsächlich 5 Minuten dauern bis der Verbindungsversuch abbricht.
  12. Ach, ein kleines Loch in den Boden und dann passt das schon ^^ Aber vielleicht eine andere Idee. Man entfernt den oberen Teil der Plastikführung (oder druckt das Teil neu mit einem 3D Drucker). Reicht das dann vom Platz? Oder kollidiert das dann mit dem Mainboard? Oder man montiert sie hochkant neben den RAM-Sockel? ^^ Aber da bekäme man auch nur eine hin. Dann musst du eben das kaufen Mit Undervolting sparst du im Idle vielleicht 0,5W. Das lohnt nicht. Wenn spart man nur ein wenig durch Abschalten von Hardware. zB Onboard Audio deaktivieren. Die größte Ersparnis erzielt man mit powertop und Platten im Spindown.
  13. Mal testen: Link to a Link to span Link to div <a href="#" id="test1">a</a> <span id="test2">span</a> <div id="test3">div<div> EDIT: Ok, HTML ist offensichtlich nicht erlaubt. EDIT2: Was geht ist der neue Text Anker von Google, der in Chrome und Edge funktioniert: Ein paar Tipps Aber das Forum erlaubt irgendwie nicht, dass man den Link oder einen anderen noch mal anklickt. Scheinbar werden die Anker abgefangen. Nervig Das einzige was wirklich gehen würde, wäre jede Frage und Antwort in einen eigenen Post zu packen. Aber ist das dann noch übersichtlich? Eher nicht.
  14. Dieses Märchen hält sich wacker. Belege dazu habe ich noch keine gesehen. Davon abgesehen: In Unraid hat man viel seltener Spinups als bei einem RAID. Ich habe Platten, die gehen 1x pro Tag an (wenn überhaupt). WD garantiert mir 50k davon: Oder sagen wir es so. Bei einem RAID, das alle 15 Minuten ständig alle Platten runter- und wieder rauffährt, könnte das innerhalb von wenigen Jahren tatsächlich ein Problem werden. Das ist cool. Mit einer Nvidia Quadro geht das nicht.
  15. Du kannst bei Plex mit der CPU, dGPU oder iGPU transcodieren. Letzteres ist die effizienteste Methode und schlägt sogar einen 16 Kerner problemlos. Plex unterstützt aktuell nur Intel iGPUs. Dieses "Hardware Transcoding" setzt aber den Plex Pass voraus. Hast du den? Kerne, nicht nur Threads. Ich kann in deiner Liste nichts erkennen, was mehr Leistung benötigt, außer dein "Homelab" erfordert das. Das müsstest du uns sagen. Und die VM der Frau wird dann ein Thema werden, wobei es fraglich ist, dass man sowas überhaupt macht, weil diese ja auch ein Gerät zum öffnen der VM benötigt. Braucht die dann überhaupt noch eine VM? Ich hatte vor kurzem eine Diskussion mit den Gurus dazu. Und zwar gab es bisher nur eine SSD, die Probleme gemacht hat und die war meiner Ansicht nach fehlerhaft. Aber trotzdem gibt es was zu beachten. Die Parity ist ein RAW Laufwerk und damit geht kein TRIM und die Garbage Collection funktioniert nur im offiziellen Over-Provisioning (OP) Bereich der SSD. Damit fallen alle Consumer SSDs flach, weil OP da nur sehr klein ist und die Parity nach kurzer Zeit sonst langsam wird. Kingston hat dazu einen Artikel: https://www.kingston.com/germany/de/ssd/overprovisioning Man könnte zb das Array damit ausstatten: https://geizhals.de/micron-5210-ion-1-92tb-mtfddak1t9qde-2av1zabyy-a1907696.html Wobei das nur SATA SSDs sind, die entsprechend auch kein 10G auslasten. Aber natürlich sind sie bei Random viel schneller. Normal trennt man in Unraid seine Dateien über die Shares in Hot (Cache) und Cold (Array) auf, also ob man sie oft oder selten benötigt. Ist zwar cool das Backup von 2010 mit 10G herunterladen zu können, aber brauchst du das wirklich? Reichen nicht 150 bis 250 MB/s? Oder sind 550 MB/s (SATA SSD) und Random Access so viel wichtiger? Ich mein was wäre, wenn du zwei größere NVMe verbaust und da einfach mehr aktuelle Dateien ablegst? Eine schlafende HDD zieht auch nicht viel (0.5 bis 1W). Aber ja, eine SSD ist noch sparsamer. Rechtfertigt das allerdings den hohen Aufpreis? Wie wäre es mit dem Zyxel XGS1010-12 und in den Server eine 10G SFP+ Karte? Bliebe noch ein SFP+ für einen Client und 2x 2.5G + 8x 1G. Für privat denke ich ok und der kostet nur 150 €. HBA ist sehr teuer und zieht 9 bis 15W. Eine SATA Karte ist günstig und zieht 1 bis 3W. Wobei du doch eh nur 3 Platten anschließen wolltest. Da reichen doch die Onboard Ports?!1 Dann wäre das Thema Strom sparen aber erledigt, weil das ZFS RAID kaum zum Schlafen zu bringen sein wird. Du könntest dir auch einfach ein neues Gehäuse kaufen, wo man werkzeuglos die Seitenwand und werkzeuglos die Platte entfernen kann (Define R5 oder Deep Silence 4). Externe Einschübe sind immer mit (hohen) Zusatzkosten verbunden. Die mit Backplane erst recht. Wenn das Board + 10G günstiger ist, kann die CPU denken ich auch teurer sein. Das Gesamtbudget wäre daher interessanter. Strom sparen: - ein Board ohne IPMI - kein AMD - möglichst viele SATA onboard, damit du keine extra Karte brauchst - 10G über SFP+ DAC statt RJ45 - mATX statt Full ATX Entsprechend wäre auch meine Empfehlung das C246M-WU4. Oder das W480M Vision. Letzteres ginge wegen ECC aber nur mit einem Xeon W-1250. Nichts davon ist direkt verfügbar. Aktuell Katastrophe.
  16. @Smolo Von hier https://forums.unraid.net/topic/86468-release-dark-theme-unraid-webgui-color-theme/
  17. Teste mal im Inkognito Tab um den Browser Cache auszuschließen. Ansonsten mal den Netzwerkmonitor des Browsers checken (F12). Also was da nun wohin umleitet.
  18. Kann auch nicht. Ich habe vergessen recursive zu ergänzen ^^ rm -r config/ssl/* Die pem Datei ist ja in einem Unterordner.
  19. Das kommt manchmal, wenn man mehrere Unraid Fenster parallel offen hat oder nach einem Reboot noch offen sind. Kann man ignorieren. Deaktiviere mal Bonjour. Scheint damit zusammen zu hängen: https://forums.unraid.net/topic/43942-what-is-avahi-daemon/
  20. Ich empfehle Prefer, weil wenn du die SSD mal voll machst, gehen dir die Container evtl kaputt, weil sie nichts mehr schreiben können.
  21. Das betrifft nur einen PCIe Slot, nicht die CPU. Vermutlich eine Karte, die mit ASPM (Power Management) nicht klar kommt: https://forums.unraid.net/topic/68934-solved-pcie-bus-error/ Eventuell powertop benutzt? Dann diesen Port mit keiner Energiesparregel belegen. Falls es direkt vom BIOS kommt, dann dort deaktivieren.
  22. Lokal eventuell IPv6 an? Hat die DDNS die IPv6 der Fritz!Box? Das würde das erklären. Dann würde ich dir raten IPv6 vollständig zu deaktivieren. Denn sonst musst du dafür sorgen, dass die DDNS die IPv6 vom NPM Container bekommt und die Ports von NPM auf 80 und 443 ändern, da man keine Port Weiterleitung bei IPv6 hat, sondern nur Ports öffnen kann. Wobei die lokale Performance bei IPv6 deutlich besser ist, da kein NAT Loopback notwendig ist. Da muss man abwägen was man erreichen will. Hier hatte ich das ja mit der URL vorgeschlagen, mit der man den DDNS selbst aktualisiert: https://forums.unraid.net/topic/102481-nextcloud-mit-dsl-lite-öffentlich-verfügbar-machen/page/3/?tab=comments#comment-949177 Diese müsste man innerhalb von NPM alle 5 Minuten oder so aufrufen, damit die DDNS immer die aktuelle IPv6 bekommt. Wenn du das haben willst bzw das überhaupt dein Problem ist, müssten wir mal schauen wie man das hinbekommt. Ich war dazu bisher zu faul und habe IPv6 deaktiviert ^^
  23. Das ist ein Link. Er macht aktuell gar nichts. Wenn du da drauf klickst, berechnet er die Dateigröße dieses Ordners. 😉 Auf dem Screenshot steht doch 0.00 B/s bei Gelesen / Geschrieben?! Dass die Platten an sind, muss andere Gründe haben. Sind es zufällig nur die, die bei Plex eingebunden sind? Hast du da die Auto-Indexierung aktiviert? Ich Indexiere nur manuell über die Android App:
  24. Ich sag bescheid, wenn ich weiter testen konnte ^^
×
×
  • Create New...