Jump to content

mgutt

Moderators
  • Posts

    11,355
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Sind "normal": https://www.amazon.de/gp/customer-reviews/R2AMD8P4X04X6S/ref=cm_cr_dp_d_rvw_ttl?ie=UTF8&ASIN=B00HFGJRR4 Man muss nur eben wissen wie die heißen
  2. Über die Einstellungen kannst du auf den Stick schreiben lassen.
  3. Da sollten normale Reverse Kabel sein?! Es gibt auch günstigere 19 Zoll Cases. Zb das: https://geizhals.de/ultron-realpower-rps19-4480-a1117908.html?hloc=at&hloc=de&v=e Leider ist nicht klar ob bereits HDD Halterungen dabei sind und ob die werkzeuglos sind. Ansonsten könnte man vielleicht sowas verbauen: https://m.de.aliexpress.com/item/4000270515513.html
  4. Im Unraid Array sollte man keine USB Laufwerke verwenden. Manche Adapter unterstützen nicht alle ATA Befehle und wieder andere geben gar nicht den Namen der Disk weiter usw. Kann gehen. Muss aber nicht.
  5. Das geht natürlich auch. Hast du nur eben keine NVMe, die man an eine VM durchschleifen kann. Eventuell versuchst du dann eine SATA SSD durchzuschleifen. Müsste man mal testen ob das besser als ein VMDisk Image performt. Nach dem Herunterfahren könnte man ein Image der kompletten SSD machen. Aber 2TB wären nicht ohne. Vermutlich macht es mehr Sinn die NVMe zu partitionieren und zb nur 64GB für Windows zu nutzen und der Rest für Mediendateien, die man klassisch über Windows selbst sichern könnte. Ich habe zb mein C:/User/Name/Dokumente etc im Netzwerk per Passwort freigegeben. In Unraid nutze ich dann rsync um die Dateien zu sichern.
  6. Das macht Unraid. Ja. Es ginge sogar komplett ohne (i)GPU. Ja so 10 bis 20 € sind normal. Selbst der 4-fach Adapter ist günstig, funktioniert aber nur, wenn das Board 4x x4 Bifurcation unterstützt. Es gibt auch 2-fach Adapter für x8 + x8 Bifurcation Boards. Das kann zB mein Board. Wenn man den für die VM verwenden möchte, würde man den PCIe Slot über VFIO blacklisten, so dass Unraid ihn nicht benutzen kann. Dann steht er beim Anlegen der VM als Hardware zum Durchschleifen zur Verfügung. Schau dir dazu mal das Video an. Da wird auch ein Trick gezeigt, wie man sie parallel in Unraid über UD weiter nutzen kann. Genau. Und reichen die irgendwann nicht mehr, musst du langsam über sowas nachdenken ^^ https://www.asus.com/de/Motherboards-Components/Motherboards/All-series/WS-C422-PRO-SE/ https://www.asus.com/de/Commercial-Servers-Workstations/WS-C422-SAGE-10G/ https://www.asrockrack.com/general/productdetail.asp?Model=C422 WS/IPMI
  7. Vielleicht irgendwas in den Systemlogs zu sehen? (Tools) Aber die GUI ist nach den 7 Minuten schnell oder? Nicht, dass der RAM bei dir einfach überfüllt ist.
  8. Das wäre allerdings nicht schlimm, wenn doch. Die iGPU macht das ja sehr effizient. Kennst du diesen Build? https://forums.unraid.net/topic/101154-meine-19-spar-serverkonfiguration/ Ansonsten eben irgendein Gehäuse wo man noch ein Standard-Netzteil verwenden kann (damit man sich bei der Auswahl nicht einschränkt). Ich würde bei wenigen Platten vermutlich ein 2HE Gehäuse mit SFX-Netzteil nehmen. Von der Position der Lüfter her und weil es Hotswap Bays gibt, würde mich jetzt das ansprechen: https://geizhals.de/fantec-src-2080x07-1670-a1206173.html?hloc=at&hloc=de Allerdings muss man sich wahrscheinlich eine Adapterplatte für ein SFX Netzteil anfertigen?! Macht Sinn Das halte ich für übertrieben. Leg den Schwerpunkt erstmal auf das Backup. Ich mein du kannst bei Unraid im Gegensatz zu einem RAID5 ja niemals alle Daten verlieren. Im Härtefall holst du eben die Daten von zwei Platten aus dem Backup. Das ist immer noch vertretbarer als von 6 bis 7 Platten. Außer du bist Unternehmer und es kostet dich zu viel Zeit / Geld. Ich habe zB eine Parity und eine zusätzliche Platte für Appdata und User-Share Backups im Array. Und Remote habe ich einen zweiten Unraid Server, der komplett ohne Parity läuft. Also selbst wenn der Fall eintritt, dass mir die Platte mit den User-Shares und die Platte mit den Backups parallel kaputt geht und damit die Parity nicht mehr hilft, könnte ich die Daten noch vom Remote-Server holen. Mir reicht das.
  9. Nein, aber umso mehr Speicherplatz, umso mehr Plattern und umso mehr Gewicht. Mehr Gewicht braucht einen größeren Motor und das wirkt sich auf den Verbrauch aus. Daher sind die 2 bis 6TB WD Red SMR sehr sparsam. Selbes gilt für 2.5 Zoll SMR Platten. Wobei letztere aber sehr lahm sind. 18TB CMR Platten mit 9 Plattern verbrauchen mehr, aber weniger HDDs, bedeutet weniger Stromverbrauch. Also drei 18TB sind entsprechend sparsamer als sieben 6TB Platten (beide 36TB im RAID5/Unraid Array). Allerdings kosten drei 18TB Platten ca 200 € mehr und da im Leerlauf alle so um die 0.5 bis 1W verbrauchen, können viele kleine HDDs bei Unraid im Vorteil sein. Das gilt aber natürlich nicht mehr, wenn man erstmal eine HBA/SATA Karte kaufen muss, die a) Geld kostet und b) auch wieder Strom verbraucht. Schlussendlich wäre daher meine Empfehlung die Plattenanzahl so zu wählen, dass man mit den Ports des Boards auskommt und dafür zu sorgen, dass die HDDs möglichst lange schlafen. Zb in den man einen SSD Cache verwendet, der möglichst viel abfängt.
  10. Einfach "powertop --auto-tune" ausführen. Mehr ist das nicht. Wenn du dann nur "powertop" ausführst, bekommst du eine Übersicht, die man per Tab-Taste wechseln kann. Bei CPU sieht man dann auch ob die CPU brav in die niedrigen C-States wechselt.
  11. "No" greift nicht, wenn man Dateien bewegt und das Ziel im selben Mount liegt, da Linux dann "schummelt" und nur versucht den Dateipfad umzubenennen, statt die Datei wirklich zu verschieben: https://forums.unraid.net/topic/73800-command-line-file-moving/?tab=comments#comment-679290 Also trotz "Yes", wird es andersherum (beim Kopieren von HDD auf SSD) das selbe Problem geben, wenn man nicht die Disk-Pfade verwendet.
  12. Mach das und deaktiviere im BIOS das Onboard Audio. Das Board ist ziemlich unspektakulär aufgebaut. Würde mich wundern, wenn das bei ~15W bleibt.
  13. Schritt 1 ist, dass dein Server über die Domain erreichbar ist. Ansonsten wird Lets Encrypt deinen Server auch nicht erreichen und entsprechend kein SSL Zertifikat ausstellen können. Lets Encrypt ruft deinen Server über http://domain auf. Nicht https. Ich habe mir das noch mal durch den Kopf gehen lassen und ich schlage eine andere Konfiguration vor: - nimm den Nextcloud-Container von knex666 (dieser kennt nur http/Port 80) - ändere das Netzwerk auf Bridge - füge einen Port hinzu, Container Port 80, Host Port 8666 Jetzt kannst du lokal Nextcloud über http://UnraidIPv4:8666 und http://[UnraidIPv6]:8666 erreichen. Erst wenn das geht weiter machen wie folgt: - nimm den NPM-Container - ändere das Netzwerk auf br0 und vergib feste IP-Adressen - ändere den http Port auf 80 - ändere den https Port auf 443 - im Router Port 80 auf 80 von NPM leiten - im Router Port 443 auf 443 von NPM leiten - in NPM die DuckDNSDomain als Proxy Host hinzufügen (http, LokaleUnraidIP, 8666) - Diesen Link mit den entsprechenden Werten füllen und aufrufen: https://www.duckdns.org/update?domains={YOURVALUE}&token={YOURVALUE}&ip={YOURVALUE}&ipv6={YOURVALUE} domains = Subdomain von Duck DNS token = Token aus dem Duck DNS Dashboard ip = IONOS IPv4 ipv6 = IPv6 vom NPM Container - prüfe im DuckDNS Dashboard, ob die IPs übernommen wurden Von außen kannst du Nextcloud nun über http://DuckDNSDomain erreichen, sofern dein Gerät IPv6 unterstützt. Wenn das geht, nun wie folgt weitermachen: - auf dem IONOS Server alle bestehenden Tunnel stoppen - neuen Tunnel von 80 auf DuckDNSDomain und 80 erstellen - neuen Tunnel von 443 auf DuckDNSDomain und 443 erstellen Jetzt sollte http://DuckDNSDomain auch über dein Handy gehen (IPv4 only). Erst wenn das geht: - Über NPM das SSL Zertifikat bestellen Jetzt sollte auch https://DuckDNSDomain gehen. Wenn das alles läuft, müssen wir uns zum Schluss überlegen wie man die IPv6 von DuckDNSDomain aktuell hält. Also dass die immer die aktuelle IPv6 vom NPM Container erhält.
  14. @h0schi @vakilando Erstellt denn Duplicati nicht einfach 1:1 die Dateien im Ziel? Also warum ist die Wiederherstellung manchmal ein Problem?
  15. Im Unraid Subreddit wird es gefeiert. Dein Support-Thread hat auch schon über 1000 Views, daher gehe ich davon aus, dass das schon oft gelesen wurde.
  16. Laut hier liegt es an deinem USB Adapter, der vermutlich nur bis 2TB funktioniert und dann komische Ergebnisse bei größeren Platten liefert: https://forum.openelec.tv/showthread.php?tid=83166 Welchen Adapter / Dock verwendest du?
  17. Wenn das der Fall ist, dann läuft dein Setup doch noch gar nicht. Der Sinn war doch, dass du die IPv4 von IONOS bei DuckDNS hinterlegst und 6tunnel den Traffic dann zu dir nach Hause weiterleitet.
  18. Wie gesagt: Von welchem Pfad in welchen Pfad hast du verschoben? Sicher nicht von /mnt/cache/downloads/ zu /mnt/disk3/videos Das wäre eine Disk (cache) zu Disk (disk3) Operation gewesen. Du hast vermutlich von /mnt/cache/downloads zu /mnt/user/videos verschoben. Also von Disk (Cache) zu Share. Das verursacht diesen Fehler. Wie gesagt. Niemals von Disk zu Share oder andersherum. Immer nur Disk<>Disk oder Share<>Share. Wenn du den Cache auf Yes stellst, kannst du mit Krusader auch von /mnt/cache/downloads zu /mnt/cache/videos verschieben (auch Disk zu Disk) und den Mover den Rest machen lassen. Defakto macht es ja keinen Sinn, den Cache nicht zu nutzen. Oder hast du dafür einen Grund?
  19. Kannst du sie nicht direkt in die entsprechenden Shares downloaden lassen? Wenn nein, verschieben von Hand ist dir zu nervig? Wenn ja, dann muss wohl ein Skript her. Hier Beispiele: https://unix.stackexchange.com/a/67511/101920
  20. Hast du powertop --auto-tune ausgeführt? Welches Board ist das eigentlich genau?
  21. Installiere NPM und leite die Ports wie im Video gezeigt auf NPM um. Darüber kannst du dann auch das Zertifikat beziehen.
  22. Naja, das was hier alles steht schätze ich: https://forums.unraid.net/topic/2100-rsync/page/2/?tab=comments#comment-819926
  23. Das machst du nicht "in Nextcloud", sondern im Proxy. Bei NPM klickt man dafür einfach auf den SSL Tab. Siehe im Video ab 3:29
  24. Du musst den Docker und VM Dienst deaktivieren. Nicht nur die Container stoppen. Dann Mover starten und es wird nichts mehr auf den HDDs verbleiben. Wenn das nicht der Fall sein sollte, dann schau in den Logs nach dem Grund (Tools > Systemlogs). Falls deine Container nach Reaktivierung des Dockerdienstes weg sein sollten, einfach auf Apps > Previous Apps gehen. Da sind alle gesichert. Der sollte meine ich schon immer da gewesen sein. Sinn und Zweck sind mir auch nicht bekannt. @ich777? Pass auf was du tust. Niemals Dateien von einer Disk/Cache auf einen Share verschieben. Wenn du zb Dateien von /mnt/cache/sharename auf /mnt/user/sharename verschiebst und der share hat den Cache aktiv, dann liest Krusader die Datei von der SSD und schreibt sie wieder auf die SSD. Die Datei überschreibt sich also selbst = vernichtet. Am besten in Dateiexplorer-Containern nur Shares (/mnt/user) verwenden. @ich777 solltest du vielleicht auch bei deinem so voreinstellen. Der Cache steht auf No und es landen trotzdem Dateien auf der SSD? Das darf/kann nicht sein. Auf welchem Weg sind die Videos dahin gekommen? Evtl über einen Docker, der als Pfad direkt auf /mnt/cache/videos zielt? Dann das auf /mnt/user/videos ändern. Das ist egal. Wichtig ist nur wie gesagt, dass du niemals von Disk auf Share oder andersherum Dateien bewegst.
  25. Bei Unraid liegen Dateien entweder auf dem Cache (SSD) oder dem Array (HDD). Docker Container legen ihre Dateien im Share "appdata" ab, für den man vorzugsweise den Cache mit "Prefer" aktiviert, so dass alle Dateien grundsätzlich nur auf der SSD verbleiben. Entsprechend liegen die Plex Cover, Datenbank, etc dauerhaft auf der SSD. Zusätzlich hinterlegt man dann noch den Pfad zu den Filmen, die aber natürlich auf den HDDs liegen. Der Cache (SSD) wird nicht durch die Parität des Array (HDD) abgesichert. Er braucht also einen eigenen Ausfallschutz. Den realisiert man, in dem man zwei SSDs verwendet. Diese laufen dann im RAID1. Man kann auch nur eine nehmen (so wie ich) und macht zeitnah Backups und lebt mit einem evtl Verlust. Das muss man selbst abwägen. Ist einem die beste Performance nicht so wichtig, hinterlegt man bei einer VM eine virtuelle Festplatte, die als große Datei auf dem Cache liegt. Beim Starten der VM mountet Unraid also dieses Festplatten-Image und die VM bootet dann davon. Da eine virtuelle Festplatte aber logischerweise nicht so schnell ist wie eine physische, würde ich dir zumindest für deine VM eine andere Vorgehensweise vorschlagen: 6x HDD als Array (5+1) 2x NVMe als Cache (RAID1) - dadurch gehen SATA7 und SATA8 verloren 1 bis 2x GPU in Slot 1 und Slot 2 1x M.2 PCIe Adapter in Slot 3 oder 4 Und dann schleifst du die M.2 aus dem Adapter an deine VM durch. Die VM für deine Frau kann ja über eine virtuelle Platte vom Cache bedient werden. ^^ Wobei du natürlich noch Slot 3 frei hättest für einen weiteren M.2 Adapter. Du kannst aber auch erstmal bei allen VMs mit virtuellen Platten testen. Blöd ist halt, dass das Board nur x1 bei den M.2 Slots bietet. Dadurch wirst du jetzt keine mega langsame VM haben, aber es ist natürlich nicht optimal, gerade wenn mehrere VMs parallel laufen und Plex auch noch darauf zugreift.
×
×
  • Create New...