Jump to content

mgutt

Moderators
  • Posts

    11,355
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Ohne Tuning. Und ich sagte ja. Der 4000/5000 Ryzen ist sparsam. Alle anderen aber nicht. In der Liste bei Hardwareluxx findest du auch ein sparsames AMD Ryzen 4350G System. Das ist von mir. Ansonsten ist die Liste aber sehr spärlich gesäht mit AMD Desktop CPUs. Eben weil AMD erst jetzt in diesen Bereich vordringt. Daher hat Intel nach so langer Zeit auch (endlich) ein Problem.
  2. mgutt

    Array stoppend

    Und das ist dein SAS Controller? Dann wurde dessen Treiber denke ich mal korrekt installiert.
  3. Ja doch. Noch mal. https hat den Port 443. Wenn Du nun auf der Fritz!Box Port 180 und 1443 freigibst, dann erreicht man den Unraid Server öffentlich nur über https://subdomain.deinedomain.de:1443/ oder http://subdomain.deinedomain.de:180/ und nicht über https://subdomain.deinedomain.de, was aber eigentlich dein Ziel ist. Lokal könnte es gehen, aber da ist die Frage ob der Server weiß was er mit Port 443 anfangen soll. Das hängt aber davon ab wie der Port in SWAG konfiguriert wurde. Wie lauten deine SWAG Einstellungen? Also. Du kannst den Nextcloud-Container wie folgt erreichen, korrekt? http://192.168.178.37:180/ https://192.168.178.37:1443/ Du kannst ihn auch so erreichen? http://blabla.duckdns.org:180/ https://blabla.duckdns.org:1443/ Und was ist passiert hier? http://blabla.duckdns.org/ https://blabla.duckdns.org Die Port-Freigaben in der Fritz!Box können jedenfalls wieder raus. Da gehört nur 443 (https) rein. Bedenke aber und das sollte jeder testen, der sowas macht, dass man den Unraid-Server, also dessen GUI evtl öffentlich erreichbar macht, was man niemals machen sollte! Alternativ zu SWAG könntest du übrigens auch Nginx Proxy Manager testen. Der hat sogar eine GUI.
  4. Wenn du den Port 180 durchleitest, dann wird deine Nextcloud öffentlich auch nur über IP:180 bzw DDNS:180 zu erreichen sein. Dann könntest du dir aber gleich den ganzen Aufwand mit Subdomains sparen. Man will ja Port 443 (https) auf den Server forwarden und der Proxy erkennt an Hand der Subdomain welcher Container geladen werden soll.
  5. Erstmal vorab. Zensiere noch den Token. Ich denke nicht, dass der andere was angeht.
  6. mgutt

    Array stoppend

    Du musst schon meine Fragen vollständig beantworten. Ist das der SAS Controller? Dann sollte er in deiner Hardware Übersicht unter Tools > System Devices auftauchen: "Jan 17 11:52:03 Tower kernel: ioc0: LSISAS1068 B0: Capabilities={Initiator} Jan 17 11:52:03 Tower kernel: scsi host63: ioc0: LSISAS1068 B0, FwRev=01032920h, Ports=1, MaxQ=128, IRQ=19 Jan 17 11:52:03 Tower kernel: mptsas: ioc0: attaching ssp device: fw_channel 0, fw_id 0, phy 0, sas_addr 0x5000c29252aa48c1" Die SATA Ports werden scheinbar auch erkannt: "Jan 17 11:52:03 Tower kernel: ata3: SATA max UDMA/133 abar m4096@0xfd5fe000 port 0xfd5fe100 irq 56 Jan 17 11:52:03 Tower kernel: ata4: SATA max UDMA/133 abar m4096@0xfd5fe000 port 0xfd5fe180 irq 56 Jan 17 11:52:03 Tower kernel: ata5: SATA max UDMA/133 abar m4096@0xfd5fe000 port 0xfd5fe200 irq 56 Jan 17 11:52:03 Tower kernel: ata6: SATA max UDMA/133 abar m4096@0xfd5fe000 port 0xfd5fe280 irq 56 Jan 17 11:52:03 Tower kernel: ata7: SATA max UDMA/133 abar m4096@0xfd5fe000 port 0xfd5fe300 irq 56 Jan 17 11:52:03 Tower kernel: ata8: SATA max UDMA/133 abar m4096@0xfd5fe000 port 0xfd5fe380 irq 56 ...."
  7. Das bringt aber nichts, weil seine Single Thread Leistung, also die Leistung pro Core gering ist. Eine VM läuft also mit zwei, doppelt so schnellen Kernen, genauso schnell wie mit vier Kernen. Willst du das wirklich per CPU transcodieren lassen? Ich denke eine iGPU oder dGPU wäre zumindest wegen dem Stromverbrauch effizienter. Kommt drauf an wie viele Platten und wie lange die CPU das Jahr über ausgelastet wird. Das kommt auf deinen Qualitätsanspruch an. Man sagt, dass CPU Transcoding das beste Ergebnis liefert, aber es ist eben mega ineffizient. Hier auch ein interessanter Artikel zu den Codecs und der Transcoding Geschwindigkeiten: https://handbrake.fr/docs/en/1.3.0/technical/performance.html Ich würde mit einem Intel mit iGPU starten und verschiedene Quell-Codecs testen (VC1, MPEG2 und H264). Wenn die Ergebnisse nicht passen, holst du dir eine Nvidia GPU. Geht auch. Es gibt ja PC Tools mit denen man Batch Konvertierung machen kann. Quelle und Ziel dann eben das NAS Auf Unraid nutzen meine ich einige tdarr.
  8. Hast du nvflash64 als Admin ausgeführt? Das selbe gilt natürlich auch für GPU-Z. Ich tippe ansonsten auf ein Problem mit deinem Windows. Du hast gesehen, dass bei Techpowerup verschiedene BIOS Versionen für verschiedene GPU Modelle von MSI gelistet sind?
  9. Gehen könnte das, aber dir muss klar sein, dass Doppel CPU auch immer doppelter Stromverbrauch bedeutet. Außerdem ist der Xeon X5570 nicht mal sonderlich stark. Selbst ein 10W Pentium hat heute mehr Leistung: https://www.cpubenchmark.net/compare/Intel-Pentium-Silver-J5040-vs-Intel-Xeon-X5570/3665vs1302 Du kannst von ~50W Stromverbrauch ohne HDDs ausgehen. Wäre das für dich in Ordnung?
  10. Dem würde ich frech widersprechen, denn standardmäßig steht bei Unraid kein Cache auf Yes, sondern auf Prefer. Es ist einfach beides. Ein Schreib- und ein Persistent-Cache. Eben so wie es der Nutzer braucht.
  11. Dir ist scheinbar nicht klar wie sparsam ein Intel System sein kann. Mein C246 liegt im Leerlauf bei 7W. Und das ist nichts besonderes. Hier im Forum findest du denke ich auch keinen, der ohne HDDs und extra Karten mehr als 20W verbraucht. Außer vielleicht sehr alte Systeme, welche mit IPMI oder Dual CPU etc. Setzen hier auch die wenigsten ein, da die meisten Deutschen Strom sparen wollen. Aber selbst ein Serverboard mit IPMI, 2 Laufwerken und 4 ECC RAM Modulen lag unter dem X570 (1 Laufwerk, 2 RAM Module): https://www.hardwareluxx.de/index.php/artikel/hardware/mainboards/53889-das-asrock-rack-e3c246d4i-2t-im-test.html?start=4 Wenn die VMs so vor sich hindümpeln, dann geht das auch mit weniger Kernen, aber klar, mehr Kerne, mehr Spaß Auch da irrst du. Der 2000/3000er Ryzen ist nicht mal mit dem B550 Board sparsam. Der 4000/5000 aber sehr wohl: https://www.computerbase.de/forum/threads/renoir-und-b550-die-idle-kuenstler.1967755/ Ok, Wettkampf ^^ Ich liege mit 8 Platten und einer 10G Karte, die alleine 6W zieht bei 20W: https://www.computerbase.de/forum/threads/selbstbau-nas-im-10-zoll-rack.1932675/ Wenn der Stromverbrauch egal ist, dann um so besser. Damit steigt natürlich die Auswahl der Komponenten. Ich würde ein Ryzen System im deutschsprachigen Raum begrüßen Wenn du per VPN zu Hause bist, kannst du ja auf die Unraid WebGUI und das Passwort eingeben. IPMI ist bei Unraid reiner Luxus, da es eigentlich nur dann genutzt wird, wenn der Server zb keine IP hat, was eigentlich nur in den ersten Tagen der Einrichtung passiert bzw wenn man eh zu Hause ist. Für den Fall nehme ich aber einfach einen HDMI Capture Stick und meinen Laptop. Im letzten Jahr habe ich den glaube ich 3x benutzt. Dafür hole ich mir nicht den Verbrauch von IPMI an die Backe. Reines Glück bzw du scheinst keine sonderlich aktiven VMs zu nutzen. QNAP unterstützt "application consistent" Snapshots nur über ISCSI LUN in Verbindung mit einem Windows Server oder VM Ware: https://docs.qnap.com/nas-outdated/4.2.2/cat2/en/index.html?iscsi_storage.htm "Application consistent snapshots for iSCSI LUN are only available when the Snapshot Agent is used and for VMware and VSS-aware applications running on a Windows server." Syno kann zumindest "file consistent", sofern QEMU auf der Maschine installiert ist, schweigt sich aber aus, warum "application-consistent" (also VM Ware) noch sicherer sein soll: https://www.synology.com/en-global/knowledgebase/DSM/tutorial/Virtualization/What_is_file_system_consistent_snapshot "A file-system consistent snapshot records all data in memory and pending I/O operations, in addition to data on the virtual disks. ... However, please note that data recorded in file-system consistent snapshots may not be as complete as those of application-consistent snapshots. ... File-system consistent snapshots require Synology Guest Tool on the operating system of the virtual machines." Ich mein "könnten nicht so vollständig sein" ist nicht gerade das was ich von einem NAS mir BTRFS und ECC RAM erwarte. In dem Fall würdest du "Yes" nehmen. Dann landen nur neue Uploads auf dem Cache und werden nach X Stunden vom Mover auf das Array verschoben. Diese bleiben also nur temporär auf der SSD um die Upload-Geschwindigkeit zu erhöhen. Backups sind schon direkt greifbar, wenn man mit einem Skript oder einem entsprechenden Container leben kann, aber VM Snapshots nicht. Da fehlt es wie gesagt in der Unraid GUI an Optionen. Das wünschen sich aber bereits mehrere: https://forums.unraid.net/topic/77970-btrfs-snapshot-management-vm/
  12. Nicht "und", sondern "oder", aber das meinteste du denke ich auch. Also entweder liegen sie auf dem NVMe RAID oder dem HDD Array. Korrekt. Man weist grundsätzlich jedem Share eine/mehrere HDD(s) zu, aber ja, man kann den Cache auf "Only" stellen und die Dateien landen niemals auf der HDD. Sicherer ist aber "Prefer". In dem Fall werden die HDDs nur genutzt, wenn der Cache voll läuft (warum auch immer). Es gehen alle RAID-Typen. Für BTRFS ist RAID1 empfohlen, da RAID5 nach wie vor als "unstable" bezeichnet wird. Da muss jeder selbst entscheiden ob er das in Kauf nimmt. Frag mich nicht, ich hab nur eine SSD ^^ Mir reicht das, wenn ich die VMs regelmäßig auf das HDD Array sichere. Aktuell mache ich das 1:1. Die Platten sind groß genug Aber der Plan ist hier mein Backup Script zu verbessern. Ich kann es nur schätzen. Irgendwas zwischen 1 und 10% vermute ich. Wobei der Docker Dienst auch in einem gemounteten Image liegt. Wobei sich das in Zukunft ändert. Dieser Performance-Nachteil fällt da dann endlich weg. Natürlich solltest du auch darüber nachdenken ob du deine VMs (teilweise) als Container aufsetzen kannst. Das ist immer der optimale Fall, da du dann Dateien hast und keine kompletten Festplatten-Images. Außerdem ist der gesamte Overhead geringer, weil Docker keine Hardware emulieren muss.
  13. Jede Wette, dass der 2700er doppelt so viel verbraucht. Du vergisst die schlechte Effizienz der alten AMD Prozessoren. TDP hat keine Aussagekraft. Das entspricht nur ungefähr der maximalen Leistungsaufnahme ohne Boost. Also bei Intel. Bei AMD gibt es da ja wieder andere "Gesetze". Jedenfalls ist ein Intel im Leerlauf deutlich sparsamer. Diese Aussage gilt nicht mehr seit dem B550 Chipsatz kombiniert mit einem Ryzen 4000 oder 5000, aber bei allen anderen AMDs gilt diese Aussage. Also mach dir da keine Illusionen, mit einem Ryzen wird das System richtig Strom ziehen (für ein NAS). Und das andere sind eben die IOMMU Gruppen. So wie ich gelesen habe sind AMD Mainboards teilweise sehr zickig und mögen nicht bis zur kleinsten Komponten an VMs durchgeschliffen werden. Ich denke mal da hat Intel gewisse Dinge aus der Serverwelt übernommen, die AMD fehlen. Da muss ich noch mal nachhaken. Entwickelst du den ganzen Tag für diese Software oder nutzt du diese nur? Nicht dass wir uns da falsch verstehen. Aber wenn die einfach nur so laufen soll, ginge sicher auch eine deutlich schwächere CPU und eine GPU brauchst du dann auch nicht. Bei den VMs, die ich produktiv nutze ja. Nicht bei VMs, die ich nur zum Testen von Software verwende. Auch ein virtueller LAN Controller zieht an der CPU. SpaceInvader hat in diesem Video gezeigt, dass man zB den Key auf einen Server oder sein Handy legen kann. Wird der Server geklaut, löscht man die Datei und der Dieb kann die Platten nicht hochfahren. Da wäre der Komfort dann wieder gegeben. Das NAS erstellt aber nur ein Snapshot vom Dateisystem und nicht vom RAM. Würden also noch Daten im RAM liegen und du machst das Snapshot, dann sind diese Daten nicht enthalten. Vom Prinzip machst du es also eigentlich falsch. Oder fährt QNAP die VM vorher herunter? Natürlich könntest du auf dem SSD Cache ein BTRFS Subvolume erstellen, da die VMs reinlegen und davon dann eben die Snapshots erstellen, aber dafür gibt es meiner Info nach kein Plugin, also ginge das nur per Kommandozeile. @ich777 oder kennst du eins?
  14. mgutt

    Array stoppend

    Stoppt das Array oder werden die Festplatten gar nicht erst angezeigt? Das sind zwei verschiedene Dinge. Hast du der Unraid VM den SAS Controller oder was auch immer zugewiesen? Gibt es Fehlermeldungen in den Unraid Logs?
  15. Der Cache ist nicht universell, sondern ein separates Laufwerk. Bei jedem Share kann man den Cache dann optional aktivieren und auch einstellen ob man die Daten dauerhaft im Cache lassen möchte oder nicht. Unraid leitet die Datenzugriffe dann auf den Cache um. Das ist anders als bei anderen NAS Betriebssystemen wo der Cache eher eine Art RAM darstellt, wo man nicht sehen kann was eigentlich im Cache abgespeichert wurde. Bei Unraid liegen wirklich physische die Dateien drauf. Und wenn sie dauerhaft im Cache liegen sollen, sollte dieser möglichst aus zwei SSDs bestehen, damit ein RAID1 für Ausfallsicherheit sorgt. Du kannst aber auch nativ eine SSD an die VM durchschleifen. Der Vorteil daran ist, dass die CPU die Festplatte nicht simulieren muss, die Performance also besser ist. Der Nachteil ist, dass du keine Ausfallsicherheit hast. Du müsstest also nach dem Herunterfahren der VM ein Image von der SSD machen oder innerhalb der VM ein Backup anstoßen.
  16. Nutzt du die aktuelle Unraid Version? Hast du HVM und IOMMU aktiv? Läuft Unraid zufällig selbst in einer VM?
  17. Hilft das? https://www.techpowerup.com/forums/threads/bios-reading-not-supported-on-this-device-saving-from-asus-tuf-3080.273035/#post-4366290 "BIOS reading not supported on this device" gibt es bei verschiedensten Karten wie es scheint. Häufig aber eher bei mobilen Karten in Laptops. Vielleicht hilft eine Anfrage direkt beim Entwickler von GPU-Z: https://www.techpowerup.com/forums/forums/gpu-z.53/ Ist die Karte denn garantiert echt oder könnte das eine gefakte Karte aus China sein? https://www.techpowerup.com/vgabios/?architecture=NVIDIA&manufacturer=MSI&model=GTX+1050+Ti&version=&interface=&memType=&memSize=4096&since=
  18. Wirst du in der Entwickler VM selbst andere Apps entwickeln oder einfach nur testen und dann wieder mit einer neuen VM anfangen? Wenn es eine dauerhafte VM wird, dann würde ich dir empfehlen möglichst viel Hardware durchzuschleifen. zB auch eine dGPU, damit sie die Oberfläche per Hardware beschleunigt werden kann. Dazu dann auch einen LAN Controller, eine NVMe und einen USB Hub, falls du häufiger auch mal USB Geräte wechseln möchtest. Eine Ryzen iGPU könnte auch gehen, aber viele empfehlen eher Intel Boards, weil man da scheinbar die Komponenten besser an eine VM durchschleifen kann. Vorzugsweise Xeon. Wird von den Containern etwas dabei sein, das auch eine iGPU nutzen könnte wie zB Video Transcoding? In dem Fall wäre die iGPU sowieso für Unraid reserviert und könnte nicht parallel in einer VM verwendet werden. Meine spontane Empfehlung wäre das Board (geht nur mit Unraid Beta): https://www.gigabyte.com/de/Motherboard/W480-VISION-D-rev-10#kf Highlights: - 6x SATA (reicht dir das?) - 3x M.2 (2x für den Unraid Cache, 1x für deine Entwickler VM) - 2x Thunderbolt (man könnte ein komplettes Thunderbolt Dock mit LAN, USB, usw an eine VM durchschleifen) - 128GB RAM - 2.5G LAN und 1G LAN (den 1G LAN kann man evtl der VM zuordnen, vermutlich ist aber nur der 2.5G LAN getrennt vom Chipsatz) Darauf dann einen Xeon E-2246G (6 Kerne) oder Xeon E-2278G (8 Kerne) und als dGPU für die VM eine GT 1030 oder GTX 1050 Ti. Ja, man kann das komplette Array verschlüsseln. Der Nachteil ist, dass man beim Booten erst mal das Passwort eingeben muss, bevor das Array starten kann und vorher läuft nichts. Keine VM und kein Docker. Allerdings kann man in der Unraid Beta mehrere RAID Pools anlegen. Man könnte also das Array selbst unverschlüsselt laufen lassen und zusätzlich angelegte RAID Pools verschlüsselt. Und sonst kann man natürlich auch andere Dinge machen wie verschlüsselte Images für VMs nutzen oder für Docker Container usw. Erfordert dann evtl etwas Scripting, aber sollte für dich denke ich zu machen sein. Ich nutze diese Script: https://forums.unraid.net/topic/97958-rsync-incremental-backup/ Snapshots funktionieren, sofern das Dateisystem BTRFS ist. Man muss bei Snapshots und VMs aber auch gewisse Dinge beachten, die ich hier angesprochen habe: https://forums.unraid.net/topic/101329-snapshot-vms/?tab=comments#comment-934767 Kurz gesagt: Laufende VMs kann man nicht sichern. Das geht nur mit Proxmox, Virtualbox etc. Das nennt sich dann "Live Snapshot". Da ist die Frage welchen Bedarf man selbst hat. Also muss die VM die ganze Zeit laufen oder darf sie auch mal heruntergefahren werden.
  19. Ich ignoriere das ehrlich gesagt immer ^^ Ab hier wird die Parity kaputt sein. Also entweder machst du danach einen Parity-Check mit Korrektur oder du wartest bis #7.
  20. Maybe it depends on the device, but dark theme looks to bold for me, too:
  21. Sadly they still did not boost the code formatting. I mean a loading circle for a simple textarea with optional formatting and this while I'm writing in a WYSIQYG Editor without any loading time?! And the code view is still a problem on smaller devices as IPS do not use nowrap, which causes misinterpreting the code. Example: Correct: Wrong: P.S. still waiting for an option to completely disable the code formatting
  22. Leider nein. Du müsstest per Unbalance Plugin die Daten verschieben oder von Hand über eine Netzwerkfreigabe
  23. Ach ja, Windows Clients sichere ich zB so: 1.) Alle relevanten Ordner über das Netzwerk mit einem lesenden Nutzer freigeben 2.) Diese Freigaben alle in Unraid mounten 3.) Mein inkrementelles Script Auf die Art brauche ich keine Software auf den Clients installieren. Die Updates erfolgen aber nicht so zeitnah wie bei der Windows Dateiversionierung. Ist mir allerdings egal, denn da hatte ich Null Überwachungsmöglichkeit und oft genug den Fall, dass er monatelang gar nichts gesichert hat. Der Klassiker ist zB fuß.jpg und fuss.jpg im gleichen Ordner. Da stürzt die Dateiversionierung ohne Fehlermeldung ab (steht nur im Protokoll).
  24. Ok, also die Disk2 ist noch leer? Dann Screenshot, neue Config und ohne die neue Platte das Array starten. Dann per Pre-Clear Plugin die Festplatte "clearen" und "Post-Read" aktiv lassen. Das "Pre-Read" kann aber weg. Ansonsten hast du drei Durchläufe. Das ist eigentlich nicht notwendig. Die Parität ist natürlich "kaputt", wenn du die Config neu erstellst. Dh parallel musst du entweder einen Parity Check machen (mit aktiver Korrektur) oder du wartest damit bis du sicher bist, dass die neue Platte doch keine dauerhafte Macke hat. Ganz zum Schluss muss die Parity nämlich so oder so korrigiert werden.
×
×
  • Create New...