Jump to content

ph.neutral

Members
  • Posts

    50
  • Joined

  • Last visited

Everything posted by ph.neutral

  1. kann ich nicht, sobald ich genügend Daten vom Qnap auf das Array kopiert habe, die 4TB Parität gegen gegen die 12TB Tauschen? Das war nämlich eigentlich mein Plan. Wenn ich die 4TB entferne, denkt das System die Parität ist defekt. Als Ersatz kommen einfach 12TB. Oder gibt es bei dieser Vorgehensweise irgendwelche Hürden die mir das Leben schwer machen oder das ganze sogar verhindern? Oder empfiehlt es sich dann jetzt direkt die 4TB Parität zu entfernen um eine höhere Übertragungsrate zu erzielen, bis alle Daten kopiert sind? Wenn ja, dann die nächste Frage, wenn ich die HDD entferne, meckert Unraid direkt, das er eine HDD nicht finden kann. Wie kann ich Unraid dann sagen, das es dort keine neue Paritäts HDD mehr geben wird? Ich habe nämlich schon mal versucht Festplatte sdb gegen sdc zu tauschen. Das ließ Unraid nicht zu. (Dazu muss ich sagen, das die HDD´s da eh neu formatiert werden sollten)
  2. So, erstmal Danke für eure Antworten und die rege Beteiligung! Also der Plan war das ich bei mir im Haus nachträglich unterputz Netzwerkdosen installiere. Das sollte im Keller alles schön zusammen laufen, also hab ich mir so ein kleinen Serverschrank mit 6HE und einer geringen Tiefe gekauft (ca. 30cm einbautiefe für Geräte). Es war Nie geplant das ich mit da auch noch ein Server Rack rein baue (welches aktuell 3HE beansprucht, da ich durch meine geringe Einbautiefe sehr begrenzt war mit der Gehäuseauswahl). Dann Befindet sich da noch ein 8-Port 10Gbit Switch und ein Patchpannel. Nun ist noch 1HE übrig. In das Gehäuse passen nur 3 HDD. Bei mir aber nur 2 HDD weil zu viele Lüfter verbaut. Das heißt ich habe mir die LSI Karte geholt um extern über ein SAS Kabel weitere HDD´s anzuschießen. Aktuell sind 5 Stück verbaut. Wenn das Qnap leer ist kommen die 6 Festplatten aus dem Qnap in das Array und dafür brauche ich die LSI Karte. Das hat schon mal einen richtigen Geschwindigkeitsboost gebracht. Die Geschwindigkeit dropt ab und zu mal auf 100 MB/s aber selbst dann ist es noch 3-4 mal schneller als vorher. Ich habe spaßeshalber mal den Spindown aktiviert. Der ist ja anscheinend auf einer Unraid Neuinstallation deaktiviert. Hatte ich mich noch nicht mit beschäftigt. Naja der Spindown wurde, wie du schon erwähnt hast, direkt deaktiviert nachdem ich den reconstruct write aktiviert habe. Ich denke ich werde das so beibehalten bis ich alle Daten vom Qnap auf das Array kopiert habe und dann mal weiter sehen. Ich hoffe das meine 1TB m2 als cache ausreicht und dann aktiviere ich den Spindown wieder. Bei den Aktuellen Strompreisen ist das sicherlich nicht uninteressant und natürlich die schonung der Hardware. Habe mal die Begriffe "reconstruct write" und "tunable (md_write_method)" in die suche eingegeben. Bin aber noch nicht so richtig fündig geworden was diese Funktion genau macht. Ich frag gleich nochmal google... OK. Das hier ist der Kopiervorgang der die Nacht durch lief. Die CPU Nutzung hatte sich heute morgen aber normalisiert denke ich. Das hier ist die CPU Nutzung ohne Kopiervorgang. Das hier ist die CPU Nutzung mit neuem Kopiervorgang mit großen Dateien und aktiviertem "reconstruct write". So sieht das ganze jetzt aus. Dazu muss man sagen das die Cores die auf 100% sind nach wenigen Sekunden auch wieder zurück gehen und sich abwechseln mit anderen Cores. Das mit dem Cache werde ich direkt in angriff nehmen sobald ich alle Daten vom Qnap auf das array kopiert habe. Im Qnap befinden sich ja 2x Samsung ST12000VN0008-2PH103 (12TB) und 4x Samsung ST10000VN0008-2PJ103 (10TB) Die beiden 12 TB HDD kamen so zustande, das mal 2 HDD´s defekt waren, der Händler aber keine 10TB liefern konnte und mir dann einfach 12TB geschickt hat. Würdet ihr die in mein vorhandenes Array einbinden oder aus Gründen wie z.b. Geschwindigkeit ein zweites Array erstellen? Und ich sehe das doch richtig, oder? Die Paritäts HDD stellt im Falle einer defekten HDD die Daten auf der neuen Ersatz HDD komplett wieder her. So wie mein Qnap im Raid 5, richtig? Und wenn ich eine zweite Paritäts HDD zuweise, wie bin ich dann geschützt? ist dann nur die Paritäts HDD selbst geschützt oder können dann auch 2 HDD´s gleichzeitig ausfallen?
  3. System Overview Unraid system:Unraid server Pro, version 6.12.4 Model:Custom Motherboard:NZXT N5 Z690, Version: unknown, s/n: unknown Processor:13th Gen Intel® Core™ i5-13600K @ 3465 MHz HVM:Enabled IOMMU:Enabled Cache:L1 Cache = 288 KiB (max. capacity 288 KiB) L1 Cache = 192 KiB (max. capacity 192 KiB) L2 Cache = 12 MiB (max. capacity 12 MiB) L3 Cache = 24 MiB (max. capacity 24 MiB) L1 Cache = 256 KiB (max. capacity 256 KiB) L1 Cache = 512 KiB (max. capacity 512 KiB) L2 Cache = 8 MiB (max. capacity 8 MiB) L3 Cache = 24 MiB (max. capacity 24 MiB) Memory:32 GiB DDR4 (max. installable capacity 128 GiB) Controller0-ChannelA-DIMM1: G Skill Intl F4-3333C16-16GTZR, 16 GiB DDR4 @ 3100 MT/s Controller1-ChannelA-DIMM1: G Skill Intl F4-3333C16-16GTZR, 16 GiB DDR4 @ 3100 MT/s Network:bond0: fault-tolerance (active-backup) eth0: 2500 Mbps, full duplex, mtu 1500 Kernel:Linux 6.1.49-Unraid x86_64 OpenSSL:1.1.1v P + Q algorithm:32039 MB/s + 46274 MB/s 2 HDD sind über einen normalen SATA Controller angeschlossen 3 HDD sind über einen LSI SAS9207-8e-HP 6 Gb/s PCIe x8 SAS Controller angeschlossen Das System ist mit Parität. Btw was ist mit Port Multiplier gemeint? Cache ist nicht aktiv für den Share den ich gerade benutze. Tut mir Leid, ich gelobe Besserung. Ja genau, jeder fängt mal an. Ich Probiere erst seit ein paar Tagen mit Unraid rum. Was ich bischer über ein Unraid Array weiß, ist das die Festplatten nicht im Raid laufen sondern nur hintereinander geschaltet werden. Das erklärt aber nicht warum die HDD nur 30MB/s erreicht. Und natürlich kann ich das mit der Geschwindigkeit eines Qnap vergleichen. Aus welchem Grund sollte man das nicht können? Ich besitze nun mal ein Qnap und von daher ist das mein Maßstab in Sachen Geschwindigkeit. Warum Unraid nur ein fünftel der Geschwindigkeit eines Qnap´s schafft kann man mir in dem Zusammenhang bestimmt erklären... Falls hier noch irgendwelche Hardware Angaben fehlen oder zu ungenau sind, bitte bescheid geben. Im folgenden Bild ist dann die CPU Auslastung zu sehen, während ich mit 30MB/s auf das Array kopiere. Danke für die Hilfe schon mal im Vorraus!
  4. Moin Moin, warum wird der Datentransfer nach 30-60 Sekunden so extrem langsam. Übertragen werden Dateien mit einer Größe von 10GB - 60GB über ein 2,5Gbit Ethernet... Auf meinem Qnap (Raid 5 mit 6xHDD) überträgt er durchgehend mit 250 MB/s. (ohne Cache Laufwerk und nur mit HDD)
  5. Yes I have. My unraid system was still pretty new, so i deleted everything once and redid it. don't ask me how, but now the GPU Statistics addon works too. I used the same youtube guide for it and installed the same addons.
  6. Bisher leider nichts. Das Ende vom Lied: ich hab das ganze System neu aufgesetzt (war eh noch frisch) und nun funktioniert es auf wundersame weise... frag mich nicht warum. Bin wieder den selben Youtube Guide durch gegangen und habe die selben Apps/Plugins installiert...
  7. maybe someone else has an idea which one gets gpu statistics to run?
  8. GPU Statisctics doesn't show me anything. does anyone know a possible solution?
  9. ich hab eine iGPU. Aber warum wird dann nichts angezeigt unter GPU Statistics?
  10. https://forums.unraid.net/topic/77943-guide-plex-hardware-acceleration-using-intel-quick-sync/#comment-721131 meinst du diese Anleitung? hab /dev/dri hinzugefügt und diesen modprobe Befehl eingegeben und auch intel_gpu_top installiert. mir wird aber immer noch keine GPU unter Hardware transcoding device angezeigt da steht zwar (hw) aber das kann ja genau so gut bedeuten das die CPU anstatt die GPU genutzt wird und hier wird dabei auch null Auslastung angezeigt
  11. Moin Moin, in der neuen Plex Version wurde das Transcoding mit GPU hinzugefügt. Gibt es eine Möglichkeit das die Intel GPU im Plex Docker Container erkannt wird? So sieht es auf meinem Unraid aus: und so sieht es auf meinem Qnap aus: und diesen Plex Docker nutze ich:
  12. Moin Moin, ich bin gerade dabei Daten vom PC auf Unraid zu kopieren und muss feststellen das sich manchmal das Webinterface nicht mehr öffnen lässt. Die Daten kopieren aber weiter und lokaler Zugriff funktioniert auch. Wie kann ich herausfinden woran das liegt? Greetz PH
  13. 2023-10-19 22:26:27 INFO Plex webhook URL: http://localhost:32500/xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx Traceback (most recent call last): File "/plexannouncer/./main.py", line 110, in <module> web.run_app(app, port=32500) File "/usr/local/lib/python3.10/site-packages/aiohttp/web.py", line 512, in run_app _cancel_tasks({main_task}, loop) File "/usr/local/lib/python3.10/site-packages/aiohttp/web.py", line 444, in _cancel_tasks asyncio.gather(*to_cancel, loop=loop, return_exceptions=True) TypeError: gather() got an unexpected keyword argument 'loop' 2023-10-19 22:26:52 INFO Plex webhook URL: http://localhost:32500/xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx ======== Running on http://0.0.0.0:32500 ======== (Press CTRL+C to quit) hello, what does this mean?
  14. vielleicht bräuchte ich hier auch nochmal einen Tip. Ich hab jetzt mal den Cache auf 90% voll gemacht. Eingestellt war das er den Cache ab 60% Füllstand die Daten ins Array kopiert. Er fängt damit aber nicht an. Ich musste den Mover gerade manuell starten. Es kommt auch immer diese komische Meldung vom ersten Bild, dabei ist dieses "Cumulative parity check" deaktiviert wie man sehen kann. Ich hab sogar extra den "Scheduled parity check" deaktiviert.
  15. was ist LXC? AMP läuft ja auch in einem Docker Container und kann man das nicht immer bei einem Container so einstellen das docker.socket genutzt wird? oder ist das so ein programmier-technisches Ding das AMP das nicht kann?
  16. Ja, AMP startet und beendet selbststädig Docker Container mit der Ausgewählten Software im Container. Ähnlich wie portainer.ce hier ein paar Bilder: Installiert man z.b. Docker und AMP herkömmlich unter Debian funktioniert das alles... aber das ist ja logisch... hier wird es wohl ziemlich kompliziert 🤷‍♂️
  17. ich hab das einfach mal als Solution markiert. Ihr werdet sicherlich recht haben, nur leider funktioniert es nicht für AMP. Wenn man versucht ein Spiel im Container zu starten, dann bekommt man immer noch eine Fehlermeldung das was mit Docker nicht stimmt. Anscheinend ein tiefgreifenderes Problem. Trotzdem danke für die Mühe!
  18. welche option muss man dafür denn auswählen? so hab ich das jetzt eingestellt, aber dann tritt anscheinend ein so heftiger Fehler auf, das der AMP Container direkt komplett gelöscht wird.
  19. Moin Moin, ich habe eine m2 als Cache Laufwerk hinzugefügt. Wenn ich aber nun Dateien über LAN in meine shares kopiere, landet alles auf dem Cache Laufwerk bis es voll ist und das bleibt es auch voll. Kann ich es irgendwie so einstellen, das die Daten regelmäßig auf das Array geschoben werden? Oder kann man es so einstellen, das man bei der 1TB m2 eine Grenze von z.b. 500GB einstellt und sobald man darüber kommt kopiert er alte Daten auf das Array aber parallel dazu nutzt man die reservierten 500GB um weiterhin mit hoher Geschwindigkeit Daten auf das Cache Laufwerk zu kopieren? Greetz PH
  20. Moin Moin, findet sich hier noch jemand der mir genau erklären kann wo ich welchen Befehl einfügen muss damit docker.socket an den AMP Container weitergeleitet wird? Ziel ist es aus AMP heraus weitere Docker Container erstellen zu lassen. Danke schonmal.... Greetz PH
×
×
  • Create New...