Reflexion

Members
  • Posts

    69
  • Joined

  • Last visited

Everything posted by Reflexion

  1. Danke, ich habe jetzt den „bbergle-jellyfin“ in Verwendung unter den Zusätzliche Parameter: --device=/dev/dri Wurde RAM transk. anbelangt so bin ich am ausprobieren; Schön ist aber, dass Vaapi transc. funktioniert. config dürfte etwas zugemüllt sein; " #!/bin/ # AMD iGPU modprobe amdgpu chmod 777 aktivieren /dev/dri # Verwaltungsdienstprogramm starten /usr/local/sbin/emhttp & " Wenn ich das richtig gelesen habe, soll das „Radeon TOP“ aber die Einstellungen von „modprobe“ ersetzt werden, auch gab es die Info, dass „Bei ‚Device‘ unten hier in der Vorlage ‚/dev/dri‘ hinzufügen“ anzugeben, Ich werde bei Problemen dann von „Extra Parameters“ auf „Device“ wechseln. EDIT; RAM Transkodierung klappt bei mir mit folgenden Anpassungen; In Jellyfin; Dann bleibt auch folgender Pfad schön leer; ..und folgender füllt sich; "ls -l /dev/shm/jellyfin"
  2. Naja, auf die Idee bin ich auch gekommen, genau wie Jellyfin Foren/Guide selbst aufzusuchen. Lediglich "bbergle-jellyfin" gibt HW Transc. in der Info an, im Kern ist das aber nicht meine Frage. Frage könnte auch sein, was bringt es so viel „Jellyfins“ zu haben, ohne die Merkmale was unter unRAID empfohlen wird u.a. für HW transcodierung. Ich wühle mich dann derzeit durch das geschlossene erwähnte Topic mal durch...
  3. Hi zusammen, vor einigen Jahren hatte ich den Beitrag Dankenswerterweise umsetzen können; angepasste ich777/jellyfin' in Verwendung und auch meinen RAM als cache zur SSD vorgezogen, wie zu sehen, geht der Schwenk zu 'jellyfin/jellyfin" und ich und vllt. auch eine andere Nutzer sieht es dann so aus; und ich frage mich, was man denn hier eigentlich wählen sollte, optimalerweise, wenn es um die VEGA Einbindung für Transkodierung geht. Plugins wie; Radeon TOP und NVTOP und auch die Anpassung; # Enable AMD iGPU modprobe amdgpu wie auch; add '/dev/dri' Habe ich vorgenommen, keine Ahnung, ob das alles noch vonnöten ist. Danke für Vorschläge Optimierungen.
  4. GT 7x0 can still be used in uEFI, but for xeons that don't have an iGPU, Gt 7x0 was also a good option for the VM. Too bad, even under Win11 you can still use the Kepler with driver.
  5. @mgutt Danke Dir erstmal für die Mühe, ich selbst hatte schon auf Verdacht, dass der RAM kaputt sei, diesen getauscht aber eben keine Besserung.. daher auch noch die Vermutung, dass seitens des uEFI's noch im Bereich ECC Anpassungen getätigt wären müssen. Seit zwei Tagen sieht es nun recht ruhig aus, lediglich das „log“ file hat sich um 1% erhöht.: „du -hsx /* 2> /dev/null“, Ergebnis, rechts @mgutt und links dann meine Ergebnisse, „/lib“, „/Usr“, „/var“, ist hier recht auffällig. Ich habe hier nochmal meine Docker Einstellungen, leider bekomme ich nicht mehr eingeblendet (MacVLAN vs IPvlan Thematik); Ansonsten laufen nur die beiden Container: Zu den ECC Einstellungen im uEFI;
  6. 'n Abend zusammen, ich hänge mich mal hier mal mit dran, sollte ich damit stören, mache ich natürlich ein separaten Topic auf,... Ich habe schon länger Probleme auch nach dem Wechsel von Intel zu AMD mit regelmäßigen einfrieren (hatte ich auch schon hier in der Vergangenheit in anderen Topic's geschildert), nicht mehr erreichen des Servers. Reboot half dann meist für eine kurze Zeitspanne. Hellhörig wurde ich jetzt bei der These, und eben dem, was "LyDjane" beschrieb, denn auch mein Server dreht willkürlich mein Ryzen Server auf, nach einer halben Stunde war das noch immer der Fall. Es geht um folgendes Setup; Unraid Basic 6.12.4 Thermaltake The Tower 100 Mini Tower Schwarz SAMSUNG 32GB Flash Drive FIT Plus USB-Stick (Boot-Stick) AMD Ryzen 7 PRO 5750G Samsung DIMM 32GB, DDR4-3200, CL22, ECC (M391A4G43BB1-CWEQ) Samsung DIMM 32GB, DDR4-3200, CL22, ECC (M391A4G43BB1-CWEQ) GIGABYTE B550I AORUS Pro AX rev. 1.1 BIOS; F18b (aktuell) Pool: Asus Hyper M.2 X16 Card V2 (es werden leider max: x4x4x8 unterstützt) Lexar NM620 2TB, M.2 (cache) btrfs Lexar NM620 2TB, M.2 (cache2) btrfs Array: Lexar NM790 4TB, M.2 (parity) Western Digital WD Blue SN570 NVMe SSD 2TB, M.2 (Disk1) (xfs) Transcend SSD230S 4TB, SATA (Disk2) (xfs) Transcend SSD230S 4TB, SATA (Disk3) (xfs) Netzteil: Seasonic Focus 450Watt SFX Gemessen mit; denver smart home app; Idle ~28Watt Fritzbox 6690 cable (Vodafone, dual Stack, kein CGNAT) Einstellungen wurden wie oben bei "LyDjane" gesetzt; Einstellungen sind derzeit folgendermaßen: Settings > Network Settings > eth0 > Enable Bonding = Yes Settings > Network Settings > eth0 > Enable Bridging = No Settings > Docker > Host access to custom networks = Enabled Auffällig ist, dass vor allem ein Thread fast durchwegs auf 100% taktet.. ich habe dann die Kiste einmal neu gestartet und es war ruhe im Karton. ... ansonsten war erstmal alles wie gewohnt.. 1-2% Auslastung, smb Zugriff funktionierte.. WireGuard VPN ebenfalls, alles fein.. Dann am späten Abend wieder, die Kiste dreht voll auf nur diesmal habe ich mich dann pennen gelegt, auf den NVMe array/pool war auch nicht aktiv, kein R/W Datentransfer, zwei Container liefen (DuckDNS/Zerotier) lediglich und WireGuard eben über das System selbst. Ich dachte lass den Server mal arbeiten, womit auch immer... Heute Morgen dann direkt geschaut und gestaunt, die LOG Datei war voll, laut dem Webinterface, glücklicherweise kam ich überhaupt noch auf das WebUI und konnte bis auf das Starten des Docker Updaters (endlose Suche...) auch auf die Option ohne Einfrieren zugreifen.. habe schnellstmöglich die Option gesetzt für das LOG Schreiben auf dem Boot-Stick, via smb konnte ich darauf auch zugreifen und retten ... zumindest bis etwa ~35MB geschrieben waren.. danach kam ich dann auch nicht mehr auf der WebUI weiter... Die „wenigen“ LOG Datei Einträge wiederholen sich stetig, ich poste deshalb lieber nur einen kleinen der "syslog"; ".... Sep 20 08:26:44 TowerRyzen5750G rsyslogd: file '/var/log/syslog'[5] write error - see https://www.rsyslog.com/solving-rsyslog-write-errors/ for help OS error: No space left on device [v8.2102.0 try https://www.rsyslog.com/e/2027 ] Sep 20 08:26:44 TowerRyzen5750G rsyslogd: action 'action-0-builtin:omfile' (module 'builtin:omfile') message lost, could not be processed. Check for additional error messages before this one. [v8.2102.0 try https://www.rsyslog.com/e/2027 ] Sep 20 08:26:44 TowerRyzen5750G rsyslogd: file '/var/log/syslog'[5] write error - see https://www.rsyslog.com/solving-rsyslog-write-errors/ for help OS error: No space left on device [v8.2102.0 try https://www.rsyslog.com/e/2027 ] Sep 20 08:26:44 TowerRyzen5750G rsyslogd: action 'action-0-builtin:omfile' (module 'builtin:omfile') message lost, could not be processed. Check for additional error messages before this one. [v8.2102.0 try https://www.rsyslog.com/e/2027 ] Sep 20 08:26:44 TowerRyzen5750G rsyslogd: file '/var/log/syslog'[5] write error - see https://www.rsyslog.com/solving-rsyslog-write-errors/ for help OS error: No space left on device [v8.2102.0 try https://www.rsyslog.com/e/2027 ] Sep 20 08:26:44 TowerRyzen5750G kernel: BTRFS error (device nvme0n1p1): invalid free space control: bg start=30408704 len=1073741824 total_bitmaps=8394709 unit=4096 max_bitmaps=8 bytes_per_bg=134217728 Sep 20 08:26:44 TowerRyzen5750G kernel: BTRFS error (device nvme0n1p1): invalid free space control: bg start=30408704 len=1073741824 total_bitmaps=8394710 unit=4096 max_bitmaps=8 bytes_per_bg=134217728 Sep 20 08:26:44 TowerRyzen5750G kernel: BTRFS error (device nvme0n1p1): invalid free space control: bg start=30408704 len=1073741824 total_bitmaps=8394711 unit=4096 max_bitmaps=8 bytes_per_bg=134217728 Sep 20 08:26:44 TowerRyzen5750G kernel: BTRFS error (device nvme0n1p1): invalid free space control: bg start=30408704 len=1073741824 total_bitmaps=8394712 unit=4096 max_bitmaps=8 bytes_per_bg=134217728 Sep 20 08:26:44 TowerRyzen5750G kernel: BTRFS error (device nvme0n1p1): invalid free space control: bg start=30408704 len=1073741824 total_bitmaps=8394713 unit=4096 max_bitmaps=8 bytes_per_bg=134217728 Sep 20 08:26:44 TowerRyzen5750G kernel: BTRFS error (device nvme0n1p1): invalid free space control: bg start=30408704 len=1073741824 total_bitmaps=8394714 unit=4096 max_bitmaps=8 bytes_per_bg=134217728 Sep 20 08:26:44 TowerRyzen5750G kernel: BTRFS error (device nvme0n1p1): invalid free space control: bg start=30408704 len=1073741824 total_bitmaps=8394715 unit=4096 max_bitmaps=8 bytes_per_bg=134217728 Sep 20 08:26:48 TowerRyzen5750G kernel: _btrfs_printk: 846 callbacks suppressed ...." Ich habe mehrfach Parity checks, und unter Docker "Correct file system errors" mit Korrektur durchlaufen lassen. Auch den fix "Common Problems Befehl" und die beiden Tests unter; "Update Assistant Disk Utilities" . Auch habe ich versucht, mit dem Befehl: "append initrd=/bzroot nvme_core.default_ps_max_latency_us=0 pcie_aspm=off" in den Loader des USB-Sticks einzutragen. , ein Unterschied machte das nicht bezüglich der Stabilität, auf das array konte ich eh immer zugreifen, auch auf das pool selbst.. Aufgrund dessen strich ich denn ASPM Killer dann mal wieder. Im BIOS habe ich "C-States" deaktiviert, auch wenn das Problem mit Abstürzen/Einfrieren gefixt worden sein soll/te. Ach und den ECC uREG RAM habe ich auch ausgetauscht und betreibe ihn auf dem Default Status. ..habt Ihr noch eine Idee? Danke für evtl. Anregungen..
  7. ".... Wozu machst du das alles und lässt es nicht so wie es war? Das Ändern der Pfade in /mnt/cache ist nur für fortgeschrittene Nutzer empfohlen und ab unRAID 6.12 ist dieser Performance Tweak auch überflüssig, daher würde ich ihn nicht mehr verwenden. ".... Vielen Dank für den Hinweis bitte sei doch dann auch so lieb und merk das in der Anleitung an. Ich selbst werde mein System bald auch wieder neu aufsetzten, die monatlichen Verbindungsabbrüche nerven langsam wie auch beim vorherigen System. Derzeit habe ich es so umgesetzt;
  8. ... Admin-Aktivierung im Forum bei "https://forum.ts.fujitsu.com/ lässt auch mit unterschiedlichen E-Mails auf sich warten... Seitens des Supports zum Fehler Error-Code gibt es nur mit Rechnung, ansonsten kein weiterkommen.^^ Wie gewohnt 1x im Monat Absturz. Mal sehen was das aktuelle Beta Update so bringt, vllt. Beim nächsten Absturz werde ich da dann auf Ryzen wechseln., auch im Anbetracht dass ja in der aktuellen Unraid Beta; Linux kernel version 6.1.20 CONFIG_X86_AMD_PSTATE: AMD Processor P-State driver ....hinzugekommen ist. Hoffe dass es dazu vllt. noch eine Anleitung gibt, falls Anpassungen außerhalb des uEFI's nötig sein werden.
  9. Btw; Das C246 WSI kann mit PCIe Erweiterungskarte (x8x4x4) 3* NVMe sowie eine weitere NVMe über den M.2 2242 Slot aktiv nutzen, außerdem über OCuLINK weitere 4* S-ATA + 4 weitere direkt übers Board anbinden, wenn man auf iGPU setzt, also recht gut vollzupacken das itx Board.
  10. Danke, mal sehen ob die das auch ohne Ticket/Gold Status machen. Werde erstmal L0s beim PCIe herausnehmen, danach die C-States weiter zurückfahren.
  11. Heute kam es zu einem Absturz, mittels IPMI, System Event Log Information gibt es folgende Aufzeichnungen; Zur Config; Das System ließ sich nach dem Absturz wie gewohnt starten, generell läuft es 24/7 durch. Vllt kann jemand aus Erfahrung etwas zu den Logs. sagen oder kennt gute Quellen für die Entzifferung der codes. Vielen Dank.
  12. Rein von den Specs finde ich die MS200 zumindest in der 2TB Version klasse, leider schwangt es aber mit der Kapazität und je nach Lieferengpass wohl auch mit der Zusammenstellung der Riegel, es gibt eben mehr als nur TLC/DRAM cache berücksichtigen. Die MS2000 machte auch in einigen Type-C M.2 Adaptern Probleme , wurde nicht erkannt. Wer hier dauerhafte Stabilität bei der Übertragung sucht, wird wohl ein anderes Preissegment anvisieren dürfen. Dann darf es aber auch gerne etwas mit PLP sein. WD_Blue_SN570_2TB - 1,953,513,560 KB (K=1024) und via PowerShell, Get-WmiObject win32_diskdrive; Model : MS200 - 2TB Size : 2048407280640 Caption : MS200 - 2TB off-topic; ...Das kann ich noch liefern, die beiden MS200 2TB sitzen inzwischen im GigaByte B550I Aorus Pro AX, mit einem AMD Ryzen 5 PRO 4650G und 2x.Samsung DIMM 16GB, DDR4-3200 ECC, mit Windows 11 pro und laut PowerShell; wmic memphysical get memoryerrorcorrection ; "MemoryErrorCorrection 6" Und Get-WmiObject CIM_PhysicalMemory | select banklabel,capacity,caption,devicelocator,partnumber | ft -AutoSize; P0 CHANNEL A 17179869184 Physikalischer Speicher DIMM 1 M391A2G43BB2-CWE P0 CHANNEL B 17179869184 Physikalischer Speicher DIMM 1 M391A2G43BB2-CWE
  13. Mit dem internen "File Manager" konnten die Inhalte auf die zuvor im array eingebundene WD SN570 rüberkopiert und im Anschluss dann die weitere WD SN570 mit der parity sync. werden. Läuft so weit. Jetzt stabil. Kleine Bemerkung, trotz 1:1 Kopie unterscheidet sich die MS200 von der SD570 was den Füllstatus betrifft.
  14. Sry für die Verwirrung, ich möchte die wie auf dem Bild zu sehen beiden SSDs im array 1:1 gegen die unten stehenden WDs ersetzen. Es soll erstmal bei den beiden bleiben, die MS200 fliegen raus, und werden künftig als RAID1 in ein Gaming irgendwas Rechner gestopft. Ich bin ganz deiner Meinung, dass Informationen hier sozial geteilt werden sollten, ich wollte die These nur nicht zu sehr vollstopfen. Für die es interessiert, ich finde ein separater Bereich wäre für solche fails etwas besser geeignet; Ich nutze "einige" Fujitsu TX1320 M3 Server Barebones, sind günstig, halbwegs effizent, haben IPMI/iRMC, kompakt und mir wichtig, kommen mit und ohne ECC RAM klar, wenn auch nicht mit allen (besser nicht über 2400Mhz gehen). Es gibt aber auch Nachteile, die beidem MS200 https://geizhals.de/mega-electronics-fastro-ms200-ssd-2tb-ms200-200tts-a2661448.html funktionieren sauber nur in den beiden unteren Slost die wie auf dem Bild zu erkennen langsamer angebunden sind; "PCI-Express 3.0 x1 (mech. x4) 1 x Low-Profile PCI-Express 3.0 x4 1 x Low-Profile PCI-Express 3.0 x8" in den oberen beiden geht es so lange gut, bis man auf die Idee kommt einen sync. zu starten dann ist ganz flott die Verbindung zur ServeOberfläche abgebrochen. Dieses Phänomen hatte ich bisher nicht mit dem WD SN550/570...da kann ich alle 4 Slost voll ballern und sync. Auf den langsameren Slot funktionieren aber auch die MS200 seit Monaten im 24/7 Betrieb sauber. Sowas ähnliches fiel mir bei Adata aber auch auf habe NVMes die wirklich nur auf wenigen Boards erkannt werden. Darum werde ich zukünftigauch bei WD/SanDisk/Samsung..Micron bleiben. weniger Ärger. #
  15. ...Das mit Trim wusste ich nicht, Danke für den Hinweis und wäre ich auch nicht drauf gekommen lediglich dass ich die SSD schone wenn ich xfs Formatierung wähle, warum auch bin ja nicht der erste der ein array auf SSD Basis baut. Klar kann ich auslesen wie viel KB groß die NVMe ist, aber was bitte bringt das das macht die Sache doch nicht einfacher. Ich vermute ich werde immer den Hinweis zu zu kleinen Speicherplatz bekommen, wenn sich 2TB von Hersteller A auf Hersteller B Wechsel. Wie auf dem Bild zu erkennen ist, sind zwei WDs die eben die beiden im array befindlichen MS200 ersetzen sollen. Es sollen nur die WDs dort Platz finden, MS200 fliegt raus. Das mir der Parity habe ich eh so schon vor. Das manuelle rüberkopieren war auch einige Idee bei der ich mir aber nicht sicher bin ob wirklich alles mitgenommen wird und es anscheinend kein Problem mit Docker Con. geben wird.
  16. Hi zusammen, vorab; mir ist bekannt, dass das Parity Drive gleich oder größer sein muss als eben die größte Array-Platte, leider habe ich beim Kauf meiner WD_Blue_SN570_2TB darüber nicht nachgedacht.... ..denn trotz beiderseitiger 2 TB Angabe, unterschieden sie sich, MS200 ist etwas größer. Ich nutze im 24/7 Server lediglich die beiden NVMe's als array. cache brauche ich da keinen. Siehe Bild. Beim Ersetzen, egal in welcher Koalition führt zu dem Hinweis, dass die Kapazität zu klein sei. Weder die Data; WDSN570 Pa; MS200 noch umgekehrt Parity; WDSN570 Data; MS200 ist möglich. Vllt aber kennt einer anderen Weg, vielen Dank.
  17. ...weil es am Ende eine Preisfrage (Angebote) ist und irgendwo auch die die der Befestigung.
  18. Danke für dein Senf DataCollector Ne ich habe das schon richtig verstanden, nur gibt es eben wie geschildert bei einigen älteren Kaliber, wenn PCIe ausgeschöpft ist noch die Möglichkeit, mit 2x Fujitsu Backplane SAS 4 x 2.5" noch einiges nachzureichen, ggf. dann eben S-ATA M.2 SSD in ein 2,5" Adaptergehäuse gestopft. Persönlich laufen meine beiden 2TB NVMes (1xDaten 1x Parity) eben unter XFS, cache brauch ich da keinen.
  19. ..naja Stimme Dir ja überwiegend zu, der Preis von NVMe’s ist ja fast schon unter den von S-ATA SSD’s, nur hat bspw. S-ATA noch den Vorteil bei vollen PCIe Slots/ausgeschöpften Lanes, defekt.. usw. genutzt zu werden, davon ab, gibt es ja auch z. B. Synology, die „noch“ nicht überall Arrays aus NVMe basteln können. Bifurcation ist ja leider auch noch nicht überall angekommen, und bei meiner FUJITSU Server PRIMERGY TX1320 M3 kann auch nur noch 2,5" futtern, PCIe Slots sind belegt. Was mich aber schon längere beschäftigt, wie effizient sind NVMe’s im Allgemeinen im Leerlauf von den bekannteren Herstellern., und wie lässt es sich kontrollieren welcher Zustand hier anliegt, anders als bei HDD hört man dies ja nichts und die Angabe der Leistungsaufnahme im jeweiligen Zustand sind unvollständig und wirken auf mich eher gewürfelt und demnach ehrlich/aussagekräftig wie TBW Angaben.. Es wäre mal schön, wenn darauf ein Focus gelenkt werden könnte in Zukunft. Btw. was empfiehlst Du aktuell, BTRFS oder XFS, letzteres hatte ich bei meinem 24/7 NVMe Array gewählt, weil mir etwas im Gedächtnis lag, dass Du vor vielen writes beim BTRFS warntest. Vlt gibt es da ein Update.
  20. ...gern, 2-3 Liter heißt für mich dann aber auch kein ECC und vllt 2 drives wenn man nicht basteln möchte. Und natürlich deutlich teurer. Der Preisrahmen wäre noch wichtig.
  21. ...erinnert mich an an nein Windows 10 share auf dem ich wunderbar via Android-App drauf Zugriff nehmen konnte, aber von kein anderen Windows PC, dieser konnte hingehen auf andere Netzwerkgeräte zugreifen auch Windows clients. Das Freigeben von HDDs oder Dateien.... zurücksetzen..neue Freigaben erstellen.. ergab alles dein gezeigten Fehler. ich nutze um mich auf Windows shares wie auch unRAID shares immer das online MS Konto damit klappt es war auch via rdp auf der Windows 10 share Kiste nie ein Problem. Nur eben bei dessen shares. Ich würde an deiner stelle erstmal die unRAID Share Zugriffe auf Standard belassen. Ansonsten versuch mal die Verbindung direkt auf den Ordner zu verlinken. ...ich habe ebenfalls die Kiste diesmal mit Windows 11 neu aufgesetzt und es funktioniert seitdem perfekt. Schön dass man da nicht alleine ist...
  22. ...vllt gibt es erfahrene Menschen hierfür, wäre auch mal eine Lösung; https://www.asrockrack.com/general/productdetail.asp?Model=M2_VGA#Specifications
  23. ...etwas weiter langgezogen, das kann bei einigen ITX Gehäuseformaten Probleme bereiten genau wie DTX-Mainboards..die auch mal ganz klasse wären, so hätte man einen weiteren PCIe Slot.
  24. Werden 3,5" Laufwerke Einklang finden? Wenn nicht, dann kann ich Dir das empfehlen, was bei mir 24/7 so läuft.. habe inzwischen 4 Kisten--für VPN/D(y)NS...und bissl share und Backup Kiste für meine Eltern. Vorteil ist, dass man für wenig Geld recht effiziente Hardware bekommt die ECC RAM aktiv nutzt; Fujitsu Primergy TX1320 M3 Barebone gibts in der Bucht für 29€ (case/Nt/Kühler/Lüfter und SAS Kabel +Adapter für 4*2,5"), ich selbst habe dort von G4560, i3 7100 zum i3 7100T inzwischen zum E3-1230 v6 alles durch, funkt. es wird ECC und nicht uDIMM ECC RAM akzeptiert. Für mein Empfinden ist die Kiste auch relativ leise.. ich habe 2 x NVMe als im unRAID, SnapRAID oder wie man es nenne soll.. 2TB Mega Fastro MS200 M.2 PCIe 3.0.. sind bei Mf im Angebot laufen bei mir mit dem xfs Dateisystem. Bei der Leistungsaufnahme waren es im Idle so um die 15Watt mit dem i3 7100T ..trotz des IPMI. Es gibt aber auch etwas zu meckern, meine Annahme war, dass Dank des C23(6) Chipsatzes die iGPU des i3s durchgereicht werden würde... leider ist das nicht der Fall es bleibt beim BMC.