Jump to content

Infosucher

Members
  • Posts

    81
  • Joined

  • Last visited

Everything posted by Infosucher

  1. Ich habe noch einen alten Stick mit Unraid 6.12.8 gefunden. Alle SATA Laufwerke abgezogen und damit gestartet. Das System ist noch komplett frisch. Und ich liege schon bei gut 75 Watt. Es hängt ja jetzt wirklich so rein gar nichts dran! Dann mal Powertop mit auto-tune gestartet und gesehen, dass sich überhaupt nichts tut. Jetzt schon direkt 75 Watt zu haben ohne das überhaupt irgendwas läuft, kann doch nicht normal sein. Es muss doch zwangsläufig am Board liegen oder nicht? Es ist das Einzige was das Energiemanagement übernimmt. Was mir bei meinem Produktivsystem (Unraid 6.12.10) aufgefallen ist, fand ich noch etwas schockierend. Ich hatte vorhin dauerhaft 100+ Watt anstehen. Tatsächlich genehmigt sich das Home Assistant OS als VM gute 35 Watt. Da käme ich mit einem Pi 4, den ich übrigens noch hier liegen habe, deutlich besser und günstiger weg. Da ich gerne das OS und nicht die Dockerversion hätte, werde ich wohl darauf umschwenken. Die Dockercontainer machten überhaupt nichts am Stromverbrauch aus. Ich habe nach und nach die einzelnen Container abgeschaltet und gesehen, dass sich an der Leistungsaufnahme nichts getan hat. Erst als ich die Home Assistant VM ausgeschaltet habe, war ich bei ca. 70 Watt. Dann waren noch zwei Platten aktiv. Diese habe ich in den Schlaf geschickt und war bei gut 60 Watt. Weniger geht aber leider nicht. Gruß Infosucher
  2. Ok danke, ich werde mal die aktuellste und die ältere Version testen. Genau da liegt das Ziel. Das ist im Moment die größte Hoffnung... Ich las in der Tat davon, aber dachte das sei noch nicht umgesetzt. Nun habe ich aber bei dem Artikel auch gesehen, dass die 14 Tage schon gelten. Naja, dann muss ich mich wohl ranhalten. Ich melde mich wieder zurück! Gruß Infosucher
  3. Das werde ich nochmal testen, allerdings würde mir das ja nicht bei Unraid helfen. Um ein neues Board käme ich ja dennoch nicht drumherum. Gruß Infosucher
  4. Eigentlich habe ich keine unbenannten Docker, jedenfalls dachte ich, dass diese den Diagnoselogs entnehmbar sind. In meinem Falle laufen: JellyFin | Krusader | JDownloader 2 | luckyBackup | paperless-ngx | Redis | SFTPGo. Also VM läuft aktuell nur Home Assistant. Meine Linux VM steht noch still. Das ist eine berechtigte Frage. Ich komme von Xpenology DSM und genau diesen vier SATA Platten mit einer sehr sparsamen und gut 10 Jahre alten Hardware. Hier hatte ich ca. 40 - 45 Watt maximal. Jetzt sind es gerade gute 100 Watt. Das würde ca. 170€ mehr pro Jahr kosten. Da hätte sich das von Dir genannte Board (kostet aktuell ca. 100 €) relativ schnell amortisiert. Und natürlich würde ich versuchen, dass Biostar zu verkaufen. Da werde ich aber sicher starke Verluste (Lehrgeld) hinnehmen müssen... Das war wohl scheinbar nur nach dem Einschalten der Dockercontainer so. Jetzt schlafen alle SATA Platten, außer die SATA SSD (Cache) und die NVMe, weil darauf die Home Assitant OS VM läuft. Ich werde jetzt nochmal folgendes versuchen -> Unraid als Testversion auf einen anderen Stick bringen und alle Platten vom Board abziehen. Sodass Unraid nur mit der nackten Hardware (CPU, RAM und MB) läuft. In diesem Zustand, müsste ich eigentlich den geringsten Stromverbrauch messen können, oder nicht? Dann würde ich mal eine alte SSD, welche ich noch rumliegen habe, einrichten und nach und nach Plugins und Docker installieren. Nur um zu sehen, ob eine komplette Neueinrichtung evtl. was beim Stromsparen helfen würde. Ich habe am Anfang ja viel rumgespielt, um das System kennenzulernen. Ich erwarte da jetzt keine großen Erfolge, möchte es aber nicht unversucht lassen! Wenn das alles nicht hilft, dann werde ich mir das B760M Board bei Amazon besorgen und damit weiter testen. Da habe ich mehr Zeit für die Rücksendung! Gruß Infosucher
  5. Nur damit wir eine gemeinsame Sprache sprechen: Idle bedeutet -> wenn nichts läuft wie Docker oder VM´s etc. und die HDD´s auch im spin down sind. Unraid macht also in diesem Zustand so rein gar nichts außer an zu sein! Und ja, dafür ist das super viel und genau das stört mich so sehr! Das hilft mir schon mal weiter. Ich glaube immer mehr das es das Board ist. Woran soll es denn noch liegen? Vor allem wie kriege ich raus, was da wirklich noch Strom frisst, wenn Unraid einfach nur vor sich hin läuft und eigentlich nichts produktives macht? Wie gesagt war das idle und jetzt mit den laufenden Dockern und der Home Assitant VM sind es 100 Watt. Das ist kein Dauerzustand. Bin am überlegen mir ein B760M bei Ebay zu holen und das mal zu testen. Macht das Sinn? Das werde ich auf jeden Fall mal machen. JellyFin ließt auf jeden Fall aus dem Array, da dort ja die großen Platten liegen. Hier würde der Cache doch keinen Sinn machen oder? Gruß Infosucher
  6. Hatte es schon gefunden, danke.😀 Also mit 4 SATA Platten plus die Cache SSD im Spin down und zwei Lüfter weniger ohne Docker und VM bin ich bei gut 60 Watt. Jetzt habe ich alle Docker und die eine Home Assistant VM gestartet. Dabei ging die Cache SSD, die Parity SATA und die Disk 1 wieder an. In dem Zustand bin ich bei gut 105 Watt. Ohne Powertop oder sonstiges. Was davon ist denn da so leistungshungrig? Gruß Infosucher
  7. Ok ich habe jetzt das neue Messgerät dran. Idle, also ohne Docker und VMs liege ich bei gut 80 Watt. Wenn ich die 4 Sata Platten des Arrays von Hand runterfahre, komme ich auf gut 55 bis 60. Das schwankt die ganze Zeit... Dann habe ich nochmal 2 Lüfter abgezogen, dass brachte zusammen evtl. 5 Watt. Die CPU ist auch kühler, wahrscheinlich weil das die Platten im Spindown sind. Wie stellt man das eigentlich so ein, dass die Platten automatisch runterfahren wenn kein Zugriff auf dem Array stattfindet? Finde die Option gerade nicht. Gruß Infosucher
  8. Ja ok, jetzt klingelt es. Es ist direkt / Das kann gut sein, wahrscheinlich aus einer Anleitung heraus. Schaue ich mir nachher noch an! Gruß Infosucher
  9. Ah ok, dann ändere ich das nachher mal ab, danke. Wie komme ich eigentlich in den /boot Ordner? Auf dem USB Stick finde ich nichts dazu... Gruß Infosucher
  10. @alturismo Welche Funktionen meinst Du? Ich habe tatsächlich nicht bewusst was für dedizierte Grakas aktiviert. Wo genau muss ich die entfernen? Gruß Infosucher
  11. @DataCollector Erstmal danke für die Infos. Tatsächlich habe ich nichts weiter an dem Server dran, außer noch 5 St. 120mm Lüfter im Case und 2 St. auf dem CPU Kühler. Das mit dem Controller ist nochmal ein wichtiger und guter Hinweis. Nur wie schließe ich den von Powertop aus? SetPCI habe ich noch nicht umgesetzt, das werde ich heute Abend mal testen. Allerdings beherrscht die Realtek doch ASPM mit den Optionen r8125 aspm=1 oder nicht? Zum Messen verwende ich eine Tasmota Steckdose, welche ich vorher kalibriert habe. Heute kommt wahrscheinlich mein neues Energiemessgerät an, dass werde ich dann mal direkt am Server testen und mal schauen ob die Werte evtl. nicht stimmen. Da die CPU mit über 40 bis stellenweise 50 Grad läuft, glaube ich allerdings schon, das die Werte doch stimmen. Welches Mainboard könntest Du denn allgemein empfehlen? Schön wären halt 8 SATA Plätze ober eben eine Möglichkeit die 4 Standardplätze zu erweitern mit einem Controller, welchen man auch immer dann nimmt. @alturismo Auch Dir natürlich danke für die Infos. Im Moment gehen meine Platten noch nicht in den Spindown und ich vermute auch nicht, dass das soviel ausmacht bei meinen ca. 90 Watt. Vielleicht 15 Watt weniger? Was aber dennoch erstrebenswert ist und ich nachher auch aktivieren werden. Eine dedizierte Graka habe ich nicht verbaut. Ein AMD System habe ich auch nicht verwendet, sondern mich bewusst für ein Intel System entschieden. Wie gesagt, wie schließt man den ASM1064 von den Energiesparmaßnahmen aus? Gruß Infosucher
  12. Hi zusammen, ich habe mich jetzt mal mit den Stromsparmöglichkeiten befasst und in dem Zuge diverse Threads hier durchgelesen. Leider bekomme ich meinen Unraidserver nicht unter 90 Watt. Das ist einfach viel zu viel. Ich habe gerade mal 6 Docker und 1 VM am Laufen. Diese erzeugen zusammen nahezu keine CPU Last, da sie nur vor sich hin idlen. Selbst wenn diese Dinge nicht laufen, verbraucht der Server super viel Strom! Ich habe so langsam das Gefühl, dass das miese Mainboard einfach meine CPU nicht in die C State Packages schickt. Hier mal die einzigen Einstellungen des BIOS die ich zum Thema Stromsparen gefunden habe: Dann habe ich den Realtek R8125 LAN Adapter (mit aktuellem Treiber!), wo ich in der Configfile die folgenden Einträge probiert habe: options r8125 aspm=1 options r8125 eee=0 Die folgenden Befehle liefern diesen Status zu ASPM: root@Nas-Server:~# lspci -vv | awk '/ASPM/{print $0}' RS= | grep --color -P '(^[a-z0-9:.]+|ASPM )' 00:06.0 PCI bridge: Intel Corporation Raptor Lake PCIe 4.0 Graphics Port (rev 01) (prog-if 00 [Normal decode]) LnkCap: Port #5, Speed 16GT/s, Width x4, ASPM not supported LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+ 00:1c.0 PCI bridge: Intel Corporation Device 7a39 (rev 11) (prog-if 00 [Normal decode]) LnkCap: Port #2, Speed 8GT/s, Width x1, ASPM not supported LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+ 00:1c.2 PCI bridge: Intel Corporation Device 7a3a (rev 11) (prog-if 00 [Normal decode]) LnkCap: Port #3, Speed 8GT/s, Width x1, ASPM not supported LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+ 01:00.0 Non-Volatile memory controller: Samsung Electronics Co Ltd NVMe SSD Controller PM9A1/PM9A3/980PRO (prog-if 02 [NVM Express]) LnkCap: Port #0, Speed 16GT/s, Width x4, ASPM L1, Exit Latency L1 <64us pcilib: LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+ sysfs_read_vpd: read failed: No such device 02:00.0 SATA controller: ASMedia Technology Inc. ASM1064 Serial ATA Controller (rev 02) (prog-if 01 [AHCI 1.0]) LnkCap: Port #0, Speed 8GT/s, Width x1, ASPM L0s L1, Exit Latency L0s <4us, L1 <64us LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+ 03:00.0 Ethernet controller: Realtek Semiconductor Co., Ltd. RTL8125 2.5GbE Controller (rev 05) LnkCap: Port #0, Speed 5GT/s, Width x1, ASPM L0s L1, Exit Latency L0s unlimited, L1 <64us LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+ root@Nas-Server:~# dmesg | grep ASPM [ 0.548600] acpi PNP0A08:00: _OSC: OS supports [ExtendedConfig ASPM ClockPM Segments MSI HPX-Type3] Die PCI Bridge scheint das ASPM nicht zu unterstützen! Ich komme bei Powertop, trotzt --auto-tune, einfach nicht über das C3 Package hinaus: Was kann ich noch machen, um den Verbrauch deutlich zu senken? Ist es wirklich das Board das mir da in die Suppe spuckt? Falls ja, welches Board wäre in dem Zusammen mit der CPU aus meiner Signatur zu empfehlen? Danke Euch. Gruß Infosucher nas-server-diagnostics-20240506-2247.zip
  13. Das ist echt verrückt: nslookup nasneu Server: fritz.box Address: fd00::7642:7fff:fe45:bdaf Name: nasneu.fritz.box Address: 192.168.1.136 Davor habe ich ein flush gemacht. Da wurde der Cache auch geleert. In der Fritzbox sieht es so aus: Und dennoch kann ich nicht unter nas-server darauf zugreifen. Auch nicht mit einem anderen Browser. Mit der IP weiterhin sofort. Nasneu existiert auch nicht mehr in der Fritzbox und die alte IP 192.168.1.136 habe ich ebenfalls aus der Fritzbox gelöscht. Fritzbox neu gestartet, weiterhin ist Unraid nicht unter nas-server erreichbar. Was mir noch auffällt ist, dass unter Unraid Connect noch das alte nasneu steht, aber nur in der Namensgebung für den Server: Bei den Adressen steht schon nas-server drin. Kann man nasneu auch noch irgendwie ändern bei Unraid Connect? Gruß Infosucher
  14. Leider gibt es den Command ipconfig nicht bei meinem Unraid. Kann ich das irgendwie nachinstallieren? Danke Dir. Gruß Infosucher
  15. Das ist das was dabei rauskommt: root@Nas-Server:~# nslookup nasneu Server: 192.168.1.1 Address: 192.168.1.1#53 Name: nasneu Address: 192.168.1.136 root@Nas-Server:~# nslookup nas-server Server: 192.168.1.1 Address: 192.168.1.1#53 Name: nas-server Address: 192.168.1.250 Die .136 war damals die erste welche vom DHCP von der FritzBox vergeben wurde. Die .250 habe ich vor gut 1 - 2 Wochen eingetragen. Sehr komisch. Wie kann man denn den alten nasneu komplett löschen? Gruß Infosucher
  16. Ich kann es nicht genau erklären, aber jetzt wo ich den Server einfach umbenannt habe: "Nas-Server" geht es auf einmal wieder wenn ich nur nas-server in den Browser eingebe... Keine Ahnung warum. Ich habe nochmal die Diagnosedaten mit angehangen, von dem funktionierenden System, also jetzt. nas-server-diagnostics-20240505-2049.zip
  17. Ich habe jetzt nochmal einiges probiert, darunter auch ein Neustart der Fritzbox, sowie einen anderen Browser und sogar einen anderen Client. Dabei konnte ich den Fehler identifizieren, aber noch nicht lösen. Es liegt wohl am DNS. Mein Server heißt aktuell noch "Nasneu". Das habe ich immer in Chrome eingegeben und konnte in Windeseile auf die WebGUI zugreifen. Das klappt jetzt nicht mehr bzw. nur noch stark zeitverzögert. Nehme ich die direkte IP des Servers, in diesem Falle 192.168.1.250 dann geht es wie vorher. Also schön schnell und alles wird angezeigt. Ich greife sowohl per LAN wie auch per WLAN darauf zu. Das Verhalten ist bei beiden identisch. Nun weiß ich leider nicht, durch was das verursacht wird und wie ich es lösen kann. Einen Reboot habe ich bereits mehrfach durchgeführt. Ich hoffe Ihr könnt damit was anfangen und mir weiterhelfen. Danke Euch. PS: Das Language Pack brachte leider auch keine Abhilfe.
  18. Hi zusammen, ich habe seit heute auf einmal das Problem, dass die Weboberfläche von Unraid extrem langsam bis nicht mehr erreichbar ist. Die Laufwerke unter Start werden mir gar nicht mehr angezeigt bzw. nur extrem verspätet. Die Apps kommen nur sehr langsam zum Vorschein und die Plugins auch. Einstellungen und Werkzeuge gehen sofort. Aber das Aufrufen der Weboberfläche allgemein dauert auch sehr lange. Ich habe tatsächlich nichts verändert, außer gestern Abend noch Powertop zu starten mit dem auto-tune. Das habe ich aber wieder runtergeworfen. Daran lag es also nicht. Das Bondig der Netzwerkkarte (Realtek) habe ich auch deaktiviert. Die Nerd Tools runtergeschmissen. Alles hat nichts geholfen. Es laufen keine Docker und keine VM´s. Auch das Array habe ich noch nicht gestartet. Das kann ich also alles ausschließen. Ich hoffe jemand kann mir helfen. Danke Euch. Gruß Infosucher PS: Die Diagnosedaten habe ich mit Glück doch noch runterbekommen. nasneu-diagnostics-20240505-1420.zip
  19. Ich kann mal beschreiben wie ich es gestern gemacht habe: 1. Alle Dockercontainer und VMs gestoppt. 2. Alle Shares in den Eigenschaften von Cache auf Array gestellt. 3. Alle Daten vom Cache gesichert. 4. Cache Pool aufgelöst. 5. Eine Platte, in meinem Fall die WD SSD, gelöscht. 6. Die verbliebene Cache SSD in xfs, nicht zfs!, formatiert 7. Cache als Singledisc wieder eingebunden. 8. Einstellungen der Shares rückgängig gemacht und die Daten aus dem Backup zurückgespielt. Wenn Du RAID 1 nutzen und von btrfs umsteigen willst, dann bleibt Dir nur zfs. Dann wäre aber EEC RAM zu empfehlen. Deswegen habe ich xfs genommen und mir noch eine SSD im Cache. Gruß Infosucher
  20. Da muss ich @alturismo Recht geben. Habe gerade gestern Abend massive Probleme mit btrfs und RAID1 im Cache gehabt. Wobei das auch auf die SSD von WD zurückzuführen ist. Ich bin jetzt wieder mit einem Single Cache unterwegs und xfs. Die Fehler sind seit dem Weg! Gruß Infosucher
  21. Erstmal danke für die Infos. Dann bin ich ja nicht komplett auf dem Holzweg. Wenn ich das richtig gelesen habe, sollte man ZFS aber nur verwenden, wenn man ECC Ram besitzt. Den habe ich natürlich nicht und wollte ihn mir auch nicht zulegen, da ich dann noch das Board tauschen müsste. Dann macht es wahrscheinlich wirklich Sinn, bei einem Laufwerk im Cache Pool zu bleiben und dann automatisiert in der Nacht ein Backup zu ziehen und gut ist es. Dann sollte sich ein evtl. Verlust in Grenzen halten. Gruß Infosucher
  22. Ok das mit dem Kabel brachte natürlich auch keinen Erfolg. Ich denke es liegt an btrfs! Ich habe versucht xfs im RAID1 zu betreiben, aber leider gibt es diese Auswahl gar nicht. Wenn ich den Cache mit nur einer SSD betreibe, dann kann ich xfs auch auswählen. Nutze ich zwei SSD´s für den Cache, so geht nur ZFS oder btrfs. Dann werde ich kein RAID1 für den SSD Cache verwenden und bei XFS damit bleiben. Die Fehler sind seit dem auf jeden Fall verschwunden. Mal schauen was ich dann mit der SSD von WD mache, welche ich jetzt auch in XFS formatiert habe und die nun keine Fehler mehr produziert. Edit: Weitere interessante Erkenntnis. Ich kann die WD SSD nicht mal als Unassigned Device einbinden. Unter Windows bekomme ich sie zum Laufen aber unter Unraid leider nicht. Ich denke da stimmt wirklich was nicht. Selbst mit XFS als Dateisystem bekomme ich diese read errors. Ich werde nochmal eine neuere Samsung SSD mit 1TB und versuchen die WD umzutauschen. Gruß Infosucher
  23. Nun habe ich den Server mal heruntergefahren und das Kabel getauscht. Aktuell treten keine Fehler auf. Auch ein SMART Test ist jetzt möglich und die Temperatur wird mir auch angezeigt. Ein Firmwareupdate war leider nicht möglich, da ich bereits die neueste Version drauf habe. Wenn Powertop über die NerdTools aktiv ist, läuft es dann auch permanent? Oder nur wenn ich den --auto-tune Befehl ausführe? Wobei ich vorhin mal alles in Powertop nach und nach auf "bad" gesetzt habe, sich dabei aber nichts getan hat. Die Fehlermeldungen blieben vorhanden. Ich warte jetzt mal ab und wenn die Fehler ausbleiben, starte ich nochmal powertop --auto-tune in der Kommandozeile. Mal schauen ob die Fehler dann wieder auftreten. Gruß Infosucher
  24. Hi zusammen, ich habe mir gestern Abend zwei SSD´s (siehe Signatur) als Cache eingebaut. Die Samsung (sdf) läuft ohne Probleme, die WD (sdg) allerdings zeigt im Log permanent diese Fehler an: May 3 20:40:30 Nasneu kernel: I/O error, dev sdg, sector 56664176 op 0x3:(DISCARD) flags 0x800 phys_seg 1 prio class 2 May 3 20:40:30 Nasneu kernel: sd 10:0:0:0: [sdg] tag#29 UNKNOWN(0x2003) Result: hostbyte=0x04 driverbyte=DRIVER_OK cmd_age=0s May 3 20:40:30 Nasneu kernel: sd 10:0:0:0: [sdg] tag#29 CDB: opcode=0x93 93 08 00 00 00 00 03 60 a0 70 00 02 00 00 00 00 May 3 20:40:30 Nasneu kernel: I/O error, dev sdg, sector 56664176 op 0x3:(DISCARD) flags 0x800 phys_seg 1 prio class 2 May 3 20:40:30 Nasneu kernel: sd 10:0:0:0: [sdg] tag#11 UNKNOWN(0x2003) Result: hostbyte=0x04 driverbyte=DRIVER_OK cmd_age=0s May 3 20:40:30 Nasneu kernel: sd 10:0:0:0: [sdg] tag#11 CDB: opcode=0x93 93 08 00 00 00 00 03 60 a0 70 00 02 00 00 00 00 May 3 20:40:30 Nasneu kernel: I/O error, dev sdg, sector 56664176 op 0x3:(DISCARD) flags 0x800 phys_seg 1 prio class 2 May 3 20:40:30 Nasneu kernel: sd 10:0:0:0: [sdg] tag#7 UNKNOWN(0x2003) Result: hostbyte=0x04 driverbyte=DRIVER_OK cmd_age=0s May 3 20:40:30 Nasneu kernel: sd 10:0:0:0: [sdg] tag#7 CDB: opcode=0x93 93 08 00 00 00 00 03 60 a0 70 00 02 00 00 00 00 May 3 20:40:30 Nasneu kernel: I/O error, dev sdg, sector 56664176 op 0x3:(DISCARD) flags 0x800 phys_seg 1 prio class 2 May 3 20:40:30 Nasneu kernel: sd 10:0:0:0: [sdg] tag#12 UNKNOWN(0x2003) Result: hostbyte=0x04 driverbyte=DRIVER_OK cmd_age=0s May 3 20:40:30 Nasneu kernel: sd 10:0:0:0: [sdg] tag#12 CDB: opcode=0x93 93 08 00 00 00 00 03 60 a0 70 00 02 00 00 00 00 May 3 20:40:30 Nasneu kernel: I/O error, dev sdg, sector 56664176 op 0x3:(DISCARD) flags 0x800 phys_seg 1 prio class 2 May 3 20:40:31 Nasneu kernel: sd 10:0:0:0: [sdg] tag#13 UNKNOWN(0x2003) Result: hostbyte=0x04 driverbyte=DRIVER_OK cmd_age=0s May 3 20:40:31 Nasneu kernel: sd 10:0:0:0: [sdg] tag#13 CDB: opcode=0x93 93 08 00 00 00 00 03 60 a0 70 00 02 00 00 00 00 May 3 20:40:31 Nasneu kernel: I/O error, dev sdg, sector 56664176 op 0x3:(DISCARD) flags 0x800 phys_seg 1 prio class 2 May 3 20:40:31 Nasneu kernel: sd 10:0:0:0: [sdg] tag#14 UNKNOWN(0x2003) Result: hostbyte=0x04 driverbyte=DRIVER_OK cmd_age=0s May 3 20:40:31 Nasneu kernel: sd 10:0:0:0: [sdg] tag#14 CDB: opcode=0x93 93 08 00 00 00 00 03 60 a0 70 00 02 00 00 00 00 May 3 20:40:31 Nasneu kernel: I/O error, dev sdg, sector 56664176 op 0x3:(DISCARD) flags 0x800 phys_seg 1 prio class 2 May 3 20:40:31 Nasneu kernel: sd 10:0:0:0: [sdg] tag#15 UNKNOWN(0x2003) Result: hostbyte=0x04 driverbyte=DRIVER_OK cmd_age=0s May 3 20:40:31 Nasneu kernel: sd 10:0:0:0: [sdg] tag#15 CDB: opcode=0x93 93 08 00 00 00 00 03 60 a0 70 00 02 00 00 00 00 May 3 20:40:31 Nasneu kernel: I/O error, dev sdg, sector 56664176 op 0x3:(DISCARD) flags 0x800 phys_seg 1 prio class 2 May 3 20:40:31 Nasneu kernel: BTRFS error (device sdf1): bdev /dev/sdg1 errs: wr 1935, rd 0, flush 309, corrupt 0, gen 0 May 3 20:40:31 Nasneu kernel: BTRFS error (device sdf1): bdev /dev/sdg1 errs: wr 1936, rd 0, flush 309, corrupt 0, gen 0 May 3 20:40:31 Nasneu kernel: BTRFS error (device sdf1): bdev /dev/sdg1 errs: wr 1937, rd 0, flush 309, corrupt 0, gen 0 May 3 20:40:31 Nasneu kernel: BTRFS error (device sdf1): bdev /dev/sdg1 errs: wr 1938, rd 0, flush 309, corrupt 0, gen 0 May 3 20:40:31 Nasneu kernel: BTRFS error (device sdf1): bdev /dev/sdg1 errs: wr 1939, rd 0, flush 309, corrupt 0, gen 0 May 3 20:40:31 Nasneu kernel: BTRFS error (device sdf1): bdev /dev/sdg1 errs: wr 1939, rd 0, flush 310, corrupt 0, gen 0 May 3 20:40:31 Nasneu kernel: BTRFS warning (device sdf1): lost page write due to IO error on /dev/sdg1 (-5) May 3 20:40:31 Nasneu kernel: BTRFS error (device sdf1): bdev /dev/sdg1 errs: wr 1940, rd 0, flush 310, corrupt 0, gen 0 May 3 20:40:31 Nasneu kernel: BTRFS warning (device sdf1): lost page write due to IO error on /dev/sdg1 (-5) May 3 20:40:31 Nasneu kernel: BTRFS error (device sdf1): bdev /dev/sdg1 errs: wr 1941, rd 0, flush 310, corrupt 0, gen 0 May 3 20:40:31 Nasneu kernel: BTRFS warning (device sdf1): lost page write due to IO error on /dev/sdg1 (-5) May 3 20:40:31 Nasneu kernel: BTRFS error (device sdf1): bdev /dev/sdg1 errs: wr 1942, rd 0, flush 310, corrupt 0, gen 0 May 3 20:40:31 Nasneu kernel: BTRFS error (device sdf1): error writing primary super block to device 2 Nun weiß ich nicht genau wie das zu Stande kommt. Die WD ist nagelneu und wurde gerade erst gestern ausgepackt und eingebaut. Bringt es was die Firmware ggfs. zu updaten? Die Platte dient als Cache2 und unter Attribute steht: "Smartctl open device /dev/sdg failed". Ich kann auch keinen S.M.A.R.T. Test durchführen und nichts. Weiß einer woran das liegen kann? Ggfs. Powertop? Oder passt das nicht zusammen. Und was genau sagt die Fehlermeldung eigentlich aus? Ist die Platte als Cache2 damit gar nicht aktiv? Hier wird sie auch als aktiv und SMART OK angezeigt. Echt merkwürdig. Danke Euch. Gruß Infosucher nasneu-diagnostics-20240503-2038.zip
  25. Mir sind Backups natürlich sehr wichtig und ich sichere auch meine Shares. Ich wollte nur auf Nummer sicher gehen, dass die ganze Arbeit mit den Dokumenten später nicht für die Katz war. Daher auch die Frage im Vorfeld, bevor ich mir die ganze Mühe mache. Das wie genau, bezog sich auf den letzten Satz mit dem restore. Habe ich aber mittlerweile gefunden in der Doku, dafür verwendet man den Importer. Gruß Infosucher
×
×
  • Create New...