Jump to content

Klaus.H

Members
  • Posts

    16
  • Joined

  • Last visited

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

Klaus.H's Achievements

Noob

Noob (1/14)

1

Reputation

  1. Ich habe 2 größere Cache-Platten nach dieser Anleitung eingebaut. Das hat auch soweit geklappt. Allerdings habe ich jetzt bei "Start" den neuen Eintrag "Vorherige Datenträger". Hier werden aber genau die 2 neuen Cache-Platten angezeigt. (siehe Bild) Wie kann ich die Einträge wieder weg bekommen?
  2. So, Platten sind getauscht und System läuft wieder ohne Fehler. Danke für die Hilfe
  3. Der Memtest86+ ist 2 x ohne Fehler durchgelaufen. Habe ich jetzt aktiviert. Aktuell ist nur eine Platte angeschlossen. Das sollte ja klappen. (wird bei Gelegenheit getauscht) Was sollte ich als nächstes machen?
  4. Nachtrag: Der Memtest86+ (Unraid Start-Optionen) lässt die Lüfter hochfahren und bringt für ca. 5 Sekunden einen schwarzen Bildschirm. Danach bin ich wieder bei den Start-Optionen.
  5. Danke für die schnellen Antworten. Ich habe eine Diagnose-Datei hochgeladen (siehe oben). Ich dachte da steht alles wichtige drin. Ja, ich habe 2 Paritäts-Platten Mainboard: ASRock - B450 Steel Legend PCIe Erweiterung: MZHOU 6 Gbit/s SATA 3.0 PCIe-Karte, Marvell 88SE9215 6-Port-Chip Auf der Erweiterung ist die Parität 1 (ohne Fehler) Die anderen 4 sind auf dem Mainboard Standard Datenträger Ruhezustandsverzögerung ist auf 30 Minuten eingestellt. Sonst läuft alles durch. (kein Sleep-Modus) Platten sind jetzt angekommen. Ich könnte also tauschen. Eine nach der anderen oder beide gleichzeitig?
  6. Prüfen kann ich nur den Datenträger 1 Hier die Ausgabe: Phase 1 - find and verify superblock... Phase 2 - using internal log - zero log... - scan filesystem freespace and inode maps... - found root inode chunk Phase 3 - for each AG... - scan (but don't clear) agi unlinked lists... - process known inodes and perform inode discovery... - agno = 0 - agno = 1 - agno = 2 - agno = 3 - agno = 4 - agno = 5 - process newly discovered inodes... Phase 4 - check for duplicate blocks... - setting up duplicate extent list... - check for inodes claiming duplicate blocks... - agno = 0 - agno = 2 - agno = 3 - agno = 5 - agno = 4 - agno = 1 No modify flag set, skipping phase 5 Phase 6 - check inode connectivity... - traversing filesystem ... - traversal finished ... - moving disconnected inodes to lost+found ... Phase 7 - verify link counts... No modify flag set, skipping filesystem flush and exiting. Und ohne -n Kommt nach ca. 2 Sekunden: Phase 1 - find and verify superblock... Phase 2 - using internal log - zero log... - scan filesystem freespace and inode maps... - found root inode chunk Phase 3 - for each AG... - scan and clear agi unlinked lists... - process known inodes and perform inode discovery... - agno = 0 - agno = 1 - agno = 2 - agno = 3 - agno = 4 - agno = 5 - process newly discovered inodes... Phase 4 - check for duplicate blocks... - setting up duplicate extent list... - check for inodes claiming duplicate blocks... - agno = 0 - agno = 1 - agno = 5 - agno = 4 - agno = 3 - agno = 2 Phase 5 - rebuild AG headers and trees... - reset superblock... Phase 6 - check inode connectivity... - resetting contents of realtime bitmap and summary inodes - traversing filesystem ... - traversal finished ... - moving disconnected inodes to lost+found ... Phase 7 - verify and correct link counts... done Das Problem ist aber nicht behoben. Die 2 Cache sind direkt auf dem Mainboard. 4 x HDD auf dem Mainboard 1 x HDD über PCIe Erweiterung Nein Ram-Test werde ich morgen machen.
  7. Bei der Paritätsprüfung haben sich 2 Festplatten (1 x Parität, 1 x Daten) deaktiviert. Über die Dateisystemprüfung im Wartungsmodus ist kein Fehler zu erkennen SMART-Werte sind auch OK (kein Fehler) 2 Ersatzplatten sind unterwegs Backup ist vorhanden auf die Daten kann auch noch zugegriffen werden Wenn ich xfs_repair /dev/sdc1 ausführe werden Fehler angezeigt. root@Trocken:~# xfs_repair /dev/sdc1 Phase 1 - find and verify superblock... Phase 2 - using internal log - zero log... ERROR: The filesystem has valuable metadata changes in a log which needs to be replayed. Mount the filesystem to replay the log, and unmount it before re-running xfs_repair. If you are unable to mount the filesystem, then use the -L option to destroy the log and attempt a repair. Note that destroying the log may cause corruption -- please attempt a mount of the filesystem before doing this. root@Trocken:~# Wen ich es richtig gelesen habe ist die Reparatur für sdX1 aber nur für Platten die nicht im Array sind oder? trocken-diagnostics-20221212-1546.zip
  8. Habe jetzt mal NPN-Official nach deinem Tutorial installiert und es scheint soweit zu laufen. Ich denke da war irgend ein Fehler bei der Installation von NPM. Besten Dank für deine Hilfe.
  9. Jetzt geht irgendwie gar nichts mehr. bei 6.9.1 funktioniert nicht mal mehr NPM über WebUI. Nach Update auf 6.9.2 auch nicht. Ich würde den NPM mal entfernen und dann auch gleich den NPN-Official installieren. In der Hoffnung, dass es dann besser geht. Muss ich was beachten oder Standard Installation?
  10. Bei den Einstellungen von NPM steht bei Web-UI Port 7818 und bei der Docker-Ansicht 8181. Über Port 8181 kann ich das Interface aufrufen???
  11. Mein Fehler: NPM läuft ja über 8181 IPv4 und IPv6 geht auf 8181
  12. Ich sehe kein NPM. Ja, NPM läuft. Hier die Einstellungen: Und die Docker: Ich kann ohne weitere Änderungen zwischen 6.9.1 und 6.9.2 hin und her schalten (Wiederherstellung/Update) und immer das gleiche: 6.9.1 Nextcloud ist von extern erreichbar 6.9.2 Nextcloud ist von extern nicht erreichbar
  13. Hatte NPM auf Bridge jetzt auf Host. Leider keine Änderung Ja (<1ms) Von intern ja. Extern wird blockiert. Wireguard funktioniert von extern (Handy)
  14. Guten Morgen und danke für die schnellen Antworten. NPM läuft zusammen mit Nextcloud auf dem Unraid-Server. Oder meinst du was anderes? (Ich kenne mich nicht so gut aus) Hier kommt schon die Meldung: "...nicht erreichbar" "[IPv6] hat die Verbindung abgelehnt"
  15. Der Präfix ist fest. Zumindest hat er sich bis jetzt noch nicht geändert (über Jahr). Deshalb habe ich aktuell eine statische IPv6 für meinen Unraid-Server. Duckdns ist vorbereitet aber noch nicht benutzt. Wie gesagt: mit der Version 6.9.1 läuft alles.
×
×
  • Create New...