Jump to content

mgutt

Moderators
  • Posts

    11,371
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. I meant, that you need to test the hostname "qbittorent". Try this: curl qbittorrent This is the IP and Port of qbittorrent? HTTP 200 means NPM is able to reach it, so it should work. Try in the NPM host settings the internal wg0 IP of qbittorrent as target: 172.31.200.2 And maybe try to curl this IP as well. If NPM and qbittorrent are in the same network, NPM should be able to reach qbittorrent through this IP. But as those IPs can change on container restart (depends on the starting order of the containers), you should instead use the container name as target in your host settings (container name = hostname). By that NPM asks the DNS server of "wg0" for the current IP of qbittorrent.
  2. @limetech This should be fixable by editing /usr/local/sbin/in_use and adding this: [[ -L "$file" ]] && exit 1 # ignore symlinks before this: fuser -s "$FILE" && exit At the moment I'm testing this in the go-file: # ------------------------------------------------- # Workaround for mover bug (tested with Unraid 6.9.2, 6.11.2, 6.11.3) # https://forums.unraid.net/bug-reports/prereleases/690-rc2-mover-file-does-not-exist-r1232/ # ------------------------------------------------- if md5sum --status -c <<<"01a522332c995ea026c6817b8a688eee /usr/local/sbin/mover" || md5sum --status -c <<<"0a0d06f60de4a22b44f634e9824245b6 /usr/local/sbin/mover"; then sed -i '/shareUseCache="yes"/a\ \ \ \ \ \ \ \ find "${SHAREPATH%/}" -type l -depth | \/usr\/local\/sbin\/move -d $LOGLEVEL' /usr/local/sbin/mover fi It fixes
  3. Ok, war doch ich selbst. Ich habe wegen einem Bug vom Mover einen Workaround mit rsync als Skript hinterlegt gehabt und der lief parallel zum Mover: Das habe ich jetzt so abgeändert, dass ich hoffentlich den eigentlichen Bug gelöst habe.
  4. Ok, das war jetzt auch komisch. Ich habe zuerst auf dem Cache geschaut und da waren noch Dateien in /mnt/cache/Backups: Dann dachte ich mir, dass ich die Mover Logs mal aktiviere und den Mover manuell starte. Der Ordner "Backups" ist nun vom Cache verschwunden, aber geloggt hat er das Verschieben dieses Ordners nicht. Nur einen anderen: 🤨
  5. Ich habe in meinen syslog festgestellt, dass der Mover um ca 6 Uhr versucht Dateien vom Cache ins Array zu verschieben, die dann aber nicht mehr da sind: Jun 19 06:01:30 thoth emhttpd: spinning down /dev/sdh Jun 19 06:08:01 thoth move: error: move, 391: No such file or directory (2): lstat: /mnt/cache/Backups/Shares/appdata/20220619_044035/plex/Library/Application Support/Plex Media Server/Metadata/Albums/6/... Jun 19 06:08:01 thoth move: error: move, 391: No such file or directory (2): lstat: /mnt/cache/Backups/Shares/appdata/20220619_044035/plex/Library/Application Support/Plex Media Server/Metadata/Albums/6/... Jun 19 06:08:01 thoth move: error: move, 391: No such file or directory (2): lstat: /mnt/cache/Backups/Shares/appdata/20220619_044035/plex/Library/Application Support/Plex Media Server/Metadata/Albums/6/... ... Jun 19 06:16:26 thoth move: error: move, 391: No such file or directory (2): lstat: /mnt/cache/Backups/Shares/appdata/20220619_044035/plex/Library/Application Support/Plex Media Server/Plug-in Support/Databases/com.plexapp.plugins.library.db Jun 19 06:16:26 thoth move: error: move, 391: No such file or directory (2): lstat: /mnt/cache/Backups/Shares/appdata/20220619_044035/20220619_044035.log Jun 19 06:27:08 thoth crond[1842]: exit status 1 from user root /usr/local/sbin/mover &> /dev/null Das kann eigentlich nur passieren, wenn die Dateien verschoben/gelöscht wurden, während der Mover angefangen hat zu arbeiten. Allerdings habe ich das nicht verschoben und ich wüsste auch nicht, dass ich noch irgendwas laufen habe, dass das macht?! Das Backup "20220619" wurde zB um 05:49 Uhr fertig: Script Starting Jun 19, 2022 04:40.04 ... Create incremental backup from /mnt/user/appdata to /mnt/user/Backups/Shares/appdata/20220619_044035 by using last backup /mnt/user/Backups/Shares/appdata/20220618_044032/ ... Script Finished Jun 19, 2022 05:49.41 Komisch ist auch, dass die Datei "com.plexapp.plugins.library.db" im Ziel vorhanden ist, sie wurde also verschoben und das Dateidatum passt ebenfalls: Es wirkt so als würde der Mover quasi 2x gleichzeitig laufen. Oder habt ihr noch eine Idee?
  6. Dann würde ich ziemlich sicher sagen, dass der Treiber nicht enthalten ist. EDIT: Kann ja auch nicht gehen. Unraid 6.10.3 verwendet ja erst Kernel 5.15:
  7. Naja BTRFS encrypted als Dateisystem auswählen?! Verstehe die Frage nicht ^^ Siehe auch: https://forums.unraid.net/topic/105101-691-encrypted-cachepool-drives/#comment-971121 Nur als Info: Nextcloud kann auch verschlüsseln. Also dann braucht der Datenträger selbst nicht verschlüsselt sein bzw ein Admin kann nicht einfach die Dateien der Nutzer einsehen (geht schon, aber dann muss er erst mal verstehen wie Nextcloud ver- / entschlüsselt).
  8. Naja, dann wiederherstellen, neu starten und fertig. Nein.
  9. Ich wusste auch gar nicht, dass der solange gebaut wurde. Hier wird zB einer mit i7-9700 verkauft: https://www.ebay.de/itm/284848280244
  10. Der da auf dem Foto? Der sieht ja eigentlich ziemlich flach aus?! Wobei mich eh gerade verwirrt, dass deins kleiner ist als das: Gab es die in zwei verschiedenen Größen?! EDIT: Ach ne, du hast ein Full ATX Board und auf meinem Foto scheint es mATX zu sein. Dh der Abstand zum CPU-Kühler wird gleich sein.
  11. Häh? Wieso hast du das nicht gleich wiederhergestellt? Ja und? Wenn nicht gerade eine Ransomware oder ein Hacker oder ein Dieb alles zerlegt was du auf dem Server hat, kann das doch ruhig so gemacht werden. Das man separat noch Backups auf einem externen Medium haben sollte, ist ja eigentlich klar, aber in deiner Situation reicht doch auch das Backup auf dem Server aus?! Die Dateien der Docker Container befinden sich in appdata. Daher kannst du in der Theorie einfach in den App Store gehen und die Container starten. Das gilt aber nur, solange du nicht irgendwelche Änderungen an den jeweiligen Containerpfaden usw gemacht hast. Deutlich einfacher wäre es, wenn du das Backup vom Stick wiederherstellst, denn da ist im Ordner Templates die jeweilige XML von den Containern noch drin. Dann musst du nur Docker > Add Container und aus dem Dropdown den Container auswählen und starten. Bei den VMs ist es das selbe. Die libvirt.xml ist noch auf deinen Platten, aber die Templates im Backup vom USB Stick. Auch die könnte man nun von Hand neu erstellen und dann eben die vorhandenen vdisks wieder zuordnen oder eben das Backup wiederherstellen. Dann müsste man gar nichts machen.
  12. Und was heißt das? Was siehst du denn in der Disk-Übersicht?
  13. What didn't work? NPM is in the list?! Try to ping qbittorrent through NPMs console. Should work.
  14. So NPM uses a different network? Then you could try to add the custom network as a second network to NPM: docker network connect wg0 Nginx-Proxy-Manager-Official
  15. Jo. Eventuell solltest du den Server solange abgeschaltet lassen, damit sich die Daten auf der Parität nicht noch weiter verändern.
  16. Ach ja noch was für die Panik: Beim Check wird nur von der Disk gelesen. Es würde also noch gar nicht geprüft, ob alle Sektoren noch beschrieben werden können. Wie gesagt sollte man daher sichern was geht.
  17. Du solltest dich eher fragen warum beim zweiten Check erneut Fehler aufgetaucht sind. Das heißt nämlich, dass die Platte beim zweiten Check Fehler hatte, die beim ersten mal noch nicht da waren. Fazit: Die Platte geht immer weiter kaputt.
  18. Zum Thema Integrität: Da sind in jedem Fall Daten korrupt, denn die Paritätsprüfung produziert nur dann Fehler, wenn sie selbst andere Daten als Disk 1 enthält. Die "Ironie" ist, dass man durch die Prüfung und Korrektur, die korrupten Daten auf die Parität übernommen hat. Der einzige Trost ist, dass "nur" 8 Sektoren (jeweils 512 Bytes) verloren gegangen sind (Offline Uncorrectable). Welche Dateien allerdings betroffen sind, ist unbekannt, da wir die Sektoren IDs nicht gesagt bekommen. Eine Sache, die ich bei SMART ziemlich ätzend finde. Allerdings kannst du in den syslogs meine ich sehen, welche Sektoren bei der Paritätskorrektur geändert wurden. Poste bitte mal deine Diagnostics
  19. Die Platte beginnt zu sterben. Neue kaufen. Es kann sein, dass sie auch keine weiteren Probleme macht, aber das Risiko würde ich nicht eingehen.
  20. Was siehst du unter Tools > System Device im Abschnitt SCSI Decives? Fehlen da bereits die Laufwerke?
  21. Finde heraus welches Dateisystem du zur Formatierung der Platten du in unRAID verwendet hast (früher gab es ja sogar noch ReiserFS) und dann eben Google nach "Windows XFS" oder was auch immer. Zum Auslesen gibt es diverse Software.
  22. Noch eine Alternative: Aktiviere im BIOS did Option, dass bei Strom an, der Server sofort angeht. Dann wüsstest du zumindest wann er wieder da war.
  23. Das sind USB oder Thunderbolt Adapter. Also jetzt nicht im Gehäuse, falls du das denkst. Aber klar, man kann die natürlich aktiv belüften. Wobei dieses Hitzeproblem bei normalen PCIe Karten nicht existiert. Ich mein den Kühlkörper meine 10G Karte kann ich auch nicht anfassen und wenn ich den dauerhaft belaste, riecht man auch die Hitze, aber schlussendlich läuft die stabil. Am besten ist allerdings eh SFP+. DAC oder Glasfaser werden nicht mal ansatzweise so warm wie RJ45. Es gibt SFP+ übrigens auch für den Mac als Adapter. Aber die Preise sind einfach nur lächerlich. Ist man aber als Apple User vermutlich gewohnt 😈
  24. Das ist maximale Anzahl an Dateien, die man parallel live überwachen / öffnen kann. Ich vermute du hast etwas am laufen, was parallel sehr viel öffnet und dann kommst du kurzzeitig an das Limit.
×
×
  • Create New...