Soliver84

Members
  • Posts

    42
  • Joined

  • Last visited

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

Soliver84's Achievements

Rookie

Rookie (2/14)

0

Reputation

  1. Das war die Lösung: auf der Docker Seite auf "Add Container" klickst und dann im Drop Down unter "User Templates" deine Container auswählst die du installiert gehabt hast. Nur zur Erklärung in dem Bereich "User Templates" im Drop Down sind alle deiner Container drin die du jemals installiert gehabt mit all den Einstellungen die du vorgenommen hast und müsstest somit theoretisch nichts mehr anpassen, einfach auf Apply klicken und der Container wird neu gepullt.
  2. ich denke es hat irgendwas damit zu tun: https://forums.unraid.net/topic/154107-plugin-docker-patch-6128/
  3. Nein es ist so das im menü sich nichts mehr bedienen lässt also: verwaiste Images, wie kann ich ihm sagen das er die wieder einlernt einliest?
  4. Hallo. Problem: Die Docker-Container auf dem Unraid-Server werden nicht korrekt geladen, was dazu führt, dass sie als "verwaiste Images" markiert und nicht gestartet werden. Anfrage: Gibt es eine Möglichkeit, den Ladevorgang der Docker-Container zu erzwingen, sodass sie wieder korrekt funktionieren? Insbesondere geht es um den `calibre`-Container, dessen Bibliothek möglicherweise im Container selbst oder an einem lokalen Speicherort gesichert ist. Der Speicherort der Calibre-Datenbank und ob sie im Docker-Image oder in einem persistenten Speicherort wie einem Bind-Mount oder Volume gespeichert wird, ist mir nicht klar. Ziel: Das Hauptziel ist es, den `calibre`-Container wieder zum Laufen zu bringen, ohne die vorhandenen Bibliotheksdaten zu verlieren. Frage: Können wir die Container durch das Ziehen der neuesten Images und anschließende Neuerstellung der Containerinstanzen über eine `docker-compose`- oder `docker run`-Anweisung aktualisieren? Es ist von entscheidender Bedeutung, dass dabei keine Daten verloren gehen. Könnten Sie bitte bestätigen, wo die Calibre-Daten gespeichert sind und wie wir sicherstellen können, dass sie durch den Prozess nicht beeinträchtigt werden? Danke für die Unterstüßtzung Anghang: Problem.
  5. Hallo zusammen ich wende mich an euch mit einer dringenden Anfrage bezüglich der Neukonfiguration eines Array-Datenträgers in meinem Unraid-System. Trotz mehrfacher Versuche und Überprüfung aller verfügbaren Optionen in der Benutzeroberfläche, konnte ich keine Lösung finden, um den betreffenden Datenträger neu zu setzen. Ursprünglich wurde dieser Datenträger ausschließlich für Docker verwendet. Kürzlich habe ich mich entschieden, diesen durch einen neuen Datenträger zu ersetzen. Es ist wichtig zu erwähnen, dass der ursprüngliche Datenträger nicht Teil eines RAID-Verbunds oder einer ähnlichen Konfiguration war. Leider stehe ich nun vor dem Problem, dass ich ohne eine Neukonfiguration dieses Datenträgers mein System nicht wie gewünscht nutzen kann. Dies hindert mich daran, mit meiner Arbeit fortzufahren, und ich bin auf eine schnelle Lösung angewiesen. Zur Verdeutlichung des Problems habe ich dieser Anfrage einen Screenshot als PDF-Dokument angehängt, der die aktuelle Situation und die bisherigen Konfigurationsversuche illustriert. Ich bin für jede Unterstützung, die Sie mir bieten können, sehr dankbar und hoffe auf eine zügige Lösung dieses Problems. Ihre schnelle Hilfe ist für mich von großer Bedeutung, um den Betrieb meines Systems wiederherzustellen. Vielen Dank im Voraus für Ihre Unterstützung. Datenträger 1 Mit freundlichen Grüßen, Soliver84 Tower_Main.pdf
  6. ach so muss ich den cache deaktivieren?, kann ich danach wieder einen Cache nutzen? DEV 11 Samsung_SSD_850_EVO_1TB_S2RFNX0JC03834T (sda) Mount 22 C191 25 zfs 1 TB 1 1QNAPZFSCACHEzfs0 B 2 2S2RFNX0JC03834T-part2
  7. ok verstehe. ich habe das schon ewig das ZFS, wie mache ich das das es wieder funktioniert ohne daten zu verlieren?
  8. Wenn ich Sie manuell Importiere geht es ganz normal! zpool import QNAPZFS zpool import QNAPZFS2
  9. Hallo ich hab das Problem das die ZFS Pools nicht automatisch geladen werden. wie behebe ich das: hier mal meine Pools: root@Tower:~# zpool import pool: QNAPZFS id: 13403671153584614663 state: ONLINE action: The pool can be imported using its name or numeric identifier. config: QNAPZFS ONLINE raidz1-0 ONLINE ata-WDC_WD4001FFSX-68JNUN0_WD-WMC5D0D7LTZU ONLINE ata-WDC_WD4001FFSX-68JNUN0_WD-WCC5D7KUKYPJ ONLINE ata-WDC_WD4001FFSX-68JNUN0_WD-WMC5D0D5NH7C ONLINE ata-WDC_WD4003FFBX-68MU3N0_VBG9L6RR ONLINE ata-WDC_WD4003FZEX-00Z4SA0_WD-WCC5D0CJL5YC ONLINE cache sda2 logs sda1 ONLINE pool: QNAPZFS2 id: 9729906048981077332 state: ONLINE action: The pool can be imported using its name or numeric identifier. config: QNAPZFS2 ONLINE raidz1-0 ONLINE ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N5YF8H99 ONLINE ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N5EXDXX2 ONLINE ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N4JC7Z2D ONLINE ata-ST3000VN000-1H4167_W300S9DZ ONLINE ata-ST3000VN000-1H4167_W300SJ43 ONLINE root@Tower:~# hier im Live log: Dec 6 10:35:12 Tower smbd[22895]: [2023/12/06 10:35:12.342277, 0] ../../source3/smbd/smb2_service.c:772(make_connection_snum) Dec 6 10:35:12 Tower smbd[22895]: make_connection_snum: canonicalize_connect_path failed for service QNAPZFS2, path /QNAPZFS2 Dec 6 10:35:14 Tower smbd[22895]: [2023/12/06 10:35:14.359146, 0] ../../source3/smbd/smb2_service.c:772(make_connection_snum) Dec 6 10:35:14 Tower smbd[22895]: make_connection_snum: canonicalize_connect_path failed for service QNAPZFS2, path /QNAPZFS2 Dec 6 10:35:16 Tower smbd[22895]: [2023/12/06 10:35:16.374746, 0] ../../source3/smbd/smb2_service.c:772(make_connection_snum) Dec 6 10:35:16 Tower smbd[22895]: make_connection_snum: canonicalize_connect_path failed for service QNAPZFS2, path /QNAPZFS2 Dec 6 10:35:18 Tower smbd[22895]: [2023/12/06 10:35:18.390971, 0] ../../source3/smbd/smb2_service.c:772(make_connection_snum) Dec 6 10:35:18 Tower smbd[22895]: make_connection_snum: canonicalize_connect_path failed for service QNAPZFS2, path /QNAPZFS2 Dec 6 10:35:20 Tower smbd[22895]: [2023/12/06 10:35:20.406864, 0] ../../source3/smbd/smb2_service.c:772(make_connection_snum) Dec 6 10:35:20 Tower smbd[22895]: make_connection_snum: canonicalize_connect_path failed for service QNAPZFS2, path /QNAPZFS2 Dec 6 10:35:22 Tower smbd[22895]: [2023/12/06 10:35:22.422858, 0] ../../source3/smbd/smb2_service.c:772(make_connection_snum) Dec 6 10:35:22 Tower smbd[22895]: make_connection_snum: canonicalize_connect_path failed for service QNAPZFS2, path /QNAPZFS2 Dec 6 10:35:24 Tower smbd[22895]: [2023/12/06 10:35:24.439259, 0] ../../source3/smbd/smb2_service.c:772(make_connection_snum) Dec 6 10:35:24 Tower smbd[22895]: make_connection_snum: canonicalize_connect_path failed for service QNAPZFS2, path /QNAPZFS2 Dec 6 10:35:26 Tower smbd[22895]: [2023/12/06 10:35:26.455105, 0] ../../source3/smbd/smb2_service.c:772(make_connection_snum) Dec 6 10:35:26 Tower smbd[22895]: make_connection_snum: canonicalize_connect_path failed for service QNAPZFS2, path /QNAPZFS2 Dec 6 10:35:28 Tower smbd[22895]: [2023/12/06 10:35:28.471156, 0] ../../source3/smbd/smb2_service.c:772(make_connection_snum) Dec 6 10:35:28 Tower smbd[22895]: make_connection_snum: canonicalize_connect_path failed for service QNAPZFS2, path /QNAPZFS2 Dec 6 10:35:30 Tower smbd[22895]: [2023/12/06 10:35:30.487544, 0] ../../source3/smbd/smb2_service.c:772(make_connection_snum) Dec 6 10:35:30 Tower smbd[22895]: make_connection_snum: canonicalize_connect_path failed for service QNAPZFS2, path /QNAPZFS2 Ich hab mal die komplette dignose datei angehängt. Für einen Profi ist es sicher easy. ist das viel leicht in der neuen obefläche schon möglich das zu machen? tower-diagnostics-20231206-1036.zip
  10. Hallo Ich habe Unraid Pro 6.11.5 auf einem QNAP NAS Laufen, es scheint das der USB Stick die grätsche macht. hab ich noch die möglichkeit die richtigen sachen zu kopieren so das bei einem Neuen Stick nicht alles neue gemacht werden muss? Das sind die Errors im Live LOG (LOGS angehängt): Nov 29 09:14:02 Tower kernel: BTRFS warning (device md1: state EA): direct IO failed ino 257 rw 0,0 sector 0x72f9a8 len 4096 err no 10 Nov 29 09:14:02 Tower kernel: BTRFS warning (device md1: state EA): direct IO failed ino 257 rw 0,0 sector 0x72f9b0 len 4096 err no 10 Nov 29 09:14:02 Tower kernel: BTRFS warning (device md1: state EA): direct IO failed ino 257 rw 0,0 sector 0x72f9b8 len 4096 err no 10 Nov 29 09:14:02 Tower unraid-api[25872]: ⚠️ Caught exception: EIO: i/o error, stat '/run/docker/containerd/daemon/io.containerd.runtime.v2.task/moby/50fd5231eb24c7c0d9764b33cb99ada920e9290861563b61c8401fa93fac96cc/work' Nov 29 09:14:02 Tower unraid-api[25872]: ⚠️ UNRAID API crashed with exit code 1 Nov 29 09:14:04 Tower kernel: BTRFS warning (device md1: state EA): direct IO failed ino 257 rw 0,0 sector 0x52f9a0 len 4096 err no 10 Nov 29 09:14:04 Tower kernel: BTRFS warning (device md1: state EA): direct IO failed ino 257 rw 0,0 sector 0x52f9a8 len 4096 err no 10 Nov 29 09:14:04 Tower kernel: BTRFS warning (device md1: state EA): direct IO failed ino 257 rw 0,0 sector 0x52f9b0 len 4096 err no 10 Nov 29 09:14:04 Tower kernel: BTRFS warning (device md1: state EA): direct IO failed ino 257 rw 0,0 sector 0x52f9b8 len 4096 err no 10 Nov 29 09:14:04 Tower kernel: BTRFS warning (device md1: state EA): direct IO failed ino 257 rw 0,0 sector 0x72f9a0 len 4096 err no 10 Nov 29 09:14:05 Tower unraid-api[28883]: ✔️ UNRAID API started successfully! Nov 29 09:14:06 Tower kernel: btrfs_dev_stat_print_on_error: 120 callbacks suppressed Nov 29 09:14:06 Tower kernel: BTRFS error (device md1: state EA): bdev /dev/md1 errs: wr 1, rd 7998711, flush 0, corrupt 0, gen 0 Nov 29 09:14:06 Tower kernel: BTRFS error (device md1: state EA): bdev /dev/md1 errs: wr 1, rd 7998712, flush 0, corrupt 0, gen 0 Nov 29 09:14:06 Tower kernel: BTRFS error (device md1: state EA): bdev /dev/md1 errs: wr 1, rd 7998713, flush 0, corrupt 0, gen 0 Nov 29 09:14:06 Tower kernel: BTRFS error (device md1: state EA): bdev /dev/md1 errs: wr 1, rd 7998714, flush 0, corrupt 0, gen 0 Nov 29 09:14:06 Tower kernel: _btrfs_printk: 3 callbacks suppressed Nov 29 09:14:06 Tower kernel: BTRFS warning (device md1: state EA): direct IO failed ino 257 rw 0,0 sector 0x52f9a0 len 4096 err no 10 Nov 29 09:14:06 Tower kernel: BTRFS warning (device md1: state EA): direct IO failed ino 257 rw 0,0 sector 0x52f9a8 len 4096 err no 10 Nov 29 09:14:06 Tower kernel: BTRFS warning (device md1: state EA): direct IO failed ino 257 rw 0,0 sector 0x52f9b0 len 4096 err no 10 Nov 29 09:14:06 Tower kernel: BTRFS warning (device md1: state EA): direct IO failed ino 257 rw 0,0 sector 0x52f9b8 len 4096 err no 10 Nov 29 09:14:06 Tower kernel: blk_print_req_error: 16 callbacks suppressed Nov 29 09:14:06 Tower kernel: I/O error, dev loop2, sector 1167776 op 0x0:(READ) flags 0x1000 phys_seg 4 prio class 0 Nov 29 09:14:06 Tower kernel: BTRFS error (device loop2: state EA): bdev /dev/loop2 errs: wr 1, rd 258204, flush 0, corrupt 0, gen 0 Nov 29 09:14:06 Tower kernel: BTRFS error (device md1: state EA): bdev /dev/md1 errs: wr 1, rd 7998715, flush 0, corrupt 0, gen 0 Nov 29 09:14:06 Tower kernel: BTRFS error (device md1: state EA): bdev /dev/md1 errs: wr 1, rd 7998716, flush 0, corrupt 0, gen 0 Nov 29 09:14:06 Tower kernel: BTRFS warning (device md1: state EA): direct IO failed ino 257 rw 0,0 sector 0x72f9a0 len 4096 err no 10 Nov 29 09:14:06 Tower kernel: BTRFS error (device md1: state EA): bdev /dev/md1 errs: wr 1, rd 7998717, flush 0, corrupt 0, gen 0 Nov 29 09:14:06 Tower kernel: BTRFS warning (device md1: state EA): direct IO failed ino 257 rw 0,0 sector 0x72f9a8 len 4096 err no 10 Nov 29 09:14:06 Tower kernel: BTRFS error (device md1: state EA): bdev /dev/md1 errs: wr 1, rd 7998718, flush 0, corrupt 0, gen 0 Nov 29 09:14:06 Tower kernel: BTRFS warning (device md1: state EA): direct IO failed ino 257 rw 0,0 sector 0x72f9b0 len 4096 err no 10 Nov 29 09:14:06 Tower kernel: BTRFS warning (device md1: state EA): direct IO failed ino 257 rw 0,0 sector 0x72f9b8 len 4096 err no 10 Nov 29 09:14:06 Tower kernel: I/O error, dev loop2, sector 3264928 op 0x0:(READ) flags 0x1000 phys_seg 4 prio class 0 Nov 29 09:14:06 Tower kernel: BTRFS error (device loop2: state EA): bdev /dev/loop2 errs: wr 1, rd 258205, flush 0, corrupt 0, gen 0 oder ist das sogar was anderes Edit: Nach dem Update auf die neue Unraid version habe ich nur noch diesen Fehler: Nov 29 09:59:41 Tower smbd[23183]: [2023/11/29 09:59:41.484424, 0] ../../source3/smbd/smb2_service.c:772(make_connection_snum) Nov 29 09:59:41 Tower smbd[23183]: make_connection_snum: canonicalize_connect_path failed for service QNAPZFS2, path /QNAPZFS2 Nov 29 09:59:43 Tower smbd[23183]: [2023/11/29 09:59:43.500127, 0] ../../source3/smbd/smb2_service.c:772(make_connection_snum) Nov 29 09:59:43 Tower smbd[23183]: make_connection_snum: canonicalize_connect_path failed for service QNAPZFS2, path /QNAPZFS2 Nov 29 09:59:45 Tower smbd[23183]: [2023/11/29 09:59:45.516610, 0] ../../source3/smbd/smb2_service.c:772(make_connection_snum) Nov 29 09:59:45 Tower smbd[23183]: make_connection_snum: canonicalize_connect_path failed for service QNAPZFS2, path /QNAPZFS2 Nov 29 09:59:47 Tower smbd[23183]: [2023/11/29 09:59:47.532833, 0] ../../source3/smbd/smb2_service.c:772(make_connection_snum) Nov 29 09:59:47 Tower smbd[23183]: make_connection_snum: canonicalize_connect_path failed for service QNAPZFS2, path /QNAPZFS2 Nov 29 09:59:49 Tower smbd[23183]: [2023/11/29 09:59:49.548911, 0] ../../source3/smbd/smb2_service.c:772(make_connection_snum) Nov 29 09:59:49 Tower smbd[23183]: make_connection_snum: canonicalize_connect_path failed for service QNAPZFS2, path /QNAPZFS2 Nov 29 09:59:51 Tower smbd[23183]: [2023/11/29 09:59:51.564478, 0] ../../source3/smbd/smb2_service.c:772(make_connection_snum) Nov 29 09:59:51 Tower smbd[23183]: make_connection_snum: canonicalize_connect_path failed for service QNAPZFS2, path /QNAPZFS2 Nov 29 09:59:53 Tower smbd[23183]: [2023/11/29 09:59:53.580948, 0] ../../source3/smbd/smb2_service.c:772(make_connection_snum) Nov 29 09:59:53 Tower smbd[23183]: make_connection_snum: canonicalize_connect_path failed for service QNAPZFS2, path /QNAPZFS2 Danke euch. Viele Grüße Alex tower-diagnostics-20231129-0854.zip Tower_Dashboard.html Tower_Main.html
  11. where is that i can't find it i want to turn it off it always fills up the ram
  12. Hallo Ich habe eine Defekte Festplatte, die habe ich schon ausgebaut und die exakt gleiche in Neu am gleichen Platz installiert: Alte Platte: WDC_WD30EFRX-68EUZN0_WD-WCC4N3YFCX30 Neue Platte: WDC_WD30EFRX-68EUZN0_WD-WCC4N4JC7Z2D Name: Dev 7, sdf Status: root@Tower:~# zpool status pool: QNAPZFS state: ONLINE status: Some supported and requested features are not enabled on the pool. The pool can still be used, but some features are unavailable. action: Enable all features using 'zpool upgrade'. Once this is done, the pool may no longer be accessible by software that does not support the features. See zpool-features(7) for details. scan: scrub repaired 0B in 03:22:47 with 0 errors on Sun Jul 11 03:46:49 2021 config: NAME STATE READ WRITE CKSUM QNAPZFS ONLINE 0 0 0 raidz1-0 ONLINE 0 0 0 ata-WDC_WD4001FFSX-68JNUN0_WD-WMC5D0D7LTZU ONLINE 0 0 0 ata-WDC_WD4001FFSX-68JNUN0_WD-WCC5D7KUKYPJ ONLINE 0 0 0 ata-WDC_WD4001FFSX-68JNUN0_WD-WMC5D0D5NH7C ONLINE 0 0 0 ata-WDC_WD4003FFBX-68MU3N0_VBG9L6RR ONLINE 0 0 0 ata-WDC_WD4003FZEX-00Z4SA0_WD-WCC5D0CJL5YC ONLINE 0 0 0 logs sda1 ONLINE 0 0 0 cache sda2 ONLINE 0 0 0 errors: No known data errors pool: QNAPZFS2 state: DEGRADED status: One or more devices could not be used because the label is missing or invalid. Sufficient replicas exist for the pool to continue functioning in a degraded state. action: Replace the device using 'zpool replace'. see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-4J scan: resilvered 612K in 00:00:01 with 0 errors on Sun Oct 3 22:53:36 2021 config: NAME STATE READ WRITE CKSUM QNAPZFS2 DEGRADED 0 0 0 raidz1-0 DEGRADED 0 0 0 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N5YF8H99 ONLINE 0 0 0 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N5EXDXX2 ONLINE 0 0 0 13419636845726771512 UNAVAIL 0 0 0 was /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N3YFCX30-part1 ata-ST3000VN000-1H4167_W300S9DZ ONLINE 0 0 0 ata-ST3000VN000-1H4167_W300SJ43 ONLINE 0 0 0 errors: No known data errors Meine Versuche: root@Tower:~# zpool replace QNAPZFS2 raidz1-0 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N4JC7Z2D cannot replace raidz1-0 with ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N4JC7Z2D: already in replacing/spare config; wait for completion or use 'zpool detach' root@Tower:~# zpool replace QNAPZFS2 raidz1-0 /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N4JC7Z2D cannot replace raidz1-0 with /dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N4JC7Z2D: already in replacing/spare config; wait for completion or use 'zpool detach' hier steht etwas von ashift warum es nicht geht: https://www.truenas.com/community/threads/cannot-replace-disks-in-pool.91490/ habe das dann mal anzeigen lassen: zpool get ashift root@Tower:~# zpool get ashift NAME PROPERTY VALUE SOURCE QNAPZFS ashift 0 default QNAPZFS2 ashift 0 default die führen aber noch "zdb -C -U /data/zfs/zpool.cach" aus das gibt es bei Unraid aber nicht. was muss ich machen. OFF Thropic: Ich frag mich wie lange es bei Unraid noch dauert bis endlich eine ZFS GUI gibt. Danke im voraus.
  13. Hallo ich777 hab die Lösung schon gefunden. Workaround: die Lösung, DOCKER img, auf eine LOKALE Platte oder Stick auslagern. ist eine bekannter ZFS Fehler🤬🤪🤣: https://github.com/openzfs/zfs/issues/11523 aber andere frage wird an der echten Lösung gearbeitet?😃
  14. die lösung, DOCKER img, auf eine LOKALE Platte oder Stick auslagern. ist eine bekannter ZFS Fehler🤬🤪🤣: https://github.com/openzfs/zfs/issues/11523