vakilando

Moderators
  • Posts

    367
  • Joined

  • Last visited

Everything posted by vakilando

  1. Das "heute Abend" ist heute Abend geworden.... Nach der Reparatur gibts erst mal keine XFS-Fehlermeldungen mehr im Log. Nur das hier: Jan 23 22:01:04 FloBineDATA kernel: md: recovery thread: P corrected, sector=45242728 Jan 23 22:01:04 FloBineDATA kernel: md: recovery thread: P corrected, sector=45242872 Jan 23 22:01:04 FloBineDATA kernel: md: recovery thread: P corrected, sector=45242936 Jan 23 22:01:04 FloBineDATA kernel: md: recovery thread: P corrected, sector=45243056 Jan 23 22:01:04 FloBineDATA kernel: md: recovery thread: P corrected, sector=45243112 Jan 23 22:01:04 FloBineDATA kernel: md: recovery thread: P corrected, sector=45243128 Jan 23 22:01:12 FloBineDATA kernel: md: recovery thread: P corrected, sector=47713720 Ich beobachte das weiter, danke @mgutt. Bezüglich des eigentlichen Themas des Threads wegen der fehlenden Pfadangaben "BLAKE2 hash key mismatch, is corrupted" beobachte ich auch weiter. Bisher kam nichts mehr.
  2. Moin, nö, kein Undervolting... Hmm, hatte noch nie solche Fehler nach einem crash. Danke, Reparatur werde ich heute Abend durchführen.
  3. uhh, tut zwar hier nix zur Sache, aber nach dem Absturz habe ich ziemlich oft das hier im Log: (Backup läuft schon...) Jan 20 22:05:49 FloBineDATA kernel: XFS (sdg1): Metadata corruption detected at xfs_dinode_verify+0xa5/0x52e [xfs], inode 0x62dc201d dinode Jan 20 22:05:49 FloBineDATA kernel: XFS (sdg1): Unmount and run xfs_repair Jan 20 22:05:49 FloBineDATA kernel: XFS (sdg1): First 128 bytes of corrupted metadata buffer: Jan 20 22:05:49 FloBineDATA kernel: 0000000012edc20c: 49 4e 81 a4 03 02 00 00 00 00 00 00 00 00 00 00 IN.............. Jan 20 22:05:49 FloBineDATA kernel: 00000000d64d7a95: 00 00 00 01 00 00 00 00 00 00 00 00 00 00 00 00 ................ Jan 20 22:05:49 FloBineDATA kernel: 000000004c41ac06: 5e 23 89 c7 0f d1 d7 2a 5e 23 89 c7 0f d1 d7 2a ^#.....*^#.....* Jan 20 22:05:49 FloBineDATA kernel: 000000005d40f755: 5f 53 b2 6d 22 0f ed 8c 00 00 00 00 00 00 03 9c _S.m"........... Jan 20 22:05:49 FloBineDATA kernel: 00000000583ca289: 00 00 00 00 00 00 00 01 00 00 00 00 00 00 00 01 ................ Jan 20 22:05:49 FloBineDATA kernel: 00000000bd0765f6: 00 00 00 02 00 00 00 00 00 00 00 00 15 00 86 85 ................ Jan 20 22:05:49 FloBineDATA kernel: 000000008fb02bc1: ff ff ff ff 1d 74 d7 ed 00 00 00 00 00 00 00 08 .....t.......... Jan 20 22:05:49 FloBineDATA kernel: 00000000cf5b0472: 00 00 00 01 00 01 01 c0 00 00 00 00 00 00 00 00 ................ Jan 20 22:05:53 FloBineDATA kernel: XFS (sdg1): Metadata corruption detected at xfs_dinode_verify+0xa5/0x52e [xfs], inode 0x62dc201d dinode Jan 20 22:05:53 FloBineDATA kernel: XFS (sdg1): Unmount and run xfs_repair Jan 20 22:05:53 FloBineDATA kernel: XFS (sdg1): First 128 bytes of corrupted metadata buffer: Jan 20 22:05:53 FloBineDATA kernel: 0000000012edc20c: 49 4e 81 a4 03 02 00 00 00 00 00 00 00 00 00 00 IN.............. Jan 20 22:05:53 FloBineDATA kernel: 00000000d64d7a95: 00 00 00 01 00 00 00 00 00 00 00 00 00 00 00 00 ................ Jan 20 22:05:53 FloBineDATA kernel: 000000004c41ac06: 5e 23 89 c7 0f d1 d7 2a 5e 23 89 c7 0f d1 d7 2a ^#.....*^#.....* Jan 20 22:05:53 FloBineDATA kernel: 000000005d40f755: 5f 53 b2 6d 22 0f ed 8c 00 00 00 00 00 00 03 9c _S.m"........... Jan 20 22:05:53 FloBineDATA kernel: 00000000583ca289: 00 00 00 00 00 00 00 01 00 00 00 00 00 00 00 01 ................ Jan 20 22:05:53 FloBineDATA kernel: 00000000bd0765f6: 00 00 00 02 00 00 00 00 00 00 00 00 15 00 86 85 ................ Jan 20 22:05:53 FloBineDATA kernel: 000000008fb02bc1: ff ff ff ff 1d 74 d7 ed 00 00 00 00 00 00 00 08 .....t.......... Jan 20 22:05:53 FloBineDATA kernel: 00000000cf5b0472: 00 00 00 01 00 01 01 c0 00 00 00 00 00 00 00 00 ................
  4. Eieiei, nachdem der Check fertig war, habe ich mir die Logfiles angeschaut und später ist mir der komplette Unraid Server eingefroren. Kein SSH und kein Webinterface, VM eingefroren (mein virtueller Arbeitsplatzrechner mit durchgereichter Grafik, Tastatur/Maus). Warum der Freeze...? Weiß ich noch nicht. Nach dem Neustart, keine VMs mehr (ärgerlich da mein Hauptrechner eine ist...) Grund: Die Pfade im VM-Manager ("Default VM storage path" und "Default ISO storage path:") waren auf Standard zurückgesetzt... Naja erst mal hier egal - anderes Thema.... Hier das Log: Anmerkung: ich habe einige Zeilen mit "...is missing" rausgelöscht wegen der Namen und der Länge (wieso die fehlen weiß ich auch grad nicht). Jan 20 19:15:03 FloBineDATA bunker: Verify task for disk2 started, total files size 2.44 GB Jan 20 19:16:04 FloBineDATA bunker: Verify task for disk2 finished, duration: 0 hr, 1 min, 3 sec. Jan 20 19:33:02 FloBineDATA kernel: mdcmd (431): spindown 0 Jan 20 19:39:08 FloBineDATA kernel: mdcmd (432): spindown 1 Jan 20 19:40:01 FloBineDATA sSMTP[30105]: Creating SSL connection to host Jan 20 19:40:01 FloBineDATA sSMTP[30105]: SSL connection using TLS_AES_256_GCM_SHA384 Jan 20 19:40:03 FloBineDATA sSMTP[30105]: Sent mail for [email protected] (221 wp108.webpack.hosteurope.de closing connection) uid=0 username=root outbytes=737 Jan 20 19:42:51 FloBineDATA kernel: mdcmd (433): set md_write_method 0 Jan 20 19:42:51 FloBineDATA kernel: Jan 20 19:44:46 FloBineDATA kernel: mdcmd (434): spindown 2 Jan 20 20:53:35 FloBineDATA bunker: warning: /mnt/disk2/Software/.Trash-1000/info/System.trashinfo is missing Jan 20 20:53:45 FloBineDATA bunker: warning: /mnt/disk2/Software/Videoüberwachung/SmartVision_En_IS_V2.00.0.R.20190222.zip is missing Jan 20 20:57:51 FloBineDATA kernel: mdcmd (435): set md_write_method 1 Jan 20 20:57:51 FloBineDATA kernel: Jan 20 21:03:54 FloBineDATA bunker: warning: /mnt/disk1/FloBine/.Trash-1000/directorysizes is missing Jan 20 21:09:17 FloBineDATA kernel: mdcmd (436): spindown 2 Jan 20 21:40:30 FloBineDATA bunker: warning: /mnt/disk1/Florian/.Trash-1000/files/crossdomain.xml is missing Jan 20 21:40:30 FloBineDATA bunker: warning: /mnt/disk1/Florian/.Trash-1000/files/GraphMLViewer.js is missing Jan 20 21:40:30 FloBineDATA bunker: warning: /mnt/disk1/Florian/.Trash-1000/files/GraphMLViewer.swf is missing Jan 20 21:40:30 FloBineDATA bunker: warning: /mnt/disk1/Florian/.Trash-1000/files/test.txt is missing Jan 20 21:40:30 FloBineDATA bunker: warning: /mnt/disk1/Florian/.Trash-1000/files/troubleshooting/flobinedata-diagnostics-20201005-0722.zip is missing Jan 20 21:40:30 FloBineDATA bunker: warning: /mnt/disk1/Florian/.Trash-1000/files/troubleshooting/syslog-192.168.1.222 - Kopie.log is missing Jan 20 21:40:30 FloBineDATA bunker: warning: /mnt/disk1/Florian/.Trash-1000/info/crossdomain.xml.trashinfo is missing Jan 20 21:40:30 FloBineDATA bunker: warning: /mnt/disk1/Florian/.Trash-1000/info/GraphMLViewer.js.trashinfo is missing Jan 20 21:40:30 FloBineDATA bunker: warning: /mnt/disk1/Florian/.Trash-1000/info/GraphMLViewer.swf.trashinfo is missing Jan 20 21:40:30 FloBineDATA bunker: warning: /mnt/disk1/Florian/.Trash-1000/info/test.txt.trashinfo is missing Jan 20 21:40:30 FloBineDATA bunker: warning: /mnt/disk1/Florian/.Trash-1000/info/troubleshooting.trashinfo is missing Jan 20 21:40:45 FloBineDATA bunker: warning: /mnt/disk1/Florian/Computer/.~lock.DMS_Kategorien-Tags.ods# is missing Jan 20 21:40:46 FloBineDATA bunker: error: BLAKE2 hash key mismatch, /mnt/disk1/Florian/Computer/DMS_Kategorien-Tags.ods is corrupted (line is f515d274ae2fbe7ed77799674059efade15ff566515b0ffb400537e120e21480a73bd004a5e555db41669edf63473115adf0876b1299c78e9e77bac26c2feb09 */mnt/disk1/Florian/Computer/DMS_Kategorien-Tags.ods and name is 130) Jan 20 21:40:59 FloBineDATA kernel: mdcmd (437): spindown 2 Jan 20 21:42:51 FloBineDATA kernel: mdcmd (438): set md_write_method 0 Jan 20 21:42:51 FloBineDATA kernel: Jan 20 21:45:22 FloBineDATA bunker: error: BLAKE2 hash key mismatch, /mnt/disk1/Florian/Computer/Serverkonfigurationen/unraid/Netzwerk-Infrastruktur/Netzplan_Unraid_Docker-KVM.ods is corrupted (line is 79370108d58f5442437e528d7a786c9ba07daeea50e461bc7f9760e52d6bd521b149027ae5b35ddc76c34e9a5302499d110deb6af19e65363c0cd50e9db6a93e */mnt/disk1/Florian/Computer/Serverkonfigurationen/unraid/Netzwerk-Infrastruktur/Netzplan_Unraid_Docker-KVM.ods and name is 130) Jan 20 21:49:37 FloBineDATA bunker: checked 198059 files from source /boot/config/plugins/dynamix.file.integrity/export/disk1.export.hash. Found: 0 mismatches, 2 corruptions. Duration: 00:56:19. Average speed: 40.4 MB/s Jan 20 21:49:37 FloBineDATA sSMTP[10360]: Creating SSL connection to host Jan 20 21:49:37 FloBineDATA sSMTP[10360]: SSL connection using TLS_AES_256_GCM_SHA384 Scheint beim manuellen Check alles gut gelaufen zu sein. Ich warte jetzt mal den nächsten scheduled check ab. Edit: Beide genannten korrupten Dateien sind übrigens in Ordnung und lassen sich bearbeiten und speichern.
  5. jo, das scheduling hat er irgendwie ignoriert. Jetzt läuft der manuelle Check.
  6. ok, bunker angepasst. Ich habe das scheduling mal kurzfristig geändert (läuft in 5 min), weil ich nicht weiß welche der vielen Schaltflächen ich klicken soll...muss ich mal nachlesen.
  7. Hallo zusammen, ich habe das Dynamix File Integrity Plugin installiert und es funktioniert auch grundsätzlich. Ich habe aber leider das Problem, dass gefundene korrupte Dateien nicht namentlich bzw. mit Pfad angegeben werden. So ist dieses Plugin nutzlos. Ich habe dies (neben anderen) auch schon im entsprechendem Thread angemerkt (engl. Forum) aber da gibt es keine Antworten: Dies ist der aktuellste Syslog Eintrag: Erste Zeile: letzte Eintrag bevor das Dynamix File Integrity Plugin loslegt. Letzte Zeile: Beginn der Notification per Mail über das Ergebnis Jan 13 02:59:36 FloBineDATA kernel: mdcmd (78): spindown 1 Jan 13 03:00:11 FloBineDATA bunker: Verify task for disk1 started, total files size 136 GB Jan 13 03:30:57 FloBineDATA bunker: error: BLAKE2 hash key mismatch, is corrupted Jan 13 03:37:36 FloBineDATA kernel: mdcmd (79): set md_write_method 1 Jan 13 03:37:36 FloBineDATA kernel: Jan 13 03:49:54 FloBineDATA bunker: error: BLAKE2 hash key mismatch, is corrupted Jan 13 03:56:40 FloBineDATA bunker: error: BLAKE2 hash key mismatch, ng/fs.json is corrupted Jan 13 04:00:38 FloBineDATA bunker: Verify task for disk1 finished, duration: 1 hr, 0 min, 37 sec. Jan 13 04:00:38 FloBineDATA bunker: verified 198065 files from /mnt/disk1. Found: 0 mismatches, 3 corruptions. Duration: 01:00:37. Average speed: 37.5 MB/s Jan 13 04:00:38 FloBineDATA sSMTP[26420]: Creating SSL connection to host Die generierte Mail sieht so aus: Event: unRAID file corruption Subject: Notice [FLOBINEDATA] - bunker verify command Description: Found 3 files with BLAKE2 hash key corruption Importance: alert BLAKE2 hash key mismatch, is corrupted BLAKE2 hash key mismatch, is corrupted BLAKE2 hash key mismatch, ng/fs.json is corrupted Meine Config: Irgendeine Idee was hier falsch läuft, bzw. was ich vielleicht ändern muss?
  8. Das klingt interessant, da bin ich neugierig was du berichtest...
  9. ecoDMS fand ich gut aber auch zu mächtig. Testen tu ich derzeit teedy und docspell. Docspell gefällt mir am besten. Es hat u.a. eine bessere Unterstützung bzgl. importierbarer Dokumententypen: https://github.com/eikek/docspell Thread im Unraid Forum: Ich habe Templates für Unraid erstellt: https://github.com/vakilando/unraid-docker-templates
  10. Icy Dock MB-123SK-1 (Ich musste selber im Web suchen, da ich sie geschenkt bekommen habe). Haha, ging mir ähnlich! Sowohl der Bastler, als auch der der einmal alles aufbauen will und dann is gut haben gewonnen. Nun hat der Bastler alle Möglichkeiten Dinge auszuprobieren (genügend Power und Plattenplatz) und der andere hat seine Ruhe 😄. Allerdings - muss man auch sagen - ich habe nicht wirklich auf Strom sparen geachtet. Dafür habe ich meinen alten PC (der fast ständig lief) tatsächlich ausgesondert und mein alltags Rechner ist eine VM (vielleicht doch Strom gespart?!). Ich hatte zwar schon das ein oder andere Problem aber grundsätzlich läuft Unraid rock solid - sehr stabil. Meine Probleme sind ansich alle durch gebastel erst aufgetreten (abgesehen von Problemen mit cache btrfs raid, der mir 2 SSDs gefressen hat, weshalb ich derzeit eine einzelne SSD als Cache laufen habe).
  11. Klingt jetzt vielleicht komisch, aber probier mal die webui über Port 8080 aufzurufen. Erst mal ohne was an der Konfiguration zu ändern. Wenn sich da nix tut ändere mal den Port in der Konfiguration (17004 > 8080). Ich habe ecoDMS auch mal laufen und erinnere mich dass der Zugriff auf die webui "irgendwie komisch war".
  12. Hmmm, das ist nicht so leicht.... Ich weiß ja nicht wo das Teil dann bei dir stehen soll/wird. Hast du Platz? Pro Groß: leichter leiser und effizienter zu kühlen ist als evtl. ein kleines Gehäuse Ausbaufähig große Auswahl an Hardware Ich selbst habe lange mit einem ganz kompakten, kleinen Unraid Server geliebäugelt (hatte sogar das hier im Blick). Aber aus Mangel an Auswahl bei den Gehäusen was Festplattenanzahl und auch deren Zugänglichkeit angeht und Mainboards mit entsprechend vielen Schnittstellen etc. ist die Gehäusewahl immer größer geworden bis ich mein bereits vorhandenes Lian Li genutzt habe. Es ist das selbe wie deins, richtig? Ist wirklich schon von stattlicher Figur! Ich kenne nur leider nicht die genaue Bezeichnung (und suche schon länger nach weiteresn Teilen....., die nicht mehr erhältlich sind). Was hast du unten beim Netzteil für Noctua Lüfter verbaut? Das allerdings schreibst du ja selbst und das geht dann eher in Richtung des größeren. Mein Unraid Server: 2x HDD in Array, 1x HDD Parity, 1x SSD Cache, 3x HDD Unassigned, 1x HDD precleared spare, 1x SSD als Notfall OS, und-noch-Platz
  13. Hi, Du musst in der Tat die derzeitige Cache Platte leeren, da bei der Erstellung des BTRFS RAID die Platten formatiert werden. Einstellung für den Cache wäre aber yes und nicht no. Das betrifft natürlich alle shares, die auf only oder prefer stehen. Dann Docker und VM Dienste stoppen und anschließend den mover laufen lassen. Damit wird alles vom Cache auf das Array verschoben. Danach prüfen ob der Cache wirklich leer ist über Menü Main > cache > view oder über die console /mnt/cache/. Nun kannst du den Cache neu machen.
  14. Schau dir mal diese 2 Threads an. Sie sind zwar schon etwas älter aber mit durchaus interessantem Inhalt und Überlegungen. Aber mal ne Frage.... Warum willst du von XFS auf BTRFS?
  15. Ich hatte bzgl. Datenbanken mit postgres das Problem, dass ich das volume mit /mnt/cache/appdata... und nicht /mnt/user/appdata... einbinden musste, sonst wollte postgres nicht starten. Probier das ggf mal so.
  16. Das könnte auf ein korruptes docker Image hindeuten. Hast du in den logs weitere Fehlermeldung bzgl. Btrfs, loop2? Wenn nach einem Server reboot weiterhin immer die selben Docker Probleme machen (nicht starten bzw nicht ordentlich laufen) würde ich mal das docker.img löschen (settings>docker) und anschließend neu erstellen. Danach über Apps>Previous deine Docker neu installieren. Wenn du über Apps>Previous gehst werden alle Docker genau so installiert und konfiguriert wie beim letzten mal. Aber check erst mal das Log.
  17. Hallo, das ist ohne weitere Infos schwer zu beantworten... - Hast du einen USB-3 Stick oder einen USB-2? - Hast du beim Erstellen des Stick angeklickt dass er im UEFI Modus erstellt werden soll oder nicht? - steckt der Stick in einem 2er oder 3er USB Port - hast du im BIOS eingestellt dass es von USB legacy/uefi bootet?
  18. Ja richtig ich auch. Ich habe mehrere custom Networks und meine docker bzw vm's kommen je nach Zweck etc. in ein bestimmtes Netz. Freigaben auf Portebene erfolgen teilweise auch intern. Auf der Firewall gibt's Regeln auf Basis der Netzwerke und Ports. Auf dem switch sind die Vlans auch noch mal "geregelt". Aber homeassistant hab ich mir beim Versuch den Container auf ein custom Network (macvlan) zu konfigurieren zweimal zerschossen. Dann hab ich mich nicht mehr daran versucht. Deconz habe ich nie versucht auf ein custom Network (macvlan) zu konfigurieren. Ich könnts ja nochmal testen...
  19. zu 1. Wie sind die verwendeten Shares konfiguriert (no/yes/only/prefer)? Also wenn du beispielsweise unter "Shares" ganz rechts auf "View" klickst? Nur dann oder auch wenn du sonstwo in Unraid klickst ohne auf die Festplatten zuzugreifen (browsen durch die Verzeichnisse)? Bricht der Copyjob wirklich ab oder stockt er nur? zu 2. Ich teste gerade PhotoPrism, da es ja mittlerweile so reif zu sein scheint, dass es nutzbar ist. Es gefällt mir womöglich besser als picapport, das ich derzeit nutze... Ein Video mit 1,7 GB lade ich mit 33 MB/s herunter. Ich habe PhotoPrism aus dem Repository von @ich777. Du auch? Wie hast du die Pfade im Docker konfiguriert? Bei mir ist "Data Dir" (/photoprism/storage) auf dem Cache Laufwerk (SSD) "Storage Path" (/photoprism/originals) auf dem Array Als "network type" verwende ich mein Custom Networtk br0.5 (macvlan) "Host" als network type würde ich nicht verwenden solange nicht unbedingt notwendig (Security) und das ist es hier nicht.
  20. 4436 denke ich.... Die Deconz Integration von Home Assistant findet den Deconz automatisch, angezeigt wird nur die IP und kein Port. WebGui ist auf Port 86 (siehe Details) und nicht 80 (siehe Übersicht) Docker Container Übersicht: Docker Container Details (Edit): Das Device taucht in der Konfig zweimal auf (DECONZ_DEVICE + Extra Parameters), ich weiß aber jetzt nicht mehr ob & warum das nötig ist / war.... Unraid Host: netstat root@FloBineDATA:~# netstat -ano | grep 4436 tcp 0 0 0.0.0.0:4436 0.0.0.0:* LISTEN off (0.00/0/0) tcp 0 0 192.168.1.222:54616 192.168.1.222:4436 ESTABLISHED off (0.00/0/0) tcp 0 0 192.168.1.222:4436 192.168.1.222:54616 ESTABLISHED off (0.00/0/0) HA Container: netstat /config # netstat -ano | grep 4436 tcp 0 0 0.0.0.0:4436 0.0.0.0:* LISTEN off (0.00/0/0) tcp 0 0 192.168.1.222:54616 192.168.1.222:4436 ESTABLISHED off (0.00/0/0) tcp 0 0 192.168.1.222:4436 192.168.1.222:54616 ESTABLISHED off (0.00/0/0) selbes Ergebnis, logo, läuft ja beides als "Network Type" Host
  21. same here: two of the corrupt files are not mentioned and I don't know what/where the third one is Jan 6 03:31:59 bunker: error: BLAKE2 hash key mismatch, is corrupted Jan 6 03:51:41 bunker: error: BLAKE2 hash key mismatch, is corrupted Jan 6 03:58:50 bunker: error: BLAKE2 hash key mismatch, ng/fs.json is corrupted Jan 6 04:02:59 bunker: Verify task for disk1 finished, duration: 1 hr, 2 min, 58 sec. Jan 6 04:02:59 bunker: verified 198104 files from /mnt/disk1. Found: 0 mismatches, 3 corruptions. Duration: 01:02:58. Average speed: 36.1 MB/s
  22. Wie gibst du den Stick an den Container frei und ist der Treiber von dem Stick in dem Container enthalten oder braucht der einfach keinen (weil er zb wie ein Laufwerk funktioniert)? Sorry für die späte Antwort und nochmal sorry da meine Behauptung, dass ich den ConBee II im HA Container nutze so gar nicht stimmt.... Der ConBee II steckt im Unraid Server und dort läuft der Deconz Container (https://hub.docker.com/r/marthoc/deconz/). Im Deconz Container habe ich den Stick unter "Extra Parameters:" angegeben mit "--device=/dev/ttyACM0" In HA widerum habe ich die Deconz Integration geladen und verweise auf den Deconz Container. Eine Anleitung für den ConBee II gibts hier: https://forums.unraid.net/topic/92946-support-spaceinvaderone-deconz/ Die bezieht sich allerdings auf einen anderen Container, den es nicht gab als ich meinen installiert habe. Aber das ist ja nicht schlimm, es geht ja hier eher um das "Finden" des Sticks.
  23. Bei Stromverbrauch darfst du mich nicht fragen... Mein Hauptaugenmerk lag auf einem performantem System, an dem ich lange Freude habe und einiges ausprobieren kann. Ich hatte Anfangs sogar kurz einen AMD Threadripper im Visier aber das war dann doch zuviel Stromverbrauch. Bei Unraid hast du kein echtes RAID, daher ja auch UNraid 😉 Du kannst ein oder zwei Paritätsplatten haben, auf die wird die Parität geschreiben. Wenn eine Datenplatte ausfällt wird sie emuliert. Hast du eine parity disk, kann eine Platte "ohne Datenverlust" ausfallen, hast du 2, parity disks, können 2 Platten ausfallen. Es ist hierbei egal, ob du 2 oder 20 Platten verbaust hast. Da das Schreiben der Daten und der gleichzeitige Vorgang des Schreibens der Parität Geschwindigkeit kostet, ist ein Cache gut zur Beschleunigung des Vorgangs. Die Daten werden dann zuerst auf den Cache geschrieben und je nach Konfiguration des betroffenen Shares durch den Mover zu einem festgelegten Zeitpunkt auf das Array geschoben - oder eben nicht (z.B. für VMs die nur auf der cache disk laufen und somit deutlich performanter sind). Wenn der Cache ausfallsicher sein soll, müssen z.B. 2 SSDs im BTRFS RAID laufen. Der ConBee II Stick ist super, ich nutze ihn mit Homeassistant (Docker). Musst schauen ob er mit iobroker funktioniert, denke aber schon.
  24. ja das mag sein. Ich nutze die Android App schon länger nicht mehr.
  25. iobroker über Docker Habe ich vor ca. einem Jahr mal probiert, aber nicht weiter verfolgt, da ich es auf einem pi mit piVCCU installiert habe und mittlerweile alles über Homeassistant mache. Sollte aber gehen wenn @mgutt das sagt 😌. Datenzugriff Nextcloud wie @mgutt sagt, oder pydio, filerun, ... Da gibts mehrere Möglichkeiten. Ich nutze Pydio, da mir Nextcloud beim transferiere von vielen Daten zu langsam war und weil ich es schon vorher genutzt habe. Zugriff erfolgt über einen reverse Proxy (swag, ...) mittels eines DynDNS Dienstes - ich nutze (Selfhost.de). Wie @mgutt schon sagte: Die Konfiguration eines Servers (hier Unraid) sollte man tunlichst nicht von außen erreichbar machen. Wenn, dann nur über VPN. Video/Audiostreaming Ich nutze Emby (Kaufversion=Einmalzahlung). Funktioniert tadellos, Apps für Android, Windows, Linux, Firestick sind vorhanden und funktionieren gut. Ausfallsicherheit kein Problem. Unraid ist stabil und Dockerkonfiguration bleibt erhalten selbst wenn mal der Docker entfernt wird. Sobald du ihn wieder hinzufügst wird deine letzte Konfiguration verwendet. Das Array ist durch die Parity geschützt und dein Cache (hoffentlich) durch ein BTRFS "RAID" zweier SSDs. Natürlich ist jede Sicherung deine Freundin 😉..... Bzgl. Hardware hat dich @mgutt schon gut beraten. Überleg dir vorher genau ob nicht doch noch die ein oder andere VM dazukommt. Dann solltest du ggf darauf achten genügend CPU Kerne zu haben um die CPUs der VMs zu isolieren. Auch interessante Docker gibt es mehr als man denkt und möchte die vielleicht probieren / verwenden.... speichern von Dateien, Bildern Ich nutze picapport (https://github.com/whatever4711/picapport) und teste gerade wieder mal photoprism (https://github.com/photoprism/photoprism), das mittlerweile brauchbar zu sein scheint (ich habe es in den Anfängen getestet, da war es noch nicht wirkich produktiv nutzbar). Beide können mit einem von dir vorgegebenen Verzeichnis, in dem bereits Daten liegen umgehen. Die Bilder bleiben wo sie sind und werden nicht in ein eigenes Verzeichnis kopiert (und somit dupliziert). PiHole Ja, es gibt mehrere die dies nutzen soweit ich weiß. Weitere Möglichkeiten (Docker) wären AdGuard-Home oder ts-dnsserver. Ich nutze auch eine Sophos XG auf einem dediziertem Rechner als Firewall, IDS/IPS, Werbeblocker, VPN-Endpunkt, ..... Die kann auch NAT Loopback was @mgutt angesprochen hat.