mgutt

Moderators
  • Posts

    11265
  • Joined

  • Last visited

  • Days Won

    123

Posts posted by mgutt

  1. 5 minutes ago, bagican said:

    So virtual machine (VM) infrastructure would also have minimal resource impact, right?

    No, because the virtualization itself has an impact on idle load, even if the machine does nothing. I read about custom settings in the xml vm config files to reduce this load, but never tested them by myself. Here is an example:

     

     

    But even Docker containers can have an impact on load / c-states. For example a Minecraft server kills all my c-states. Or some people reported loosing c-states after passing through a Zigbee USB Stick to a HA container, but this does not happen for me, so it is maybe depended on the used motherboard?!

  2. Ich spiele gerade mit Frigate, einer M.2 Coral TPU Karte und einer TP-Link Tapo Kamera herum und vielleicht können wir uns ja mal allgemein zu den Einstellungen von Frigate austauschen. Bestellt hatte ich übrigens auch eine Dual TPU Karte. Aber erst nach der Lieferung stelle ich fest, dass die PCIe X2 benötigt. Welcher Wifi Slot hat das bitte?! Und ich wüsste auch nicht, wie man die in bei flacher Einbauart kühl halten soll (hat bekanntlich keinen Kühlkörper).

     

    Mein erster geplanter Einsatz ist jedenfalls ohne Home Assistant. Dh ich benötige einfach nur einen Rekorder von einer oder mehreren Kameras.

     

    Ich habe dann erst mal die Tapo Cam mit der App eingerichtet, dh ich war gezwungen deren App zu installieren, einen Account zu registrieren und musste in der App dann auch erst mal RTSP erlauben (erweiterte Einstellungen > Kamerakonto). Der nächste Schritt war ein kurzer Test mit VLC, ob der Livestream der Kamera funktioniert.

     

    Danach habe ich versucht Frigate zum Laufen zu bringen. Das war eine Geburt. Ohne Google und die Doku lesen keine Chance. 

     

     Da der Frigate Container nicht gerade nutzerfreundlich ist, musste ich erst mal von Hand die config.yml über die Kommandozeile erstellen:

    touch /mnt/user/appdata/frigate/config.yml
    

     

    Und da das Unraid Dynamix File Manager Plugin - was hoffentlich jeder installiert hat - immer noch nicht automatisch Textdateien erkennt 😑, muss man leider auch noch die Dateiendungen "yml" und "yaml" auf dem USB-Stick in /boot/config/editor.cfg ergänzen:

    image.png.8eb828a5944e3261ab903c43947b5245.png

     

    Erst jetzt kann man über Unraid selbst die config.yml bearbeiten. Im ersten Schritt hatte ich dazu nur das eingetragen, damit ich Frigate starten kann:

    mqtt:
      enabled: False
    
    cameras:
      garden-cam:
        ffmpeg:
          inputs:
            - path: rtsp://{FRIGATE_RTSP_USER}:{FRIGATE_RTSP_PASSWORD}@192.168.178.59/stream1
              roles:
                - detect
        detect:
          enabled: False

     

    Dann hieß es die Container-Einstellungen anpassen. Da ich die Coral TPU als M.2 in einem Intel Rechner mit iGPU verbaut habe, brauchte ich nur /dev/apex0 und /dev/dri/renderD128 als Devices durchschleifen und außerdem habe ich noch die Variable "FRIGATE_RTSP_USER" ergänzt:

     

    image.thumb.png.99efe39b98eb17fe841951f452db90b9.png


    Die hat den Charme, dass man bei der config.yml keine realen Zugangsdaten hinterlegen muss, sondern ausschließlich die Variable. Wobei das natürlich nur funktioniert, wenn alle Kameras den selben RTSP User und Passwort verwenden.

     

    Jedenfalls habe ich Frigate gestartet und nach Studieren einiger Doku-Seiten, habe ich dann innerhalb der Frigate WebUI die config.yml wie folgt angepasst:

     

    ---
    # Frigate Configuration file
    # Defaults: https://docs.frigate.video/configuration/#full-configuration-reference
    
    # MQTT needed for Smart Home Applications 
    mqtt:
      enabled: False
    
    # Overview of all cameras https://frigate.video/images/birdseye-2-optimized.jpg
    birdseye:
      enabled: False
    
    # Hardware acceleration of object detection
    detectors:
      coral:
        type: edgetpu
        device: pci
    
    # Hardware acceleration of video conversion
    ffmpeg:
      # global hwaccel args
      hwaccel_args: preset-vaapi
    
    # Snapshots of events
    snapshots:
      # Enable writing jpg snapshot to /media/frigate/clips
      enabled: True
      # print a timestamp on the snapshots
      timestamp: True
    
    # List of objects to capture https://docs.frigate.video/configuration/objects/
    objects:
      track:
        - person
        - bird
        - cat
        - dog
        - bicycle
        - motorcycle
        - car
        - umbrella
        - eye glasses
        - backpack
        - handbag
    
    # List of cameras
    cameras:
      garden-cam:
        # Codec information of VLC (https://www.tp-link.com/de/support/faq/2680/):
        # Codec: H264
        # Resolution: 1920x1080
        # FPS: 14.285714
        # Audio: PCM ALAW Mono 8000 Hz 16-Bit
        ffmpeg:
          inputs:
            - path: rtsp://{FRIGATE_RTSP_USER}:{FRIGATE_RTSP_PASSWORD}@192.168.178.59/stream1
              roles:
                - detect
                - record
        detect:
          enabled: True
          width: 1920
          height: 1080
          # Object detection uses 5 fps by default: https://docs.frigate.video/configuration/#full-configuration-reference
    
    # Record settings https://docs.frigate.video/configuration/record
    record:
      enabled: True
      retain:
        # record everything
        mode: all
        # and store it for 14 days
        days: 14
    

     

    Ich muss sagen, dass Frigate echt gar nicht so ist, wie ich mir das vorgestellt habe. Also die WebUI ist anwenderfreundlich, aber auch einfach viel zu leer:

    1. Warum wird so viel Kram über die config.yml abgebildet. zB welche Objekte ich tracken will. Das könnte man viel bequemer als in die WebUI als Einstellungen übernehmen.
    2. Aber auch, dass man selbst angeben muss, welche Hardware man verbaut hat. Ich mein hey, such dir doch einfach selbst, ob es /dev/apex0 usw gibt und pass dich selbst an. Macht doch Plex usw auch so
    3. Oder warum kann ich nicht sehen welcher Codec/Medieninfo ein Stream hat. Es gibt zwar eine "Debug"- Ansicht, aber die gibt genau gar keine Info über den Stream aus?!
    4. Auch wieder fehlende Einstellungen in der WebUI und nur über die config.yml nach Studieren der Doku: Aufbewahrungszeit der Aufnahmen
    5. Kein Login... wie zum Teufel kann eine sicherheitsrelevante Applikation wie eine Videoüberwachung, über keinen Login verfügen?! Vom Prinzip sollte man Frigate daher ausschließlich in einem Custom Netzwerk hinter einem Nginx betreiben und darüber Basic Auth erzwingen. Wobei das eigentlich total dämlich ist, weil Frigate selbst bereits Nginx verwendet.
    6. Warum gibt es keinen Netzwerk-Scan nach Kameras, wo dann Standard-Configs je nach Kamera-Hersteller automatisch in der config.yml hinterlegt werden?
    7. Keine Benachrichtigungsfunktionen: Was passiert, wenn die Kamera ausfällt, geklaut wird oder was auch immer. Alles nur über Home Assistant umsetzbar. Ich weiß Frigate ist primär als Home Assistant Integration geschrieben, aber ich will halt kein Smart Home und das erhöht unnötig die Komplexität. Kann ja nicht so schwer sein eine popelige E-Mail zu versenden... 😒

      Mein erstes Fazit: Schickes Ding für Nerds, aber Frigate scheint mir nicht wirklich für die Masse geeignet zu sein.

      Dann wo ich aktuell nicht weiterkomme:
       
    8. Warum zeigt der unter System > GPUS den Fehlertext "intel-vaapi - There was an error getting usage stats. This does not mean hardware acceleration is not working. Either your GPU does not support this or Frigate does not have proper access to get statistics. This is expected for the Home Assistant addon." an. Wie kann ein Fehler "expected", also ein erwarteter Zustand sein. Was sind denn die Voraussetzungen, dass Frigate hier was anzeigt?!
    9. Haben die Toggle Icons überhaupt irgendeine Funktion?! Wenn man draufklickt wird kein Request abgesetzt, dh die Grafik "toggled" gar nichts, sondern zeigt einfach nur den Status an oder wie?!
      image.png.e019c458a6b38c2f103579d3df1d54c0.png
    10. Ist das richtig, dass die Recordings von 23:XX im Unterordner "22" landen (ich dachte erst an UTC, aber wir haben ja aktuell Winterzeit, also UTC+2)?!
      image.thumb.png.f24481a31359d0376dda326b83ae22f2.png
    11. Was sollen mir die "Stream Bandwidth" unterhalb von Store sagen:
      image.png.54ce47938583eb6aeb55d23bf82fcb1e.png
      Also was wird da zu "0%" benutzt?!
    12. Warum steht bei System > Cameras > Detect eine FPS von 1.6, obwohl laut Standard-Konfiguration von Frigate 5 FPS verwendet werden sollten?!
      image.png.169536e45a002655a1957e8325153350.png

     

     

     

    Ich freue mich auf einen regen Austausch. 😁

     

     

     

    • Like 2
  3. 41 minutes ago, Avenga said:

    I can access my services perfectly via IPv6 in bridge mode

    Until your ipv6 prefix changes....

     

    42 minutes ago, Avenga said:

    sub.mydomain.net:8399

    I don't think anybody uses a web proxy with custom ports. I mean why even using a reverse proxy if you don't want to use the default ports for http and https.

  4. 6 hours ago, Stupot said:

     

    Is there a way to make it so I can open the log files from my computer?

    I tend to say no. I mean why should anyone provide access to backups through a network share. This sounds like a very bad idea.

  5. Bei Schwiegermutter passieren komische Dinge im Garten ^^ Dh ich werde ihr die Tage einen Lenovo M920x mit Coral Dual TPU ausstatten und Frigate darauf installieren und mich dann auch mal mit der Thematik auseinandersetzen.

     

    Bei der Kamera hat man ihr die Tapo C500 empfohlen. Nach einer kurzen Recherche bei Amazon ist die sehr gut bewertet, aber nur 1080p und ob die optimal mit Frigate laufen wird... bei Amazon sind dann so "Marken" wie zB ieGeek, eufy, Reolink, Galayou, etc sehr gut bewertet. Bei Reddit empfiehlt man dagegen eine Kamerae, die möglichst viel Auswahl bei den Streams in Sachen Codec und Qualität anbietet und daher tendiere ich eher zu einer professionellen Hikvision. Um flexibel zu bleiben dachte ich an eine mit WLAN, PoE und integriertem IR Strahler. Viel Auswahl hat Hikvision da nicht:

    image.png.db75403f1d11a135d9534b435a95f364.png

     

     

    Ich denke ich probiere die DS-2CD2546G2-IWS, also die Variante mit empfindlicherem Sensor und WLAN. Die DS-2CD2543G2-IWS wäre aber denke ich auch nicht schlechter.

     

    Ob Hikvision es irgendwann lernt und das Sortiment man entschlackt, statt für jeden Blödsinn ein eigenes Modell zu entwerfen😅

     

  6. 25 minutes ago, JokerHD said:

    Aber wenn es so ein Mini-PC ist, muss ich die Platten dann über USB anstecken?

    Auf keinen Fall, weil das nur Probleme macht. Wenn dann mit ASM1166 Karte (M.2 oder PCIe).

     

    Optimal wäre natürlich ein Board mit ausreichender Anzahl SATA Buchsen. Kontron Boards der aktuellen Generation sind sparsam und haben meine ich bis zu 6 Buchsen. Ansonsten gerne auch nach älteren Boards schauen. 

  7. 10 hours ago, SidM said:

    Der rsync-Server läuft ebenfalls auf dem Backup-Server

    Nö. Das Skript verbindet sich per SSH mit dem Rsync Server des Quell Servers. Auf dem Backup Server braucht es keinen Container.

     

    11 hours ago, SidM said:

    Sollte ich das nur auf die benötigten Freigaben ändern oder kann ich das auch bedenkenlos so lassen?

    Da der Pfad nur lesend freigegeben wird (siehe Container Einstellungen), dürfte das egal sein. Außer du hast sehr sensible Daten auf dem Quell Server, die du nicht sicherst und die niemals jemand lesen darf. Aber dann würde ich fragen warum die nicht verschlüsselt sind 😉

     

    11 hours ago, SidM said:

    Die Pfadangaben und auch das Readonly bezieht sich aber auf den Backup-Server und nicht des Hauptserver's? 

    Noch hast du es nicht verstanden 😁

     

    Nein. Der Backupserver darf vom Quellserver nur lesen. Andersherum existiert überhaupt keine Verbindung.

     

    9 hours ago, SidM said:

    Funktioniert das Starten und stoppen der Dockercontainer noch nicht, oder aber nur wenn das Skript auch auf dem Quell-Server ausgeführt wird? 

    Korrekt. Das kann man lösen, in dem man das Skript zusätzlich lokal ausführt und /mnt/user/appdata nach /mnt/user/backup_appdata sichert. Das dann zb mit 1 Tag Aufbewahrungszeit. Beim Backupserver stellt man das Skript dann so ein, dass es nicht appdata sichert oder man sichert es einfach auch mit, aber benutzt bei einer Wiederherstellung Härtefall nur die Dateien aus backup_appdata.

     

     

  8. 4 minutes ago, SidM said:

    -das Skript läuft auf dem Backup-Server?

    -benötige ich zusätzlich den Docker rsync-Server? (ich denke nein, weiß aber nicht wo ich dann den SSH Key vom Server im Skript eintragen soll)

    Optimal wäre es, wenn das Skript auf dem Backup Server läuft und der nur lesend auf den Quellserver zugreifen kann. Dh der rsync Docker ist dann sinnvoll. Ansonsten nutzt der Backupserver den root Login, was dich extrem anfällig bei Attacken macht.

    • Like 1
  9. 28 minutes ago, sniper8952 said:

    Was ich noch nicht zu 100% verstehe, ist der Unterschied zwischen Mainboard W680D4U-2L2T und W680D4U-2L2T/G5:

    Die sind bis auf den 10G Controller baugleich. Sind zwei verschiedene Intel Controller, je nach Verfügbarkeit verbaut worden. 

     

    29 minutes ago, sniper8952 said:

    Ich kann mich ehrlich gesagt nicht entscheiden, welches Board ich nehmen sollte..

    In meinen Augen ist alles aktuell Schrott. Zu teuer und zu ineffizient. Mal sehen was nächstes Jahr kommt 😅

  10. Übrigens hat rsync die geänderte Datei erst nicht erkannt. Ich muss explizit mit checksum arbeiten:

     

    root@thoth:~# rsync --progress --archive --verbose /mnt/user/*/*/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)\ DE\ PART2.mkv /mnt/horus2nd/MovieOP/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)\ DE\ PART2.mkv
    sending incremental file list
    
    sent 110 bytes  received 12 bytes  244.00 bytes/sec
    total size is 15,872,430,968  speedup is 130,101,893.18
    root@thoth:~# rsync --progress --checksum --archive --verbose /mnt/user/*/*/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)\ DE\ PART2.mkv /mnt/horus2nd/MovieOP/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)\ DE\ PART2.mkv
    sending incremental file list
    Paul Kalkbrenner - A Live Documentary (2010) DE PART2.mkv
     15,872,430,968 100%  221.56MB/s    0:01:08 (xfr#1, to-chk=0/1)
    
    sent 15,876,306,241 bytes  received 35 bytes  91,506,088.05 bytes/sec
    total size is 15,872,430,968  speedup is 1.00

     

     

    Dh die MKV war gleich groß und hatte das selbe Dateidatum usw. SnapRAID hatte beim Fix wirklich nur ein paar Bytes in der MKV geändert. Also etwas, was sicher niemand so haben möchte.

     

    Naja, jedenfalls stimmt die Hashsumme jetzt wieder:

     

    # md5sum /mnt/horus*/MovieOP/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)\ DE\ PART2.mkv 92203fcd40fa6c0dfa9b984e333e95c7  /mnt/horus2nd/MovieOP/Paul Kalkbrenner - A Live Documentary (2010)/Paul Kalkbrenner - A Live Documentary (2010) DE PART2.mkv

     

  11. Ich spiele nach wie vor mit dem SnapRAID Container herum. Die Tage hatte ich eine Fehlermeldung beim wöchentlichen Sync des SnapRAID Pools. Laut der Fehlermeldung gab es bei einem Scrub einen Fehler (unexpected file errors), nur leider sonst keine wirklichen Infos:

    2023-12-17 03:00:00,862 [INFO ] ============================================================ 
    2023-12-17 03:00:00,862 [INFO ] Run started 
    2023-12-17 03:00:00,863 [INFO ] ============================================================ 
    2023-12-17 03:00:00,863 [INFO ] Running touch... 
    2023-12-17 03:00:03,705 [OUTERR] WARNING! With 5 disks it's recommended to use two parity levels. 
    2023-12-17 03:00:20,307 [INFO ] ************************************************************ 
    2023-12-17 03:00:20,307 [INFO ] Running diff... 
    2023-12-17 03:00:23,571 [OUTERR] WARNING! With 5 disks it's recommended to use two parity levels. 
    2023-12-17 03:00:25,315 [OUTERR] WARNING! Physical offsets not supported for disk 'd1', 'd2', 'd5'. Files order won't be optimal. 2023-12-17 03:00:25,852 [INFO ] ************************************************************ 
    2023-12-17 03:00:25,859 [INFO ] Diff results: 0 added, 0 removed, 0 moved, 0 modified 
    2023-12-17 03:00:25,859 [INFO ] No changes detected, no sync required 
    2023-12-17 03:00:25,860 [INFO ] Running scrub... 
    2023-12-17 03:00:28,751 [OUTERR] WARNING! With 5 disks it's recommended to use two parity levels. 
    2023-12-17 03:03:51,432 [OUTERR] WARNING! Unexpected file errors! 
    2023-12-17 03:04:07,738 [ERROR ] Command 'snapraid scrub' returned non-zero exit status 1. 
    2023-12-17 03:04:08,017 [INFO ] sending msg 
    2023-12-17 03:04:08,022 [INFO ] Applying Custom Defaults 

     

    Daraufhin habe ich mal maunell einen verbosen Scrub gestartet und tatsächlich hat er einen Fehler gefunden, nur wie man sieht hat sich die MKV-Datei gar nicht geändert?!

    image.thumb.png.ba1f84fcaa66e897b58482313b07f4eb.png

     

    Also wenn die MKV unverändert ist, warum behauptet der beim Scrub, dass es einen "Data error in file" gab?!

     

    Hier jetzt das komplette Ergebnis des Scrub:

    # docker exec -it Snapraid snapraid scrub --verbose
    Self test...
    Loading state from /config/snapraid.content...
        1071 files
           0 hardlinks
           0 symlinks
          24 empty dirs
    WARNING! With 5 disks it's recommended to use two parity levels.
    Using 1162 MiB of memory for the file-system.
    Initializing...
    Using 112 MiB of memory for 64 cached blocks.
    Selecting...
    Scrubbing...
    Data error in file '/mnt/horus2nd/MovieOP/Paul Kalkbrenner - A Live Documentary (2010)/Paul Kalkbrenner - A Live Documentary (2010) DE PART2.mkv' at position '21901', diff bits 64/128
    100% completed, 2092911 MB accessed in 0:28    8%, 0:00 ETA           
    
         d1  0% | 
         d2  2% | *
         d3  0% | 
         d4  8% | *****
         d5  2% | *
     parity  0% | 
       raid 70% | ******************************************
       hash 15% | *********
      sched  0% | 
       misc  0% | 
                |______________________________________________________________
                               wait time (total, less is better)
    
    
     1243108 file errors
           0 io errors
           1 data errors
    WARNING! Unexpected file errors!
    DANGER! Unexpected data errors! The failing blocks are now marked as bad!
    Use 'snapraid status' to list the bad blocks.
    Use 'snapraid -e fix' to recover them.
    Use 'snapraid -p bad scrub' to recheck after fixing.
    Saving state to /config/snapraid.content...
    Saving state to /mnt/horus1st/snapraid.content...
    Saving state to /mnt/horus2nd/snapraid.content...
    Saving state to /mnt/horus3rd/snapraid.content...
    Saving state to /mnt/horus4th/snapraid.content...
    Saving state to /mnt/horus5th/snapraid.content...
    Saving state to /mnt/horus6th/snapraid.content...
        1071 files
           0 hardlinks
           0 symlinks
          24 empty dirs
    Verifying...
    Verified /config/snapraid.content in 0 seconds
    Verified /mnt/horus5th/snapraid.content in 2 seconds
    Verified /mnt/horus3rd/snapraid.content in 3 seconds
    Verified /mnt/horus6th/snapraid.content in 3 seconds
    Verified /mnt/horus1st/snapraid.content in 3 seconds
    Verified /mnt/horus2nd/snapraid.content in 3 seconds
    Verified /mnt/horus4th/snapraid.content in 3 seconds

     

    Wie empfohlen mal einen "Status" ausgeben lassen:

    # docker exec -it Snapraid snapraid status --verbose
    Self test...
    Loading state from /config/snapraid.content...
        1071 files
           0 hardlinks
           0 symlinks
          24 empty dirs
    WARNING! With 5 disks it's recommended to use two parity levels.
    Using 1162 MiB of memory for the file-system.
    SnapRAID status report:
    
       Files Fragmented Excess  Wasted  Used    Free  Use Name
                Files  Fragments  GB      GB      GB
         195      27      31     0.0    3583    4359  45% d1
         262      31      35     0.0    4437    3505  55% d2
         197       1       2     0.0    3040    4901  38% d3
         225       0       0     0.0    3460    4481  43% d4
         192      18      18     0.0    3081    4860  38% d5
     --------------------------------------------------------------------------
        1071      77      86     0.2   17603   22108  44%
    
    
     83%|o                                                                     
        |o                                                                     
        |o                                                                     
        |o                                                                     
        |o                                                                     
        |o                                                                     
        |o                                                                     
     41%|o                                                                     
        |o                                                                     
        |o                                                                     
        |o                                                                     
        |o                                                                     
        |o                                                  o                  
        |o                                                  o                  
      0%|o_____________________________*____________*______*o____*______*_____*
        74                    days ago of the last scrub/sync                 0
    
    The oldest block was scrubbed 74 days ago, the median 74, the newest 0.
    
    WARNING! The array is NOT fully synced.
    You have a sync in progress at 47%.
    The 85% of the array is not scrubbed.
    No file has a zero sub-second timestamp.
    No rehash is in progress or needed.
    DANGER! In the array there are 1 errors!
    
    They are from block 3388744 to 3388744, specifically at blocks: 3388744
    
    To fix them use the command 'snapraid -e fix'.
    The errors will disappear from the 'status' at the next 'scrub' command.

     

    Was macht denn "-e fix", die Datei ändern? Das wäre ja falsch. 

     

    EDIT: Ok ich habe in der Anleitung "check" gefunden:

    Quote

    check

    Verify all the files and the parity data.

    It works like "fix", but it only simulates a recovery and no change is written in the array.

     

    Ergebnis:

    # docker exec -it Snapraid snapraid check --filter-error --verbose
    Self test...
    Loading state from /config/snapraid.content...
        1071 files
           0 hardlinks
           0 symlinks
          24 empty dirs
    WARNING! With 5 disks it's recommended to use two parity levels.
    Searching disk d1...
    Excluding content '/mnt/horus1st/snapraid.content'
    Searching disk d2...
    Excluding content '/mnt/horus2nd/snapraid.content'
    Searching disk d3...
    Excluding content '/mnt/horus3rd/snapraid.content'
    Searching disk d4...
    Excluding content '/mnt/horus4th/snapraid.content'
    Searching disk d5...
    Excluding content '/mnt/horus5th/snapraid.content'
    Selecting...
            <error>
    Using 1162 MiB of memory for the file-system.
    Initializing...
    Selecting...
    Checking...
    recoverable MovieOP/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)\ DE\ PART2.mkv
    correct Movie09/12\ Strong\ \(2018\)/12\ Strong\ \(2018\).mkv       
    correct MovieUV/Um\ Klassen\ besser\ \(2012\)/Um\ Klassen\ besser\ \(2012\).mkv
    correct MovieQR/Der\ Regenmacher\ \(1997\)/Der\ Regenmacher\ \(1997\).mkv
    correct MovieWX/Was\ Frauen\ wollen\ \(2000\)/Was\ Frauen\ wollen\ \(2000\).mkv
    100% completed, 216925 MB accessed in 0:02    
    
           1 errors
           0 unrecoverable errors
    WARNING! There are errors!

     

    Ok, also scheinbar wollte er die eine MKV wirklich "korrigieren", was wie gesagt falsch wäre. Mal sehen, ob eine der anderen genannten MKVs korrekt sind.

     

    EDIT2:

    Ok, alle MKV-Dateien sind unverändert. Also muss ja die Parität von SnapRAID kaputt sein. Nur warum und warum will SnapRAID die MKV verändern, wenn doch die Parität falsch ist 🤔

     

    EDIT3:

    Äh ja, ich habe den Fix ausgeführt.

    # docker exec -it Snapraid snapraid fix --filter-error --verbose
    Self test...
    Loading state from /config/snapraid.content...
        1071 files
           0 hardlinks
           0 symlinks
          24 empty dirs
    WARNING! With 5 disks it's recommended to use two parity levels.
    Searching disk d1...
    Excluding content '/mnt/horus1st/snapraid.content'
    Searching disk d2...
    Excluding content '/mnt/horus2nd/snapraid.content'
    Searching disk d3...
    Excluding content '/mnt/horus3rd/snapraid.content'
    Searching disk d4...
    Excluding content '/mnt/horus4th/snapraid.content'
    Searching disk d5...
    Excluding content '/mnt/horus5th/snapraid.content'
    Selecting...
            <error>
    Using 1162 MiB of memory for the file-system.
    Initializing...
    Selecting...
    Fixing...
    recovered MovieOP/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)\ DE\ PART2.mkv
    100% completed, 216925 MB accessed in 0:02    %, 0:00 ETA          
    
           1 errors
           1 recovered errors
           0 unrecoverable errors
    Everything OK

     

    Und nun wurde die MKV geändert:

    # md5sum /mnt/horus*/MovieOP/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)\ DE\ PART2.mkv 
    e62d45d0b12f60f3ec681a54f0c6d3c7  /mnt/horus2nd/MovieOP/Paul Kalkbrenner - A Live Documentary (2010)/Paul Kalkbrenner - A Live Documentary (2010) DE PART2.mkv
    # Original:
    # md5sum /mnt/user/Movie/OP/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)/Paul\ Kalkbrenner\ -\ A\ Live\ Documentary\ \(2010\)\ DE\ PART2.mkv 
    92203fcd40fa6c0dfa9b984e333e95c7  /mnt/user/Movie/OP/Paul Kalkbrenner - A Live Documentary (2010)/Paul Kalkbrenner - A Live Documentary (2010) DE PART2.mkv

     

    Das ist ja gruselig. Woher soll man als Anwender denn wissen, dass der gerade die Datei kaputt macht?! Korrekt wäre jedenfalls gewesen die Parität zu korrigieren, warum auch immer diese falsch war 😨

     

    Ich kopiere jetzt wieder die Original MKV zurück. Mal sehen was in Zukunft noch passiert. Klingt aber nicht gerade super das SnapRAID.

     

     

     

  12. 23 minutes ago, DataCollector said:

    Die wohl hauptsächlich angedachten Intel Xeon E-2400 (Sockel 1700) haben keine iGPU

    Hätte ich nicht gedacht, ist aber wirklich so. Mich erstaunt, dass die für den C256 und jetzt den C266 überhaupt Käufer finden. Die E-2300 CPUs sind super teuer und das werden die E-2400 ja auch sein. Wozu sollte man für zB einen E-2488 doppelt so viel zahlen wie für einen i7-13700K, der ja auch ECC kann und wo es schon W680 und R680E Boards mit AST2600 gibt und wo die CPU neben den 8 Performance Kernen (der E-2488 hat nur die), auch noch 8 Effizienzkerne mit sich bringt, also sogar noch mal deutlich mehr Leistung besitzt. Da draußen muss es echt Leute geben, die ein Problem damit haben, wenn auf dem Produkt "Workstation" steht... "ne das können wir doch nicht in einem SERVER einbauen"🤷‍♂️

    • Like 1
  13. Deine Docker Installation, also unterhalb von /mnt/user/system hat irgendeine Macke würde ich sagen. Entweder die Dateien sind kaputt oder deine SSD.

     

    1 hour ago, pONd74 said:

    Liegen bei mir die Container vielleicht im Cache?

    Ja und da gehören sie auch hin. Der Cache in Unraid ist persistent. Dh entweder liegen Dateien auf einem Pool oder dem Array. 

     

    1 minute ago, pONd74 said:

    An diesen PC habe ich eine USB SSD angeschlossen, dort möchte ich alle Daten speichern.

    Ich glaube, Unraid speichert alle Docker-Container im RAM und in der Nacht möchte er alle gestoppten Container auf die SSD verschieben

    So ähnlich dürfte es passieren. Ich vermute, dass einige Zeit alles ordentlich läuft, aber irgendwann fliegt die USB SSD raus und er schreibt dann in den RAM bzw versucht von diesem zu lesen. Schau einfach bei Tools > Syslog. Ich wette das ist alles voller Fehler. Das ist übrigens ein Grund warum vor USB Datenträgern gewarnt wird. Also die Idee kanns du knicken. Du musst M.2 oder SATA verwenden.

  14. On 12/19/2023 at 9:09 PM, MisterMue said:

    Die alten Platten sind 1x500gb 2x1TB 7x2TB groß, die Größten sind 2x4TB groß.

    Ganz ehrlich: Ich würde die alle entsorgen / verkaufen. Geh mal von 1W pro HDD aus, wenn du sie nicht verwendest. Bei 10 Platten braucht es dann mindestens eine SATA Karte. Noch mal 2W. Dann laufen die vielleicht am Tag 1 Stunde, wenn man mal was macht. Also sagen wir mal 40 € zusätzliche Stromkosten, nur weil man sehr viele HDDs hat. Und jetzt rechnen wir noch das Geld für die SATA Karte, die zusätzlichen Stromkabel, die zusätzlichen SATA-Kabel, zusätzliche Lüfter, den Aufpreis für das größere Netzteil mit entsprechend vielen Anschlüssen, der Aufpreis für das größere Case usw. Nun noch den Stromverbrauch auf 7 Jahre rechnen und diese Hardwarekosten addieren... da sind dann denke ich 400 € schnell erreicht. Und jetzt schau dir an was eine 14TB Platte kostet:

    https://geizhals.de/?cat=hde7s&xf=13810_4000&asuch=&bpmin=&bpmax=&v=e&hloc=at&hloc=de&plz=&dist=&sort=r&bl1_id=30#productlist

    image.png.e60439d403a2c920efde281d0cec8365.png

     

     

    On 12/18/2023 at 11:56 PM, MisterMue said:

    Ich habe auf Aliexpress einen mit 16 Ports gefunden

    Entweder sind solche Karten heftige Stromschlucker oder sie haben eine miese Performance. Sparsam sind zB SATA Karten mit ASM1166 Chipsatz. Aber wie gesagt ist das unnötig, wenn du einfach direkt größere Platten verwendest.

     

     

    image.png

    • Like 1
    • Upvote 1
  15. Genau das ist der Haken. Woher den Strom nehmen. Und wenn natürlich effizient. Ich habe hier ein Netzteil mit 5 und 12V mit Molex, womit man HDDs extern betreiben kann, aber das war bei meinen Tests sehr ineffizient (man muss dann ja beide Netzteile parallel in den Verbrauch einbeziehen). 

     

    Ich wollte ja eigentlich mal gemessen haben was auf dem Board so verfügbar ist. Vielleicht gibt es ja irgendwo 5V und man muss nur 12V ergänzen?! Dann könnte man ein effizientes Level VI 12V Netzteil verwenden. Wobei der PCIe Slot ja 12V hat. Da man Grafikkarten verbauen kann, sollte der bis zu 75W nach Spezifikation liefern, wobei davon 66W 12V ausmachen. Das würde für 2 bis 3 HDDs ausreichen. Aber auch da die Frage wie man an diese 12V kommt. Es gibt ja keine ASM1166 Karte, wo man dann noch PINs hat um den Strom für andere Geräte abzuzwacken.

     

    Vielleicht ein Fall für https://c-payne.com/ 🤔