vakilando

Moderators
  • Posts

    367
  • Joined

  • Last visited

Posts posted by vakilando

  1. I sadly must agree @NewDisplayName....

    I had Xeoma up and running for quite a long time. It worked very well and was rock solid too, but

    1. the container is no longer maintained by @coppit
    2. I have more cameras than my licence admits
    3. costs are too high to upgrade

    I still have the xeoma container installed because I like the drag an drop configuration very much dispite of a quite ugly interface but I'll move on to frigate.

  2. Yes this is a serious problem that should be fixed!

    Last year one of my 2 SSD from my BTRFS cache pool died and I did not get any notifications. By luck I saw the warnings and errors in the syslog and replaced the disk.

    I found a script written by mutt that "that" looks for errors in the syslog and then generates an notification. It works well but I don't know if it's compatible to UnRAID 6.12 (I'm still on 6.11).

    Something like this should (must?) be part of UnRAID....

     

  3. Hast du unter den Docker Einstellungen Host-Zugang zu benutzerdefinierten Netzwerken aktiviert?

    Wenn ja, schau mal in den Einstellungen unter Netzwerk ob in der Routing Tabelle die shim Einträge noch vorhanden sind.

    Wenn nicht Docker beenden, Host-Zugang zu benutzerdefinierten Netzwerken

    deaktivieren, wieder aktivieren und Dockerdienst neu starten.

  4. 1 hour ago, hawihoney said:

     

    Oder PUID, PGID wie bei LSIO. Auch das ist variabel und nicht immer möglich. Die großen Ersteller für Unraid kennen die Besonderheit von Unraid (99:100) und berücksichtigen das zumindest als optionale Parameter-Variable.

     

    ja, das ist natürlich richtig! Der Container Ersteller muss das "Feature" in seinen Container eingebaut haben.

    Am besten du schaust auf der Seite des Erstellers (hub.docker.com, github, ...), oder im Unraid Support Thread ob eine entsprechende Option genannt wird / dokumentiert ist.

    • Thanks 1
  5. Das entscheidet der Ersteller/Entwickler des Containers.

    Du kannst es aber auch selbst beeinflussen indem du entsprechende Container Variablen erstellt. Ich glaube USR_ID=99 und GRP_ID=100 wenn du den Container mit unraid Standard User laufen lassen willst und jeweils "0" wenn der Container als root laufen soll.

    Ganz sicher bin ich nicht, bin unterwegs und müsste daheim nachschauen.

    • Thanks 1
  6. Bei mit stand bei AdGuard nach der Installation des Dockers unter "WebUI" => "http://[IP]:[PORT:6052]/"

    Funktionieren tat aber nur Port 80......Also habe ich es auf "http://[IP]:[PORT:80]/" umgestellt.

    Als Portvariable ist außerdem folgendes voreingestellt: WebUI: 3000 (Container Port: 3000 Port for the Web UI)

    ....funzt aber dennoch nur mit Port 80. Die Einstellung habe ich auf 3000 belassen.....

  7. Du musst unter "Einstellungen > Globale Freigabeeinstellungen" den ersten Eintrag "Freigaben aktivieren:" von "Auto" auf "Ja" umstellen.

    ABER: Hast du das gelesen In deinem Link Disk Share?

    IMPORTANT
    If you have both Disk Shares and User Shares enabled then there is an important restriction 
    that you must observe if you want to avoid potential data loss. What you must NEVER do is 
    copy between a User Share and a Disk Share in the same copy operation where the folder name 
    on the Disk Share corresponds to the User Share name. This is because at the base system level 
    Linux does not understand User Shares and therefore that a file on a Disk Share and a User 
    Share can be different views of the same file. If you mix the share types in the same copy 
    command you can end up trying to copy the file to itself which results in the file being 
    truncated to zero length and its content thus being lost.
    
    There is no problem if the copy is between shares of the same type, or copying to/from a disk 
    mounted as an Unassigned Device..

     

    Und warum willst du das überhaupt machen?

    Ich würde das nur mit einer Platte im Array machen, die von allen User shares ausgenommen ist, da kann es aus Sinn ergeben die ganze Platte freizugeben.

    • Thanks 1
  8. On 12/19/2022 at 1:26 AM, vakilando said:

    @Alex24 version 22.12.5 is working for me - partially...

    The docker starts up, I can connect to the xeoma server with the linux client software an I see the cameras with pictures.

    The xeoma web server also starts successfully but

    1. I can't login with my admin account. It says wrong password although it isn't wrong!
    2. I can login with my second account, but the camera prictures are just black....

     

    I got it working!

    Solution was quite simple....

    1. (no login)  =>  remove characters from password like: §, $, %, &
    2. (black pictures)  =>  I don't know why, but the account for the web server module had a wrong password set
  9. On 12/19/2022 at 7:46 PM, tucansam said:

    404 errors on all attempts to access gui

    You are using the administrotor account, right?

    I have a similar problem with the administrotor account, I don't get a 404 error but a "wrong login/password" message.

    I can only login with my second non administrative account, but the I have black pictures.

     

    Try creating a second non administrative account with the Xeoma client (Linux/Win) and with that try to login to the webinterface.

     

  10. @Alex24 version 22.12.5 is working for me - partially...

    The docker starts up, I can connect to the xeoma server with the linux client software an I see the cameras with pictures.

    The xeoma web server also starts successfully but

    1. I can't login with my admin account. It says wrong password although it isn't wrong!
    2. I can login with my second account, but the camera prictures are just black....
  11. Hallo @Alex24, ich meinte welchen Docker Container du von hub.docker.com installiert hast. 

    Ich verwende https://hub.docker.com/r/coppit/xeoma/ und hatte die von mir hier im beschriebenen Probleme:

     

    Hello @Alex24, I ment wich container you are using from hub.docker.com.

    I installed https://hub.docker.com/r/coppit/xeoma/ and had following problems:

     

    On 9/29/2022 at 10:42 PM, vakilando said:

    Same here...

    I tried updating to the latest version 22.8.16:

    1. manually downloaded the latest version 22.8.16 (xeoma_linux64.tgz) from felenasoft
    2. renamed xeoma_linux64.tgz to xeoma_22.8.16.tgz
    3. put it in the xeoma download directory (/mnt/cache/appdata/Xeoma/downloads)
    4. changed the config file xeoma.conf by adding: VERSION='22.8.16'

    When starting the container it stucks at:

    Sep 29 20:09:44 5b7e2d0c1c9d syslog-ng[13]: syslog-ng starting up; version='3.13.2'
    Configuration:
      PASSWORD=<hidden>
      VERSION=22.8.16
    [Sep 29 08:09:47 PM] Setting the password

     

    Reverting to version 22.3.16 and everything is fine....

     

    Did somebody find a way to get it up and running, perhaps by manually setting the password?

     

    Ich werde die Tage mal Version 22.12.15 testen.

  12. irgendwie verstehe ich deine Frage nicht....

    Du hast eine MZHOU PCIe SATA X4 Karte: Daran schließt du über ganz normale SATA Kabel deine Festplatten an.

    Du schreibst aber, dass du dir ein SAS Kabel mit 36 Pin-Stecker gekauft hast, dieses an deinen Server angeschlossen hast "und die einzelnen SATA Anschlüsse an die SATA Karte geschlossen" hast?? Wie geht das denn? (ich muss das falsch verstanden haben...!)

    Gleichzeitig schreibst du "Mit alten SAS Controller in IT Modus funktioniert das einwandfrei". Also musst du doch bereits ein solches Kabel gehabt haben?

     

    Schreib doch bitte noch mal genauer was du gemacht hast - oder jemand anderes versteht was du geschrieben hast....

  13. 12 hours ago, Alex24 said:

    Ja, läuft bei mir ohne Probleme.

    @Alex24 welchen Docker Container verwendest du, hattest du mit Version 22.8.16 auch die Probleme wie hier im Thread beschrieben?

     

    Which docker container are you using? Did you have similar problems with version 22.8.16 as discribed in this thread?

  14. @Stri das Nerd Pack ist seit Unraid 6.11.x nicht mehr kompatibel und steht für Unraid 6.11.x im CA Store nicht mehr zu Verfügung. 

    Ich gehe davon aus du hattest das Nerd Pack unter 9.10.x installiert? Eigentlich sollte es nach dem Uprage auf 6.11 automatisch entfernt werden - so mein Wissensstand....?

    Entferne es jetzt. Als Ersatz kannst du die neuen NerdTools installieren oder un-get verwenden. 

     

    • Like 1
  15. 3 hours ago, SnakeZZ said:

    bekommt das die IP 192.168.4.2.

    Wie wird die IP vergeben? Eine DHCP Lease sehe ich jedenfalls nicht.... ?!?

    Docker vergibt die IPs bei Start eines Containers selbst.

    Du kannst in den Docker Einstellungen einen DHCP Pool definieren und so vermeiden, dass von deinen Containern IP Adressen verwendet werden, die mit deinem DHCP-Server (z.B. Router) in Konflikt geraten.

     

     

  16. 23 minutes ago, SnakeZZ said:

    Ich hab mal versucht, bei 2 Containern die gleichen IPs zu benutzen

    das ist ja auch einigermaßen sinnfrei...

     

    Ein Docker Container kann nur dann DHCP, wenn der Maintainer einen dhcp client integriert hat.

    Wenn du VLANS mit macvlan nutzt (und nicht ipvlan) sollten sich entsprechende container mit dhcp client beim Start auch eine IP von deinem DHCP Server holen.

    Ob und wie das mit mehreren Containern mit ipvlan funktioniert weiß ich nicht, die haben ja keine eigene MAC-Adresse....

     

    Ich habe VLAN mit macvlan und vergebe jedem Container sowohl eine IP-Adresse als auch eine MAC-Adresse.

  17. 2 hours ago, mgutt said:

    Wenn man nach "Error: ICRC, ABRT" googlet, dann kommt meist was Richtung defektes SATA Kabel oder Stromversorgung raus.

    ja, hab ich auch gefunden....

    @mgutt würdest du vor einem Reparaturversuch einen reboot empfehlen, oder eher nicht?

    @Smolo Hast du vorher etwas am Server physisch gemacht?

    Vor einer Reparatur würde ich ggf. das Array im Wartungsmodus (maintenance mode) starten und einen Check ausführen mit den Optionen -nv (no modification, verbose).

    Danach eine XFS Reparatur.

    Siehe auch https://wiki.unraid.net/Check_Disk_Filesystems#Checking_and_fixing_drives_in_the_webGui 

    • Thanks 1
  18. 1 hour ago, Revan335 said:

    Dabei sollte ja egal sein ob man per Dynamix File Manager im Webinterface Krusader Docker Container, Share am Client, ..... Daten bearbeitet/verschiebt oder kopiert .... solange man dies alles unter user/Array+Cache macht

    Solange man bei Kopier-/Verschiebe-Aktionen immer /mnt/user oder /mnt/cache als Ziel angibt ist es in der Tat "egal" und alles sollte korrekt angezeigt werden.

     

    Wenn bei dir auf dem Backup System Daten nur auf Disk-1 liegen und nicht unter /mnt/user würde ich als erstes dein Backup Script verdächtigen...

    Wie machst du die Backups?

  19. weitere nützliche Befehle findest du hier: https://selfhosters.net/commands/

     

    Prinzipiell müsstest du von HA aus über die platform "command_line" ein SSH Befehl an Unraid senden, der den entsprechenden virsh Befehl beinhaltet und die VM startet bzw. stoppt.

    Das habe ich so selbst noch nicht gemacht, aber hätte prinzipell auch Interesse, denn als es noch funktionierte habe ich es über Unraid-API gemacht.