sonic6

Members
  • Posts

    610
  • Joined

  • Last visited

  • Days Won

    2

Posts posted by sonic6

  1. 3 minutes ago, mgutt said:

    Also wenn du was über den Browser hochlädst, siehst du in dem Ordner 10MB Chunks und sonst 1GB?

    Genau, den Output vom Browserupload habe ich mir gespart. Der gepostete Output war von der Nextcloud Windows App.

     

    *edit*

     

    Es könnte hieran liegen:

    Quote

    [General] section

     

    chunkSize 10000000 

    (10 MB)Specifies the chunk size of uploaded files in bytes. The client will dynamically adjust this size within the maximum and minimum bounds (see below).

     

    maxChunkSize 100000000 

    (100 MB)Specifies the maximum chunk size of uploaded files in bytes.

     

    minChunkSize 1000000 

    (1 MB)Specifies the minimum chunk size of uploaded files in bytes.

    Quelle: https://docs.nextcloud.com/desktop/3.2/advancedusage.html?highlight=chunk

     

    Habe gerade aber keine Möglichkeit das zu prüfen.

  2. On 4/13/2023 at 6:02 PM, mgutt said:

    Mit dem Befehl während dem Upload:

     

    find /mnt/user/appdata/nextcloud/data/*/uploads -type f -exec ls -lah {} \;

     

    Ich kann jedem nur empfehlen auf zumindest 64 MiB zu erhöhen. Deutlich weniger Chunking und damit mehr Performance.

     

    Also falls es jemand mit dem LSIO Container Testen will:

     

    find /mnt/user/nextcloud/*/uploads -type f -exec ls -lah {} \;

     

    Mir ist aufgefallen, dass das Chunking hier bei 10MB aus dem Webbrowser lag, jedoch über die Windows Anwendung folgendes zeigt:

    root@Unraid-1:~# find /mnt/user/nextcloud/*/uploads -type f -exec ls -lah {} \;
    -rw-r--r-- 1 nobody users 9.6M Apr 16 09:58 /mnt/user/nextcloud/sonic6/uploads/995972344/0000000000000000
    -rw-r--r-- 1 nobody users 570M Apr 16 09:58 /mnt/user/nextcloud/sonic6/uploads/995972344/0000000000000001
    -rw-r--r-- 1 nobody users 953M Apr 16 09:59 /mnt/user/nextcloud/sonic6/uploads/995972344/0000000000000002
    -rw-r--r-- 1 nobody users 954M Apr 16 10:00 /mnt/user/nextcloud/sonic6/uploads/995972344/0000000000000003
    -rw-r--r-- 1 nobody users 954M Apr 16 10:00 /mnt/user/nextcloud/sonic6/uploads/995972344/0000000000000004
    -rw-r--r-- 1 nobody users 954M Apr 16 10:01 /mnt/user/nextcloud/sonic6/uploads/995972344/0000000000000005
    -rw-r--r-- 1 nobody users 954M Apr 16 10:02 /mnt/user/nextcloud/sonic6/uploads/995972344/0000000000000006

    Hier scheint die Größe der Chunks bei ca 1GB zu liegen.

    Wenn man das noch anpassen könnte und sich das auch aufs WebDAV auswirken würde, wäre der CF-Tunnel wieder eine Option für die NC.

  3. On 4/12/2023 at 9:17 PM, mgutt said:

    Das erklärt auch, warum so viele Probleme haben, wenn ihre Nextcloud über den Cloudflare Proxy betrieben wird (der trennt meine ich bei 128MB).

    sollten ca 200MB sein

     

    19 hours ago, mgutt said:

     

    21 hours ago, i-B4se said:

    Wo kann ich das mit dem Chunking sehen?

    Mit dem Befehl während dem Upload:

     

    find /mnt/user/appdata/nextcloud/data/*/uploads -type f -exec ls -lah {} \;

     

    Ich kann jedem nur empfehlen auf zumindest 64 MiB zu erhöhen. Deutlich weniger Chunking und damit mehr Performance.

    ich hatte, abgesehen vom CF Tunnel auch noch nie Probleme damit. Kann es vielleicht sein, dass das Chunking beim LSIO Container im Web default aus ist?

  4. 14 hours ago, mgutt said:

    EDIT: OK etwas gefunden. Nur verstehe ich nicht. Was macht denn das Kommando? Fügt das eine neue Einstellung in der config.php hinzu oder wo schreibt der die Einstellung hin?!

    https://docs.nextcloud.com/server/latest/admin_manual/configuration_files/big_file_upload_configuration.html#adjust-chunk-size-on-nextcloud-side

    sudo -u www-data php occ config:app:set files max_chunk_size --value 20971520

    Kann es sein, dass sich das nur auf die App/Anwendung bezieht?

    Die Chunks sollen ja normalerweise "nur" 10MB groß sein. Zusammen mit dem CF-Tunnel gibt es mit NC über den Browser aber immer Probleme, da der CF-Tunnel nur 200MB Pakete zulässt.

    Die NC Apps über Android/Windows machten hier nie Probleme, Up-/Download hingegen über den Browser brachen nach 200MB aber immer ab.

  5. On 1/16/2023 at 12:47 AM, mgutt said:

    Problem: Alle meine User haben ein unendliches Kontingent. Vom Gefühl her würde ich sagen, dass man lieber einen festen Wert eintragen sollte, damit der Papierkorb nicht immer weiter wächst.

     

    Zusätzlich dachte ich daran, das hier zu machen:

    'trashbin_retention_obligation' => 'auto,30',

    https://docs.nextcloud.com/server/latest/admin_manual/configuration_files/trashbin_configuration.html

     

    Das sollte denke ich bedeuten: Lösche, wenn der Papierkorb mehr als 50% des Kontingents belegt und grundsätzlich alles was länger als 30 Tage im Papierkorb ist.

     

     

    Bin vor ein paar Jahren auf genau die gleiche "Problematik" gestoßen.

    Bin das Problem letztendlich genauso angegangen wie du. Ich habe ein Default Contingent von 20GB gewählt.

    300GB ist für mein System zu viel, da mein Cache nur 500GB sind und ich als Hauptnutzer bisher "nur" 10GB in der NC nutze.

    Der Papierkorb ist bei mir dann nochmal so ne Art "Fallback", falls ich mal was lösche, habe den also bei mir auf "120, auto" stehen.

  6. Nabend zusammen,

     

    ich habe heute mal meinen Server um zwei SATA SSDs erleichtert und zwei NVMe SSDs (Transcend PCIe SSD 220S 1TB) erweitert.

     

    So weit so gut, ist mir nun jedoch aufgefallen, dass ich nun komplett in C2 stecken bleiben, was meinen Idle Verbauch (mit diversen Containern Docker/LXC) von 29W auf 35W hochtreibt.

     

    Dass ich nie über C3 hinaus kam, liegt an meinem HBA, was mich nicht weiter störte/stört.

    Nun vermute ich aber die neuen NVMe SSDs daran schuld sind, dass mein System nicht mehr über C2 hinaus geht:

    root@Unraid-1:~# lspci  -vv | awk '/ASPM/{print $0}' RS= | grep --color -P '(^[a-z0-9:.]+|ASPM )'
    00:01.0 PCI bridge: Intel Corporation 6th-10th Gen Core Processor PCIe Controller (x16) (rev 05) (prog-if 00 [Normal decode])
                    LnkCap: Port #2, Speed 8GT/s, Width x16, ASPM L0s L1, Exit Latency L0s <256ns, L1 <8us
                    LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+
    00:1b.0 PCI bridge: Intel Corporation Comet Lake PCI Express Root Port #21 (rev f0) (prog-if 00 [Normal decode])
                    LnkCap: Port #21, Speed 8GT/s, Width x4, ASPM L0s L1, Exit Latency L0s <1us, L1 <16us
                    LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+
    00:1d.0 PCI bridge: Intel Corporation Comet Lake PCI Express Root Port #9 (rev f0) (prog-if 00 [Normal decode])
                    LnkCap: Port #9, Speed 8GT/s, Width x4, ASPM L0s L1, Exit Latency L0s <1us, L1 <16us
                    LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+
    pcilib: sysfs_read_vpd: read failed: No such device
    01:00.0 Serial Attached SCSI controller: Broadcom / LSI SAS2008 PCI-Express Fusion-MPT SAS-2 [Falcon] (rev 03)
                    LnkCap: Port #0, Speed 5GT/s, Width x8, ASPM L0s, Exit Latency L0s <64ns
                    LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+
    02:00.0 Non-Volatile memory controller: Transcend Information, Inc. Device 2262 (rev 03) (prog-if 02 [NVM Express])
                    LnkCap: Port #0, Speed 8GT/s, Width x4, ASPM not supported
                    LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+
    03:00.0 Non-Volatile memory controller: Transcend Information, Inc. Device 2262 (rev 03) (prog-if 02 [NVM Express])
                    LnkCap: Port #0, Speed 8GT/s, Width x4, ASPM not supported
                    LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+
    root@Unraid-1:~#

     

    Konnte bisher keine Infos zu den NVMe ( Transcend PCIe SSD 220S 1TB ) und ASPM finden.

    Hier mal mein System (in meiner Signatur sogar mit Links zu den Datasheets):

    CPU: Intel Core i5-10400 --- RAM: 2x16GB Crucial CT2K16G4DFRA266 --- 

    M/B: ASRock > H470M-ITX/ac

    HBA: IBM ServeRaid M1015 SATA / SAS HBA Controller (IT Mode) for SATA / Onboard for NVMe

    Cache1 btrfs-RAID1: 2x1TB Transcend PCIe SSD 220S ### 

    Cache2-xfs: 1x500GB Crucial CT500MX500SSD1

    Parity: 1x10TB WD100EFAX --- Data: 1x10TB WD100EFAX ### 

    Pool1: 1x4TB WD40EFRX --- 

    Media-UD: 1x18TB Toshiba MG09ACA18TE

     

    Vielleicht hat jemand nen heißen Tipp?

     

  7. 2 hours ago, mgutt said:

    Conclusion: It could be useful to create sometimes a backup with the "checksum" option. I already thought about adding this by default every 30 backups. Not sure how others think about that.

    maybe as an option? i would use that.

  8. Da ich mit Skripten etc nicht viel Erfahrung habe, bin ich für Kritik und Anmerkungen offen.

     

    Um das Script aktuell zu halten und zu erweitern, teilt mir bitte mit, wenn ihr es mit euer USV getestet habt und/oder abweichende Meldungen für Bestandene oder Fehlgeschlagene Tests bekommt.

     

    Getestet wurde das Script mit folgenden USVen:

    - CyberPower CP900EPFCLCD

     

     

    Changelog/Anpassungen

    06.03.2023 - V1.1 (danke an @Anym001 und @ich777 fürs Notification IF), getestete USVen, Anpassung der Beschreibung

  9. Hier ein kleiner Anfänger Guide/Inspiration für einen automatischen Batterie Test einer USV, welche per NUT Plugin betrieben wird.

    Das Script lässt einen lautlosen Batterie schnelltest der USV laufen und gibt das Ergebnis per Standard Unraid Nachricht aus. 

     

    Vorab sollte man einmal testen, ob test.battery.start.quick verfügbar ist. Das ganze per folgendem Befehl im Terminal:

    upscmd -l UnraidUPS

     

    UnraidUPS steht hier für den UPS Name aus dem NUT Plugin:

    546962493_Screenshot2023-03-0519_57_11.png.55de74eff4436c34491a7a1a2519d97e.png

     

    Sollte test.battery.start.quick in der Liste auftauschen, kann man recht einfach folgendes Script per User Script Plugin ausführen lassen:

    #!/bin/bash
    
    ###NUT UPS QUICK BATTERY TEST###
    ###V1.1
    ###https://forums.unraid.net/topic/135969-anleitung-simples-usv-batterie-schnelltest-user-script-mit-nut/
    ################################
    
    
    #vars###
    u="admin"			#username
    p="adminpass"			#password
    upshost="UnraidUPS"		#UPSname@IP:Port - IP and PORT are optional
    ########
    
    
    
    #battery test
    upscmd -u $u -p $p $upshost test.battery.start.quick
    upscmd -u $u -p $p $upshost beeper.mute
    sleep 2s
    
    
    #wait for result
    result=$(upsc $upshost ups.test.result)
    while [[ $result == "In progress"* ]]
    do
      sleep 0.5s
      result=$(upsc $upshost ups.test.result)
    done
    
    
    #unraid notifitcation
    result_success="$(echo ${result} | grep -E '\b(passed|success|OK|successful)\b')"
    result_warn="$(echo ${result} | grep -E '\b(warning|WARN)\b')"
    
    if [ -n "${result_warn}" ]; then
      /usr/local/emhttp/webGui/scripts/notify -s "UPS test passed with warnings." -d "$result" -i warning
    elif [ -n "${result_success}" ]; then
      /usr/local/emhttp/webGui/scripts/notify -s "UPS test passed." -d "$result" -i normal
    else
      /usr/local/emhttp/webGui/scripts/notify -s "UPS test failed!" -d "$result" -i alert
    fi

     

    uund upshost sind in dem Script die default Werte des NUT Plugins, können/sollten jedoch angepasst werden, wenn diese verändert wurden.

     

    • Like 3
  10. On 2/13/2023 at 10:52 PM, AlfredHaas said:

    Ich verwende die VM Variante von Home Assistent (HAOS) unter unraid den ohne Supervisor beraubt man sich um einige wichtige Applikationen und Tools wie z.B erwähntes zigbee2mqtt.

    Wenn man HA als Container laufen lässt, ist der Supervisor überflüssig. Man beraubt sich hier gar nix, weil der Host (Unraid in diesem Fall) die Aufgabe übernimmt. Der Supervisor stellt lediglich nen Container Dienst zur Verfügung. HA im Container kann in Verbindung mit dem Host nicht mehr oder weniger als HAOS.

    • Like 1
  11. 13 minutes ago, mgutt said:

    Tatsächlich sind die gedruckten Anleitungen der Shelly 3EM alle falsch:

    Die Anleitung ist nicht Falsch, der Aufdruck auf den Messwandler ist falsch. Die Bezeichnung vom Generator "K" zum Verbaucher "L" ist schon richtig. Ich musste es auch schmerzlich erfahren, als ich in meiner Mini-Verteilung alle verbaut hatte und mir danach nochmals die Finger brechen durfte...

  12. 17 hours ago, mgutt said:

    Jetzt ist allerdings die Frage, ob der auch noch über L2 und L3 was zieht, weil der aktuell gemessene Verbrauch mit ungefähr 0,35W ist schon sehr gut:

    Das Feedback würde mich interessieren. Denke schon, dass die Spannungsmessung etwas ziehen wird, aber die Hauptversorgung sollte vom L1 kommen.

  13. 8 hours ago, mgutt said:

    Verstehe ich das richtig, dass man Entitäten nur ein- oder ausschließen kann? Ich hätte jetzt erwartet, dass man zB den Verbrauch 90 Tage speichert, aber Spannung und Temperatur nur 7 Tage. Stattdessen muss ich jetzt wohl Spannung und Temperatur komplett ausschließen?!

    Hatte das ganze Thema nur überflogen und keine unterschiedlichen Log-Perioden finden können. Hatte ähnliche vor, aber aufgrund von Faulheit und vorhandenem Speicherplatz habe ich einfach alles weiter loggen lassen bei 100 Tagen.

     

    8 hours ago, mgutt said:

    Kann ich davon ausgehen, dass HA deaktivierte Entitäten nicht mehr loggt?

    Ich habe zumindestest keine Historie mehr zu deaktivierten Entitäten.

     

    8 hours ago, mgutt said:

    Richtig beknackt ist ja, dass der sogar zB den Bass-Regler meiner Sonos Boxen loggt

    Ja, gilt theoretisch für fast alles was man parametrieren kann... Zustände werden halt geloggt. Ähnliches gilt ja auch für die Identify-Buttons von diversen Zigbee Geräten.

     

    6 hours ago, mgutt said:

    So ich denke ich habe nun alles deaktiviert. Dauert echt ewig bei vielen Aktoren 🤪

    Jo,... die Fritzbox/AVM Integration kann einen da richtig Nerven kosten.