sonic6

Members
  • Posts

    610
  • Joined

  • Last visited

  • Days Won

    2

Everything posted by sonic6

  1. Also falls es jemand mit dem LSIO Container Testen will: find /mnt/user/nextcloud/*/uploads -type f -exec ls -lah {} \; Mir ist aufgefallen, dass das Chunking hier bei 10MB aus dem Webbrowser lag, jedoch über die Windows Anwendung folgendes zeigt: root@Unraid-1:~# find /mnt/user/nextcloud/*/uploads -type f -exec ls -lah {} \; -rw-r--r-- 1 nobody users 9.6M Apr 16 09:58 /mnt/user/nextcloud/sonic6/uploads/995972344/0000000000000000 -rw-r--r-- 1 nobody users 570M Apr 16 09:58 /mnt/user/nextcloud/sonic6/uploads/995972344/0000000000000001 -rw-r--r-- 1 nobody users 953M Apr 16 09:59 /mnt/user/nextcloud/sonic6/uploads/995972344/0000000000000002 -rw-r--r-- 1 nobody users 954M Apr 16 10:00 /mnt/user/nextcloud/sonic6/uploads/995972344/0000000000000003 -rw-r--r-- 1 nobody users 954M Apr 16 10:00 /mnt/user/nextcloud/sonic6/uploads/995972344/0000000000000004 -rw-r--r-- 1 nobody users 954M Apr 16 10:01 /mnt/user/nextcloud/sonic6/uploads/995972344/0000000000000005 -rw-r--r-- 1 nobody users 954M Apr 16 10:02 /mnt/user/nextcloud/sonic6/uploads/995972344/0000000000000006 Hier scheint die Größe der Chunks bei ca 1GB zu liegen. Wenn man das noch anpassen könnte und sich das auch aufs WebDAV auswirken würde, wäre der CF-Tunnel wieder eine Option für die NC.
  2. funktioniert nicht mit dem LSIO Container. Weder mit Web noch App uploads. root@Unraid-1:~# find /mnt/user/appdata/nextcloud/data/*/uploads -type f -exec ls -lah {} \; find: ‘/mnt/user/appdata/nextcloud/data/*/uploads’: No such file or directory
  3. sollten ca 200MB sein Mit dem Befehl während dem Upload: find /mnt/user/appdata/nextcloud/data/*/uploads -type f -exec ls -lah {} \; Ich kann jedem nur empfehlen auf zumindest 64 MiB zu erhöhen. Deutlich weniger Chunking und damit mehr Performance. ich hatte, abgesehen vom CF Tunnel auch noch nie Probleme damit. Kann es vielleicht sein, dass das Chunking beim LSIO Container im Web default aus ist?
  4. Kann es sein, dass sich das nur auf die App/Anwendung bezieht? Die Chunks sollen ja normalerweise "nur" 10MB groß sein. Zusammen mit dem CF-Tunnel gibt es mit NC über den Browser aber immer Probleme, da der CF-Tunnel nur 200MB Pakete zulässt. Die NC Apps über Android/Windows machten hier nie Probleme, Up-/Download hingegen über den Browser brachen nach 200MB aber immer ab.
  5. Bin vor ein paar Jahren auf genau die gleiche "Problematik" gestoßen. Bin das Problem letztendlich genauso angegangen wie du. Ich habe ein Default Contingent von 20GB gewählt. 300GB ist für mein System zu viel, da mein Cache nur 500GB sind und ich als Hauptnutzer bisher "nur" 10GB in der NC nutze. Der Papierkorb ist bei mir dann nochmal so ne Art "Fallback", falls ich mal was lösche, habe den also bei mir auf "120, auto" stehen.
  6. Interessting. I upgraded my btrfs-raid1 cache pool yesterday from two SATA mx500 SSDs to this PCIe 220S NVMe SSDs. The mx500 SATA drives (part of pool) where benchmarkable.
  7. Nabend zusammen, ich habe heute mal meinen Server um zwei SATA SSDs erleichtert und zwei NVMe SSDs (Transcend PCIe SSD 220S 1TB) erweitert. So weit so gut, ist mir nun jedoch aufgefallen, dass ich nun komplett in C2 stecken bleiben, was meinen Idle Verbauch (mit diversen Containern Docker/LXC) von 29W auf 35W hochtreibt. Dass ich nie über C3 hinaus kam, liegt an meinem HBA, was mich nicht weiter störte/stört. Nun vermute ich aber die neuen NVMe SSDs daran schuld sind, dass mein System nicht mehr über C2 hinaus geht: root@Unraid-1:~# lspci -vv | awk '/ASPM/{print $0}' RS= | grep --color -P '(^[a-z0-9:.]+|ASPM )' 00:01.0 PCI bridge: Intel Corporation 6th-10th Gen Core Processor PCIe Controller (x16) (rev 05) (prog-if 00 [Normal decode]) LnkCap: Port #2, Speed 8GT/s, Width x16, ASPM L0s L1, Exit Latency L0s <256ns, L1 <8us LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+ 00:1b.0 PCI bridge: Intel Corporation Comet Lake PCI Express Root Port #21 (rev f0) (prog-if 00 [Normal decode]) LnkCap: Port #21, Speed 8GT/s, Width x4, ASPM L0s L1, Exit Latency L0s <1us, L1 <16us LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+ 00:1d.0 PCI bridge: Intel Corporation Comet Lake PCI Express Root Port #9 (rev f0) (prog-if 00 [Normal decode]) LnkCap: Port #9, Speed 8GT/s, Width x4, ASPM L0s L1, Exit Latency L0s <1us, L1 <16us LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+ pcilib: sysfs_read_vpd: read failed: No such device 01:00.0 Serial Attached SCSI controller: Broadcom / LSI SAS2008 PCI-Express Fusion-MPT SAS-2 [Falcon] (rev 03) LnkCap: Port #0, Speed 5GT/s, Width x8, ASPM L0s, Exit Latency L0s <64ns LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+ 02:00.0 Non-Volatile memory controller: Transcend Information, Inc. Device 2262 (rev 03) (prog-if 02 [NVM Express]) LnkCap: Port #0, Speed 8GT/s, Width x4, ASPM not supported LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+ 03:00.0 Non-Volatile memory controller: Transcend Information, Inc. Device 2262 (rev 03) (prog-if 02 [NVM Express]) LnkCap: Port #0, Speed 8GT/s, Width x4, ASPM not supported LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+ root@Unraid-1:~# Konnte bisher keine Infos zu den NVMe ( Transcend PCIe SSD 220S 1TB ) und ASPM finden. Hier mal mein System (in meiner Signatur sogar mit Links zu den Datasheets): CPU: Intel Core i5-10400 --- RAM: 2x16GB Crucial CT2K16G4DFRA266 --- M/B: ASRock > H470M-ITX/ac HBA: IBM ServeRaid M1015 SATA / SAS HBA Controller (IT Mode) for SATA / Onboard for NVMe Cache1 btrfs-RAID1: 2x1TB Transcend PCIe SSD 220S ### Cache2-xfs: 1x500GB Crucial CT500MX500SSD1 Parity: 1x10TB WD100EFAX --- Data: 1x10TB WD100EFAX ### Pool1: 1x4TB WD40EFRX --- Media-UD: 1x18TB Toshiba MG09ACA18TE Vielleicht hat jemand nen heißen Tipp?
  8. @shaunsund @ich777 container works fine for me on 6.11.5
  9. Hi, I got two unbenchmarkable NVMEs: NVMEs: 2x transcend PCIe SSD 220S (https://de.transcend-info.com/products/No-991) in a btrfs raid1-pool Board: ASRock H470M-ITX/ac (https://www.asrock.com/MB/Intel/H470M-ITXac/) Unraid: Version 6.11.5 Diagnostic send per Mail.
  10. maybe as an option? i would use that.
  11. @mgutt kannst du den Post vielleicht in deinem Guide im 1. Post einpflegen? Wenn denn tatsächlich mal jemand komplett ließt, kann er das Problem selbst beheben
  12. Da ich mit Skripten etc nicht viel Erfahrung habe, bin ich für Kritik und Anmerkungen offen. Um das Script aktuell zu halten und zu erweitern, teilt mir bitte mit, wenn ihr es mit euer USV getestet habt und/oder abweichende Meldungen für Bestandene oder Fehlgeschlagene Tests bekommt. Getestet wurde das Script mit folgenden USVen: - CyberPower CP900EPFCLCD Changelog/Anpassungen 06.03.2023 - V1.1 (danke an @Anym001 und @ich777 fürs Notification IF), getestete USVen, Anpassung der Beschreibung
  13. Hier ein kleiner Anfänger Guide/Inspiration für einen automatischen Batterie Test einer USV, welche per NUT Plugin betrieben wird. Das Script lässt einen lautlosen Batterie schnelltest der USV laufen und gibt das Ergebnis per Standard Unraid Nachricht aus. Vorab sollte man einmal testen, ob test.battery.start.quick verfügbar ist. Das ganze per folgendem Befehl im Terminal: upscmd -l UnraidUPS UnraidUPS steht hier für den UPS Name aus dem NUT Plugin: Sollte test.battery.start.quick in der Liste auftauschen, kann man recht einfach folgendes Script per User Script Plugin ausführen lassen: #!/bin/bash ###NUT UPS QUICK BATTERY TEST### ###V1.1 ###https://forums.unraid.net/topic/135969-anleitung-simples-usv-batterie-schnelltest-user-script-mit-nut/ ################################ #vars### u="admin" #username p="adminpass" #password upshost="UnraidUPS" #UPSname@IP:Port - IP and PORT are optional ######## #battery test upscmd -u $u -p $p $upshost test.battery.start.quick upscmd -u $u -p $p $upshost beeper.mute sleep 2s #wait for result result=$(upsc $upshost ups.test.result) while [[ $result == "In progress"* ]] do sleep 0.5s result=$(upsc $upshost ups.test.result) done #unraid notifitcation result_success="$(echo ${result} | grep -E '\b(passed|success|OK|successful)\b')" result_warn="$(echo ${result} | grep -E '\b(warning|WARN)\b')" if [ -n "${result_warn}" ]; then /usr/local/emhttp/webGui/scripts/notify -s "UPS test passed with warnings." -d "$result" -i warning elif [ -n "${result_success}" ]; then /usr/local/emhttp/webGui/scripts/notify -s "UPS test passed." -d "$result" -i normal else /usr/local/emhttp/webGui/scripts/notify -s "UPS test failed!" -d "$result" -i alert fi u, p und upshost sind in dem Script die default Werte des NUT Plugins, können/sollten jedoch angepasst werden, wenn diese verändert wurden.
  14. Wenn man HA als Container laufen lässt, ist der Supervisor überflüssig. Man beraubt sich hier gar nix, weil der Host (Unraid in diesem Fall) die Aufgabe übernimmt. Der Supervisor stellt lediglich nen Container Dienst zur Verfügung. HA im Container kann in Verbindung mit dem Host nicht mehr oder weniger als HAOS.
  15. @Civic1201 This is my source for DSL Link Status: gateway_connection_status{connection="Physical Link"}
  16. HA ist hier auf der aktuellsten Version und macht keine Probleme mit dem sonoff zigbee 3.0 usb dongle plus.
  17. Die Anleitung ist nicht Falsch, der Aufdruck auf den Messwandler ist falsch. Die Bezeichnung vom Generator "K" zum Verbaucher "L" ist schon richtig. Ich musste es auch schmerzlich erfahren, als ich in meiner Mini-Verteilung alle verbaut hatte und mir danach nochmals die Finger brechen durfte...
  18. Kann das vielleicht mit deinen Stromspar Commands aus dem Go-file / powertop zusammenhängen?
  19. Das Feedback würde mich interessieren. Denke schon, dass die Spannungsmessung etwas ziehen wird, aber die Hauptversorgung sollte vom L1 kommen.
  20. Hatte das ganze Thema nur überflogen und keine unterschiedlichen Log-Perioden finden können. Hatte ähnliche vor, aber aufgrund von Faulheit und vorhandenem Speicherplatz habe ich einfach alles weiter loggen lassen bei 100 Tagen. Ich habe zumindestest keine Historie mehr zu deaktivierten Entitäten. Ja, gilt theoretisch für fast alles was man parametrieren kann... Zustände werden halt geloggt. Ähnliches gilt ja auch für die Identify-Buttons von diversen Zigbee Geräten. Jo,... die Fritzbox/AVM Integration kann einen da richtig Nerven kosten.
  21. Hierfür gibt es eine gute HACS Integration: https://github.com/bramstroker/homeassistant-powercalc
  22. mal als kurze Rückmeldung: hatte mal auf 100Tage gestellt und meine DB ist jetzt bei 6,5GB ... vielleicht sollte ich hier ein wenig filtern.
  23. hatten das Thema hier schonmal: https://forums.unraid.net/topic/129632-homeassistant-container-und-externe-datenbank-bzw-die-umstellung-mit-import/#comment-1183485
  24. PC abschalten. Stecker ziehen kann den Verbrauch nochmal um 0,1-5W senken...