Jump to content

mgutt

Moderators
  • Posts

    11,371
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Da sehe ich jetzt nichts was mit deinem Problem zu tun hat, aber das hier kommt sehr oft drin vor. Das solltest du mal recherchieren warum das passiert: Wenn das immer so wäre, könntest du denke ich nicht mal die Login-Seite laden. Das könnte eine ältere Fehlermeldung sein, wo mal kurz die DB nicht zu erreichen war. Auch sollte eine nicht erreichbare Datenbank keinen Server Error auslösen, sondern eine Fehlermeldung von Nextcloud selbst. Die Ursache für solche Fehlermeldungen stehen normalerweise in den Apache Logs. Ich habe das gerade beim offiziellen Nextcloud Container (knex666) ausprobiert, aber da werden die Logs an stderr weitergeleitet und ich gehe daher davon aus, dass sie normalerweise über die Container Logs zu sehen sein sollten. Nutzt du evtl einen anderen Container? @ich777 Diese Softlinks habe ich im Nextcloud-Container vorgefunden, heißt das, dass alle Fehlermeldungen in den Container Logs stehen müssten? ls -lah /var/log/apache2/ total 0 drwxrwxrwx 2 www-data www-data 72 Dec 21 20:36 . drwxr-xr-x 1 root root 57 Dec 22 13:10 .. lrwxrwxrwx 1 www-data www-data 11 Dec 21 20:36 access.log -> /dev/stdout lrwxrwxrwx 1 www-data www-data 11 Dec 21 20:36 error.log -> /dev/stderr lrwxrwxrwx 1 www-data www-data 11 Dec 21 20:36 other_vhosts_access.log -> /dev/stdout Sieht mir jedenfalls danach aus:
  2. Nun zumindest wissen wir, dass die Platten 5W ausmachen. Also ohne die Platten wären ~8W möglich, was ja schon mal nicht schlecht ist. Hattest du den Stick umgesteckt oder war der schon da eingesteckt? Nicht, dass es nun daran liegt, dass du kein C7 mehr erreichst.
  3. Wenn du dich mit einem VPN mit dem Netz des externen Servers verbindest, dann sehe ich da überhaupt keinen Mehrwert. Alles was du an Backups schreiben kannst, kann ein Angreifer auch auf dem Ziel löschen/verschlüsseln. Nur eine Idee: Was nimmst du bei Duplicati als Protokoll, SFTP? Sagen wir mal du installierst dir einen Container der SFTP bereitstellt. Diesem Container gewährst du nur lesende Rechte auf /mnt/user/<sharename>. Per Bridge Netzwerk änderst du den SFTP Standardport auf irgendwas anderes, also statt 22 zB 8022. Im Router gibst du diesen Port auf deinen Server frei. Auf dem PI wiederum wird Duplicati installiert. Der PI sollte weiterhin eine DDNS erhalten und darüber seine öffentliche IP aktuell halten. Nun erstellst du auf deinem Server ein Skript, das alle 5 Minuten die öffentliche IP der DDNS ermittelt und welche eine iptables Regel erstellt/aktualisiert, die auf Port 8022, ausschließlich Anfragen von dieser öffentlichen IP erlaubt. Alles andere wird verworfen. Damit wären beide Netzwerke nicht verbunden. Wird eine Seite gehackt, ist das der anderen also egal. Deine Seite kennt das Netz des PI nicht mal und das Netz des PI kann wenn nur den PI angreifen und wenn das Erfolg hat, kommt er nur lesend an deine Daten. Dein Backup kann er zwar vernichten, deine Originaldaten aber nicht. Bestimmt bekommt man sowas auch mit dem "Flow Rules" bei Zerotier hin, aber dafür bin ich nicht Netzwerker genug. Wäre in jedem Falls sicherer als Wireguard, wo man beide Netze komplett verbindet. Davon halte ich persönlich gar nichts. @Ford Prefect It's your time to comment ^^
  4. Kann einer von euch beiden mal Asrock anschreiben und nach C10 fragen? Also jetzt ernsthaft. Wieso fehlt die Einstellung?! Nur drei Geräte die ASPM unterstützen?! Das erklärt dann auch den höheren Verbrauch. Da fehlt massig Zeug. zB der PCIe Controller der CPU oder der LAN Controller. Hier mal meine ganzen Onboard-Geräte mit ASPM: lspci -vv | awk '/ASPM/{print $0}' RS= | grep --color -P '(^[a-z0-9:.]+|ASPM )' 00:01.0 PCI bridge: Intel Corporation 6th-10th Gen Core Processor PCIe Controller (x16) (rev 07) (prog-if 00 [Normal decode]) LnkCap: Port #2, Speed 8GT/s, Width x8, ASPM L0s L1, Exit Latency L0s <256ns, L1 <8us LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+ 00:01.1 PCI bridge: Intel Corporation Xeon E3-1200 v5/E3-1500 v5/6th Gen Core Processor PCIe Controller (x8) (rev 07) (prog-if 00 [Normal decode]) LnkCap: Port #3, Speed 8GT/s, Width x4, ASPM L0s L1, Exit Latency L0s <256ns, L1 <8us LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+ 00:01.2 PCI bridge: Intel Corporation Xeon E3-1200 v5/E3-1500 v5/6th Gen Core Processor PCIe Controller (x4) (rev 07) (prog-if 00 [Normal decode]) LnkCap: Port #4, Speed 8GT/s, Width x4, ASPM L0s L1, Exit Latency L0s <1us, L1 <8us LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk- 00:1b.0 PCI bridge: Intel Corporation Cannon Lake PCH PCI Express Root Port #17 (rev f0) (prog-if 00 [Normal decode]) LnkCap: Port #17, Speed 8GT/s, Width x4, ASPM L0s L1, Exit Latency L0s <1us, L1 <4us LnkCtl: ASPM L0s L1 Enabled; RCB 64 bytes, Disabled- CommClk- 00:1c.0 PCI bridge: Intel Corporation Cannon Lake PCH PCI Express Root Port #1 (rev f0) (prog-if 00 [Normal decode]) LnkCap: Port #1, Speed 8GT/s, Width x1, ASPM L0s L1, Exit Latency L0s <1us, L1 <4us LnkCtl: ASPM L0s L1 Enabled; RCB 64 bytes, Disabled- CommClk- 00:1c.5 PCI bridge: Intel Corporation Cannon Lake PCH PCI Express Root Port #6 (rev f0) (prog-if 00 [Normal decode]) LnkCap: Port #6, Speed 8GT/s, Width x1, ASPM L0s L1, Exit Latency L0s <1us, L1 <16us LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+ 00:1d.0 PCI bridge: Intel Corporation Cannon Lake PCH PCI Express Root Port #9 (rev f0) (prog-if 00 [Normal decode]) LnkCap: Port #9, Speed 8GT/s, Width x4, ASPM L0s L1, Exit Latency L0s <1us, L1 <16us LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+ Eventuell auch mal Asrock darauf ansprechen. Also warum nur zwei Devices auf dem Motherboard ASPM unterstützen (das Dritte ist ja die NVMe). Ok, wie geht das jetzt? 😅
  5. Wehe du hast mehr als 300 bezahlt 😜 Wie gerne würde ich alles auf SSDs umbauen. Scheiß Blu-Ray Sammlung 😅
  6. Dann ist die HDD im Dauerlauf. Check mal den Status mit: smartctl -n standby -i /dev/sdb Und so kannst du sie zum Stillstand bringen: smartctl -n standby -s standby,now /dev/sdb Evtl auch /dev/sdc, kommt drauf an welche Bezeichnung die HDD bekommen hat. sda ist normalerweise der Unraid USB Stick. Siehst du in der Übersicht in den Klammern wie die heißen. Allerdings wird Unraid die HDD nach kurzer Zeit vermutlich wieder wecken. Am besten wäre es, wenn du einen leeren USB Stick dem Array zuweist. Dann kannst du die HDD dauerhaft schlafen schicken.
  7. Das ist normal. Wenn du bei Unraid etwas permanent haben willst, musst du es in die Go-Datei auf dem USB Stick eintragen. Das geht am einfachsten mit dem Config Editor Plugin: Wie du siehst gebe ich die Befehle direkt ein und nutze gar kein powertop. Die genannten Befehle machen im Prinzip das selbe wie das powertop --auto-tune Kommando, nur wirklich für alle Komponenten (powertop macht das eher selektiv, keine Ahnung warum). C7 ist schon mal gut. Die Frage ist warum du nicht auf C9/C10 kommst. Hast du im BIOS das Maximum auf C10 gestellt? Steck den Unraid USB Stick bitte in die USB Buchse unter der LAN-Buchse (das hilft zB beim C246N-WU2). Außerdem deaktiviere Audio im BIOS, falls möglich. Magst du mal die HDDs komplett abklemmen und nur die SSD drin lassen (Array kannst du dann logischerweise nicht starten, sollst du aber auch nicht)? Mich würde mal interessieren wo das Board seinen Bestwert hat (logischerweise auch hier mit den oben genannten Kommandos). Wie viele Lüfter hast du angeschlossen? Und bitte auch du mal das Ergebnis von dem Kommando posten: https://forums.unraid.net/topic/111921-why-is-aspm-disabled-in-unraid-while-its-enabled-in-ubuntu/page/2/?tab=comments#comment-1053964
  8. Ok, dann sind ja schon einen Schritt weiter. Bei W480 gibt es leider nicht viel Auswahl mit 8x SATA: https://geizhals.de/?cat=mbxeon&xf=11924_2~1244_8~317_W480&sort=p&hloc=at&hloc=de&v=e Dazu kommt, dass alle W480 von Gigabyte aktuell ausverkauft sind. 🙈
  9. Ist egal. Wenn der Cache voll ist, schreibt er weiter auf das Array. Du solltest nur den Mover in der Zeit deaktivieren, damit er nicht parallel den Cache leert, während du auf die Platten schreibst. Außerdem sollte man beim Cache einen "min free space" von 100GB eintragen, damit er frühzeitig auf das Array wechselt.
  10. Wo du jetzt 4K erwähnst. Ist das Ziel 4K per RDP zu übertragen? Da hat man je nachdem Probleme mit der Skalierung oder nicht? Also je nach Monitorgröße ist alles viel zu klein, weil innerhalb von RDP keine Skalierung möglich ist. Oder hat sich da was geändert?
  11. In 3 Monaten gerade mal 4 TBW dazu gekommen. Dürfte schwer werden die SSD auf die Art tot zu bekommen. Bei meiner damaligen Syno wäre die jetzt schon kurz vor dem Exitus gewesen.
  12. Damit meine ich auch eher die iGPU. i-Core hat da die stärkere.
  13. Spielt alles keine Rolle. Auch MTU nicht. Da holst du nur minimal mehr Speed mit raus. Die im Unraid Dashboard zu sehen ist? Die enthält auch I/O Wait = hat nichts mit der eigentlichen CPU Last zu tun. Die reale Last siehst du nur, wenn du im Terminal "htop" ausführst. https://forums.unraid.net/topic/97165-smb-performance-tuning/ Dazu zählt vor allem Punkt 3, also das Umgehen der Share-Pfade und damit das Umgehen vom SSHFS Overhead. Du musst also wo es nur geht auf /mnt/user verzichten zB in dem du manuell einen SMB Share erstellst oder alle Docker Pfade auf /mnt/cache bzw /mnt/diskX umstellst. Die CPU Last sinkt dann um mindestens 50%.
  14. Gibt es keinen gebrauchten NUC? Da sind die CPUs was stärker.
  15. Oben hast du geschrieben, dass du kein Gaming willst. Dann kauf ein 32GB Modul. Mit 16GB verbaust du die nur die Option auf 128GB. Linux nutzt jeden freien RAM automatisch als RAM Disk, ohne dass du das siehst. Standardmäßig allerdings nur 20%. Ich habe daher auf 50% erhöht. Bei 128G würde ich sogar 75% einstellen. Mehr dazu in diesem Video:
  16. Und was genau ist daran wichtig? Die TDP ist nur für die Kühlerwahl wichtig und sagt nichts über den Stromverbrauch aus. Dazu muss man aber wissen, dass vor der 10ten Intel Generation die TDP Werte noch halbwegs zum Stromverbrauch passten. Heute ist das aber nicht mehr so, da Intel gegenüber AMD im Zugzwang war und angefangen hat ab Werk übertaktete CPUs zu verkaufen. Aus dem Grund rate ich auch jedem von aktuellen Intel CPUs ab. Alles Stromfresser. Erst ab der 12ten Generation wird es für uns wieder interessant... Also vielleicht. Wer weiß wie hoch der Leerlauf-Verbrauch durch PCIe 5.0 und sonstigem Quatsch wird. Ich verstehe allerdings auch nicht warum du jetzt damit anfängst. Ich dachte der Stromverbrauch ist egal?!
  17. Die sind beide nicht lahm. Muss wohl eher am NAS liegen. Wie gesagt. Du kannst auch einen Ryzen mit iGPU nehmen, wenn du unbedingt Ryzen möchtest. Ein Ryzen 5700G hat zb eine iGPU und 8 Kerne. Du kannst aber auch ein AMD Board mit IPMI nehmen und den dicksten Ryzen, den du magst. Und du kannst natürlich auch ein Intel Setup nehmen. Aktuell kann ich nicht einordnen was du eigentlich willst. Wenn du eine CPU mit iGPU nimmst, kann die genau das machen. Hier ein Beispiel: https://forums.unraid.net/topic/97593-intel-i3-8100-with-uhd630-the-plex-transcoding-beast/ Würg ^^ DLNA hätte mir echt zu viele Einschränkungen. Du wirst dich wundern wie bequem Jellyfin oder Plex im Vergleich ist. Mehrere Tonspuren, Untertitel, Cover, Suchfunktion, usw sind auch so Sachen, die ich bei DLNA vermissen würde. Was ich mir als Setups vorstellen könnte: https://geizhals.de/?cat=WL-2361763 - Intel 8 oder 10 Kern mit iGPU (für unRAID) - 8x SATA - 2x M.2 X4 - 2.5G LAN - Hinweis: einer der PCIe Slots geht durch zwei M.2 verloren, also mit Grafikkarte und zwei SATA Karten ist das Board voll belegt - Hinweis: kein PCIe 4.0 https://geizhals.de/?cat=WL-2361793 - Ryzen 8 Kern mit iGPU (für unRAID) - 6x SATA - 2x M.2 X4 - Hinweis: kein PCIe 4.0 mit einem 5xxxG Prozessor (nur mit Ryzen ohne iGPU) - Hinweis: Das ASUS Pro WS X570-ACE hat zwar 8x SATA und 3x X8 PCIe, aber dafür hat ein M.2 Slot nur X2, allerdings könnte man bei 4+6+6 = 16 HDDs den U.2 Anschluss für eine X4 NVMe nutzen oder man verbaut statt zwei SATA Controllern einen HBA Controller und hat so sogar einen X8 Slot für eine zweite Grafikkarte übrig. - Hinweis: Mit einem Ryzen ohne iGPU ginge PCIe 4.0, man bräuchte aber eine kleine GPU für unRAID und zwingend einen HBA Controller Gerade das Asus Pro WS liest sich interessant: https://forum.level1techs.com/t/remote-management-on-the-asus-pro-ws-x570-ace-under-linux/146432/26 Vielleicht kann man das sogar ohne GPU für unRAID nutzen?! Die User sagen zumindest, dass die IOMMU Gruppen sehr gut sein sollen, was bei AMD Boards selten der Fall ist. Und es gibt so eine Art Pseudo IPMI (nur über eine Windows Anwendung von einem anderen PC, aber das deutet ja daraufhin, dass man unRAID evtl einfacher ohne eigene GPU ans laufen bekommt?! EDIT: Es scheint als würde Linux eine IPMI Grafikkarte erkennen: https://www.reddit.com/r/VFIO/comments/ob2guw/how_do_bind_the_console_output_to_the_onboard/ Es gibt zwar keine Treiber, aber alleine dadurch, dass es die primäre GPU ist, sollte denke ich das Durchschleifen ohne extra unRAID Grafikkarte möglich sein. Demnach wäre das ASUS Pro WS X570-ACE + 5900X auch noch eine denkbare Option. https://geizhals.de/?cat=WL-2361805 - Ryzen 12 oder 16 Kern ohne iGPU - Board mit IPMI (unRAID hätte eine GPU) - Dual 10G LAN - PCIe 4.0 - 2x M.2 X4 - Hinweis: Mit einem 12 oder gar 16 Kerner könntest du Videos auch per CPU umwandeln. Frisst zwar mehr Strom, aber zumindest wäre die Leistung dafür da. - Hinweis: Gibt es nur als mATX, daher zwingend HBA Controller notwendig, neue HBA Controller sind sehr teuer, gebraucht auf eBay schon ab 100 € @Smolo hat übrigens das ASRock Rack X570 mATX und auch schon über das Asus X570 WS nachgedacht.
  18. Ok, I solved it as follows: # stop docker container host_path="$src_path" if [[ $( uname -r ) == *"Unraid"* ]]; then host_path=${src_path/\/mnt\/$( echo "$src_path" | grep -oP "(?<=/mnt/).*(?=/)")//mnt/.*} fi for container_id in $(echo "$docker_mounts" | grep -oP ".*?(?=:$host_path)" | uniq); do container_name=$(docker container inspect -f '{{ .Name }}' "$container_id") container_name=${container_name//\/} echo "Stop container $container_name as it uses $host_path" #docker stop "$container_id" done Now I need to expand this to support SSH sources as well.
  19. Nein. Die Parity kannst du dir wie ein Rechenergebnis vorstellen. Sagen wir auf Disk1 ist die Zahl "4" gespeichert. Auf der Disk2 die Zahl "2". Dann wäre auf der Parity die Zahl "6". Also: 4+2=6 Geht nun Disk1 kaputt: X+2=6 Dank der Parity ist es nun leicht zu berechnen was auf Disk1 war und die Daten können wiederhergestellt werden: 6-2=4 Das selbst geht natürlich auch bei noch mehr Disks: 4+2+3=9 4+X+3=9 9-4-3=2 Fazit: Die Parity enthält also keine Dateien von irgendwelchen Disks und sie weiß auch nicht "wo" diese Dateien liegen. Es sind einfach nur Rechenergebnisse. Wenn du es genau wissen willst, musst du dir sowas reinziehen: Ich kann deinem HDD1.. usw nicht folgen, aber mein Tipp wie du es machen solltest: 1.) Du packst alle HDDs ins Array. In deinem Fall sind das aktuell zwei 6TB HDDs. Also so: Die Daten auf Disk1 sind nun ausfallsicher gespeichert. Dh wenn Disk1 kaputt geht, können diese durch die Parity wiederhergestellt werden. Packst du noch eine HDD dazu, wäre auch diese abgesichert. 2.) Du hast aktuell einen Pool mit einer NVMe. Hier sollten deine Docker drauf und deine VM Disks. Alles was darauf liegt kann aber jederzeit verloren gehen wenn die NVMe kaputt geht: Was aktuell darauf liegt kannst du hinten mit dem Ordnersymbol checken: Damit die Daten sicher sind kannst du jetzt folgendes machen: a) Du kaufst dir eine zweite 980 1TB und packst diese ebenfalls in den Pool. Dann hättest du ein RAID1 b) Du machst regelmäßig Backups von der NVMe auf die HDD im Array. Um das umzusetzen gibt es Plugins (Backup Appdata zB), Docker Container (Lucky Backup zB) und Skripte (rsync incremental backup zB). Optimal wäre, wenn man beides, also a) und b), umsetzt. 3.) Du hast jetzt noch die SSD, die du an eine VM durchgeschliffen hast. Die ist als UD gelistet und kann so bleiben: Aber auch diese ist nicht gegen Ausfälle abgesichert. Um diese Daten abzusichern könnte man folgendes machen: a) Man installiert innerhalb der VM eine Backup-Software und sichert über das Netzwerk auf das Array (zB Macrium oder Veeam) b) Man stoppt die VM jede Nacht und sichert die ganze Platte per Skript auf das Array 4.) Deine beiden anderen SSDs sind schlicht überflüssig. Du brauchst sie nicht. Ehrlich nicht. Trust me ^^ Außerdem: Um genau zu sein ist 3.), also das Durchschleifen an eine VM, auch schon zu kompliziert. SSDs an VMs durchschleifen machen die Gurus, die unbedingt das letzte bisschen Performance aus einer VM rausholen wollen. Die machen das allerdings nicht mit einer SATA SSD = langsam, sondern mit NVMe SSDs. Der Witz ist nämlich, dass eine durchgeschliffene SATA SSD langsamer ist als eine vdisk auf einer NVMe, denn bedenke: SATA = 500 MB/s Spitze und NVMe = 4000 MB/s Spitze und SATA = 1 Übertragungskanal und NVMe = 8 Übertragungskanäle parallel. Schlussendlich wäre also meine Empfehlung: 2x 6TB HDDs ins Array 2x 1TB SSDs in den Pool Fertig.
  20. Nein, aber Unraid hat einen unlösbaren Bug, der beim Verschieben die Dateien nicht auf einen anderen Datenträger verschiebt, sondern diese auf dem ursprünglichen belässt. Dadurch greift die Cache "No" Geschichte leider nicht. Um dein Ziel zu erreichen wäre daher "Yes" besser. Also verschieben.. Bug greift und dank "Yes" verschiebt der Mover dann aufs Array. Oder du verschiebst nicht von /mnt/user/share_prefer nach /mnt/user/share_no, sondern von /mnt/cache/share_prefer nach /mnt/diskX/share_no. Der Bug existiert nämlich nur im Pfad /mnt/user. Ursache für den Bug ist, dass für Linux selbst nicht bekannt ist, dass hinter /mnt/user mehrere Datenträger stecken können. Und damit du das auch gleich weißt: Es gibt noch einen unlösbaren Bug. Hast du zB die Datei /mnt/share_prefer/datei.txt und verschiebst sie nach /mnt/cache/datei.txt, dann löschst du die Datei, weil Quelle und Ziel identisch sind. Daher niemals zwischen Share-Pfaden (/mnt/user) und Disk-Pfaden /mnt/poolname oder /mnt/diskX) Dateien transferieren.
  21. Du könntest bereits jetzt mit den zwei 14TB anfangen. Einfach ohne Parity als Disk1 und Disk2 zuweisen. Wenn die dritte 14TB kommt, stoppst du das Array und weist sie als Parity zu und unRAID baut diese auf. Auf die Art kannst du mit maximaler Geschwindigkeit befüllen. Da du ja die Dateien auf der Quelle noch hast, kann ja nichts passieren. Wenn du zwei LAN Buchsen hast, könnte man auch zwei Übertragungen parallel starten.
  22. Failed backups start with a dot in their name. Like ".20220203_125314" is a failed backup (or still in progress).
  23. Yes. It's "only" this. Yesterday I had another idea. I'm creating backups of my clients every hour. The creation is really fast as it adds a handful files and then creates the hardlinks locally and done. But deleting all these multiple backups of one day is really slow on the next day. In addition it needs to wake up the HDD on every backup as the hardlinks are created there instead on the cache (which is logical). Now I thought about adding a differential backup feature. So at first it creates a full backup and if already a full backup of the same day exists, it creates only differential backups. But this makes restoring all files more complicate for the user as they need to restore the full backup, then the differential backup (as it contains the more recent files) and finally delete all files which are inside a third folder (rsync calls it the backup folder). Could be too complicate for some users I think 🤔 Another "problem" is that the user opens the most recent differential backup folder and does not see all files he probably expects as they are in a different backup folder depending on their last modification time.
  24. Ich probiere jetzt mal die Einstellung aus. Früher mit Unraid 6.8.3 ruckelte damit Plex: echo powersave | tee /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor Mal sehen welche Auswirkungen das bei 6.9 hat. Auf die Package Power C-States hat es jedenfalls keinen Einfluss. Der steht bei mir nach wie vor auf C3. Im Leerlauf spart die Einstellung auch nicht sonderlich viel. Vielleicht 0.5W. Wobei wir unbedingt mal herausfinden müssen wie man diese Package Power ohne powertop auslesen können. Dieser Unterschied zwischen der alten und neuen Powertop-Version muss ja einen Grund haben.
×
×
  • Create New...