Jump to content

mgutt

Moderators
  • Posts

    11,366
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. I read in the past something about missing downward compatibility of active cables. This means it could only support USB 3 and not 1 or 2. But I'm not sure about that. Ask Intel: https://www.intel.com/content/www/us/en/support/articles/000058558/graphics.html No 8th, 9th or 10th CPU. Some solve their hardware passthrough only in Legacy. Not sure why. Maybe to old cards which don't support UEFI?! Yes. You are not using Hardware acceleration, which works, but it causes heavy CPU load. So you could go with 11th, but maybe you could not benefit from the iGPU in Plex and you are not able to create small VMs with hardware acceleration through GVT-g. Everything would run through your usual CPU cores.
  2. No. MariaDB will be removed in Version 3. Create a new subdomain "npm" use your wildcard certificate Add the following to the advanced tab to disallow access from public (change your IP range accordingly): # allow anyone in 192.168.178.0/24 allow 192.168.178.0/24; # drop rest of the world deny all; open https://npm.example.com Optional: Try to set your local IP in your subdomains DNS, so 99.99% of all "attacks" never reach your server (but its still possible to access the NPM WebUI if the attacker knows your public IP, so never remove the allow/disallow rules!)
  3. Dese Einschränkung gilt nicht immer. Wenn du zB von Share A auf Share B kopierst und dort ist der Cache auf Yes, dann landet die kopierte Datei auf dem Cache. Der Mover verschiebt sie später auf die korrekte Disk. Es kommt also nur zu dem Problem, wenn der Ziel-Share keinen Cache aktiv hat. @Tiras Um dem entgegen zu wirken, empfehle ich den Krusader Container so anzupassen, dass man die Verknüpfung von /mnt/user löscht und stattdessen jede Disk und jeden Pool einzeln übergibt: Auf die Art kann man dann mit Krusader nur "disk-only" arbeiten und Dateien werden immer korrekt verschoben. 🤷‍♂️ Nur von Share zu Share oder von Disk/Pool zu Disk/Pool arbeiten. Das würde gehen, aber ich würde mir das gar nicht erst angewöhnen, damit du nicht versehentlich irgendwann cp /mnt/user/B /mnt/disk2/B machst = B wird gelöscht.
  4. Jo, die NVMe wurde nicht erkannt. Check mal deine Tools > System Log nach BTRFS Fehlern. Geht auch, wenn du auf das Disk-Icon klickst, aber darüber könnte nicht alles angezeigt werden. Hattest du mal einen Servercrash oder Stromausfall? In so einem Fall sollte man immer erstmal per Scrub einen Check machen. Ich denke so: btrfs scrub status /mnt/services_nvme Damit wird nichts geändert, sondern nur der Status mit Fehlerzahl angezeigt.
  5. Die Datei hat irgendein spezielles NTFS Attribut, das beim Kopieren auf ein SMB Ziel verloren geht. Auch weil dahinter ja eine XFS oder BTRFS formatierte Festplatte steckt. Bei einer ISO sind die egal. Wenn du es genau wissen willst was verloren geht, könntest du im Explorer per rechter Maustaste auf die Spalte, die "Attribute" aktivieren: Dann kopierst du die Datei auf den Unraid Server und schaust dir an welches nun fehlt. Was die Buchstaben bedeuten: https://www.urtech.ca/2017/11/solved-all-ntfs-attributes-defined/
  6. Welche Übersicht mit den Portfreigaben? Meinst du in der Fritz!Box? Dann hatte der Server mal die .50 und die Fritz!Box hat sich das gemerkt, obwohl du die IP danach geändert hast. Lösung: Freigabe löschen, Fritz!Box neu starten, Freigabe neu anlegen. Wenn man nicht neu starten will geht auch Portfreigabe löschen und dann den IPv4 DHCP Bereich kurz um eine Zahl rauf oder runter ändern. Dadurch werden ebenfalls nicht mehr existente Clients gelöscht. Bei Bedarf auch noch mal die nicht verbundenen Clients in der Netzwerkliste mit den Clients löschen (ganz unten der Button).
  7. No, because the CPU needs longer to finish a process, it consumes as much as the boosting CPU (for the total process). But even if boosting is outside of the efficiency sweet-spot and needed a little bit more energy, all other components are longer active (chipset, SATA controller, RAM, SSD, HDD...). T-CPUs are only useful if you need to build a super compact PC with tiny cooler. Don't forget the maximum cable lengths. It depends on your target. Downclocking can raise instability, but saves energy. The other option is to limit the TDP or disable turbo. But if you like to play games, that's nothing you really like to do 😉 11th Gen means no GVT-g, no Legacy Mode, no Plex Tone Mapping and high power consumption. But of course "high" depends on your definition of the word as it adds "only" 12W in idle compared to the 9th Gen: https://www.computerbase.de/2021-03/intel-core-i9-11900k-i5-11600k-test/5/#:~:text=44 Einträge-,Test%3A Leistungsaufnahme,-– Leerlauf (Steckdose) Yes, but finally most of the lanes are shared: The bottleneck is still the DMI 3.0 which uses only PCIe 3.0 X4. Something which nobody understands as 11th/12th Gen supports PCIe 4.0. This means two M.2 SSDs, the X4 PCIe Slot and the 10GBe are all using a total bandwidth of ~4GB/s. And note: With three NVMes, two SATA ports are disabled, so this board has only 4 SATA ports in total. The only nice thing about the recent Z590 is the M.2, which is connected to the CPU (but sharing bandwidth with X16).
  8. This official container is IPv6 compatible as mentioned in my first post. Note: jc21 is working on Version 3. Bridge uses NAT and IPv6 does not NAT (usually) and IPv6 is not enabled for Bridge Networks in Unraid. Note: I suggest to use "Host" if you need IPv6 as mentioned in my manual. Depends on how your wildcard certificate is validated. Usually port 80 is needed to (re-)validate Let's Encrypt certificates. But if you use for example a DNS based verification than you don't need port 80.
  9. How does your json look like? Maybe this happens because --log-opt is already defined in /etc/rc.d/rc.docker?! # Enable global docker LOG rotation if [[ $DOCKER_LOG_ROTATION == yes ]]; then [[ -z $DOCKER_LOG_SIZE ]] && DOCKER_LOG_SIZE=10m [[ -z $DOCKER_LOG_FILES ]] && DOCKER_LOG_FILES=1 DOCKER_OPTS="--log-opt max-size=$DOCKER_LOG_SIZE --log-opt max-file=$DOCKER_LOG_FILES $DOCKER_OPTS" fi ... nohup $UNSHARE --propagation slave -- $DOCKER -p $DOCKER_PIDFILE $DOCKER_OPTS >>$DOCKER_LOG 2>&1 & Try to edit this file. If this works, you could try to overwrite it through your Go file and "sed", so its permanent on reboot.
  10. -R oder -r meinen rekursiv, also inkl Unterordner -p ist noch interessant wenn man das Dateidatum und die Rechte erhalten möchte -a nutze ich meistens, weil es -r und -p kombiniert und auch noch zusätzliche Datei-Attribute mitnimmt: https://unix.stackexchange.com/a/44981/101920 Das passiert, wenn man von /mnt/user nach /mnt/cache oder /mnt/diskX kopiert. Das ist ein unlösbarer "Bug" in Unraid, bei dem sich die Datei selbst überschreibt (da beide Pfade Quelle und Ziel darstellen). Aus dem Grund ist in Krusader nur der Pfad "/mnt/user" verlinkt und nicht "/mnt", damit der User gar nicht erst die Platten sehen kann. Es gibt nun zwei Möglichkeiten: a) du hattest den Pfad entsprechend angepasst und versehentlich von Share nach Disk kopiert oder andersherum oder b) du hast das über die Kommandozeile gemacht. Ursache ist also nicht Krusader. Hier ein Beispiel, wo ich die Datei test.txt mit dem Wort "test" fülle, dann von /mnt/user nach /mnt/cache kopiere und dann ist sie leer: Der Grund dafür ist, dass ich beim Share "Music" den Cache aktiviert habe. Kopiere ich nun von /mnt/user, dann liest er die Datei aus dem Cache (/mnt/cache) aus, weil sie ja da gerade liegt und dann soll sie wieder nach /mnt/cache geschrieben werden. Gleichzeitig von einer Datei lesen und schreiben kann Linux aber nicht und löscht den Dateiinhalt einfach. Linux erkennt in dem Fall nicht, dass es sich um die selbe Datei handelt. Würde man in beiden Fällen den selben Pfad angeben, würde Linux das erkennen und den Kopiervorgang ablehnen: Linux erkennt das auch bei Mount Binds: Aber Unraid nutzt "Fuse" (SSHFS) um die Verzeichnisse alle zu verlinken und da steigt Linux nicht durch und überschreibt die Quelldatei einfach:
  11. In Germany around 100 €. Are you from Europe? Maybe some of the dealers ship internationally: https://www.idealo.de/preisvergleich/OffersOfProduct/6567847_-c246-wsi-asrock.html
  12. Yes of course, but except of that, GVT-g is a huge loss I think.
  13. Are 4 SATA ports enough? I like those: - Gigabyte C246N-WU2 8x SATA - ASRock Fatal1ty Z370 ITX 6x SATA - Supermicro C7Z370-CG-IW 4x SATA, but 2x M.2 (9x SATA through IO Crest Adapter) - ASRock C246 WSI 8x SATA
  14. These are your problems: MSI X99 This board has multiple extra chips like ASM1142, VIA VL805 etc and the 2011-v3 socket has no focus on low power consumption. Here is a comparison to the 1151 CPU: https://www.computerbase.de/2016-05/intel-core-i7-6950x-6800k-test/6/ So you are loosing 20 to 30W only because of the plattform. GT710 Can't find any tests but regarding the node a GTX 1050 should have less power consumption as it's even better than the GT 1030: https://www.techpowerup.com/review/nvidia-geforce-gtx-1070-ti/28.html Compared to a CPU with iGPU the disadvantage should be 10W to 20W, depending if the GPU reaches its sleep state (not sure how good this works in unRAID). Corsair RMi 750W This power supply is bad for low power consumption scenarios, but as your system has a high idle consumption, it's disadvantage is only ~2W. In low power scenarios like 15W it would be +4W compared to the RM550x 2021 10 or 11 drives In spindown state, those add 0,5 to 1,5W each, compared to a setup with a lower count, but bigger drives. Of course spinning drives consume much more (you did not mention their state). Dell PERC H310 RAID Controller Adds 5 to 15W Intel X550-T2 2x10G Adds 5 to 10W The 10th gen has a higher consumption compared to the 8th or 9th gen. T CPUs do not save power in idle. They are only limited in total power = they are simply slower = never buy a T CPU! My setup consumes 20W in idle: C246N-WU2 64GB ECC RAM 8x 12TB Ultrastar (add 5W) Xeon E-2146G 10G QNAP (adds 6W) This was with my less efficient Corsair SFX 450W Platinum. Next upgrade will be the Corsair RM550x 2021. My proposal would be the C246M-WU4 (ECC Support for Pentium Gold and i3) or W480M Vision (+2W, ECC Support only for Xeon and 2.5G LAN). Both are the "best unRAID boards" on the market regarding power consumption and features if 2x M.2 and 8x SATA is sufficient. I don't suggest 11th or 12th Gen as power consumption is higher, Intel skipped GVT-g support and ECC is only possible with Xeon CPUs.
  15. That's the reason. It's very popular as it's the only one with 8 SATA ports and ECC support and low power consumption. I don't know why, but there doesn't exist any W480 with an ITX form factor. Easy = 20 - 30 € extra costs and this board is already expensive. But depends on how much is too much ^^
  16. If you consider used hardware, I would buy an i3 8xxx (ECC RAM supported!). In my country they are really cheap as "old". But I would buy the C246M-WU4 as it is cheaper, does not need an Mini SAS adapter for SATA and it has 2x M.2 Slots. Another great board is the W480M Vision. Really similar to the WU4, 10th gen CPU (only Xeon supports ECC RAM!) and 2.5G LAN. But the WU4 is king regarding power consumption (7.7W): To reach such a low power consumption you need a Corsair RM550x (2021). It has a new low power technology to be compatible to the new ATX12VO standard. Another option could be the Be Quiet Pure Power FM 11 550W. It costs less then the Corsair and adds only 1W. Note: Do not buy 11th or 12th gen. High power consumption and no Intel GVT-g support.
  17. Das kommt drauf an. Ein Consumer-Board hat eh nicht so viele Lanes als dass man da deutlich mehr verbauen könnte. Die CPU hat in der Regel 16 oder 16+4 (NVMe) Lanes. Zwei X8 Slots und die Lanes sind weg. Dann gibt es bei Intel noch 4 Lanes fürs DMI. Da läuft dann wirklich alles drüber wie USB, SATA, NVMe, LAN und ab und zu noch ein paar X1 Slots. Bei Full ATX gibt es dann häufig noch einen X4 Slot vom Chipsatz. Der aber meist im Wechsel mit einer zweiten NVMe. Daher sind vom Prinzip zwei Karten eh das Limit, da man ja auch noch NVMes haben will. Oder drei Karten und eine NVMe. Wenn man mehr verbauen möchte, dann geht eigentlich nur ein Xeon Server-Chipsatz mit entsprechend großem Stromverbrauch und die iGPU fehlt dann natürlich auch.
  18. mgutt

    Backuplösung

    @Pixelpaule Was mir gerade noch einfällt. Man könnte natürlich auch hingehen und immer die letzten x Backups in eine Tar packen und die in die Cloud sichern. zB könnte ich ein Tar aus dem Backup von Mo bis So machen oder wie hier ein Tar vom 4. Quartal 2020: tar --create --file=/mnt/cache/Marc/2020Q4.tar \ /mnt/disk7/Backup/Shares/Music/20201101_044004 \ /mnt/disk7/Backup/Shares/Music/20201201_052124 \ /mnt/disk7/Backup/Shares/Music/20201201_052124 "2020Q4.tar" hat dann eine Größe von 206GB, während jeder Quellordner jeweils 192GB groß ist (ohne Berücksichtigung der Hardlinks): du -h -d1 /mnt/disk7/Backup/Shares/Music/20201101_044004 192G /mnt/disk7/Backup/Shares/Music/20201101_044004 du -h -d1 /mnt/disk7/Backup/Shares/Music/20201201_052124 192G /mnt/disk7/Backup/Shares/Music/20201201_052124 du -h -d1 /mnt/disk7/Backup/Shares/Music/20201201_052124 192G /mnt/disk7/Backup/Shares/Music/20201201_052124 Und umso mehr Backups man in ein Tar packt, umso mehr Platz spart man. Wenn es sich lohnt die Dateien zu komprimieren (bei Musik oder Video ja eher nicht), könnte man mit pigz auch eine komprimierte Tar erstellen: tar --create --file=- \ /mnt/disk7/Backup/Shares/Music/20201101_044004 \ /mnt/disk7/Backup/Shares/Music/20201201_052124 \ /mnt/disk7/Backup/Shares/Music/20201201_052124 | pigz -1 > /mnt/cache/Marc/2020Q4.tar.gz Wenn man das Tar dann entpackt, sind alle drei Backups jeweils vollständig und nutzen auch wieder Hardlinks: du -d1 -h /mnt/cache/Marc/Music_entpackt 192G /mnt/cache/Marc/Music_entpackt/20201101_044004 123M /mnt/cache/Marc/Music_entpackt/20201201_052124 3.6M /mnt/cache/Marc/Music_entpackt/20210101_053119 du -d1 -h /mnt/cache/Marc/Music_entpackt/20201201_052124 192G /mnt/cache/Marc/Music_entpackt/20201201_052124 Hat man nicht gerade Platzmangel in der Cloud, kann man so denke ich ganz gut arbeiten.
  19. @sonic6 Ich habe nun auch ein automatisches Backup integriert, so dass das hier nicht mehr passiert: Das einzige was jetzt noch bei einem Serverabsturz verloren gehen kann sind Container Log Einträge, die nach dem letzten automatisch Backup dazu gekommen sind. Das kann man aber denke ich verschmerzen.
  20. @TexasUnraid I rewrote the enhancement again. Now it's only needed to change the Go-File: https://forums.unraid.net/bug-reports/stable-releases/683-unnecessary-overwriting-of-json-files-in-dockerimg-every-5-seconds-r1079/?tab=comments#comment-15472 And it even includes an auto backup feature (more in #2 of this post). 1.) After a fresh reboot the RAM-Disk uses 328KB: EDIT: After 60 days it uses 500MB (11 containers): It all depends on the container logs. But they can be limited through the docker settings: By that 10 containers with each having a full log file (which is rather unlikely), would use 500MB of RAM. 2.) At first you should know: /var/lib/docker/containers contains "useless" data like the container logs, healthcheck state and network settings. Each folder will be deleted and re-created if you change something in the container's settings. They are only re-used on starting/stoping a container or rebooting the server. If they would miss, the containers aren't loaded anymore, but you could easily re-install all containers through Apps > Previous Apps without data loss. I tested this by simply deleting the folder: rm -r /var/lib/docker/containers/* But: To avoid the loss of these folders on server crash or power-loss, they are automatically synced to disk everytime you open the docker tab. This creates a syslog entry: But what happens if you don't access the docker tab and the server crashes? This means the container log entries which are added after the backup, are lost. So if your container logs are super important to you, don't use this enhancement (or add a cron job).
  21. Die haben beide meiner Ansicht nach Aquantia Controller und die gehen.
  22. /data points to mnt/user/appdata/Nginx-Proxy-Manager-Official/data So please check the content of this folder.
  23. Der Controller ist von Tehuti. Die Firma ist schon einige Jahre dicht und es gibt keine Treiber mehr für aktuelle Linux Versionen
  24. mgutt

    Bräuchte Rat

    Kannst du auch machen. Da ist nichts wichtiges drin. Danach einfach über Apps > Previous Apps die Container neu installieren. Dann werden die Images neu runtergeladen.
  25. Da du eine Intel CPU hast, kannst du eine Windows VM per Intel GVT-g Plugin mit einer GPU ausstatten. Die GPU kann dann Blue Iris beschleunigen und das System entsprechend entlasten. Siehe auch hier: https://forums.unraid.net/topic/112374-windows-1011-vm-installationsanleitung/ Wegen der ständigen Schreiblast durch die Cams würde ich darüber nachdenken als zweiten Datenträger eine RAM Disk durchzuschleifen. Allerdings brauchst du dafür entsprechend viel RAM. Kommt auch darauf an wie Blue Iris die Daten schreibt. Vielleicht gibt es auch eine interne Funktion, wo Blue-Iris erstmal alles in den RAM schreibt?!
×
×
  • Create New...