Jump to content

mgutt

Moderators
  • Posts

    11,371
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. @ArdNsc Ok, das ist komisch. Ich habe mir jetzt so einen Adapter besorgt, aber die NVMe wird nicht erkannt. Ist allerdings auch so eine billige No-Name NVMe. Vielleicht liegts an der?! Mehrverbrauch ohne die Intel Dual 10G Karte jetzt übrigens 4W. Die Intel Karte hat im Leerlauf also nur 2W ausgemacht. War allerdings auch kein Stecker verbunden. Trotzdem gut zu wissen.
  2. Rechnen wir mal durch: Beim Booten: 480 Watt max für die HDDs (16x 30W) 100W für den Rest Macht < 600W beim Booten Im Betrieb: 160W max für die HDDs (16x 10W) 220W max MB + Ryzen 5900X - 20W für die GPU, die im Leerlauf ebenfalls mitgemessen wurde 220W max RTX 3070 10W Leerlauf GT 1030 Macht < 600W wenn alles voll ausgelastet ist, was absolut unrealistisch ist, weil man dafür auf alle Platten gleichzeitig schreiben müsste und gleichzeitig die CPU und GPU jeweils in Benchmarks laufen müssten. Beim Arbeiten oder Spielen kann man das nicht erreichen. Wenn Effizienz wichtig sein sollte und Geld weniger eine Rolle spielt, wäre meine Empfehlung bei 1+1 GPUs ein Seasonic Prime TX 650W und wenn es 2+1 GPUs werden ein Seasonic Prime TX 850W.
  3. Das Video ab 4:27 schauen: bzw hier das Foto: Wie du siehst wurden drei Grafikkarten verbaut. Im ersten Slot die für Unraid. Bei manchen AMD Boards kann man die erste GPU dann wieder ausbauen, sobald die VMs eingerichtet wurden, bei anderen aber nicht. Dann springt das BIOS einfach auf die zweite GPU als primäre und die VM kann sie nicht mehr nutzen. Ursache dafür ist, dass AMD Consumer Hardware nicht für die Virtualisierung gedacht ist. AMD bietet das offiziell nur bei EPYC an. Was heißt das nun für dich: Entweder der zusätzliche Stromverbrauch ist dir egal und du kaufst dir auch für Unraid eine kleine GPU oder du setzt auf eine CPU mit iGPU oder du kaufst ein Board mit IPMI wie zB das: https://www.asrockrack.com/general/productdetail.asp?Model=X570D4U-2L2T#Specifications Bedenke aber, dass IPMI oder eine kleine GPU wie die GT 1030 nicht fähig ist zu transkodieren. Dafür braucht es schon eher eine GTX 1050 Ti. Solltest du also etwas wie Plex oder Jellyfin in Planung haben, solltest du das berücksichtigen.
  4. Du hast die Frage nicht beantwortet. Desktop oder NAS spielt überhaupt keine Rolle. Es gibt gute und schlechte Platten in beiden Bereichen. Das Teil berechnet ziemlichen Quark. GPU und HDD sind niemals gleichzeitig voll belastet. Außerdem will dir der Hersteller ein möglichst großes Netzteil und kein passendes verkaufen. Was hast du vor? Wenn du jetzt zb einen Ryzen ohne iGPU nimmst, brauchst du im Worst-Case für unRAID und jede VM eine eigene Grafikkarte. Du kannst zb nicht mehr ins BIOS oder die Kommandozeile sehen, wenn du eine Grafikkarte verbaust und diese an eine VM durchschleifst. Es ist auch nicht garantiert, dass das überhaupt geht. Viele mit AMD Setups mussten für unRAID eine GT 1030 oder ähnlich installieren, damit sie die große Grafikkarte überhaupt an eine VM durchschleifen konnten. LR, RDIMM, Reg, passt alles nicht. Es passt bei Consumer das hier (siehe die gewählten Filter): https://geizhals.de/?cat=ramddr3&xf=15903_DDR4~15903_keinSO~15903_mitECC~15903_ohneLR~15903_ohneREG&sort=r&hloc=at&hloc=de&v=e Um so größer das Netzteil, umso mehr Strom geht wegen der Ineffizienz für nichts drauf. Dh dein System verbraucht eigentlich 50W, aber wegen dem zu großen Netzteil zb 70W. Nein tut er nicht. Er baut temporär eine ein, damit er ins BIOS kann. Danach baut er sie wieder aus, weil das nur ein Fileserver werden soll. Ich suche dir gleich mal das Video raus wo du siehst, dass auch Linus so seine Probleme mit AMD hat. Ich verstehe die Frage nicht. Wie man einen Rechner zusammen baut oder geht es um die Liste der Komponenten?!
  5. Du bist der einzige, der das Board gemessen hat und jetzt ist eben die Frage ob es sparsam ist oder nicht. Weil sonst fliegt es von meiner Empfehlungsliste. Ich habe das Corsair RM550x (2021) übrigens noch rumliegen. Wenn du den Rückversand übernimmst, sende ich dir das.
  6. Die Platten können ja durchaus mehr verbrauchen, aber dass du ohne TV Karte und nur einem RAM Modul bei 15W landest, ist genauso ein Problem. Da würde ich irgendwas unter 10W erwarten. Kannst du im BIOS noch Audio und die RGB LED Buchse deaktivieren? Das Lenovo wird ebenfalls nicht an das Corsair RM550x (2021) dran kommen. Es liegen 3 bis 4W zwischen dem und meinem SF450 Platinum.
  7. hpet=disable bei den Kernel-Optionen setzen und den Server neu starten: Im BIOS ASPM auf "Auto" Dann das mal ausführen (das verfällt nach einem Neustart, muss also jedesmal wiederholt oder in die Go-Datei eintragen werden): echo med_power_with_dipm | tee /sys/class/scsi_host/host*/link_power_management_policy echo auto | tee /sys/bus/i2c/devices/i2c-*/device/power/control echo auto | tee /sys/bus/usb/devices/*/power/control echo auto | tee /sys/block/sd*/device/power/control echo auto | tee /sys/bus/pci/devices/????:??:??.?/power/control echo auto | tee /sys/bus/pci/devices/????:??:??.?/ata*/power/control for i in /sys/class/net/eth?; do dev=$(basename $i); [[ $(echo $(ethtool --show-eee $dev 2> /dev/null) | grep -c "Supported EEE link modes: 1") -eq 1 ]] && ethtool --set-eee $dev eee on; done for i in /sys/class/net/eth?; do ethtool -s $(basename $i) wol d; done echo "Done" Und das Ergebnis hiervon posten: https://forums.unraid.net/topic/111921-why-is-aspm-disabled-in-unraid-while-its-enabled-in-ubuntu/page/2/?tab=comments#comment-1053964 Irgendwelche Änderungen beim Stromverbrauch? Welches Netzteil hast du jetzt eigentlich?
  8. Wurde der Ordner auf Disk6 erstellt? Wenn nein, dann probiere den von Hand zu erstellen mit: mkdir /mnt/disk6/sharename Auch jetzt wieder bei Bedarf Array Stop/Start. Check auch mal ob was in den Logs steht.
  9. Screenshot machen, damit du weißt welche Platte in welchem Slot war, dann Tools > New Config und im Dropdown die Pools auf Preserve lassen. Jetzt sind alle deine HDDs "frei". Jede enthält nach wie vor ihre Dateien, da ja im Array kein RAID vorhanden ist, sondern jede Disk einzeln partitioniert ist. Du kannst nun die zwei 6TB wieder als Disk 1 und Disk 2 zuordnen und das Array starten. Die 4TB stehen jetzt unten als Unassigned Devices und könnten über das gleichnamige Plugin gemountet werden. Entweder verschiebst du jetzt die Dateien von den 4TB runter oder du hast das schon gemacht als die noch im Array waren. Wenn alle Dateien da sind, wo sie sein sollen, kannst du den Server runterfahren und die Platten ausbauen. Oder falls dein Server Hotswap-fähig ist, auch einfach im Betrieb abstecken. Was du nicht machen darfst: - eine Datendisk als Parity zuordnen, denn das würde sie löschen - eine Datendisk für einen Pool nutzen, denn auch das würde sie löschen Was evtl noch gemacht werden muss: - bei allen Shares prüfen ob bei include Disks irgendwo Disk3 oder Disk4 steht und das ändern (weil die gibt es ja nicht mehr im Array).
  10. Kauf eine dritte 14TB und du sparst dir dieses hin und her. Evtl kannst du dann ja auch gleich die ganzen 6TB verkaufen?!
  11. Mach da ja nichts falsch. ASRock hat da echt was Dämliches konstruiert. Einmal den falschen 4 Pin angeschlossen und das Board ist hinüber. Siehe hier: https://www.computerbase.de/forum/threads/achtung-bei-asrock-rack-c246-wsi-e3c246d2i-e3c242d2i.1969372/ Du musst also den 24 Pin ATX auf 4 Pin Adapter in die (richtige) 4 Pin Buchse stecken. Auch den 8 Pin EPS musst du anschließen. Der dient zur Versorgung der CPU. Allerdings reicht da auch nur ein 4 Pin EPS, wenn dein Netzteil nur so einen CPU Stecker hat. 8 Pin EPS braucht man nur bei Overclocking. Allerdings darf da auf keinen Fall der 4 Pin vom 24 Pin ATX Adapter rein. Ist aber denke ich alles im Link gezeigt. Auch so eine geile Sache von ASRock. Bieten so eine Buchse an, schreiben aber nirgends hin wie viel Ampere die aushält. Wenn dein Netzteil genug Anschlüsse hat, würde ich die ignorieren. Du sollst einfach mit zwei verschiedenen Kabeln vom Netzteil arbeiten, so dass nicht alle Platten mit nur einem Kabel versorgt werden. Die wollen damit vermeiden, dass das Kabel bei gleichzeitiger hoher Last zu heiß werden könnte. Normalerweise dürfen bis zu 11A über ein Kabel fließen. 11A wären bei 12V 132W und beim Hochfahren der Platten können 20 bis 30W pro Platte gezogen werden. Also 4 Platten pro Kabelstrang sind optimal. Das erklärt denke ich auch warum bei den Kabeln der Netzteile immer nur 4x Molex bzw SATA Power dran ist und nicht 5x. Wobei man da nicht super viel Panik schieben muss, wenn eine mehr dran ist, denn die Platten fallen nach 1 bis 2 Sekunden auf unter 10W. Nein, kein Problem.
  12. Sorry, ich kam bisher nicht dazu, habe es aber gerade ausprobiert. Aus Spaß habe ich die QNAP 10G, eine Intel Dual 10G und eine SATA Karte angeschlossen und nachdem ich im BIOS auf x8x4x4 umgestellt habe, hat er alles erkannt: Ich habe wie man sieht auch eine SSD angeschlossen und diese auch gemountet und Dateien drauf kopiert. Es gibt keinerlei PCIe Fehler in den Logs. Hatte ich wegen dem Verlängerungskabel nämlich erst befürchtet. Der Verbrauch ist um 6W gestiegen, was aber denke ich logisch ist bzw eigentlich hätte ich wegen der zwei zusätzlichen Karten sogar mehr erwartet. Ich habe jetzt keine PCIe M.2 Adapterkarten da, aber ich denke mal NVMe SSDs würde er auch erkennen.
  13. Gerade per Zufall in einem der Screenshots gesehen: https://www.hardwareluxx.de/community/threads/deep-mini-itx-mit-langem-dimms-asrock-rack-e3c256d4id-2t-im-test.1307478/#post-28935436 Wenn das stimmt, dann zieht alleine die Grafikkarte 20W.
  14. Stoppe und starte das Array. Wenn man die included Disks ändert, greift das manchmal erst dann.
  15. Heute hat man eigentlich nur noch im Enterprise Bereich Hardware RAIDs und auch da werden sie seltener. Die CPUs besitzen alle eine XOR Beschleunigung, so dass die CPU Last relativ gering ist. Siehe auch Intels VROC, was sogar schneller ist als Hardware RAIDs. Ehrlich gesagt verstehe ich unter 80 MB/s keine Performance. Für ein SHR/RAID5 ist das ehrlich gesagt ziemlich miserabel. Mit meiner damaligen DS1618+ kam ich auf 700 MB/s. Kann es sein, dass du SMR HDDs wie eine WD Red ohne "Plus" verbaut hast oder hast du eine sehr alte Syno mit sehr schwacher CPU? Wenn es lahme HDDs sind, wird das bei dem Unraid Array noch langsamer sein als bei deiner Syno. Wie auch immer. Es gibt massig Möglichkeiten die Performance bei Unraid zu steigern: SSD Cache, viel RAM, schnelle HDDs (kein SMR). Primär hilft hier der SSD Cache, auf dem man die "heißen" Dateien ablegen sollte. Also Uploads auf den Server, VMs, Docker oder vielleicht sogar permanent den einen oder anderen Share (ich habe zB meine MP3s auf dem Cache liegen, weil dann keine Latenz beim Abspielen vorhanden ist). Je nachdem wie viele Dateien das sind, musst du die SSD entsprechend groß wählen. Nein. Dann könntest du auch ein AMD Setup nehmen und drei Grafikkarten verbauen (1 für Unraid, 2 für die VMs). Von 70 bis 150W im Leerlauf ist dann alles dabei. Da sollte eigentlich ein Intel 6-Kerner mit iGPU und GVT-g Support reichen. Es spricht aber natürlich nichts gegen 8- oder 10-Kerner, wenn man noch Luft nach oben haben möchte. Vermutlich eher eine Budgetfrage. Du könntest jedenfalls folgende CPUs in Betracht ziehen: 10 Kerne Core i9-10900 ab 420 € Xeon W-1290P ab 570 € (ECC) 8 Kerne Core i7-10700 ab 320 € Xeon W-1270P ab 480 € (ECC) Core i7-9700 ab 280 € Xeon E-2278G nur gebraucht (ECC) Xeon E-2288G nur gebraucht (ECC) 6 Kerne Core i5-10400 ab 160 € Xeon W-1250P ab 350 € (ECC) Core i5-9400 ab 160 € Xeon E-2286G nur gebraucht (ECC) Core i7-8700 nur gebraucht
  16. Am besten in den Support Threads der Container posten. Dann bauen die Maintainer das meistens direkt ein.
  17. Sicher, dass die vdisk RAW ist und nicht zb qcow2? Also hat Unraid die erstellt oder kommt die von woanders? Bitte mal das ausführen: qemu-img info /mnt/user/domains/Windows\ 11/vdisk1.img In meinem Fall: qemu-img info /mnt/cache/vdisks/Windows\ 10/vdisk1.img image: /mnt/cache/vdisks/Windows 10/vdisk1.img file format: raw virtual size: 32 GiB (34359738368 bytes) disk size: 17.2 GiB
  18. I'm working on a new feature to stop containers which uses a path that is part of a backup job. This is how I obtain all paths used by all running containers: docker_mounts=$(docker container inspect -f '{{$id := .Id}}{{range .Mounts}}{{if .Source}}{{printf $id}}:{{.Source}}{{println}}{{end}}{{end}}' "$(docker ps -q)" | grep -v -e "^$") Which returns something as follows: ea6b8e2ace9179:/mnt/user/Photos 91b65a1fcb95e0:/mnt/disk5/Movies 9a9e5f90ae1767:/mnt/cache/appdata/npm 7a55c107226adf:/mnt/user/appdata/pihole Now I'm able to stop the relevant container(s): # stop docker container for container_id in $(echo "$docker_mounts" | grep -oP ".*?(?=:$src_path)" | uniq); do container_name=$(docker container inspect -f '{{ .Name }}' "$container_id") container_name=${container_name//\/} echo "Stop container $container_name as it uses $src_path" docker stop "$container_id" done But I'm facing a problem: Let's say the user creates a backup of the path "/mnt/user/Movies". By the above example, it would fail to stop the container "91b65a1fcb95e0" as it uses the "different" path "/mnt/disk5/Movies" (which is not different in the Unraid universe as we know). The only idea I had is to ignore the subdirectory and check for /mnt/*/Movies instead, but I'm not sure how this would result in a problem if my script is used on a different OS?!
  19. Ich habe das bei mir gerade ausprobiert. Ich habe den Share "domains" in "vdisks" umbenannt und dann den Pfad von der vdisk korrigiert. Läuft problemlos 🤔 Ich habe deine XML mal mit meiner verglichen. Ich habe unten noch einen hostdev Teil, aber ich meine der kommt, weil ich virtio und nicht virtio-net bei der Netzwerk-Karte gewählt habe: Außerdem steht bei mir ein malfunction='on' mehr als bei dir drin, aber da das USB betrifft, denke ich auch nicht relevant: Auch deine Logs sehen so ziemlich aus wie meine. Die Frage ist nun ob deine vdisk-Datei vielleicht defekt ist. Führe mal folgendes aus: losetup -l Da sollte die W11 nicht auftauchen. Nun binden wir die vdisk als Loop Device ein: losetup -f -P /mnt/user/domains/Windows\ 11/vdisk1.img Wiederhole das Kommando: losetup -l Du solltest nun deine vdisk als loopX sehen. Lass dir nun alle Partitionen anzeigen (loopX ersetzen): fdisk /dev/loopX -l So sieht das bei mir aus: Disk /dev/loop3: 32 GiB, 34359738368 bytes, 67108864 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disklabel type: gpt Disk identifier: 8BC57C25-5D5C-4E24-849B-BBBD9F5ED0B1 Device Start End Sectors Size Type /dev/loop3p1 2048 206847 204800 100M EFI System /dev/loop3p2 206848 239615 32768 16M Microsoft reserved /dev/loop3p3 239616 66096521 65856906 31.4G Microsoft basic data /dev/loop3p4 66097152 67104767 1007616 492M Windows recovery environment Eine Partition ist die größte, in meinem Fall die /dev/loop3p3. Diese mountest du nun wie folgt: mkdir /mnt/disks/w11 mount -t ntfs-3g /dev/loop3p3 /mnt/disks/w11 Jetzt kannst du dir normalerweise den Inhalt der Festplatte wie folgt anschauen: ls -lah /mnt/disks/w11 Mount entfernen: umount /mnt/disks/w11 rmdir /mnt/disks/w11 Loop Device entfernen (loopX ersetzen): losetup -d /dev/loopX Bei mir kam übrigens beim mount-Befehl diese Warnung: Windows is hibernated, refused to mount. Falling back to read-only mount because the NTFS partition is in an unsafe state. Please resume and shutdown Windows fully (no hibernation or fast restarting.) Das ist komisch, da ich bei mir den Windows Schnellstart deaktiviert habe und die Maschine ordentlich heruntergefahren habe. Hattest du evtl andere Fehler?
  20. If someone else has this problem, please post output of these commands: fuser -s "/mnt/user/system/libvirt/libvirt.img" losetup -j "/mnt/user/system/libvirt/libvirt.img" These two checks are part of /usr/local/sbin/in_use which is the reason for the "is in-use, cannot mount" error.
  21. The same happened to me after stopping the VM service, renaming the "domains" share to "vdisks" and restarting the VM service. What I tried: root@thoth:~# umount /mnt/cache/libvirt/libvirt.img umount: /mnt/cache/libvirt/libvirt.img: not mounted. root@thoth:~# /usr/local/sbin/mount_image '/mnt/cache/libvirt/libvirt.img' /etc/libvirt 1 /mnt/cache/libvirt/libvirt.img is in-use, cannot mount root@thoth:~# fuser -c /mnt/cache/libvirt/libvirt.img /mnt/cache/libvirt/libvirt.img: 6030m 6055m 7314m 7574m 8400m 8520m 8521m 8523m 8528m 8529m 8554m 8557m 8581m 8596m 8646m 8647m 8648m 8649m 8729m 8841m 8842m 8845m 9040m 9045m 12060m 12144m 16103m 16106m 16107m 16109m 16110m 16285m 16301m 16314m 16338m 16339m 16374m 16400m 16424cm 16446m 16455m 16479m 16488m 16658m 16659m 16662m 16663m 16678m 16893m 17537m 18805m 18818m 19679m 19680m 19681m 19682m 19683m 19684m 19685m 19686m 19687m 19688m 19689m 19690m 19691m 31769m 31843m 32152m 32155m 32195cm 32321m root@thoth:~# ps -p 6030 PID TTY TIME CMD 6030 ? 00:00:39 dockerd root@thoth:~# ps -p 6055 PID TTY TIME CMD 6055 ? 00:03:22 containerd root@thoth:~# ps -p 7314 PID TTY TIME CMD 7314 ? 00:00:00 s6-svscan root@thoth:~# ps -p 7574 PID TTY TIME CMD 7574 ? 00:00:00 s6-supervise root@thoth:~# ps -p 8400 PID TTY TIME CMD 8400 ? 00:00:00 dumb-init root@thoth:~# ps -p 32321 PID TTY TIME CMD 32321 ? 00:00:06 Plex Tuner Serv root@thoth:~# Then while and after stopping the docker service: root@thoth:~# fuser -c /mnt/cache/libvirt/libvirt.img /mnt/cache/libvirt/libvirt.img: 5651m 6030m 6055m root@thoth:~# ps -p 5651 PID TTY TIME CMD 5651 ? 00:00:00 s6-sync root@thoth:~# ps -p 6030 PID TTY TIME CMD 6030 ? 00:00:39 dockerd root@thoth:~# ps -p 6055 PID TTY TIME CMD 6055 ? 00:03:23 containerd root@thoth:~# fuser -c /mnt/cache/libvirt/libvirt.img /mnt/cache/libvirt/libvirt.img: 5651m 6030m 6055m root@thoth:~# fuser -c /mnt/cache/libvirt/libvirt.img root@thoth:~# Then I started the docker service again: fuser -c /mnt/cache/libvirt/libvirt.img /mnt/cache/libvirt/libvirt.img: 8869m 8893m 9644m 9788m 10066m 10067m 10071m 10072m 10088m 10096m 10197m 10198m 10199m 10200m 10201m 10202m 10203m 10204m 10205m 10206m 10207m 10208m 10209m 10210m 10271m 10630m 10788m 10789m 10790m 10793m 10794m 10806m 10807m 10825m 10841m 10842m 10843m 10844m 10925m 11227m 11259m 11262m 11325m 11472cm 11474m 11570m 11571m 11572m 11729m 11745m 11754m 11755m 11757m 11762m 11826m 11863cm And started successfully the VM service, too (yes completely the same output): fuser -c /mnt/cache/libvirt/libvirt.img /mnt/cache/libvirt/libvirt.img: 8869m 8893m 9644m 9788m 10066m 10067m 10071m 10072m 10088m 10096m 10197m 10198m 10199m 10200m 10201m 10202m 10203m 10204m 10205m 10206m 10207m 10208m 10209m 10210m 10271m 10630m 10788m 10789m 10790m 10793m 10794m 10806m 10807m 10825m 10841m 10842m 10843m 10844m 10925m 11227m 11259m 11262m 11325m 11472cm 11474m 11570m 11571m 11572m 11729m 11745m 11754m 11755m 11757m 11762m 11826m 11863cm I'd say it has nothing to do with the output of fuser. Must be something else wrong.
  22. Please add password protection or even better: Implement it into the usual Unraid GUI to force their credentials.
×
×
  • Create New...