Jump to content

mgutt

Moderators
  • Posts

    11,371
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. "Nicht so oft" ist gut. Um genau zu sein, habe ich das noch nie gemacht und du machst es exakt 1x, weil du deinen Server gerade aufbaust. Und wir haben ja bereits festgestellt, dass die Last gar nicht so hoch ist, sondern das Dashboard einfach nur wegen I/O Wait übertriebene Werte anzeigt. Ich schaue mal gerade auf meinem Desktop PC. Massig Browser Fenster und Anwendungen offen, Dual Monitor... durchschnittliche Last 10%. Selbst bei einem Overhead durch die Virtualisierung kommst du da in Unraid nicht auf 30%. Und mein i5-7600K hat sogar die selbe Leistung wie der i3-9100.
  2. Da Windows bereits installiert ist, kannst du die ISO entfernen. Was gibt dieses Kommando aus, wenn du es im Terminal eingibst: ls -lah "/mnt/user/domains/Windows 11/vdisk1.img" Und was ist mit deinen VM Logs?
  3. Ja sieht aus als hätte der Server nicht wirklich was zu tun. Warten wir mal ab bis es wieder zu einem Absturz kommt. Dann siehst du ja ziemlich genau auf die Minute wann er abgeschmiert ist und was dann gerade lief. Viel versprechen tue ich mir nicht davon, aber wer weiß.
  4. Ist natürlich eine Preisfrage, aber mit einem i3-9100 stehst du nicht schlechter da, hast aber die sparsamere Hardware: https://www.cpubenchmark.net/compare/Intel-Xeon-E3-1285L-v4-vs-Intel-i3-9100-vs-Intel-Xeon-E3-1275L-v3/2743vs3479vs2490 Die Frage ist natürlich wie günstig du das Board, RAM usw bekommst. Du solltest außerdem wissen, dass der v4 Broadwell ist und Broadwell kann kein HEVC (H.265) transkodieren: https://en.wikipedia.org/wiki/Intel_Quick_Sync_Video#Hardware_decoding_and_encoding Das geht erst ab Skylake, also der 6ten Generation mit 1151v1 Sockel. Der i3-9100 ist zB 9te Generation mit 1151v2 Sockel. Bei Xeon wäre ein 1151v1 zB ein Xeon E3-1275 v5. Auf eBay gibt es mehrere Xeon E3-1245 v5. Von der Leistung her auch ok: https://www.cpubenchmark.net/cpu.php?cpu=Intel+Xeon+E3-1245+v5+%40+3.50GHz&id=2674 Als Board bräuchtest du dann was mit C236 Chipsatz: https://geizhals.de/?cat=mbxeon&xf=317_C236 Das Fujitsu D3417-B2 soll sehr stromsparend sein (wenn dir das wichtig ist) und es ist günstig: https://geizhals.de/fujitsu-d3417-b2-d3417-b21-s26361-f5110-v140-a1602806.html?hloc=at&hloc=de Aktuell überteuert wäre der Nachfolger (wo dann ein i3-9100 drauf könnte): https://geizhals.de/fujitsu-d3644-b-s26361-f5110-v162-a1904781.html?hloc=at&hloc=de Wir empfehlen meistens das für die 8te und 9te: https://geizhals.de/gigabyte-c246m-wu4-a2019282.html?hloc=at&hloc=de Oder das für die 10te Generation: https://geizhals.de/gigabyte-w480m-vision-w-a2376223.html Die letzten beiden haben direkt 8x SATA und 2x M.2 an Board. Da spart man häufig zusätzliche Erweiterungskarten, so dass sich der Aufpreis relativiert. Wie viele Platten möchtest du schlussendlich anschließen können? So eine Karte verbraucht 8 bis 15W. Das klingt etwas überdimensioniert. Du baust keinen Gaming-PC oder soll das am Ende irgendwie schick aussehen? Ein normaler Luftkühler reicht in der Regel. Kann man machen, kostet dich aber zwei SATA Anschlüsse und die Performance einer NVMe ist deutlich besser. Bei oben genanntem Fujitsu könnte man zB eine M.2 direkt auf dem Board anschließen und eine zweite mit PCIe M.2 Adapter. Dann hättest du eine RAID1. Oder man holt nur eine NVMe und macht regelmäßig Backups. Das wird gerne beim Selbstbau genommen. Auch eine Option ist das Nanoxia Silence 4.
  5. Spontan würde ich sagen ist ok. Ich bin zwar kein Freund von den kleinen HDDs, aber klar, 4TB SSDs kosten natürlich immer noch deutlich mehr. Ich warte immer noch auf jemanden, der eine 4TB NVMe als Parity und Disk1 nimmt und weitere 4TB SATA SSDs als Disk2, Disk3, usw ins Array packt. Da sollte eigentlich eine ziemlich gute Performance bei rauskommen und man könnte sich den Cache komplett sparen 😁 Die CPU ist übrigens boxed, hat also bereits einen Kühler. Wenn Lautstärke keine Rolle spielt, kannst du den von Be Quiet weglassen. Ich persönlich bin übrigens kein Fan von dem Node 804. Über 40 Liter sind nicht wirklich kompakt und die Platten sind schwer erreichbar. Wenn Platz keine Rolle spielt, dann würde ich eher ein Define R5 oder Nanoxia Silence 4 nehmen. Vielleicht kann @MPC561 was dazu sagen. Er hat das 804 ja meine ich im Einsatz. Und @Pixelpaule oder hast du was anderes gekauft?
  6. Fast, ich hatte einen Schreibfehler bei einem Anführungszeichen. Ist oben korrigiert. Bei Custom einfach fünf Sterne mit Leerzeichen eintragen. Also: * * * * * Dh jede Minute ausführen: https://crontab.guru/#*_*_*_*_*
  7. Du hast die Anmerkung von @DataCollector gelesen? Im Unraid Array gibt es kein klassisches RAID, aber eine Ausfallsicherheit von 1 bis 2 Festplatten, wie man es von RAID5/6 kennt. Siehe auch: https://forums.unraid.net/topic/99393-häufig-gestellte-fragen/?tab=comments#comment-1021986 Das Array erlaubt das Mischen von Platten wie bei Synos SHR. Aber es ist deutlich langsamer (Schreibgeschwindigkeit 50 bis 80 MB/s je nach HDD). Unraid bietet auch ein klassisches RAID5/6 in den Pools an. Da ist die Frage wo dein Schwerpunkt liegt (Performance vs Strom sparen). Viele, wenn du die VMs nicht als aktive Clients nutzt, sondern nur als Server. Docker spielen in der Regel so gut wie gar keine Rolle. Kommt aber natürlich darauf an was für Anwendungen du betreiben möchtest. Wenn eine VM als Client genutzt werden soll, kommt es darauf an welche Leistung abgerufen wird. Für Gaming würde ich eher einen 6- oder 8-Kerner nehmen. Für Office wird ein 4-Kerner reichen. Für Office bräuchte es auch mindestens eine iGPU um den Desktop und Videos zu beschleunigen. Die wäre aber beim i3-9100 vorhanden. Hier zB die Auslastung bei 6 aktiven Containern: Zusätzlich Ubuntu Server (ohne Desktop) und Windows 10 im Leerlauf: So funktioniert das nicht. Entweder ist der RAM kaputt und bleibt kaputt oder du hast durch kosmische Strahlung verfälschte Daten. In beiden Fällen hilft kein Neustart. ECC RAM hilft dir dabei diese Fehler überhaupt zu erkennen. Ohne ECC weiß man erst, dass der RAM kaputt ist, wenn man einen Memorytest macht. Siehe auch: https://forums.unraid.net/topic/99393-häufig-gestellte-fragen/?tab=comments#comment-947943 Das machst du nicht, weil das nur die Fehlerquellen erhöht und sonst keinen Vorteil bringt. Entweder verbaust du eine 1TB NVMe und machst regelmäßig Backups oder zwei 1TB im RAID1 oder zwei separate 512GB (auch hier natürlich Backups machen!) und du verteilst die Daten (zB Cache und Docker auf eine und VM Vdisks auf die andere). Unraid bootet langsam, da es sich bei jedem Booten neu installiert (2 bis 3 Minuten + evtl Startzeit einer VM). Ist das ein Problem? Also: - Ist das langsame Unraid Array ein Problem für dich? - Willst du Strom sparen? - Wie viele VMs benötigen eine Hardware-Beschleunigung von Desktop, Browser und/oder Video? Gaming?
  8. Das deutet daraufhin, dass dein Stick keine Verbindung mehr hat. Vermutlich defekt oder hast du ein AMD System mit dem USB Bug im Einsatz?
  9. Erstelle mal bitte ein Skript, das jede Minute ausgeführt wird und füge das ein: echo "$(date '+%F %T')" >> /mnt/cache/proc.log ps --sort=-pcpu aux | head -n 10 >> /mnt/cache/proc.log echo "$(date '+%F %T')" >> /mnt/cache/mem.log ps --sort=-rss aux | head -n 10 >> /mnt/cache/mem.log sleep 30 echo "$(date '+%F %T')" >> /mnt/cache/proc.log ps --sort=-pcpu aux | head -n 10 >> /mnt/cache/proc.log echo "$(date '+%F %T')" >> /mnt/cache/mem.log ps --sort=-rss aux | head -n 10 >> /mnt/cache/mem.log Auf die Art werden alle 30 Sekunden alle Prozesse nach CPU Last und RAM Auslastung geloggt. Vielleicht erkennt man ja was?!
  10. RAID Karten werden nicht unterstützt. Was du brauchst nennt sich HBA, wobei viele RAID Karten auch diesen Modus unterstützen. An so einer HBA Karte kannst du in der Regel bis zu 256 HDDs anschließen, wobei ohne Expander meist 16 oder 24 möglich sind. Die Alternative dazu wäre ein Board mit 8x SATA und zwei SATA Karten mit jeweils 6x SATA mit ASM1166 oder 5x SATA mit JMB585 Controller. Hat den Nachteil, dass man eine Karte mehr verbauen muss, aber den Vorteil, dass sie jeweils nur 2W verbrauchen (HBA Karten ziehen 5 bis 15W je nach Modell). Empfehlen würde ich dir ein W480M mit einem 10th Intel oder ein C246M mit einem 8th oder 9th Intel oder falls der Stromverbrauch keine große Rolle spielt ein AMD X570. Siehe auch: https://forums.unraid.net/topic/99393-häufig-gestellte-fragen/?do=findComment&comment=1021228 Gehäuse mit Backplane sind komfortabel aber meist auch laut und verbrauchen mehr Strom. Da muss man abwägen was einem wichtiger ist. In ein "normales" PC Gehäuse wie dem Fractal Design 7 XL könnte man auch 18 HDDs bauen. Oder man baut zwei Server mit jeweils 8x SATA und verbaut größere HDDs. Dann könnte man auch kleinere Gehäuse wie zb zwei Node 804, Nanoxia Silence 4 oder Define R5 in Betracht ziehen. Also gehen tut so einiges. Die Frage ist wo deine Schwerpunkte, Bedarf, Budget, Platz, usw liegen.
  11. Aktuell gibt es gute NVMe im Angebot: https://www.mydealz.de/deals/samsung-ssd-970-evo-plus-1tb-m2-inkl-10eur-gutschein-1922687 https://www.mydealz.de/deals/western-digital-wd-black-sn750-nvme-ssd-1tb-m2-r3470-w3000-3d-nand-tlc-1gb-cache-mit-fullartikel-1922680 Die würde ich schon mal kaufen. Warum holst du dir nicht gleich ein Board mit 6x SATA und auch 2.5G LAN? Wäre zukunftssicherer und preislich gibt sich das auch "nichts": https://geizhals.eu/?cat=mbp4_1200&v=e&hloc=at&hloc=de&hloc=pl&hloc=uk&hloc=eu&sort=p&bl1_id=30&xf=11924_2%7E1244_6%7E17256_1%7E19030_Intel%7E4400_%B5ATX Ich habe hier und hier gelesen, dass manche M.2 Key-E Slots nur für CNVi/CNVio/CNVio2 geeignet seien. Ist da was dran?
  12. Dann nimm das Gigabyte W480M oder wenn es kein ECC RAM sein muss irgendein beliebiges Board mit mind 6x SATA und mind 2x M.2. Da gibt es massig: https://geizhals.de/?cat=mbp4_1200&xf=11924_2~1244_6~4400_%B5ATX&sort=t&hloc=at&hloc=de&v=e
  13. Nein, ich hatte das nur als Fehlerursache erwartet. Also dass er nicht auf den Stick schreiben kann. Also du kannst es jetzt aktivieren, so dass die Fehler auch nach einem Neustart erhalten bleiben. Dein RAM ist aber in Ordnung? Also ECC ist aktiv und in den Logs sind keine Fehler?
  14. Dass der vi Editor den Prozessor so auslastet ist nicht normal. Der hat sich aufgehangen, was man auch an der Time sieht, da der schon ewig läuft. Ein "kill -9 21607" löst dein Problem. Wobei die Frage ist was überhaupt "vi" aufgerufen hat?!
  15. I released version 1.3: # - Fixed typo which prevented deleting skipped backups # - Fixed typo in notify function which returned wrong importance level # - Better error reporting # - Added support for SSH sources # - Fixed bug while creating destination path on remote server # - Empty dir is not a setting anymore # - Logfile is now random to avoid race conditions # - Delete logfile of skipped backups As you can see it's now possible to backup SSH sources, which is shown as an example in the settings: # backup source to destination backup_jobs=( # source # destination "/mnt/user/Music" "/mnt/user/Backups/Shares/Music" "user@server:/home/Maria/Photos" "/mnt/user/Backups/server/Maria/Photos" "/mnt/user/Documents" "user@server:/home/Backups/Documents" )
  16. https://github.com/jc21/nginx-proxy-manager/issues/1676 You have to change the repository name of the container to the following to get this update and clean your browser cache: jc21/nginx-proxy-manager:github-pr-1677 But don't forget to remove this in a month or so, to get further updates or you are stuck with this version.
  17. I'm facing the same problem: After enabling the logs it says these files do not exist: Dec 27 13:29:21 thoth root: Specified filename /mnt/cache/Backups/Shares/appdata/20211224_044001/npm/letsencrypt/live/npm-7/cert.pem does not exist. Dec 27 13:29:21 thoth move: move: file /mnt/cache/Backups/Shares/appdata/20211224_044001/npm/letsencrypt/live/npm-7/cert.pem [10301,c50fbc1c] Dec 27 13:29:21 thoth move: move_object: /mnt/cache/Backups/Shares/appdata/20211224_044001/npm/letsencrypt/live/npm-7/cert.pem No such file or directory Dec 27 13:29:21 thoth root: Specified filename /mnt/cache/Backups/Shares/appdata/20211224_044001/npm/letsencrypt/live/npm-7/chain.pem does not exist. Dec 27 13:29:21 thoth move: move: file /mnt/cache/Backups/Shares/appdata/20211224_044001/npm/letsencrypt/live/npm-7/chain.pem [10301,c50fbc1d] Dec 27 13:29:21 thoth move: move_object: /mnt/cache/Backups/Shares/appdata/20211224_044001/npm/letsencrypt/live/npm-7/chain.pem No such file or directory Dec 27 13:29:21 thoth root: Specified filename /mnt/cache/Backups/Shares/appdata/20211224_044001/npm/letsencrypt/live/npm-7/fullchain.pem does not exist. Dec 27 13:29:21 thoth move: move: file /mnt/cache/Backups/Shares/appdata/20211224_044001/npm/letsencrypt/live/npm-7/fullchain.pem [10301,c50fbc1e] Dec 27 13:29:21 thoth move: move_object: /mnt/cache/Backups/Shares/appdata/20211224_044001/npm/letsencrypt/live/npm-7/fullchain.pem No such file or directory Dec 27 13:29:21 thoth root: Specified filename /mnt/cache/Backups/Shares/appdata/20211224_044001/npm/letsencrypt/live/npm-7/privkey.pem does not exist. Dec 27 13:29:21 thoth move: move: file /mnt/cache/Backups/Shares/appdata/20211224_044001/npm/letsencrypt/live/npm-7/privkey.pem [10301,c50fbc1f] Dec 27 13:29:21 thoth move: move_object: /mnt/cache/Backups/Shares/appdata/20211224_044001/npm/letsencrypt/live/npm-7/privkey.pem No such file or directory But I have a different dir which contains links, which were moved: The red color means that the symlinks target does not exist. This means the mover already moved the target file. Maybe the mover has a bug which fails because of that? There are other commands in Linux which fail with the same error: getfattr --dump /mnt/cache/Backups/Shares/appdata/20211224_044001/npm/letsencrypt/live/npm-7/* getfattr: /mnt/cache/Backups/Shares/appdata/20211224_044001/npm/letsencrypt/live/npm-7/cert.pem: No such file or directory getfattr: /mnt/cache/Backups/Shares/appdata/20211224_044001/npm/letsencrypt/live/npm-7/chain.pem: No such file or directory getfattr: /mnt/cache/Backups/Shares/appdata/20211224_044001/npm/letsencrypt/live/npm-7/fullchain.pem: No such file or directory getfattr: /mnt/cache/Backups/Shares/appdata/20211224_044001/npm/letsencrypt/live/npm-7/privkey.pem: No such file or directory getfattr needs an additional flag to check the symlink itself: -h, --no-dereference Do not dereference symlinks. Instead of the file a symlink refers to, the symlink itself is examined. Unless doing a logical (-L) traversal, do not traverse symlinks to directories. Is it possible that the Unraid Mover uses this command or a similar one? EDIT1: Yes, that is the problem. Because if I copy the symlink target files back to the cache, the mover now moves the symlinks to the array (but skips the duplicated files, which is an expected behavior). EDIT2: One "bug" is this "fuser" command in file /usr/local/sbin/in_use: fuser -s "$FILE" && exit fuser fails if the file does not exist, and as it follows symlinks, it does fail: So Limetech should use something like this instead, to avoid in-use checks for symlinks as symlinks can't be in-use at all: [[ -L "$FILE" ]] && exit 1
  18. As it is more comfortable for the user I like to see this enhancement in Unraid: In addition there should be a "change password" page, if the user changed their microsoft password. I already tried to add the at sign to the javascript check when adding a user, but it finally fails with "emhttpd: Invalid user name". Several files contain the username: grep -sRI --exclude-dir={dev,mnt,msg.sock,proc,run,sys,overlay2} "foobarbaz" / /etc/shadow:foobarbaz::18988:::::: /etc/passwd:foobarbaz:x:1004:100::/:/bin/false /etc/shadow-:foobarbaz:!:18988:::::: /etc/samba/smb-shares.conf: write list = john,foobarbaz /etc/samba/smb-shares.conf: valid users = john,foobarbaz /usr/local/emhttp/state/sec.ini:writeList="john,foobarbaz" /usr/local/emhttp/state/users.ini:["foobarbaz"] /usr/local/emhttp/state/users.ini:name="foobarbaz" /usr/local/emhttp/boot/config/shares/isos.cfg:shareWriteList="john,foobarbaz" /usr/local/emhttp/boot/config/passwd:foobarbaz:x:1004:100::/:/bin/false /usr/local/emhttp/boot/config/shadow:foobarbaz::18988:::::: /usr/local/emhttp/boot/config/smbpasswd:foobarbaz:1004:NO PASSWORDXXXXXXXXXXXXXXXXXXXXX:NO PASSWORDXXXXXXXXXXXXXXXXXXXXX:[NDU ]:LCT-00000000: /boot/config/shares/isos.cfg:shareWriteList="john,foobarbaz" /boot/config/passwd:foobarbaz:x:1004:100::/:/bin/false /boot/config/shadow:foobarbaz::18988:::::: /boot/config/smbpasswd:foobarbaz:1004:NO PASSWORDXXXXXXXXXXXXXXXXXXXXX:NO PASSWORDXXXXXXXXXXXXXXXXXXXXX:[NDU ]:LCT-00000000: /var/local/emhttp/sec.ini:writeList="john,foobarbaz" /var/local/emhttp/users.ini:["foobarbaz"] /var/local/emhttp/users.ini:name="foobarbaz" /var/lib/samba/private/smbpasswd:foobarbaz:1004:NO PASSWORDXXXXXXXXXXXXXXXXXXXXX:NO PASSWORDXXXXXXXXXXXXXXXXXXXXX:[NDU ]:LCT-00000000:
  19. mgutt

    Neuer Server

    Bisher sieht das schlecht aus: https://github.com/intel/gvt-linux/issues/190 Und ich glaube, dass Intel das nur im Enterprise Bereich rausbringen wird, sobald deren Xe Grafikkarte draußen ist. Also wie es auch Nvidia mit Quadro/Tesla macht. Ich glaube wenn bringen die das nur bei Xeon Prozessoren. Die wissen schon wie man Geld verdient.
  20. Sagte ich doch. Der RPI bzw deine genutzte RDP Software kann offensichtlich den RDP Codec nicht ausreichend per iGPU beschleunigen. Das wäre bei Parsec oder Chrome Remote Desktop anders, weil die H264 nutzen, was jede GPU beschleunigen kann. EDIT: seit Windows 10 wird H264 wohl auch von RDP genutzt: https://techcommunity.microsoft.com/t5/security-compliance-and-identity/remote-desktop-protocol-rdp-10-avc-h-264-improvements-in-windows/ba-p/249588 In dem Artikel steht auch wie man prüfen kann, ob es genutzt wird. Und hier steht, dass der Client AVC444 unterstützen muss, ansonsten geht es nicht: https://superuser.com/a/1540046/129262 Da ist auch ein Beispielkommando: If you are using FreeRDP client make sure you start it with /gfx-h264:AVC444, you have set at least /bpp:24, and NO /rfx or /rfx-mode:video. You will also need to make sure you built FreeRDP with ffmpeg h.264 support rather than OpenH.264 as the latter has broken support for AVC444 decoding and will result in artifacts that render RDP unusable.
  21. mgutt

    Neuer Server

    Korrekt. Trotzdem schade drum.
  22. Der nutzt WebRTC und damit H.264, was ja auf eigentlich jedem Client beschleunigt werden kann: https://cloud.google.com/architecture/gpu-accelerated-streaming-using-webrtc Parsec nutzt übrigens auch WebRTC.
  23. RDP ist ein proprietäres Protocol von Microsoft. Es kann gut sein, dass der Codec vom RPI nicht ordentlich beschleunigt wird. Recherchiere mal speziell dazu zum RPI. Vielleicht gibt es ja bessere Treiber oder so?!
  24. Poste mal deine Netzwerkeinstellungen. Auch die Routen und die Einstellungen von Docker auch.
×
×
  • Create New...