Jump to content

mgutt

Moderators
  • Posts

    11,355
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Eventuell könnte man den Beamer auch an den PC anschließen und dann eine LAN Brücke konfigurieren, aber logischerweise kann wer Beamer dann nur mit laufendem PC ins Netz. Am PC ginge auch der Netgear GS110EMX. Der hat direkt RJ45. Aber selbst mit RJ45 Modul ist der Mikrotik günstiger.
  2. Das funktioniert in der Theorie, setzt aber voraus, dass alle Komponenten auch PCIe 4.0 nutzen. Zb gibt es keine 10G Karte mit PCIe 4.0. Ansonsten könnte man die im x1 Slot nutzen. Was mich bei diesem Board erstaunt ist, dass es folgendes schafft: PCIe x8 x8 x4 + x4 M.2 + x4 M.2 + 8x SATA Also habe ich die Anleitung studiert. Der einzige Haken sind da die Onboard SATA Ports. Die taugen nichts, weil 4 davon durch einen ASM1061 bedient werden, der selbst nur eine Bandbreite für 2 Ports bedienen kann. In der Anleitung steht auch, dass man zum Booten über eine SATA SSD nur Port 3_1 nehmen soll. Da scheint wohl die Bandbreite über viele Ports hinweg geteilt zu werden. Ein Schaltbild gibt es leider nicht. Ich stelle gerade fest, dass bei B550 20 PCIe 4.0 und zusätzlich 10 PCIe 3.0 Lanes zur Verfügung stehen. Demnach wird der PCIe x4 Slot und die anderen kurzen Slots über den Chipsatz laufen, genauso wie SATA und eine M.2. Das sind alles PCIe 3.0 Lanes. Aber nur 2 Lanes der PCIe 3.0 Lanes kann man nativ für SATA nutzen. Daher gehen bei B550 nur maximal 4x SATA. Nun zurück zu dir @maschu666. GPU und SAS belegen jeweils x8. Die 10G Karte x4, wobei sie auch mit x2 klar kommt. NVMe geht maximal PCIe 3.0 im RAID1. Also grob 4000 MB/s. Eine PCIe 4.0 NVMe könnte man natürlich trotzdem verbauen, wäre aber Geldverschwendung. Also die von dir gewählte Evo passt. Netzteil: Beim Booten 12x 30W + 15W SAS + 100W für CPU und GPU = 475W Beim Zocken mit parallelem Parity Check 12x 10W + 15W SAS + 150W CPU + 300W GPU = 585W Ich denke da bist du mit 750W gut bedient. Denk dran, dass die Kiste ziemlich schwer wird. Also falls du sie in ein Regal schiebst oder sowas. Quer an der Wand wäre von der Wartung optimal. Das einzige was ich jetzt noch mitnehmen würde wäre ECC RAM. Denk dran, dass bei voller Belegung bei 2933 MHz Schluss ist und alle Module Single Ranked sein müssen.
  3. Add a new local user through the settings with a strong password and name it "backup". After that right mouse click on "documents" > share with... Select the new user from the drop-down. It should be "read only". Repeat this step for all dirs you want to share. Do not share the root username dir. It contains the hidden "appdata" dir and a massive amount of other files which aren't needed. After that you can mount this "smb server" through the Unassigend Disks Plugin.
  4. Yes sorry. Nerd Pack is what you need
  5. Üblich ist ein Array aus HDDs mit einer Parity und ein Cache bestehend aus zwei SSDs im RAID1, auf der dann auch die Disk-Images der VMs liegen. Es sind aber auch viele andere Varianten denkbar. Zb kann man SSDs auch direkt an eine VM durchschleifen. Das verbessert die Performance. Bei einer Gaming VM würde ich zb auch einen LAN Port physisch zuordnen. Ob man nun SSDs oder Disk-Images nutzt, hängt auch davon ab wie das Backup-Konzept nachher aussehen soll. Zb kann eine physisch zugeordnete SSD nur schwer vollständig gesichert werden, aber aus der VM heraus auf den Server über SMB ein Backup erstellen, ist natürlich kein Problem. Parsec? Hast du doch schon selbst vorgeschlagen oder verstehe ich da was falsch? Ansonsten jeden beliebigen VNC Client. Unraid selbst bekanntlich über einen Browser. Naja kommt ja auf deinen Mini PC an und nicht auf den Server. Oder meinst du auf beiden Monitoren eine VM? Scheinbar geht das mit zwei verschiedenen VNC Verbindungen?! https://amp.reddit.com/r/unRAID/comments/bc2t5g/vm_with_dual_displays_via_vnc/
  6. Preis-Leistungssieger ist in meinen Augen das Nanoxia Deep Silence 4. Vom Volumen sogar in bisschen kleiner als das 804, dafür deutlich besser erreichbare HDDs mit werkzeuglosen Haltern. Qualität des 804 ist aber besser. Ja, bei den SSDs kommen ja ständig Angebote. Braucht man die? Beim 804 sind doch schon drei Lüfter dabei. Die RAM Preise steigen und steigen. Nicht mehr feierlich.
  7. Executing every 3 hours, is the easiest solution: Another solution is to search for this line in my script: if [[ -d "/tmp/${0///}" ]] || ! mkdir "/tmp/${0///}"; then exit 1; fi; trap 'rmdir "/tmp/${0///}"' EXIT; And add this after it: if tcpdump -i eth0 -c1 port 8133; then echo "Traffic detected!" fi Now set a custom cron to execute the script every 5 minutes: */5 * * * * Now the script is executed every 5 minutes, but only one session stays open and monitors traffic on port 8133 (you can change this port of course). Now you only need to open the link "http://tower:8133" in your browser, which returns an error, because the page does not exist, but it will execute the backup script as it detected this connection attempt: Opening a website, which does not return anything is strange? Ok, then create a startbackup.bat file on your windows desktop and use a text editor with the following content: curl http://tower:8133 Screenshot: Double-click the file and it tries to open this link. After some seconds the window automatically closes. The script on the server detected the traffic and starts the backup. And there is even more crazy stuff possible, like sending an answer ^^ By that it would be even possible to output the rsync logs to the client, but this would need some extra work.
  8. mgutt

    VMware-Client

    Unraid nutzt kein VMWare, sondern QEMU. Entsprechend musst du die normale ISO nehmen dun diese installieren. Ich empfehle dir ein Video zur Installation zB einer Windows oder Ubuntu VM anzuschauen. Dann weißt du wie der Ablauf ist und du solltest auch mit dieser Software klar kommen.
  9. Ich habe mir jetzt mal das Script geladen und ausgeführt: /tmp/user.scripts/tmpScripts/ps_mem/script Private + Shared = RAM used Program 20.0 KiB + 0.5 KiB = 20.5 KiB s6-svscan 32.0 KiB + 1.0 KiB = 33.0 KiB s6-supervise (2) 112.0 KiB + 34.5 KiB = 146.5 KiB sleep 128.0 KiB + 38.5 KiB = 166.5 KiB inetd 156.0 KiB + 42.5 KiB = 198.5 KiB init 168.0 KiB + 34.5 KiB = 202.5 KiB crond 148.0 KiB + 55.5 KiB = 203.5 KiB avahi-dnsconfd 180.0 KiB + 32.5 KiB = 212.5 KiB acpid 180.0 KiB + 45.5 KiB = 225.5 KiB wsdd 132.0 KiB + 117.0 KiB = 249.0 KiB atd (2) 316.0 KiB + 123.5 KiB = 439.5 KiB rpcbind 268.0 KiB + 194.5 KiB = 462.5 KiB diskload 516.0 KiB + 49.5 KiB = 565.5 KiB apcupsd 496.0 KiB + 114.5 KiB = 610.5 KiB dbus-daemon 488.0 KiB + 391.0 KiB = 879.0 KiB sh (2) 780.0 KiB + 299.0 KiB = 1.1 MiB agetty (6) 856.0 KiB + 411.5 KiB = 1.2 MiB EasyAudioEncoder 1.2 MiB + 63.5 KiB = 1.3 MiB rsyslogd 820.0 KiB + 606.0 KiB = 1.4 MiB avahi-daemon (2) 1.3 MiB + 382.5 KiB = 1.6 MiB emhttpd 1.7 MiB + 51.5 KiB = 1.8 MiB udevd 1.7 MiB + 300.5 KiB = 2.0 MiB ntpd 1.4 MiB + 654.5 KiB = 2.1 MiB virtlogd 1.4 MiB + 756.5 KiB = 2.1 MiB virtlockd 1.9 MiB + 412.5 KiB = 2.3 MiB ttyd 2.5 MiB + 386.5 KiB = 2.9 MiB nmbd 2.4 MiB + 1.0 MiB = 3.3 MiB bash (4) 2.0 MiB + 1.5 MiB = 3.5 MiB Plex Tuner Service 4.1 MiB + 132.5 KiB = 4.2 MiB rpc.statd 2.8 MiB + 4.0 MiB = 6.8 MiB nginx (2) 9.3 MiB + 0.5 KiB = 9.3 MiB containerd-shim 5.3 MiB + 7.7 MiB = 13.0 MiB smbd (4) 13.2 MiB + 0.5 KiB = 13.2 MiB unbalance 11.5 MiB + 1.9 MiB = 13.4 MiB libvirtd 12.4 MiB + 3.1 MiB = 15.5 MiB startBackground 9.3 MiB + 7.4 MiB = 16.6 MiB winbindd (4) 12.0 MiB + 9.6 MiB = 21.6 MiB php-fpm (4) 32.9 MiB + 1.8 MiB = 34.7 MiB docker-proxy (9) 35.9 MiB + 0.5 KiB = 35.9 MiB containerd 67.6 MiB + 0.5 KiB = 67.6 MiB dockerd 118.5 MiB + 1.3 MiB = 119.8 MiB Plex Script Host 273.5 MiB + 603.0 KiB = 274.1 MiB shfs (2) 651.0 MiB + 0.5 KiB = 651.0 MiB rcloneorig 657.0 MiB + 2.0 MiB = 659.0 MiB Plex Media Server --------------------------------- 1.9 GiB ================================= Dazu noch mal die RAM-Nutzung: free -m -h total used free shared buff/cache available Mem: 62Gi 4.1Gi 5.0Gi 1.4Gi 53Gi 56Gi Swap: 15Gi 0B 15Gi Also ich check's nicht ^^ Wo ist denn die Differenz zwischen 4,1GB used und den ermittelten 1,9GB?
  10. Gehen beide problemlos bei einer Windows VM und diversen VMs, die man nicht sonderlich beansprucht. Stell dir das von der Leistung einfach wie einen mittelstarkten Laptop mit einer 4-Kern CPU vor. Das ist schon ordentlich von der Power. Und mehrere VMs sind kein Problem, wenn die anderen eh nur im Leerlauf laufen. Kannst du völlig ausblenden, da du ja eh auf dem Board den Steckplatz hast. Ob du schlussendlich SFP+ oder RJ45 verbaust, kannst du dann ja immer noch entscheiden.
  11. Das ist der Grund. BTRFS wird scheinbar nicht unterstützt. Dumm gelaufen 😩
  12. mgutt

    Defekte HDD?

    Egal. Hauptsache die Luft hängt da nicht fest.
  13. mgutt

    Defekte HDD?

    Solange die Temperaturen stimmen, sehe ich bei keiner Hardware hier ein Problem. Gerade bei Unraid wo ja eh meist Leerlauf angesagt ist. Außer du hast irgendwelche intensiv arbeitenden VMs. Deine HDDs im 5.25 Zoll Bay könnten aber sicher einen extra Kühler vertragen. Vielleicht seitlich Löcher reinbohren und da einen flachen Lüfter drauf? Also wenn das vom Platz her überhaupt geht.
  14. Muss nicht sein. Du kannst auch einen SFP+ Switch kaufen und für den Client ein RJ45 Modul verbauen, während der Server mit SFP+ DAC Kabel verbunden wird. Wenn zwei Leitungen beim Client liegen sollten, könnte man das NAS auch direkt ohne 10G Switch per RJ45 verbinden und über eine separate 1G Leitung, die zum Router geht, surfen. Dann spart man sich sogar den Switch. Die 10G Karten haben in der Regel einen x4 breiten PCIe Stecker und solange du nicht mehrere Grafikkarten verbauen willst, wird auch Platz für die 10G Karte da sein. Du könntest meiner Ansicht nach sogar den x1 Slot nehmen (falls die anderen Slots anderweitig genutzt werden sollen). PCIe 3.0 x1 sind nämlich immer noch 0.97 GB/s: https://www.elektronik-kompendium.de/sites/com/0904051.htm Gut, wären dann nicht volle Auslastung, da 10G ~1.05 GB/s kann, aber nah dran ^^
  15. Ja aber was verursacht dann die 36%, die er im Dashboard sieht? Also grob 3GB in Summe.
  16. Und zwar kam ich darauf als ich diesen Beitrag las, wo jemand den BTRFS Status seines Volumes ausgegeben hat: Data,single: Size:5.59TiB, Used:5.41TiB /dev/vg1/volume_1 5.59TiB Metadata,single: Size:8.00MiB, Used:0.00B /dev/vg1/volume_1 8.00MiB Metadata,DUP: Size:10.50GiB, Used:9.19GiB /dev/vg1/volume_1 21.00GiB System,single: Size:4.00MiB, Used:0.00B /dev/vg1/volume_1 4.00MiB System,DUP: Size:8.00MiB, Used:112.00KiB /dev/vg1/volume_1 16.00MiB Ich war verwundert, dass bei "Data" als Status "single" hinterlegt ist, denn das unterstützt keinerlei Korrekturen: Depending on the RAID level you are using, the "correction" factor will be different: * single and RAID-0 have no correction Nach weiterer Recherche fand ich heraus, dass die Daten bei Synology trotzdem in einem RAID liegen. Allerdings nicht in einem BTRFS RAID, sondern in einem Linux RAID (mdadm) und darüber legen sie dann das BTRFS Volume: Und wenn man weiter recherchiert, stellt man fest, dass Synology bei BTRFS nur optional eine Selbstheilung unterstützt:: Die Datei-Selbstreparaturfunktion kann beim Erstellen eines freigegebenen Ordners aktiviert werden ... Die Datei-Selbstreparaturfunktion ist für die folgenden Bedingungen nicht verfügbar: - Während einer Reparatur oder Paritäts-Konsistenzprüfung eines Volumes oder Speicherpools. - Fehlerhaftes Volume. - Auf VDSM oder VMM gespeicherte Daten. Man kann also nur optional Dateien in bestimmten Ordnern "heilen" lassen. BTRFS unterstützt so einen Modus gar nicht. Entweder wird das komplette Volume abgesichert oder nicht. Und natürlich schützt BTRFS auch Daten in virtuellen Maschinen. Ob Synologys Selbstheilung zuverlässig funktioniert, kann niemand sagen, denn es ist nicht Open Source. Ein Whitepaper konnte ich auch nicht finden. In einer FAQ wird nur hier hin verlinkt und dort findet man folgende Erklärung: Diese Aussage kann man evtl falsch verstehen, denn mit Metadaten kann man keine Daten wiederherstellen. Die enthalten ja keine Parität, sondern nur Attribute und die Checksumme: Weiter erklärt Synology: Synology schreibt also, dass die Metadaten als Auslöser für eine Reparatur gelten. Das macht Sinn. Die Datei wird gelesen, die Checksumme passt nicht mit der aus den Metadaten überein, also muss die Datei kaputt sein. Die Reparatur wird dann mit dem Linux RAID (mdadm) durchgeführt. Das kann ich mir schon vorstellen. Die lesen einfach alle Sektoren von allen Disks aus und wenn einer falsche Werte zurückgibt oder der Sektor kaputt ist, kann man mit der RAID-Parität die Daten wiederherstellen. Doch warum funktioniert das dann nur optional in ausgewählten Ordnern und nicht beim kompletten Volume? Kann sich da jemand einen Reim drauf machen? Jedenfalls kann meiner Ansicht nach Synology keine "Btrfs Datei-Selbstheilung", wie sie selbst behaupten. Sie nutzen nur die BTRFS Metadaten als Auslöser. Repariert wird mit eigenen Techniken. Und der Schutz gilt eben nicht wie bei BTRFS für das komplette Volume. So verstehe ich das zumindest.
  17. Hatte ich vergessen zu sagen. Du musst "M" drücken und dann "P". So wird die Anzeige nach RAM sortiert und dann nach Programm summiert. Wenn du "L" drückst und dann jede Frage mit zB "20" beantwortest, zeigt er auch alle CPU Kerne und Disks im oberen Bereich. Aktuell läuft bei mir ein Parity Check und das ergibt das: Nein. Swap ist nur dafür da veraltete Informationen aus dem RAM zu werfen oder falls der RAM nicht mehr reicht auf den Swap auszuweichen. Du kannst ja mal den Swap für eine Woche oder so aktiv lassen: https://forums.unraid.net/topic/104213-swap-creator/ Wenn es nichts bringt, dann mit "swapoff -a" einfach wieder deaktivieren und per "rm /mnt/cache/swapfile" löschen.
  18. This script adds a swap file to the cache disk and enables swapping, which can reduce some memory usage. Swap needs some time to get used and its more used by systems with small RAM sizes / higher RAM usage, but it is also used if there is plenty of free RAM. If your system writes often to the swap it can wear out your SSD. A swap can avoid stalling systems or processes being killed if the RAM is fully utilized. The following script should be executed by the User Scripts Plugin "At first Array Start only": #!/bin/bash # ##################################### # Script: Swap Creator v0.1 # Description: Creates swap file on cache to reduce RAM usage # Author: Marc Gutt # ######### Settings ################## swapfile='/mnt/cache/swapfile' swapfile_size=16G # ##################################### # # ######### Script #################### # make script race condition safe if [[ -d "/tmp/${0///}" ]] || ! mkdir "/tmp/${0///}"; then exit 1; fi; trap 'rmdir "/tmp/${0///}"' EXIT; # create swap file https://linuxize.com/post/create-a-linux-swap-file/ if ! [ -f "$swapfile" ]; then fallocate -l "$swapfile_size" "$swapfile" chmod 600 "$swapfile" mkswap "$swapfile" echo "Swap file created" else echo "Swap file already exists" fi # enable swap if [[ $(swapon --show) == *"${swapfile}"* ]]; then echo "Swap is already enabled" else swapon "$swapfile" echo "Swap has been enabled" fi Screenshot of User Scripts Plugin: Test swap by executing: free -m -h Before: total used free shared buff/cache available Mem: 62Gi 3.0Gi 7.1Gi 1.4Gi 52Gi 57Gi Swap: 0 0 0 After (several days): total used free shared buff/cache available Mem: 62Gi 3.0Gi 7.1Gi 1.4Gi 52Gi 57Gi Swap: 15Gi 1Gi 14Gi If you like to disable swap: swapoff -a If you like to delete the swapfile: rm /mnt/cache/swapfile
  19. Ich vermute, dass es nichts mit Unraid, sondern mit Jellyfin zu tun hat: https://www.reddit.com/r/jellyfin/comments/m52zuv/holy_memory_usage_batman/?utm_source=amp&utm_medium=&utm_content=post_body Dort wird gesagt, dass eine Swap Partition helfen sollte. Hast du eine SSD? Dann könnte man darauf eine Swap-Datei erstellen. Zb 32GB. Linux legt dort dann "veraltete" Daten aus dem RAM ab.
  20. Ich vermeide es einer Parity zu vertrauen, wenn es kein Notfall ist.
  21. mgutt

    Defekte HDD?

    Ich kann tatsächlich auch nichts erkennen. @ich777 Siehst du was? Die Parity2 ist "sdl".
  22. RJ45 = Netzwerkstecker wie man ihn kennt SFP = Buchse, die verschiedene Module aufnehmen kann zB Glasfaser, aber auch RJ45 Module SFP+ = schnellere Variante von SFP für 10G Module PCIE Slot = Buchse auf dem Mainboard wo man die Netzwerkkarte reinstecken kann LOM = spezielle Buchse auf einem Server-Mainboard, wo man eine Netzwerkkarte reinstecken kann LOM sieht aus wie PCIE, ist aber anders belegt. Es gibt Adapter von LOM auf PCIE: https://github.com/TobleMiner/HPE-FlexibleLOM-adapter Allerdings ist es einfach direkt eine 10G Karte mit PCIE Stecker zu kaufen. Ob du RJ45 oder SFP+ nimmst, hängt davon ab ob du Glasfaser legen kannst oder nicht. Wenn nicht, dann geht nur RJ45. In dem Fall kannst du zB so eine Karte kaufen: https://geizhals.de/qnap-qxg-10g1t-a1846071.html?hloc=at&hloc=de https://geizhals.de/tp-link-tx401-a2404015.html?hloc=at&hloc=de Liest sich gut. Ich würde bei der NVMe auf ein Angebot warten. Da kommen quasi täglich 1TB NVMe für 100 €: https://www.mydealz.de/search?q=nvme+1tb Achte nur darauf, dass das Modell DRAM hat. Hier eine Liste: https://geizhals.de/?cat=hdssd&xf=16325_2~16325_3~252_960~4643_DRAM-Cache~4832_3~4930_500 Da scheiden sich die Geister: https://www.slashcam.de/forum/viewtopic.php?t=144658&p=981665#981665 So schlecht ist Nvidia jedenfalls nicht (ab GTX 16xx). Und wie gesagt sollte es helfen, wenn du das Video erst auf den passenden Frame schneidest (remuxed) und erst danach mit der GPU transcodierst, um dein Problem mit dem "zu lang/zu kurz" zu vermeiden.
  23. mgutt

    Defekte HDD?

    Wenn das passiert, stimmt was nicht mit der Platte. Bitte prüf deine Logs auf Fehler. Speziell zu dieser Disk kannst du du sie auch über das Disk-Symbol anzeigen lassen. Einfach draufklicken. Komplette Logs findest du unter Tools -> System logs. Und wenn du gar nicht weiter kommst die Diagnostics ZIP erstellen und hier hochladen.
  24. Danke! Der Fehler (dummer Tippfehler) wurde in Version 0.6 behoben. Check auch mal bitte die Dateiliste in der Log-Datei. Am Ende hat rsync das gemeldet: rsync error: some files/attrs were not transferred Dh vor manchen Dateinamen steht nun ein Fehler. Meist sind es nur "unwichtige" Permission Fehler.
  25. Version 0.6 released # - File count check repaired Dumb bug. Missed one exclamation mark in a check.
×
×
  • Create New...