Jump to content

mgutt

Moderators
  • Posts

    11,355
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Da kommst auf die Platten an. Mein Server (10 HDDs) zieht max 260W beim Hochfahren. Mit Ironwolf könnten es aber auch 360W sein. Da würde dann ein 300W Netzzeil nicht mehr reichen. Ein kleineres Netzteil spart Strom. Ich nutze aktuell das Corsair SF450 Platinum. Da ist semi-passiv und der Lüfter bleibt durchgehend aus. Allerdings sind die Kabel sehr kurz. Ist halt SFX. Muss man also andere Kabel kaufen. Ansonsten sind hier deine Optionen https://geizhals.de/?cat=gehps&xf=1248_450~18421_2~363_passiv+(l%FCfterlos)~363_semi-passiv&sort=p&hloc=at&hloc=de&v=e
  2. Alles gut. Gib einfach powertop ein und Wechsel per Tab Taste die Ansicht bis du bei "Good" bzw "Bad" bist. Möglichst alles sollte nun auf "Good" stehen.
  3. SQLite bietet die schlechteste Performance. Gerade bei Multi-User.
  4. Manche Karten unterstützen auch PCIe 3.0 x4. Dann braucht man nicht unbedingt x8 Lanes (aber einen x8 Steckplatz, da es x4 Steckplätze ja selten gibt). Aber da muss man vorher genau recherchieren. Ältere Karten können nämlich nur PCIe 2.0 x8.
  5. Erweiterte Ansicht aktivieren. Dann siehst du den Button. Danach aber wieder deaktivieren. Frisst Leistung
  6. Dann vermute ich, dass die Downloadlinks offline gegangen sind. Muss man wohl auf ein Update von Macinabox warten
  7. Dann unterstützt der verwendete USB Adapter vermutlich keine entsprechenden ATA Kommandos. Vermutlich wird die Platte dann auch noch mehr schlafen geschickt.
  8. Grau heißt doch Standby und unassigned sind alle die, die nicht im Array oder Cache genutzt werden. Oder verstehe ich da was falsch?
  9. My "solution" is this script (executed every 5 minutes): #!/bin/bash # ##################################### # Script: WSDD Restarter # Description: Restarts WSDD if its CPU usage is too high # Author: Marc Gutt # # Changelog: # 0.1 # - first release # # ######### Settings ################## wsdd_cpu_limit=5.0 # ##################################### # # ######### Script #################### # make script race condition safe if [[ -d "/tmp/${0///}" ]] || ! mkdir "/tmp/${0///}"; then exit 1; fi; trap 'rmdir "/tmp/${0///}"' EXIT; # get pid and cpu usage wsdd_pid=$(pidof wsdd) if [ $? -eq 0 ]; then # check cpu usage wsdd_cpu_usage=$(ps -p ${wsdd_pid} -o %cpu --noheader | xargs) if [ $? -eq 0 ]; then if $(awk 'BEGIN {exit !('$wsdd_cpu_usage' >= '$wsdd_cpu_limit')}'); then # https://stackoverflow.com/a/45591665/318765 samba restart /usr/local/emhttp/webGui/scripts/notify -i alert -s "WSDD restarted!" -d "CPU usage was too high!" fi fi fi
  10. Der Punkt "zusammen" setzt eigentlich schon voraus, dass man eine Software einsetzt, die erkennt, dass eine Datei von zwei verschiedenen Clients bearbeitet wurde. Denn sonst kann es passieren, dass zwei verschiedene Personen die selbe Datei bearbeiten und einer die Arbeit des anderen überschreibt. Nextcloud (oder auch Synology Drive Client) hat dafür eine integrierte Konflikterkennung und erstellt dann eine neue Datei (und gibt meine ich sogar eine Meldung aus). Wenn du dagegen ausschließen kannst, dass dies passiert, dann reicht wie gesagt ein simples Sync-Tool. WebDAV wiederum wäre ja genau das was Nextcloud bietet.
  11. Vielleicht auch damit du das besser verstehst. Stell dir grundsätzlich vor, dass alle Pfade im RAM liegen, weil Unraid ja in den RAM installiert wird. Zusätzlich werden dann Ausnahmen hinzugefügt, so dass zB: /mnt/disk1/... auf die erste Disk in deinem Array verweist /mnt/cache/... auf die SSD im Cache verweist /mnt/user/... in der Regel die Summe aus /mnt/disk1/... + /mnt/cache/... darstellt und /boot/... auf den USB-Stick verweist Und wenn man einen Pfad benutzt, der nicht zu diesen Ausnahmen gehört, dann landen die Dateien im RAM (und sind logischerweise beim Reboot weg).
  12. Bei den Youtube-Kommentaren berichten mehrere von diesem Problem. Lösch noch mal alles und probiere mal die Download-Methode 2. Vielleicht hilft das ja. EDIT: Ja das scheint es zu fixen:
  13. @SpaceInvaderOne zeigt das, was wir schon vermutet haben. Die GPU frisst Strom ohne Ende, wenn die VM aus ist: Zusammenfassung: Wenn man die VM durchgehend an lässt, verbraucht man weniger Strom als wenn man sie herunterfährt (obwohl die CPU parallel ja auch arbeitet). Er hat 25W (!) Ersparnis gemessen, wobei sein Messgerät nicht wirklich genau ist. Bei AMD GPUs ist es weniger schlimm nach Starten und Beenden einer VM, aber bekanntlich ziehen AMD GPUs grundsätzlich mehr Strom, so dass dieser Vorteil alleine dadurch verpufft. Wer seine GPU nicht für VMs nutzt, sondern nur für Transcoding, der sollte Unraid mit den GPU Treibern (Unraid 6.9) im GUI Modus starten. Dann nutzt Unraid die GPU aktiv und der Verbrauch sinkt um die besagten 25W. Schlagwörter: Leerlauf, Leerlaufverbrauch, Standby, dGPU, GPU, Grafikkarte
  14. Der ist für Multi-GPU Setups. Jeder PCIe Slot darf ja theoretisch 75W ziehen. Über den zusätzlichen 6-Pin soll dann eine stabile Versorgung der Slots gewährleistet werden. Ist also für dich unwichtig und kann weg bleiben. Ändert das schon was am Verbrauch? Du könntest schon mal den Realtek ALC Audiocontroller deaktivieren. Analog Audio und Toslink wirst du ja denke ich nicht brauchen. Falls du nur einen LAN Port benötigst auch zusätzlich einen der LAN Controller. Dann solltest du die CPU States manuell auf den höchsten Wert einstellen zb C10 statt Auto. Bei Platform Misc könnte es noch ASPM Einstellungen für die Slots geben. Falls verfügbar alles auf L1. Und in Unraid über das Nerd Pack Powertop installieren und mal "powertop --auto-tune" ausführen. Damit gehen alle ungenutzten USB, SATA und PCIe Slots schlafen. Welches Messgerät und Netzteil verwendest du?
  15. Nextcloud würde ich nutzen, wenn ich die Dateien auch außerhalb meines lokalen Netzwerks benötigen würde. Ist das bei dir der Fall? Wenn nein, dann reicht ja auch ein simples Backup oder nicht? Trotz 10G hole ich mir meine Arbeitsdaten immer erst auf den Rechner oder habe sie dauerhaft darauf liegen. Zb ist das Schneiden von Videos auch mit 10G noch lange nicht so schnell wie lokal. NVMes besitzen 4 Lanes, also 4x Schreiben und 4x Lesen parallel. Das bietet ein Netzwerk gar nicht. Und die NVMe ist außerdem deutlich schneller (> 3000 MB/s). Natürlich sind bereits erledigte Projekte dann nur noch auf dem NAS um Platz auf dem PC zu sparen. Um nun seine Daten zu sichern, gibt es natürlich massig Tools. Das fängt schon bei einem simplem robocopy /MON:1 an und endet bei irgendeiner Software. Ich für meinen Teil gebe alle relevanten Windows-Ordner über das Netzwerk lesend frei. Mein NAS sichert dann diese Freigabe regelmäßig per rsync in ein Backup-Verzeichnis. Damit gewährleiste ich, dass mir eine Ransomware nicht mal eben die Daten zerschießen kann.
  16. mgutt

    SABnzbd

    Innerhalb vom Container gibt es nur /config. Diesen hast du über die Container Einstellungen auf /mnt/disks/Usenext weitergeleitet. Im Container gibt es den Pfad /mnt nicht. Du kannst dort die USB Platte nicht direkt angeben. Also /config muss im Container selbst so eingestellt bleiben. Du hast immer noch nicht beantwortet wie der Pfad der Platte heißt. Was steht nun in der Unassigned Disks Tabelle?
  17. Hilft das? https://github.com/grafana/grafana/issues/29372
  18. Die Fehlermeldung beinhaltet den Kommentar. Ich vermute, dass Kommentare in der Datei gar nicht erlaubt sind. Zumindest nicht so. Daher such das: [backups] # Rsync Modual name (basicaly Rsync share name) Synology hyperbackup calls this "Backup Modual" path = /mnt/user/backups # Unraid share location. /mnt/user/YOURSHARENAME could also be a subdirectory of a share comment = Backups # Modual Description und ersetze gegen: [backups] path = /mnt/user/backups comment = Backups Also auch alle Leerzeichen hinter dem Pfad usw weg machen. Ich denke nicht, dass das erlaubt ist.
  19. mgutt

    SABnzbd

    Das kann ich dir nicht sagen. Genauso gut könntest du jetzt unter "disks" einen Ordner erstellt haben. Der läge dann vermutlich im RAM (da Unraid im RAM liegt). Du musst schon sagen ob du unten das USB Laufwerk gemountet hast und da dann drauf geklickt hast. Also sind die Dateien auf der USB Platte oder nicht? Und heißt der Pfad zu dieser Platte wirklich "Usenext"?
  20. Die lassen die nicht aus. Die liefern nur aktuell exklusiv an HP, Dell, Fujitsu usw. und die bauen die in Workstations ein. Mit denen hat Intel ja Lieferverträge. Die Endkunden schauen so lange in die Röhre. Ich denke nicht, dass sich das mit den neuen Xeons dann ändert. Wir haben ja kein Corona Problem, sondern ein allgemeines Chip-Problem.
  21. Normal. 2 Jahre Gewährleistung und sonst die Garantie bei Gigabyte. Da Gigabyte 3 Jahre Garantie gibt, würde ich das natürlich direkt an Gigabyte weitergeben. Also vom Prinzip könntest du es dann auch direkt selbst zu Gigabyte senden. Du bekommst natürlich eine ganz normale Rechnung. Ich bin ja Unternehmer. Der zweite Großhändler hat mir übrigens geschrieben, dass die beiden Gigabyte Boards aus der Preisliste raus seien und das normalerweise heißt "kann man nicht mehr bestellen". Ich bleibe aber dran. Gigabyte habe ich auch noch mal kontaktiert. Und dann erst ohne ECC RAM? Ginge auch. Hat aber was von Geldverbrennen ^^ Den W-1250 kann ich übrigens vorbestellen. 274 € würde der kosten und unverbindlicher Liefertermin ist der 25.03. Bei Future-X soll er ähnlich viel kosten, aber da steht immer ein neues Datum und man kann ihn nicht bestellen. Aktuell der 12.03. Ich hatte ja gehofft, dass Intel den ECC Support für i3-10xxx nachschiebt. Das haben sie damals auch schon mal gemacht, aber dann wäre es wohl schon längst gemacht worden Stimmt. Das wäre auch noch eine Option. Aber dann brauchst du wieder ein ganz aktuelles Linux für die iGPU usw Wer weiß wann das dann mit Unraid geht.
  22. Auf jeden Fall, wenn Nextcloud öffentlich verfügbar ist. Es kann immer eine Sicherheitslücke geben und dann war es das mit den Daten.
  23. Ich bezweifle, dass du einen 24 Port 10G Switch brauchst. In der Regel braucht es nur eine Hand voll 10G Ports und die liefert man über einen separaten Switch.
×
×
  • Create New...