Jump to content

mgutt

Moderators
  • Posts

    11,371
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. So ermitteln man das Maximum: cat /proc/sys/fs/inotify/max_user_watches So die Anzahl, die aktuell genutzt wird: find /proc/*/fd -user "$USER" -lname anon_inode:inotify \ -printf '%hinfo/%f\n' 2>/dev/null | xargs cat | grep -c '^inotify' In meinem Fall 524288 Maximum und 77 genutzt.
  2. Die 10G vom iMac kommen durch einen Adapter? Überhitzt der evtl? Bei Amazon hatte ich mal sowas gelesen. Dann soll eine Reduktion auf 5G helfen.
  3. Mal mit erweiterter Ansicht und Force Update versucht?
  4. Das war die Autokorrektur ^^ Ich hatte eigentlich BIT geschrieben 😅
  5. Nur wenn du syslog Server Mirror aktiv hattest. Dann steht es in den syslogs.
  6. Das wird denke ich erst gehen, wenn beim Booten kein BIOS über die GPU ausgegeben wird.
  7. Das scheint ein generelles Problem bei BIT zu sein. Teste das mal: https://github.com/bit-team/backintime/issues/1253#issuecomment-1126770876
  8. Das ist der Govenor, aber nicht der verwendete Scaling Treiber.
  9. Ja, das ist logisch, weil er für diesen User ja keinen Key kennt bzw der rsync Container akzeptiert denke ich einen root User. Ich wollte das auch nur zum Test, damit du bei den Logs von BIT was wegen dem komischen /root Pfad siehst. Was hat denn -vvvvv gebracht? Edit: Ah, hast du ja probiert. Gibt es noch andere Logs bei BIT außer diese Fehlermeldung? Da fehlt ja das was rsync zurückgibt.
  10. Nur die Modi, also powersave, Performance usw. Also nicht die Namen der Treiber.
  11. Erstmal finden ^^ Sollte das in /proc/kallsyms zu finden sein? root@thoth:~# grep -riIls intel_cpufreq /bin /boot /etc /home /hugetlbfs /lib /lib64 /proc /root /sbin /sys /usr /var /proc/kallsyms /usr/src/linux-5.10.28-Unraid/System.map @Pillendreher Mach mal das: grep amd-pstate /proc/kallsyms Kommt da was zurück? @Pillendreher
  12. Ich habe das so gelöst:
  13. Die meisten dieser Einstellungen werden über Cookies gespeichert. Wenn du diese also zB ständig löschen lässt oder den Browser / Endgerät wechselst, musst du es vermutlich neu einstellen. So richtig global geht es aber wie gesagt nicht.
  14. Der Key kommt in die Variable SSH_AUTH_KEY_1. Den Wert der Variable kopiert der Container dann in die Datei /root/.ssh/authorized_keys (innerhalb vom Container): Wenn eine Meldung kam, dann nur, weil der Key nicht in der Variable stand oder der war schlicht falsch?!
  15. kdwg hat ja geschrieben, dass die Treiber noch nicht für Slackware existieren. Unraid basiert auf Slackware. Daher vermute ich, dass man aktuell den neuen AMD Scaling-Driver nicht auswählen kann. Oder hast du da andere Infos @ich777?
  16. mgutt

    Nerdpack Pakete

    Jede zusätzliche App, die man einem Server hinzufügt, erhöht die Fehleranfälligkeit und die potentiellen Sicherheitslücken. Im Video sagt er wie wichtig das Nerd Pack sei. Ist es nicht. Es ist unwichtig. Sage nicht nur ich, sondern zB auch trurl: https://forums.unraid.net/topic/92467-log-100/#comment-863008 Es gibt nur einzelne Plugins, die zB python benötigen. Dann installiert man python über das Nerd Pack und gut ist. Würde man zB alle Apps installieren, installiert man auch "atop" und höchstwahrscheinlich bekommt man dann nach kurzer Zeit eine volle Log: https://www.google.com/search?q=unraid+"atop"+ram In dem Video erzählt er auch vom "sicheren" MyServers Plugin für den externen Zugriff auf seinen Server. Dazu empfehle ich mal als Kontrast meine Meinung dazu: https://forums.unraid.net/topic/112818-my-servers-plugin-angriffsrisiko-aufgrund-portfreigabe-internet/#comment-1026841 TGF macht gute Werbung für Unraid, er ist aber kein IT Fachmann. Muss er aber auch nicht, er ist ja Youtuber und möchte die Leute primär unterhalten.
  17. Und wie gesagt: Folge den Anweisungen meines letzten Beitrags. Ich tippe wie gesagt auf den FUSE Overhead, der bei ZFS nicht vorhanden ist. Spielt eigentlich keine Rolle. ZFS hat den Nachteil der Write Amplification dh bei jedem Schreiben, hat man erhöhte Schreiblast auf allen SSDs des Pools. Und beim Unraid Array hat man den Nachteil, dass beim Befüllen der SSDs jedes mal die Parität überschrieben wird. Hat man also 10 SSDs im Array, wird die Parität bei der Erstbefüllung des Servers 10x korrigiert. Aber was sind schon 10x 4TB (wenn man so große SSDs hätte), also 40TB Schreiblast für eine 4TB Paritäts-SSD? Eine SanDisk Ultra 3D hat zB 600TBW. Also wären das 7% Abnutzung. Klingt erst mal viel, aber wie schreibt man weitere 560TB ins Array, wenn das bereits voll ist? Und bekanntlich ist die TBW Angabe nur für die Garantie relevant. SSDs gelten als viel haltbarer (im Petabyte Bereich geben die erst auf). PS Wenn man bei der Erstbefüllung einfach die Paritäts-SSD weglässt, hat man die 40TB auch noch eingespart. Der eigentliche Vorteil von ZFS liegt woanders. Nämlich in der Selbstheilung von gekippten Daten, der hohen Performance eines RAID und der Möglichkeit Snapshots zu erstellen. Ich persönlich bin aber kein Fan von RAIDs, weil ich nicht möchte, dass meine 10 SSDs die ganze Zeit aktiv sind. Denn das bedeutet einen 10x höheren Stromverbrauch als bei einem Array, wo nur eine SSD läuft (oder zwei, wenn gerade geschrieben wird). Hier muss man einfach abwägen was einem wichtiger ist.
  18. Nein Nein, nur Nachteile, da es voll laufen kann, mehr Speicherplatz belegt als eigentlich gebraucht wird, es mehr Schreibzugriffe produziert (Write Amplification) und schneller korrumpiert als einzelne Dateien. Du interpretierst da was falsch. Das docker.img enthält die virtuelle Festplatte von jedem Container inkl. dem installierten Betriebssystem und allen Apps, die der Container mitbringt. Alleine bei jedem Update eines Containers wird diese Festplatte mit allem drum und dran gelöscht und neu installiert. Man verliert nichts, weil die wirklich wichtigen Dateien ausschließlich im Share "appdata" liegen. Du kannst das auch "üben". Geh auf das Icon eines Containers und klick auf "Remove" (Haken wegen Image löschen drin lassen). Dann gehst du unten auf Add Container > im Dropdown den Container auswählen und wieder starten. Er lädt dann die Dateien vom Container neu runter, installiert alles und schon läuft er wieder, als hättest du ihn nie gelöscht. Wenn du nun das komplette docker.img löschst, machst du das selbe, nur eben für alle Container gleichzeitig. Auch dann kannst du über Add Container > Dropdown alle Container wieder starten. Das einzige was tatsächlich verloren geht sind von Hand erstellte Custom Networks. Dann führst du aber einfach das entsprechende Kommando im Terminal erneut aus und gut ist. Das docker.img enthält wie gesagt keine relevanten Daten und muss daher nicht gesichert werden.
  19. Ja, nur ein Bindestrich und nicht zwei. Ich hatte das einmal falsch in meinem Beitrag stehen. Ok, dann können wir es nicht mit einem anderen Namen testen. Müssen wir anders herausfinden, warum der "/root" davor schreibt. Kann man in BIT evtl eine Art "Standardverzeichnis" oder "Basisverzeichnis" einstellen? Gehe mal alle Tabs durch. Irgendwo muss doch diese "/root" stehen.
  20. Supermicro hat ja mittlerweile die neuen Boards mit Intel Xeon W680 Chipsatz veröffentlicht und die Preise sind einfach nur verrückt: Das Supermicro X12SAE hat bei Einführung 300 € gekostet. Also mal eben 150 bis 200 € Preisaufschlag. Und das wo zB CPUs, RAM, SSDs, usw entgegen der Inflation im Preis eher fallen. Ich habe auch mal beim Großhandel nach dem Asrock Industrial IMB-X1231 mit M2X4-SATA-4P gefragt und das soll 505 € kosten. Wohlgemerkt Einkaufspreis. Und das muss sich erst mal mit einem Gigabyte C246N-WU2 messen, dass um die 175 € gekostet hat oder dem Supermicro X11SCL-IF, was bei 200 € lag. Da fragt man sich welche Kunden bereit sind so einen Preisaufschlag zu zahlen. Ist ja nicht so als hätte es revolutionäre Verbesserungen gegeben.
  21. Es wird dafür niemals ein generelles Tutorial geben, weil es hardwarespezifisch ist. Es gibt viele Boards, die ohne GPU einfach gar nicht hochfahren. Oder BIOS Versionen, die es gar nicht erlauben, dass die iGPU nicht als primäre GPU verwendet wird. Garantiert headless geht es nur mit Server-Hardware. Die ist dafür gebaut. Dafür braucht man allerdings wiederum kein Tutorial und mit der mickrigen IPMI GPU eines Servers kann man eben wirklich nur ein Bild darstellen und nichts beschleunigen, was ja viele wollen. Daher bleibt die generelle Empfehlung: Finger weg von Server-Hardware, lieber Workstation-Hardware mit iGPU kaufen. Ist auch energieeffizienter.
  22. Nein, gerade das bemängelt er ja. Ausgebaut und Unraid neu installiert und trotzdem noch langsam. Warten wir mal auf weiteren Input.
  23. Yes and no. At this position it obtains for example the month by extracting the 5th char of the dirname. year=${backup_name:0:4} month=${backup_name:4:2} day=${backup_name:6:2} But I integrated a check, which will stop the script if it was not able to obtain only numbers: # all date parts must be integer if ! [[ "$year$month$day" =~ ^[0-9]+$ ]]; then echo "Error: $backup_name is not a backup!" continue fi So it will fail, but not kill any backups or similar. Feel free to change the numbers, to it extracts the correct numbers. This should work in your case: year=${backup_name:0:4} month=${backup_name:5:2} day=${backup_name:8:2}
  24. Keiner hat die gesagt, dass du das tun musst. Es gibt keine "Einstellung" womit man den Server langsamer macht und die bei Neuinstallation verschwindet. 1MB deutet auf 10MBit Netzwerkverbindung hin. Wie gesagt. Prüf dein Netzwerk. Du kannst auch verifizieren, dass es das Netzwerk ist, in dem du direkt eine Datei auf Disk1 erstellst: dd if=/dev/null of=/mnt/disk1/test.bin bs=1M count=5000
×
×
  • Create New...