Leaderboard

Popular Content

Showing content with the highest reputation on 06/12/21 in all areas

  1. For Unraid version 6.10 I have replaced the Docker macvlan driver for the Docker ipvlan driver. IPvlan is a new twist on the tried and true network virtualization technique. The Linux implementations are extremely lightweight because rather than using the traditional Linux bridge for isolation, they are associated to a Linux Ethernet interface or sub-interface to enforce separation between networks and connectivity to the physical network. The end-user doesn't have to do anything special. At startup legacy networks are automatically removed and replaced by the new network approach. Please test once 6.10 becomes available. Internal testing looks very good so far.
    5 points
  2. Hallo @ich777 Ich habe fragliche unraid Maschine ausgeschaltet, parallel einen anderen USB Stick mit unraid 6.9.2 erstellt, die intel-gpu-top.plg eingebracht, den alten USB Stick entfernt, den neu erstellen Stick eingesteckt. Die unraid Maschine neu gestartet und GUI Mode ausgewählt. Wunderbar ich komme in diese nun jungfräuliche Unraidinstallation lokal rein. Ich habe nachgesehen, die Netzwerkkonfiguration deutet DHCP .219 an. Also von einem anderen PC auf die IP verbunden und ich komme auch darüber rein. Es liegt also nicht an meinem lokalen Netzwerk, ich habe es wieder einmal geschafft unraid kaputt zu konfigurieren. Da ich dafuer vermutlich keinen Preis bekomme werde ich mich nun mit meinem Walktrough/Intsallationsliste beschäftigen müssen und wieder einmal von vorne anfangen. So lernt man eben dazu. In jedem Fall: Herzliechn Dank für die Hilfe mit /config/plugins/ https://github.com/ich777/intel-gpu-top/raw/master/intel-gpu-top.plg es hat auf Anhieb auf dem neuen Stick funktioniert und ich hätte es nie allein hinbekommen.
    1 point
  3. This finally works for me and I don't even have to turn on privileged!!
    1 point
  4. LOL, it is the future, well until the cuda version is released. I already have plots down to under 40 mins, using cheap sas HDD's as temp 1 no less. Doing some testing now to see if I can get it lower. I also ordered some more memory so I can plot entirely in ram As it is, it doesn't eat SSD's nearly as bad, it is faster, simpler, easier and lowers the barrier for entry by not requiring lots of parallel plots/drives. I am 100% on board. Just hope it can get a GUI setup like this docker, I really miss that.
    1 point
  5. Naja, die Probleme bei der Einrichtung beruhten eher auf Missverständnisse als darauf, dass die Nutzung/Einbindung mit HA als Docker sooo kompliziert sind... Hätte ich direkt am Anfang die Screenshots gemacht wäre der Thread deutlich kürzer gewesen...
    1 point
  6. Yes needs to be in the bond0.
    1 point
  7. Root should always have a strong password.
    1 point
  8. Nein. Die wollen nur "Hilfe!" 🤣 Was für eine Vorlage... nein ich halte mich jetzt mal zurück 😁
    1 point
  9. Turns out one of my modules is bad. Tested them separately, module A seems to be fine: no errors after 5 hours (3 passes), module B started spitting out errors during the 2nd pass (or after 1 hour). This was repeatable on another system with another motherboard and cpu, so it's definitely the module itself. I've replaced both sticks with 1x 8GB stick that I had laying around and completed 8 passes on that without any errors. I've started up the server again and did another parity check (luckily still 0 sync errors, so it seems that the memory was faulty, but not faulty enough to cause any data loss on the array yet). Hopefully replacing the bad RAM fixed the issue I've requested an RMA on the faulty memory kit.
    1 point
  10. Jetzt kommt der Hammer. Ich habe das nun auch so: Und wir staunen: powertop geht super lahm auf und ich sehe nun auch C10: Für mich ein klares Indiz, dass C10 einen Bug hat (entweder C10 selbst oder eben auf dem Board). Ich probiere jetzt gerade mal aus, ob das auch passiert, wenn man nur das LAN Kabel umsteckt.... das reicht schon. Also links LAN und rechts USB und ich bleibe bei C9. Jetzt mal beides links... auch da keine Probleme und er geht nicht unter C9. Ich denke mal der rechte Port ist der Chipsatz Port und der linke mit dem extra Controller. Daher der Unterschied. Könnte also gut sein, dass es schon reicht, wenn du zwei LAN-Kabel einsteckst. Kannst du ja mal testen. Glückwunsch. Du hast was Besonderes herausgefunden ^^ Jetzt bin ich gespannt ob die RAM-Fehler nun auch verschwinden. In C10 takten die VRMs runter und evtl ist dann die Spannung zum RAM auch zu niedrig. Wobei der RAM Test war ja ohne Powertop richtig? Dann wäre der RAM ja trotzdem defekt. Oder macht mal einen RAM Test, wenn du die Sachen umgesteckt hast und sicher bist, dass du nur noch C9 erreichst. Wie hast du den RAM Test eigentlich gemacht? Weil der von Unraid sieht ja anders aus.
    1 point
  11. Hi, do in need to wait until i see plots which i can plot until the system is synced? Or can i start before? I see only an empt List in the Plots and the Log says "Your harvester appears to be offline! No events for the past 11128 seconds." Ca you give me a hint here? BTW: great Docker. Thanks so much ***Edit*** Found out - just wanted to share my solution: Looked in the plotman logs to find out whats wrong. Installed Nano to view the logs in the docker container. Then saw, that bitfield is not supported with my cpu. Editet the plotman.yaml and put the variable e = true. Also the paths to plotiing and plots was wrong - puttedt them to mnt/plots/ and mnt/plotting/ (and created that mountpoints) Then restartet the plotman - and then some plots showed up. M suggestion is to have the opportunity to see the errors in the logs directly in the ui to find it easier. Hope maybe that will help somebody else then myself
    1 point
  12. Worked like a charm. Thanks a lot!
    1 point
  13. Es ist auf jeden Fall ein Ritt auf der Klinge. Denn sobald Linux es nicht mehr schafft mit dem ECC Bit den Fehler zu korrigieren, hast du korrupte Daten. Nach dem RAM Wechsel, solltest du in jedem Fall einen Parity Check machen. cat /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor Ja. Sobald eine PCIe Karte eingesteckt wird und diese in Benutzung ist, kommt man nicht mehr unter C3.
    1 point
  14. If you select the option stating parity is already valid, then nothing will be erased, and a parity check will be started.
    1 point
  15. So, this issue quickly escalated overnight. Any time a docker or i tried to access data on that cache drive, it would disconnect and recconect. Webui became completely non reponsive. Took server down and did a bios update, and its been running fine now for 12 hours with no disconnects. Id call this solved
    1 point
  16. Got it to work! Thanks to Ghost82 and glennv. Here are the steps I used, I will try to keep it simple so everyone can try it out. -Install macinabox just as normal (default settings)-- Test to make sure it bootloops for you -Shutdown the macinabox VM -Connect to Unraid terminal -Mount the opencore image file modprobe nbd max_part=8 qemu-nbd --connect=/dev/nbd0 /mnt/user/isos/BigSur-opencore.img mkdir /mnt/user/isos/temp/ mount /dev/nbd0p1 /mnt/user/isos/temp/ -Edit the config.plist nano /mnt/user/isos/temp/EFI/OC/config.plist -Paste the patch after the PENRYN entry - glennv has a post on page 80 that explains it -Save you file -Dismount the image file umount /mnt/user/isos/temp/ rm -r /mnt/user/isos/temp/ qemu-nbd --disconnect /dev/nbd0 rmmod nbd -Rerun the user script - make sure you change the name in the settings of the script to match your VM name (I also set REMOVETOPOLOGY="yes" , not sure if that is needed) -Test it out! Macinabox PENRYN Patch 11_3.txt
    1 point
  17. OK, danke...da muss man ja nen anderen Docker nutzen...wie sieht da die Lizenz aus? Denke den Enterprise (Free) Docker kann man nicht verteilen (sonst wär er schon im Docker-Hub). @ich777 ...also Vorsicht Ich schaue mir Windoof und über SNMP meine Mikrotik "Farm" übers WE mal an...mal sehen was geht.
    1 point
  18. I would not advice to use latest unless there is a feature you need. New developer started working on it and it breaks now and then. The two versions are identical.
    1 point
  19. An explosion in network space, we will find out how big the network will stabilize at real quick lol.
    1 point
  20. Ok, wir fangen noch mal an, bzw. ich zeige dir meine Einstellungen im Detail. Du kannst deinen Docker dann entsprechend anpassen. Als erstes - wichtig!: beende den deconz docker lösche den von dir angelegten Pfad unter appdata (vermutlich "/mnt/user/appdata/dresden-elektronik/deconz") Dann bearbeitest du den Docker wir folgt: Für copy & paste: Container Pfad: /root/.local/share/dresden-elektronik/deCONZ dazugehöriger Host (Unraid) Pfad: /mnt/user/appdata/dresden-elektronik/deCONZ Ab da sind alles Variablen. Also z.B. der Web-Port: der WS-Port Dein deconz Stick copy & paste: Wert: /dev/ttyACM0 trag das sicherheitshalber auch unter extra Parameter ein: --device=/dev/ttyACM0 Wie gesagt: ttyACM0 <= NULL VNC aktivieren mit 1 VNC Port: VNC Passwort vergeben:
    1 point
  21. I updated the firmware and it's been fine for a few days now with spin down enabled. thanks!
    1 point
  22. Re-installed and no drive spin ups anymore. Success!!!!! Great job everybody. I did have a little glitch where I re-installed and it seemed to take forever for MyServers on unraid to turn green. Could literally be anything I'm sure, but I was worried I messed something up. After making a cup of coffee and returning it was sitting there green. I do wish I had of waited for your patch to see if it would of fixed its self like intended, but I'm often impatient.
    1 point
  23. @Ford Prefect & @mastadook Ich hab das Plugin schon fast fertig genau so wie das Docker template...
    1 point
  24. hi guys, the issue with qibttorrent 4.3.4 is now fixed (upgraded to 4.3.5) please pull down tag 'latest' again, make sure you click on 'force update' to force the pull of the new image (need advanced view toggled on).
    1 point
  25. This applies not only to Unraid. But first it needs to pass all checks and merged into openzfs so that you can use it on Unraid.
    1 point
  26. This feature could make ZFS way more interesting for Unraid in the future: https://github.com/openzfs/zfs/pull/12225
    1 point
  27. That's it, but there's one more step once it finishes, you can't just unassign the removed device and start array, you need to stop array, unassign all 3 pool devices, start array (check "I'm sure box") to make Unraid forget that pool config, then stop array, re-assign the two remaining pool devices and start array again.
    1 point
  28. Hi all Anyone has tried to sync or copy a gdrive account to another gdrive account throught this rclone script ? Looking for help or maybe hits if its possible in another way . thx all
    1 point
  29. Instead of using java mx ,there is a setting in container's configuration that can be used: "Maximum Memory".
    1 point
  30. I didn't want to clog up his Support Thread, but anyways this is what I suggested. ************************************************************************ One idea I just had. Currently your renaming chattr and changing its permission. Absolutely brilliant, however maybe include a variable so the user could change the rename so everybody has a totally different binary and really screw up bots/script kiddies? Say default is "rchatt" and everybody that uses it will have that as their default. Anybody who knows unraid and knows how to beat it will just bake that into their code and target unraid looking to rename rchatt to chattr or will simply run Chmod +x on rchatt. So I'm proposing something like the following #Edit below to set your Binary name default is rchatt Set your Binary name ="rchatt" It might be one more added thing that might be borderline paranoid, but really getting obscure should really confuse somebody.
    1 point
  31. OK guys, its been a while since i touched this script, mainly because it just works :-), small enhancement to the script, i have now added in the ability to 'lock' and 'unlock' chattr, in reality this simply changes permissions and renames the chattr binary to make it just that bit harder for any potential ransomware script to try and execute chattr to unlock media. It's switched on by default and will auto unlock on execution of the script and lock at the end, if you don't want this new functionality then you can switch this off by specifying the flag --secure-chattr 'no'. link to the script in first post of this thread.
    1 point
  32. Wie kann ich eine GPU in einer VM nutzen? HVM und IOMMU müssen aktiv sein: Falls einer der Optionen nicht aktiviert ist, findet man diese im BIOS in der Regel unter den folgenden Begriffen: HVM = Intel VT-x bzw AMD-v IOMMU = VT-d, Directed I/O, IOMMU, SVM Falls dort "Not available/Nicht verfügbar" steht, dann ist die Hardware nicht kompatibel. HVM ist übrigens eine Grundvoraussetzung, um überhaupt VMs nutzen zu können. Wenn diese Voraussetzungen erfüllt sind, kann man die GPU inkl dem Audio Controller (und evtl sogar USB) über Werkzeuge (Tools) -> Systemgeräte (System Devices) anklicken und nach einem Neustart ist die GPU an "VFIO gebunden". Damit ist die GPU nicht mehr für Unraid nutzbar und kann von einer VM genutzt werden. Hinweise: Bei Neustart-Problemen kann die Datei "vfio-pci.cfg" vom USB-Stick gelöscht werden um den Vorgang rückgängig zu machen. Wer nur eine GPU verbaut hat, kann danach nicht mehr die Terminal-Ausgabe von Unraid sehen (die Unraid WebGUI im Browser und das dort integrierte WebTerminal ist natürlich nach wie vor erreichbar) Viele Nutzer konnten Neustart-Probleme beheben, in dem sie Unraid eine GPU verwenden lassen zB die iGPU der CPU oder eine GT710, GTX1030, etc Die mehrfache Nutzung einer GPU durch Unraid und einer oder mehrerer VMs ist nicht standardmäßig möglich. Eher zu den neuen Projekten gehört zB das Intel-GVT-g Plugin um die von Unraid verwendete iGPU auch zur Beschleunigung einer VM nutzen zu können. Bei Nvidia GPUs gab es wohl einen Hack, aber ich vermute, dass eine Nutzung in Unraid auch damit nicht möglich wird, da es mit den Enterprise GPUs nur geht, wenn man ein kompatibles Betriebssystem verwendet. Sofern euch also die Leistung einer Intel iGPU nicht reicht, wäre Stand heute eine dGPU pro VM notwendig. Allerdings kann man sie im Wechsel verwenden. Also eine VM herunterfahren und die nächste mit der selben dGPU wieder hochfahren. Das geht. Fährt man eine VM herunter oder schickt sie in den Standby, geht die GPU nicht schlafen. Im Gegenteil. Ihr Stromverbrauch steigt deutlich an. Daher lohnt es sich eigentlich nicht die VM herunterzufahren. In einer VM spielen ist möglich, beachtet aber bitte, dass manche Spiele einen Anti-Cheat-Mechanismus verwenden, der das Spielen in einer VM verbietet. zB alle Spiele, die mit BattlEye geschützt werden, gelten als inkompatibel. Am besten mit einer Suchmaschine eurer Wahl nach dem Spielnamen und "Unraid VM" suchen. es gibt Nutzer, die mit inoffiziellen Plugins die Nutzung von MacOS in einer VM ernöglichen. Apple hat sich meines Wissens nach hier bisher nicht zu Wort gemeldet, aber manche Nutzer vermuten, dass es gegen die Lizenzrechte verstößt. Es kann also gehen, muss aber nicht legal sein und keinesfalls wird es offiziell von Unraid unterstützt. Da es schon Beschwerden gab, weil so eine VM nicht lief, muss ich das einfach erwähnen.
    1 point
  33. Benötige ich eine USV? Linux, worauf Unraid basiert, nutzt standardmäßig 20% des freien Arbeitsspeichers als Schreibpuffer (vm.dirty_ratio=20) und leert diesen erst nach 30 Sekunden (vm.dirty_expire_centisecs=3000). Kommt es also während eines Uploads auf den Server zu einem Stromausfall, können Dateien verloren gehen. Ohne USV sollte man daher mit dem Tips & Tweaks Plugin die vm.dirty_ratio 1 stellen ("0" verursacht Performance-Probleme, wäre aber noch sicherer): Damit verkleinert sich der Schreibpuffer auf 1% des freien RAM und der mögliche Datenverlust reduziert sich maßgeblich, da fast alle Uploads fast zeitgleich auf den Datenträger geschrieben werden.
    1 point
  34. Benötige ich einen SSD Cache? Mit einer Paritäts-HDD ist die Schreibgeschwindigkeit je nach Modell auf 40 bis 90 MB/s begrenzt, was langsamer ist als eine 1G Netzwerkverbindung (Hinweis: Wechselt man auf "Reconstruct Write" erhöht sich diese auf die maximale Geschwindigkeit der HDD, allerdings laufen dann immer alle HDDs parallel). Die Lesegeschwindigkeit ist auf die maximale Geschwindigkeit einer HDD begrenzt. Mit einer entsprechend schnellen SSD können selbst 10G Netzwerkverbindungen problemlos ausgelastet werden. Ein SSD Cache hilft außerdem beim Strom sparen, da die dahinter liegende HDD dauerhaft still stehen kann (Standby). Benötige ich zwei SSDs für den Cache? Dateien befinden sich entweder auf der SSD oder dem HDD Array. Mit nur einer SSD besteht die Gefahr, dass diese Dateien verloren gehen. Ein regelmäßiges Backup hilft nur, wenn keine Dateien auf den Server verschoben, also von der Quelle gelöscht wurden. Wir empfehlen daher zwei SSDs im RAID1. Wie funktioniert der Cache? Dateien befinden sich bei Unraid entweder auf dem Cache oder dem Array. Ein aktiver Cache ist ein separates Laufwerk, das Uploads auf den Server "abfängt". Erst später werden diese durch den Mover auf das Array verschoben. So zumindest das Verhalten bei "Yes/Ja". Dagegen verbleiben die Dateien auf dem Cache, wenn man "Prefer/Bevorzugt" eingestellt hat. Diese Einstellung wird in der Regel für Container und VMDisks verwendet. Als Anfänger sollte man "No/Nein" und "Only/Nur" nicht nutzen. Hier ein Diagramm wie sich die Optionen genau verhalten: Video:
    1 point
  35. Welches Dateisystem soll ich wählen? Für Pools, die aus mehr als einem Datenträger bestehen, wie zum Beispiel einem RAID1 Cache, ist BTRFS wegen der "Selbstheilung", Snapshots und der Datenrettungsoption empfehlenswert. Bei einem Cache mit nur einer SSD oder für das Array ist XFS empfehlenswert, da Reparaturoptionen direkt in Unraid implementiert sind (im Array Wartungsmodus), die Performance etwas besser und die Fehleranfälligkeit bei Stromausfällen geringer sein soll. Eine Datenrettung ist hier allerdings nur mit Drittanbieter-Tools möglich. Wer Snapshots im Array benötigt, sollte BTRFS verwenden, muss aber beachten, dass diese nur innerhalb einer Partition, also auf einer Disk, erstellt werden können.
    1 point
  36. Benötige ich ECC RAM? Arbeitsspeicher (RAM) mit Fehlerkorrektur (Error Correction Code) ist nicht zwingend notwendig, aber empfehlenswert, denn wie der Name schon sagt, wird er zur Korrektur von Fehlern verwendet. Kommt es also dazu, dass der RAM ein Bit verfälscht, dann wird der ECC dazu genutzt diesen Fehler zu beheben (1 Bit Fehler) oder zumindest zu erkennen (Multi-Bit Fehler). Ohne ECC ist weder eine Korrektur, noch eine Erkennung möglich, da nur ECC RAM Meldungen in den Logs des Betriebssystems hinterlässt. Ansonsten muss jeder selbst abwägen, ob seltene Fehler, die die Datenintegrität gefährden könnten, Grund genug sind einen teureren Server mit ECC RAM zu verwenden. Wie kommt es, dass der RAM die Daten verfälscht? Bits können durch kosmische Strahlung verfälscht werden, aber in den meisten Fällen handelt es sich um kleine Bereiche auf dem RAM, die defekt sind. Diese führen nicht zwangsläufig zu einem Absturz des Betriebssystems, weshalb sie lange Zeit unentdeckt bleiben können, während sie großen Schaden an Dateien anrichten können. Was kann passieren, wenn ich RAM ohne ECC verwende? Werden Dateien auf den Server übertragen, durchlaufen diese den RAM und werden evtl verfälscht auf die Disks geschrieben. Unraid verwendet außerdem zur Ausfallsicherheit von Array und Pool eine / mehrere Paritäten. Diese wird von der CPU berechnet, durchläuft den RAM und könnte dann verfälscht auf die Paritätsdisk geschrieben werden, wodurch die Ausfallsicherheit gefährdet sein könnte. Braucht man ECC nicht nur bei ZFS? Viele nehmen dies an, da ECC RAM zu den Hardware-Empfehlungen von ZFS gehört. Diese Schlussfolgerung ist aber falsch. Matthew Ahrens, Mitgründer von ZFS, hat in einem Forum mal das geschrieben: https://arstechnica.com/civis/viewtopic.php?f=2&t=1235679&p=26303271#p26303271 Übersetzung: Wie häufig werden Daten im RAM verfälscht? Insbesondere durch eine Studie von Google weiß man, dass sich im Schnitt 1 Bit pro GB RAM pro Jahr verändert. Dazu sei angemerkt, dass Google sowohl seine CPUs als auch seinen RAM vorher ausgiebig testet. Diese Fehler kommen also durch RAM zu stande, der bei der ersten Inbetriebnahme völlig fehlerfrei war. Da die wenigsten Selbstbauer ihre CPU oder RAM "einbrennen" und testen, ist davon auszugehen, dass die Fehlerquote hier höher liegt. Wie groß kann der Schaden schon sein? Bereits ein gekipptes Bit kann eine Bilddatei zerstören, wobei er an einer anderen Stelle vielleicht nur die Farbe eines Pixels verändert oder sogar gar nichts visuell beeinflusst. Im Extremfall kann dauerhaft defekter RAM sogar eine komplette Parität verfälschen und damit bei Ausfall einer Disk und deren fehlerhaften Wiederherstellung, zum Totalausfall von Daten führen. Wo wird ECC noch eingesetzt? Sämtliche Datenträger (HDDs, USB Sticks, SSDs, SD-Karten, DVDs, Blu-Rays...) und Übertragungsprotokolle (SATA, PCIe, USB, HDMI, Ethernet, DSL...) verwenden ECC. Warum hat mein PC keinen ECC RAM? Weil CPU/Chipsatz-Hersteller einen saftigen Aufpreis dafür verlangen, damit diese ECC RAM unterstützen. Bei Intel gilt das insbesondere seit der 10ten Generation, seitdem nur noch Xeon Prozessoren ECC RAM unterstützen bzw seit der 12ten Generation können es nur teure i3 und sonst nur i5 und i7 CPUs und auch nur in Verbindung mit teuren W680 Boards. Auch AMD unterstützt nur in bestimmten Motherboard/CPU Kombinationen ECC RAM. Wirklich günstige Systeme sucht man vergeblich. Hat jeder DDR5 RAM eine ECC Fehlerkorrektur? DDR5 hat so genanntes "On-Die-ECC", was man auch als eine Art "ECC Light" bezeichnen kann. Die hohe Datendichte von DDR5 erhöhte die Wahrscheinlichkeit für Bitfehler, weshalb man das mit einer Fehlerkorrektur auf dem Modul selbst beheben musste. Also ja, jedes DDR5 Modul hat eine ECC-Korrektur. Leider hat man sich aber nicht dafür entschieden vollwertiges ECC umzusetzen, so dass der Transport zwischen CPU und RAM nach wie vor ungeschützt bleibt und die CPU auch nicht mitgeteilt bekommt, wenn es Fehler gab. Datenträger haben im Vergleich dazu das SMART, wo solche Fehler protokolliert werden und der Nutzer dann frühzeitig darauf reagieren kann. In wie weit nun das On-Die-ECC ausreicht, weiß aber heute keiner. Das werden wir erst erfahren, wenn es dazu wieder eine Studie geben sollte. Aber keine Angst, Stand heute (09/2022) gibt es sowieso keine DDR5 Workstation Module mit vollwertigem ECC. Da fällt die Entscheidung doch leicht 😉
    1 point
  37. Woher bekomme ich Apps? Die Community Apps bieten Zugriff auf Plugins und Templates für viele Docker Container. Um den Eintrag im Menü freizuschalten, geht man auf Plugins > Install Plugin und fügt diese URL ein (Support) : https://raw.githubusercontent.com/Squidly271/community.applications/master/plugins/community.applications.plg Ein Template erleichtert hierbei die Installation, da bereits verschiedene Pfade und evtl notwendige Variablen von andern Usern der Community vorausgefüllt wurden. Wenn das Konzept irgendwann verstanden wurde, kann man aber auch jeden anderen Container installieren. Welche Plugins sollte ich installieren? Ohne Anspruch auf Vollständigkeit sind die folgenden Plugins quasi unverzichtbar: - Fix Common Problems (informiert dich über Konfigurationsfehler und löst Benachrichtigungen bei veralteten Plugins aus) - Unassigned Devices (ermöglicht die Einbindung von USB Laufwerken und Netzwerk-Freigaben anderer Server) Weiterhin empfehlenswert: - CleanUp Appdata (entfernt man Container, können hiermit auch die Nutzerdateien gelöscht werden. Vorsicht!) - Unbalance (falls man komplette Verzeichnisse von einer HDD zur anderen verschieben oder auf mehrere verteilen möchte) - User Scripts (Bash/Shell Skripte per Cronjob ausführen) - Config Editor (falls mal eine Config Datei auf dem Stick oder sonstwo bearbeitet werden muss) - CA Appdata Backup/Restore v2 für die Sicherung des USB Sticks oder des Appdata Netzwerkordners - Duplicacy, Lucky Backup, Duplicati oder Rsync für Backups Wo finde ich mobile Unraid-Apps? Unraid selbst bringt keine Apps mit, sondern setzt voraus, dass man sich für den jeweiligen Einsatzzweck einen Docker Container installiert, der eigene Apps mitbringt: Dateien teilen, WebDAV, eigene Cloud - Nextcloud Filme anschauen - Emby - Jellyfin - Plex Musik hören - Plexamp (kostenpflichtig) Fotos anschauen - Nextcloud - Plex Videoüberwachung / Surveillance - Blue Iris (kostenpflichtig), Container im Beta-Status, stabil in einer Windows VM - Frigate Notizen - Nextcloud + Notes (Browser) + QOwnNotes (Windows + Mac) + Nextcloud Notes (Android) + CloudNotes (iOS) - Nextcloud + Joplin (Apps für alle Plattformen, außer Browser) Container über das Internet erreichbar machen - Portfreigabe im Router von 80 auf 1880 und 443 auf 18443 + Nginx Proxy Manager Welche Zeitpläne soll ich einstellen? Empfehlungen und Erklärungen findest du in dieser Diskussion. Warum kann ich mich mit einem User nicht bei der Unraid WebGUI anmelden? Die User sind ausschließlich für den Netzwerkzugriff. Die WebGUI kann einzig über den User "root" genutzt werden (sicheres Passwort wählen!) Was sollte ich zu Anfang einstellen? - einen Netzwerk-User hinzufügen - Bei allen Freigaben > SMB Sicherheit > Export auf "Ja" (oder "Nein") und Sicherheit auf "Privat" - bei der Disk-Übersicht auf den Stick klicken und auch da unter SMB Sicherheit Ja + Privat - in den Einstellungen den FTP Server deaktivieren (Achtung, ein FTP Nutzer hat Vollzugriff = SMB Sicherheit gilt nicht!) - in den Einstellungen die Zeitzone einstellen - in den Einstellungen bei Management > Telnet, SSH und UPnP deaktivieren, wenn nicht benötigt (Tipp: oben rechts das ">_" öffnet das WebTerminal) - Apps installieren (siehe "Woher bekomme ich Apps?") - Zeitpläne einstellen (siehe "Welche Zeitpläne soll ich einstellen?") - optional: in den Einstellungen unter Netzwerk das "Bonding" (mehrere LAN Ports verbinden) deaktivieren und das "Bridging" (notwendig für Docker+VM) aktivieren - optional: Feste IP-Adresse vergeben (optimal außerhalb der DHCP-Range, bei einer Fritz!Box zB .2 bis .19) Benötige ich eine Grafikkarte? Wir empfehlen eine CPU mit integrierter Grafik (iGPU). Unraid nutzt die im BIOS eingestellte primäre GPU aus zwei Gründen: 1.) Für den optionalen GUI Modus (inkl. Firefox) 2.) Damit Docker Container darauf zugreifen können 3.) Wenn es eine Intel iGPU ist, kann diese zur Beschleunigung von virtuellen Maschinen verwendet werden Wie schnell sollte die CPU sein? Die grundsätzlichen Hardware-Anforderungen sind sehr gering. Für ein optimales Erlebnis ist eine CPU mit mindestens 1400 Single Thread Passmark-Punkten empfehlenswert. Benötige ich einen SSD Cache? Mit einer Paritäts-HDD ist die Schreibgeschwindigkeit je nach HDD auf 40 bis 90 MB/s begrenzt, was langsamer ist als eine 1G Netzwerkverbindung (Hinweis: Wechselt man auf "Reconstruct Write" erhöht sich diese auf die maximale Geschwindigkeit der HDD, allerdings laufen dann immer alle HDDs parallel). Die Lesegeschwindigkeit ist auf die maximale Geschwindigkeit einer HDD begrenzt. Mit einer entsprechend schnellen SSD können selbst 10G Netzwerkverbindungen problemlos ausgelastet werden. Ein SSD Cache hilft außerdem beim Strom sparen, da die dahinter liegende HDD dauerhaft still stehen kann (Standby). . Benötige ich zwei SSDs für den Cache? Dateien befinden sich entweder auf der SSD oder dem HDD Array. Mit nur einer SSD besteht die Gefahr, dass diese Dateien verloren gehen. Ein regelmäßiges Backup hilft nur, wenn keine Dateien auf den Server verschoben, also von der Quelle gelöscht wurden. Wir empfehlen daher zwei SSDs. Wie übertrage ich die Dateien von meinem alten NAS? Das Unraid Array nutzt standardmäßig das XFS Dateisystem, womit jede HDD einzeln formatiert wird. Das alte NAS nutzt in der Regel ein (proprietäres) RAID. Unraid benötigt also für die Übertragung eigene HDDs. Dazu eignen sich dann die Standardwerkzeuge wie rsync, Drag & Drop über SMB oder das Einbinden der Quelle per Unassigned Devices + Datei-Explorer wie Krusader. Bei der Erstbefüllung sollte man: - den SSD Cache deaktivieren, damit dieser nicht unnötig abgenutzt wird und - die Parität erst mal weglassen oder "Reconstruct Write" (TurboWrite) aktivieren, damit die Übertragung schneller ist
    1 point
  38. I just upgraded to 6.9, how can I take advantage of this? - or - Help! Fix Common Problems says "Legacy PCI Stubbing found", what do I need to do? At some point in the past you added a 'vfio-pci.ids' or 'xen-pciback.hide' directory to your syslinux file, similar to this: vfio-pci.ids=8086:1533 xen-pciback.hide=0000:03:00.0 This is the old way of stubbing a device so that Unraid will not install a driver for it. In 6.9 we do that using the webgui. First go to Main -> Boot Device -> Flash and choose "Flash backup". This will give you a zip file of your settings "just in case" Then go to the Syslinux tab on that page and remove the "vfio-pci.ids" or "xen-pciback.hide" attribute from the "Unraid OS" section. It probably looks something like this: kernel /bzimage append initrd=/bzroot vfio-pci.ids=8086:1533 and you want it to look like this: kernel /bzimage append initrd=/bzroot Hit Apply, but don't reboot yet! Then go to Tools -> System Devices and put a checkmark next to the device you want to stub and and click "Bind selected to VFIO at boot" Now reboot. When it comes back up, the System Devices page will be in control of what devices are stubbed to VFIO-PCI. You can press "View VFIO-PCI Log" to see exactly what it did for that device while booting.
    1 point