Leaderboard

Popular Content

Showing content with the highest reputation on 07/12/22 in all areas

  1. Update UD Preclear and reboot.
    3 points
  2. Was soll ich dazu schon sagen. Der Unraid Support funktioniert gar nicht außerhalb dieses Forums, weil dieses Forum mit seinen Plugin-Entwicklern und Container-Maintainern ja Teil von Unraid selbst ist. So sieht das auch bei mir aus.
    2 points
  3. Welche Zeile soll das sein? Installierst du eine VM, in der Docker installiert ist und führst dann das Kommando aus, was du bei Docker Hub als Beispiel siehst? Wenn ja, dann ist das auch der Grund warum deine Backups so riesig sind und eben nichts sauber zwischen Daten (Wichtig) und Container (Müll) getrennt wird. Nachdem was du so über deine VMs geschrieben hast, hast du auch da keine saubere Trennung zwischen Daten (Wichtig) und Betriebssystem (Müll). Damit nutzt du VMs und Container extrem ineffizient und langfristig führt das zu dem Problem, weshalb man ja heute containisiert: Die Backups werden immer größer und die Wartung wird immer komplizierter. Spätestens wenn du das OS aktualisieren musst oder Docker selbst oder irgendwelche Abhängigkeiten, wird deine Vorgehensweise Probleme machen. Kenne ich von Unternehmen, die dann zwischen komplett neu machen und Sicherheitslücken riskieren, abwägen müssen. Alle Optionen, die du da siehst, sind nicht von unRAID, sondern von dem Container selbst. Diese sind auch alle bei Docker Hub verlinkt und es gibt noch viel mehr davon: https://github.com/pi-hole/docker-pi-hole#recommended-variables Ein User von unRAID hat sich die Mühe gemacht und die seiner Ansicht nach wichtigsten Variablen so in unRAID übernommen, dass ein User diese direkt in der Unraid GUI bearbeiten kann. Wohlgemerkt optional. Du kannst auch auf einfach starten. Würdest du nun bestimmte Optionen bei deiner Vorgehensweise benötigen, müsstest du diese von Hand im Kommando ergänzen. Auch müsstest du dir das Kommando merken / notieren. Aus dem Grund nutzen viele auch Portainer. Dort erlauben Docker Compose Templates auch eine bequeme Pflege der Container. Aber auch da hat man langfristig das Problem, dass Daten und Container evtl nicht sauber getrennt werden, da man a) ungeprüfte Templates aus dem Internet übernimmt und b) die Daten innerhalb einer virtuellen Disk hängen, die man da auch erstmal wegsichern muss. Und jetzt noch mal konkret zum pi-hole Container in unRAID. Es gibt exakt ein Feld auszufüllen und das ist das Feld mit der IP-Adresse: Ich habe mir nur überlegt welche bei mir noch frei ist und diese eingetragen: Dann den Container gestartet: Er installiert nun den Container und zeigt am Ende sogar das Kommando an, was du in deiner VM eingeben würdest (und was du auch über die unRAID Kommandozeile ausführen könntest, wenn du das wolltest): Wir starten die WebGUI von Pi-hole über das Menü: Pi-hole läuft: Das war jetzt nicht wirklich schwer. Was hat man nun davon: - du kannst den Container über "remove" jederzeit entfernen und neu installieren, denn deine wichtigen Daten bleiben in appdata vorhanden - warum ist das wichtig: "remove" und "update" ist in der Dockerwelt das selbe. Ein Update löscht den Container vollständig und erstell ihn mit den neuesten App-Versionen neu - Updates gehen extrem schnell - man muss nur das Appdata Verzeichnis von Pi-hole sichern, was auf meinem produktiven Server gerade mal 64MB groß ist: Da es reale Dateien sind, geht das sogar inkrementell. Damit sprechen wir also von einem Jahresplatzbedarf bei täglicher Sicherung von vielleicht 200 bis 500MB (?!, Kann ich gerne mal ermitteln). - der Container läuft maximal performant, da er direkt auf der Host Maschine und nicht in einer VM läuft - der Container verbraucht nur 53MB RAM, was viel weniger ist als bei einer VM: - der Container läuft extrem energiesparsam, da keine VM läuft, sondern nur der Prozess, der gerade gebraucht wird. - alle Container laufen auf einer SSD, weil diese kaum Platz belegen (also auch wieder schnell, effizient, etc). - es gibt Apps in Unraid, die automatische und einfache Backups vom appdata Verzeichnis ermöglichen. Man kann also auch leicht zu einer alten Version zurück, falls mal ein Update Probleme macht und muss nicht gleich eine komplette VM wiederherstellen ... Es gibt sicher noch mehr Vorteile. Ich weiß ehrlich gesagt nicht was daran so schwer sein soll. In der Regel hat man das doch nach 2 bis 3 Containern bereits verinnerlicht. Die kompliziertesten Container sind vielleicht die, wo man selbst noch einen Pfad hinzufügt. Aber auch das ist ja echt kein Hexenwerk.
    2 points
  4. Das muss Nextcloud bekannt gemacht werden. Klick mal auf das Icon von Nextcloud in der Übersicht Deiner Docker Container. Dort die Konsole starten: Gib folgendes ein: occ files:scan --help Da ich Dein System nicht kenne, nur eine rudimentäre Hilfe: Gib statt "--help" entweder eine Nextcloud User-ID, einen Pfad oder "all" ein.
    2 points
  5. CA Dynamix Unlimited Width A simple plugin to override unRaid's artificial maximum limit of 1920 pixels across and allow any width of browser to be utilized
    1 point
  6. A good set of shared bookmarks works better, no typing, just click.
    1 point
  7. @Vr2Io With Global C-States set to Auto and IOMMU set to Enabled equals good performance threadripper19-diagnostics-20220712-1850.zip
    1 point
  8. New Config gives you the option to retain disk assignments from that link:
    1 point
  9. ...dem TE ging es aber wohl auch um sync....das geht nicht (mehr): https://9to5google.com/2021/01/15/chromium-chrome-sync-bookmarks/
    1 point
  10. Von meiner Seite eher nein, sorry. Ein Forum ist genug für mich, ich möchte auch noch ein Leben haben und momentan bin ich sowieso grad ziemlich ausgelastet im echten Leben.
    1 point
  11. Über "webtop" mit "ubuntu-xfce" installieren (Ubuntu, weil nur da eine Grafikbeschleunigung möglich ist, setzt aber eine CPU mit iGPU voraus): Bei "KEYBOARD" den Wert "de-de-qwertz" eingeben (keine Ahnung warum der als Passwort-Feld deklariert ist, @ich777 wer ist der Maintainer?😞 Über das Menü kannst du jetzt auf Ubuntu zugreifen: Nun gehst du mit dem vorinstallierten Browser hin und lädst dir die deb-Datei für Google Chrome. Dann auf den Download-Ordner wechseln und das Fenster offen lassen. Nun das Terminal öffnen und folgendes eintippen: sudo apt install Jetzt mit Copy & Paste das Icon der .deb-Datei in das Terminal schieben: Dadurch wird am Ende sowas da stehen und das bestätigst du mit ENTER und dann nochmal mit "Y": sudo apt install '/config/Downloads/google-chrome-stable_current_amd64.deb' Jetzt willst du vermutlich das Icon in der Menü-Leiste haben. Dazu über die Suche nach Chrome suchen und per Drag & Drop ins Menü werfen. Außerdem das Icon mit der rechten Maustaste bearbeiten und den Befehl um "--no-sandbox" ergänzen (ansonsten startet Chrome nicht): Glückwunsch, du hast nun Chrome in Chrome ^^
    1 point
  12. What? Ist das echt dein Ernst? Das wärst der erste der das so empfindet. Für was willst du ein eigenes Forum? Ist doch so üblich das Englisch die Hauptsprache ist (wenn es denn kein rein deutsches Forum ist) und es dann Unterforen mit den jeweiligen Sprachen gibt. Linus Tech Tips? Du meinst vermutlich LT also Limetech oder? @mgutt was sagst du hierzu...
    1 point
  13. wanted to add my thanks as well. love the new version and the my server feature! THANKS
    1 point
  14. So I figured it out. Somehow that folder got created on /mnt/user/ It wasn't the lxc plugin. My lxc path is /mnt/cache/lxc. Dunno what happened but nuked the folder /mnt/user/lxc. stopped the array and restarted it. It all came back normal. Not sure what exactly happened with that folder.
    1 point
  15. VM section uses binary units, so 70G is 70GiB, and that's 75.16GB.
    1 point
  16. Update: Im not really sure if my vbios was corrupted or something, but after generating a new one, and passing it through, the VM took control of the GPU. So thnak you for the help!
    1 point
  17. 16TB drive is in and parity is rebuilding. This time I put "no disk" on parity, then selected the 16TB. Guess it just got hung up somewhere. Thanks for your help.
    1 point
  18. Thank you. At the moment, it doesn't smell well [emoji51]
    1 point
  19. Ahem, der letzte Beitrag war aber nicht die "Solution". Das eigentliche Skript steht ein paar Beiträge höher ...
    1 point
  20. Nur als Info: Ich erreiche mit unRAID 6.10 nur C7, während ich mit 6.9 auf C9 komme: https://forums.unraid.net/topic/105909-mein-10-zoll-server/?do=findComment&comment=1143532 Es können also auch die Treiber des OS ausschlaggebend sein. Eventuell solltest du mal mit einem Ubuntu USB Stick messen (HDDs dann alle abklemmen, damit die erstmal außen vor sind). Also insgesamt 6 Lüfter oder ist auch ein Arctic auf dem Noctua? Wie auch immer, die können auch gut Strom verbrauchen. Zieh mal testweise alle im Betrieb raus und ermittle was die ziehen.
    1 point
  21. Auch deswegen will ich das ja testen. Wenne s nichts bringt sind 5 Euro nicht wirklich eine ruinöse Verschwendung. Wenn es doch so funktioniert, wie gewünscht, ist es zumindest für mich brauchbar. Bei der (ersten) Platine kann man (entsprechend der miseraablen beschreibung) eine Mindestdrehzahl festlegen. "Circuit load capacity: maximum current per output 5A, the bus currents up 9A Output Range: The first channel 20% -100%, or 40% -100% (TFL = ON) The second channel and the third channel 10% -100% (Note: Above range only for PWM range, the actual control effect will vary depending on the fan.) ... Stall alarm minimum speed: 700-800 rpm Function setting switch Description: DIP 1: The lowest temperature channel PWM setting, when ON state FAN1 PWM minimum is 40%, when OFF the minimum PWM of FAN1 is 20%. DIP 2+3: Temperature channel control temperature zones are interpreted as follows (need to used with the temperature probe): TP1 TP2 Acceltemp Fullspeedtemp OFF OFF 35° 45° ON OFF 40° 55° OFF ON 50° 70° ON ON 60° 90° When the temperature lower than the accelerated temperature, then output at the minimum rotation speed; when it exceed over the full temperature, then always output at full speed. Ja, hatte ich ja auch geschrieben. Ich erwähnte ja, daß ich den aus Neugier auch bestellt hatte (der ist aber für etwas anderes vorgesehen). Bezogen auf beispielsweise mein 19" Gehäuse (bei dem ich den HDD Cage anders steuere) sind da 3 Lüfter hinter 24 Festplattenschächten. Man müßte nur für jeden Lüfter je eine Platine nehmen und deren Tempfühler an den jeweils wärmsten Stellen im Cage platzieren. Im Einzelbetrieb der Platten werden die ja sowieso nicht zu warm (die Lüfter gehen ja nicht komplett aus) und wenn es unter Last sehr/zu warm wird drehen die zugehörenden Lüfter dahinter hoch. So die Theorie, wenn man das machen wollte.
    1 point
  22. Nachdem gestern noch ein Update für ud preclear kam, konnte ich das Plugin wieder installieren und nun läuft das Script auch im Hintergrund und auch bei einem reboot des systems genauso wie ich es gebraucht habe.
    1 point
  23. For now I would replace the cables and try to sync the new parity again. CRC errors are usually the SATA cable, for parity and like mentioned need to see the SMART report first, but for now looks like power/connection problem.
    1 point
  24. 1 point
  25. Hi Jorge Thank you for your reply and help! I took a screenshot of my Main webui, with the order and identification of each disk. I used the tool "New config" from Unraid WebUI only for the array, and I preserved the Pools. This alteration was based on those tutorial https://wiki.unraid.net/Shrink_array. I removed and formated the disk2 and the parity disk. The other disks on the array were reinserted at the same order. When I started the array and pool, the issue was solved. Now the system is rebulding the parity. My data files are intact with no losses. A big thank you for your support and information about future developments for this issue.
    1 point
  26. Reboot. Installing UD Preclear and then removing it will not clear up the issue until you reboot.
    1 point
  27. Digging this up to say that I recently bought a 2TB Samsung 970 EVO for a Nextcloud cache, and had totally forgotten that my Dell PERC H310 didn't support TRIM until I received the "fstrim: /mnt/ssd2tb: FITRIM ioctl failed: Remote I/O error" email from Dynamix SSD TRIM yesterday morning. While my onboard SAS port does support TRIM, it only has 2x SATAIII ports, with the others being SATAII - and the two SATAIII ports are already taken up by the 2x 850 EVO SSDs in my (regular) cache pool. So, a very big thanks to @ezhik for their work finding out that P16 works well, as well as providing a copy of the firmware and flashing instructions! After some nail-biting to-and-fro trying to flash the card (getting errors when I tried flashing it in my server - it erased fine, of course though lol - but then it worked when I used my desktop PC), I'm now running P16 and TRIM runs without error.
    1 point
  28. dein Fehler hat jetzt eher weniger was mit sound zu tun, anscheinend willst du ein device per passthrough übergeben was "gebunden" ist. lösch mal diesen part ... damit sollte dein Problem erschlagen sein oder entferne aus dem GUI part, was oder wo auch immer du da jetzt angegeben hast, mach mal noch einen screen hiervon wie das bei dir aktuell aussieht
    1 point
  29. Haven't got time to look into this, also don't know what 7DtD have to do with ArmA3. These are two different engines from what I know. I will fix this but I'm very busy at the moment in real life and this will take some time.
    1 point
  30. the really easy answer is: NO 🙂 You can have as many drives as you wish (or your licence allows) but they cannot be bigger each than the parity drive. So, you may use your 10Tb as Parity and add 10*10Tb for Data, summing up to 100Tb net dataspace. UNRAID just sums up every single sector of each drive and uses the result for the sector on the parity drive. If a data drive is smaller (aka: does not contain the higher sector numbers) the higher sectors are simply skipped throughout parity generation or check. The only need is that each sector number of any data drive must have a corresponding sector on the parity drive. Thats why the parity drive has to be the biggest of all. Its a very smart and easy approach, avoiding the bad idea of RAIDs that depend on each drive has to be equal.
    1 point
  31. This is covered here in the online documentations accessible via the ‘Manual’ link at the bottom of the GUI.
    1 point
  32. @ich777 Thanks for the quick response. Take your time. I hope its fixable. Appreciate all you do for the community
    1 point
  33. 12TB WD Red pros https://www.newegg.com/red-plus-wd120efbx-12tb/p/N82E16822234466
    1 point
  34. If you are looking to shuck an external drive from an enclosure, make sure you check the prices on https://shucks.top/ to see if it is a decent price.
    1 point
  35. Just to toss an idea out - The first Webb Telescope pictures are released tomorrow. I'll bet there will be something epic that can become the start of a banner...
    1 point
  36. An update to UD Preclear is probably causing this problem. Update UD Preclear and reboot. All should be good again.
    1 point
  37. Ope, nevermind, found the file! sorry bout that!
    1 point
  38. https://forums.unraid.net/forum/76-german-deutsch/
    1 point
  39. See if this applies to you, if yes, upgrading to v6.10 and switching to ipvlan should fix it (Settings -> Docker Settings -> Docker custom network type -> ipvlan (advanced view must be enable, top right)), or see below for more info.: https://forums.unraid.net/topic/70529-650-call-traces-when-assigning-ip-address-to-docker-containers/ See also here: https://forums.unraid.net/bug-reports/stable-releases/690691-kernel-panic-due-to-netfilter-nf_nat_setup_info-docker-static-ip-macvlan-r1356/
    1 point
  40. Looks like it's a Deluge v2.1.0 problem.. latest Changelog here says it's fixed but unreleased. What you can do in the meantime is go back to the v2.0.5 release, which works fine with magnet links. (Change repository to "binhex/arch-delugevpn:2.0.5-1-04").
    1 point
  41. Nice Job guys. Like many I've had several conversations with these guys and I'm sure many many more.
    1 point
  42. Anyone have a link to the prior version until this one gets worked out? Checked the docker hub and there's no archive. Edit: Moved to the Selfhosters Shinobi container. No issues any more.
    1 point
  43. 1 point
  44. This is an intentional design decision by Docker and is the default for unRAID. However, have you tried enabling host access to custom networks in Docker Settings?
    1 point
  45. Added 9211-8i to the list. Instructions: -- @blakeslade, please see above for 9211-8i. lsi-flash-efi-20210130.zip
    1 point