Leaderboard

Popular Content

Showing content with the highest reputation since 03/12/24 in all areas

  1. Wilkommen im Kurs: DataCollector nimmt sich wieder zu ernst und meint etwas helfen zu können. 😅 Und mal wieder ein Thema, das in der letzten Zeit ab und zu auftauchte. Bevor nun jede gute Seele das immer wieder von vorne schreibt, dachte ich mir, daß ich das mal zusammenkritzele. Stand: 12.03.2024 und betrifft die vermutlich alle unraidversionen. Aber in Wirklichkeit kenne ich nur unraid ab 6.9.x bis aktuell 6.12.x und da trifft es zu. Da man die unraid GUI Oberfläche auch durch andere Sprachpakete anpassen und man auch die Farben manuell verändern kann, beziehe ich mich hier auf die default englischsprachige GUI Oberfläche (egal ob gebootete GUI direkt am PC oder WebGUI). Definition: Dies hier hängt zusammen mit klassischen Festplatten mit in sich drehenden Plattern und beweglichen Köpfen, da dies dort am wichtigsten ist und die größte Stromersparnis im idle Zustand bewirken kann. SSDs lassen sich auch damit steuern, aber es hängt stark von der Firmware der SSD ab, ob diese das auch wirklich mitmachen oder einfach ignorieren. Übliche SSDs sind aber von Natur aus (fast) alle auf Stromsparen in idle getrimmt, weshalb sich das dort kaum auf den Strombedarf auswirkt (und eben deshalb vielleicht ignoriert wird?). Ausnahme sind überwiegend Enterprise-SSDs. Die haben gelegentlich nicht die selben Stromsparmechanismen und halten des öfteren einen PC sowieso unnötig 'wacher' als erforderlich. Zuerst: Man kann in unraid einstellen, wann (sich langweilende) Festplatten die Platter stoppen. Dies nennt sich 'spin down' und ist wohl die sparsamste Betriebsart einer Festplatte, wenn man mal von 'PC Abschalten' absieht. 🔌 Natürlich dauern dann erneute Zugriffe auf die Festplatte einige Sekunden, weil eben die Platter wieder die richtige Rotationsgeschwindigkeit erreichen müssen, damit die Festplattenköpfe ihre korrekte Flughöhe einnehmen und dann loslegen können. Pauschal wird pro Festplatte von rund 30 Sekunden Aufwachzeit geschrieben, wobei das in Wirklichkeit von Modell zu Modell leicht abweichen kann. Zu finden ist diese Einstelloption einmal zentral für alle Datenträger unter: Settings / Disk Settings / "Default spin down delay" Man kann aber auch für einzelne Datenträger dies individuell anders einstellen indem man beispielsweise unter: Main / Disk<Nr> / "Spin down delay" für diese gezielte Festplatte <Nr> extra konfiguriert. Wenn man es will kann man Datenträger auch manuell sofort anstoßen sich schlafen zu legen oder aufzuwachen indem man auf den kleinen Kreis links des Datenträgers klickt. Ist der Kreis grau schläft die Festplatte. Ist der Kreis grün dreht die Festplatte. So, num zum eigentlichen Thema: Warum schläft meine Festplatte nicht? SAS: Ein Punkt ist mir recht früh aufgefallen: Sollte man SAS Festplatten verwenden gibt es so einige Kontroller-Festplattenkombinationen, die das einfach ignorieren. Es gibt ein extra Plugin (SAS Spindown), welches dann doch einige SAS Festplatten dazu überreden kann, aber auch das wirkt nicht bei allen SAS Geräten. SATA: Hier kenne ich keine Einschränkungen, weshalb ich sage, daß sich direkt angeschlossene SATA Festplatten eigentlich immer in den "spin down" bringen lassen. Warum klappt das also nicht? In allen Beiträgen, die ich bisher las, lag es daran, daß auf den Festplatten noch Reste von oft angesprochenen Shares (Verzeichnissen) vorhanden sind und Zugriffe darauf eben die Festplatte entweder sofort wieder aufweckten oder gar dem Befehl zum "Spin down" so schnell wiedrsprachen, daß die Festplatte einfach weiter läuft. Nun ist man aber vielleicht der festen Überzeugung, daß man doch alles getan habe um die Shares auf einem Pool/Cache/SSD auszulagern und dennoch die Festplatten weiter drehen. Tja, es hat sich eigentlich immer gezeigt, daß da etwas übersehen wurde. Sofern ein Array mit Parity betroffen ist, kann das Verhalten der Paritydisk(s) Aufschluß über die Art der Zugriffe bieten. Wenn die Parity schläft, aber eine oder mehrere Datenfestplatten nicht einschlafen sind es lesende Zugriffe. Wenn die Parity auch aufwacht/wach bleibt sind es schreibende Zugriffe. Zu beachten: unraid hat 4 wichtige shares, ich nenne sie systemshares: appdata - hier finden sich Teile von Docker domains - hier befinden sich Virtuelle Disks von VM isos - hier werden ISO Dateien abgelegt (selten im Zugriff) system - hier finden sich auch Teile von Docker und libvirt Hier greift unraid drauf zu, wenn die Docker und VM Dienste benutzt werden. Um zu prüfen ob die wirklich alle richtig lokalisiert sind sollte man in der GUI unter shares / 'compute all' anklicken. Nach kurzer Recherche sieht man dann auf welchen Datenträgern sich diese Shares verteilen. (Links ist der Datenträger unter dem jeweiligen Share zu sehen und rechts, wieviel Platz das Share dort belegt.) Wenn die Festplatten schlafen sollen, ist es sehr zu empfehlen alle diese 4 Systemshares auf einen Pool/Cache/SSD zu verlagern. Selbst ein absolut leeres Share auf einer Festplatte kann dafür sorgen, dass das "Fuse" Dateisystem dennoch ab und zu dort nachsieht, ob da nicht doch zwischenzeitlich was drin ist und deshalb springt die Festplatte immer wieder an. Nachdem man dafür gesorgt hat, die Systemshares von den Disks weg auf den Pool/Cache/SSD zu verlagern, sollten die Festplatten sich dann auch wirklich schlafen legen können, selbst wenn Docker und VM laufen. Nebenbemerkung: Natürlich ist es dann ungeschickt, wenn man dennoch in einer VM oder Docker einen direkten Pfad angibt der dann beispielsweise downloads doch auf die Festplatte schreibt. Denn dann halten nicht die systemshares die Festplatte drehend, sondern das was man da manuell eingestellt hat und gerade durch die VM/Docker angesprochen wird. Falls man sich nicht mehr dran erinnert, was da schreiben könnte kann man beispielsweise mit dem Plugin "File Activity" sich eine Liste der Zugriffe auflisten lassen. Anhand der dort gelisteten und betroffenen Dateien sind dann Rückschlüsse möglich. USB: Warnung: Igitt! USB Festplatten/SSD sind im unraid Array nicht wirklich empfohlen und immer wieder ein Quell der Probleme (vielleicht nicht zu Anfang aber dann doch des öfteren später). Es gibt Berichte, bei denen USB Datenträger seit Jahren problemlos im Array funktionieren, aber seid gewarnt: wenn etwas schief geht, habt Ihr es gewusst und Euch gezielt dafür entschieden. In diversen Fällen ist dann Hilfe kaum möglich. Zum Thema: bei USB Festplatten hängt es stark von der Firmware in der USB-SATA Wandlerplatine ab, ob sie die daran verbaute Festplatte von einem PC dahingehend steuern läßt oder nicht. Bei vielen moderneren externen Gehäusen klappt es, auch externe Markenfestplatten machen das meist mit, aber wenn nicht: Pech gehabt. Mißverständnis S.M.A.R.T.: Gerne ist ungefär sowas zu lesen: "Meine Festplatte wird durch Abfrage der SMART-Attribute aufgeweckt, das habe ich im Syslog auch gesehen". Seid versichert, das ist nicht so. Es ist genau anders herum. Wenn eine Festplatte aufwacht, versucht unraid zu aller erst diese SMART-Attribute abzufragen. Und genau deshalb sieht es im Syslog so aus, als wenn diese SMART Operation für den "Spin up" verantwortlich sei. Irgendetwas anderes hat die Festplatte aufgeweckt und dann hat unraid sofort gelesen. Wenn man nicht weiß was es war: auch hier könnte das Plugin "File Activity" helfen die Dateien herauszufinden und daraus zurück zu schließen, wer oder was der Verursacher ist. So, mehr fällt mir jetzt nicht ein. Have a nice day with unraid!
    6 points
  2. Data Volume Monitor (DVM) for UNRAID "A plugin that lets you monitor and act on your consumed data volume utilizing vnStat." With much pride I'd like to present my latest project - the Data Volume Monitor (DVM). Dashboards, footer information, notifications, user actions (on VMs/Docker containers) and custom scripting. These are a few of the features being offered - all centred around the data volume consumption of your server. Don't want to your Syncthing container to pull in more than 50 GB a day? No problem, DVM will stop and restart the container for you within those limits. Running a few data intensive VMs and want to pull the plug when it's been too much? No problem, DVM will disconnect and reconnect specific VMs from/to the network. Want to move around some files and folders when you've pulled in too much data? No problem, set up a custom script and DVM will execute it for you when it's time. Please report back if you are experiencing any problems! This plugin was developed with older machines in mind - it's been tested on 6.8.3 and above.
    3 points
  3. Hey team! I have published another RomM CA template now. (it took a couple of days to appear / publish in CA, please excuse the delay) When you are performing a fresh install, you will be presented with 2 options. Please select 'latest' in the option list to get the current v3.X and the template will have all the current variables available for you. Note: v3.X requires a MariaDB container, which is quick to add in Unraid CA. FYI: @Green Dragon - please notify the Discord community if you feel its appropriate.
    3 points
  4. I've done some testing and found out Samba is crashing: [2024/03/14 09:07:19.329402, 0] ../../source3/smbd/fd_handle.c:39(fd_handle_destructor) PANIC: assert failed at ../../source3/smbd/fd_handle.c(39): (fh->fd == -1) || (fh->fd == AT_FDCWD) [2024/03/14 09:07:19.329435, 0] ../../lib/util/fault.c:178(smb_panic_log) =============================================================== [2024/03/14 09:07:19.329442, 0] ../../lib/util/fault.c:179(smb_panic_log) INTERNAL ERROR: assert failed: (fh->fd == -1) || (fh->fd == AT_FDCWD) in smbd (smbd[192.168.1.) (client [192.168.1.188]) pid 22564 (4.19.5) [2024/03/14 09:07:19.329447, 0] ../../lib/util/fault.c:186(smb_panic_log) If you are running a recent Samba version, and if you think this problem is not yet fixed in the latest versions, please consider reporting this bug, see https://wiki.samba.org/index.php/Bug_Reporting [2024/03/14 09:07:19.329451, 0] ../../lib/util/fault.c:191(smb_panic_log) =============================================================== [2024/03/14 09:07:19.329464, 0] ../../lib/util/fault.c:192(smb_panic_log) PANIC (pid 22564): assert failed: (fh->fd == -1) || (fh->fd == AT_FDCWD) in 4.19.5 [2024/03/14 09:07:19.329708, 0] ../../lib/util/fault.c:303(log_stack_trace) This is with samba 4.19. I seem to have found a get around, but I'm baffled right now about why this works. Install the recycle bin plugin and be sure it is running. In my testing it looks like file deletes work. Deleting directories works but an error is displayed and the Android app does not show the directory as being deleted until closed and re-opened. The directory delete also crashes samba. Since the recycle bin plugin is for deleted files through SMB, there is something the recycle bin vfs is doing that prevents the file deletes from failing in this situation. Because samba is crashing it looks to be an issue that the samba team needs to fix. At this time, I don't see any way through samba settings we will be able to fix this on the Unraid side. It could also be an issue with the Android app, but I doubt it. In doing some research, there is a samba bug here that might solve the issue.
    3 points
  5. dann beziffere mal eher warum die überhaupt transcoden willst bzw. das Szenario. eine Info hierzu vorweg, @home sollte nie transcoded werden sonder eher schauen das die Clients alles nativ abspielen können. externes / mobiles Schauen, da macht es Sinn um die Datenraten zu reduzieren ... nicht kompatible Clients, da braucht es transcoding ... was aber meist, falsche Konfiguration ist oder wirklich alte Hardware ... da kann man auch mal darüber nachdenken ob man da nicht etwas "aktualisiert" um nicht ins transcoding zu fallen, selbst wenn es dann ein FTV 4k wird ... die UHD630 auf meinem vorherigen 9900 er hat 6 x 4k hevc remux > 1080p h264 im Browser geschafft, ab dann gab es jedoch Artefakte ... den n100er hab ich jetzt noch nicht getestet, aber sicher mindestens gleich oder mehr ... die NV T400 ist mittlerweile für 8 parallele encodings freigegeben, nur als Info @EliteGroup, waren vorher 5, vorher 3. und ist sofern man auf eine dgpu zum transcoden setzt mit die beste Karte dafür, ich meine max 35 W Power Aufnahme. Zusammengefasst, für deine Software Anforderung reicht eigentlich "alles" Deine Hürde lautet ECC Ram für dein Gewissen, bei Intel hat es @EliteGroup schön aufgeführt, da wäre zumindest bei den aktuellen Plattformen DDR5 mit ondie ecc eine Option, oder diverse ältere Intel Systeme wo da unterstützen. Zweite Hürde gegen etwas "Kleines" Boards mit mind. 2 x nvme für deinen redundanten cache. AMD bin ich persönlich (leider) raus da ich immer mit Problemen zu kämpfen hatte, da können andere mehr zu aktuellen Systemen empfehlen. Wenn du dich etwas hier im Hardware Beratungs Bereich etwas einliest, findest du die Antworten, die Entscheidung was dir was wert ist im Bezug auf Anschaffungskosten (ECC, ddr5, ...) und laufenden Kosten (Verbrauch durch ...) liegt dann auch bei Dir @EliteGroup Danke für den Hinweis mit passenden Subforum, verschoben ...
    3 points
  6. This plugin does a quick patch to the docker system on 6.12.8 only to prevent any empty host paths or container paths which may be present in an already installed template (or on a new installation) from triggering an error (and creating an orphan image) when updating the application. This is NOT fixing any bug in Unraid at all. Previously, the docker run command (eg: on 6.12.6) would not return an error if there was no container path specified. The docker system in 6.12.8+ does return an error (which is the proper operation). This quick patch simply has the docker system not add in to the docker run command any paths which has either the container or host side of it blank. If you did update an application and then had it orphan due to an empty path, then simply installing this plugin and then going to Apps, Previous Apps and reinstalling will get you back and running without changing the template to how it should be set up
    3 points
  7. Vielen Dank! Das hat mir sehr weitergeholfen. Bin ein Newbie mit Unraid und Docker etc. Aber mit Deinen Tipps habe ich es geschafft, das Ding zum Laufen zu bekommen. Liebe Grüße, Dietmar
    3 points
  8. NVME: Samsung 970 Evo Plus. Ist vielfach bewährt, viel TBW und kann viele IO Operationen verarbeiten. RAM: Ich habe den, andere habe ich nicht getestet: Link
    2 points
  9. This was a function being developed for the next release but was decided best to be a plugin to start with to allow better interations for changes. Currently this is a beta release. the is an existing plugin called virtwold this expands on it to include dockers and LXC. I am in the process to complete changes to make it work fully under 6.12 but currently the search function and help text don't work or don't exist. Two pages are created, first is the settings. Within the settings you can specify which servers are enabled. The interface name needs to be a physical NIC. By default shutdown actions are disabled. The second page is in tools. It allows you to specify the actions allowed. To be able to start dockers you need to have a user defined mac address as one is not assigned until the docker starts and changes. Values for the enabled field are
    2 points
  10. 如题,unraid7快来了(根据ca插件的更新日志推断,大概还有个6.13),这次更新会解决不少使用上的痛点。 以下内容不是访谈的全部内容,欢迎补充! 1.虚拟机快照&克隆 (将现存插件集成至os) 2.zfs拓展,更全面的zfs支持 3.unraid阵列不再是必要,可以选择只用zfs或者btrfs pool 4.可以使用多个unraid阵列 5.pool之间可以用mover互相转移 (目前只允许pool到array) 6.集成file manager、GUI Search和其他一些插件 (听不清🤣) 另外还有一些小细节,limetech会随时更新到最新的内核,但前提是所有子系统都支持(比如目前拖后腿的openzfs)。 未来会有一个“硬件数据库”,用来帮助新用户检查自己的硬件能不能运行unraid,需不需要加一些启动项等等 (简化了翻社区的过程)
    2 points
  11. Thanks for the tips! Fixed the issue by upgrading from Corsair SF600 to SF750. Have been 8 days without issues now.
    2 points
  12. AdGuard als Docker, ja ist kein Problem Was jetzt? Netzwerk oder Online? Oder Das Netzwerk auch Online verfügbar? Netzwerk = SMB Netzwerk + Online remote = VPN + SMB Online = zb Nextcloud als Docker Für die Festplatten ist es egal. Wenn du deine Viren als Backup speicherst sind die auf der externen Platte auch. Schlechtes Gerät... 1. Wie willst du da SSDs/Festplatten unter bekommen? Das Ding hat nur ein M.2 Slot sonst nichts. 2. Bevorzugt Intel statt AMD Es gibt viel Stromsparender Systeme die Idealer geeignet sind für einen Home Server zb Intel N100 Muss es ein fertiger Mini-PC sein? Die Hardware kannst/möchtest du nicht selbst zusammen bauen?
    2 points
  13. 2 points
  14. jetzt mal ehrlich, wann rechnest du mit einem flächendeckenden Betrieb dafür ? wenn ich jetzt noch lese wieviel auf transcoding schauen @home (wollen, müssen, ...) wegen hevc ... dann sage ich, bis AV1 ein ernstes Thema ist, wechsel ich die Hardware Stand heute wieder aus ... und das nicht wegen AV1 sondern weil der Rest sich weiterentwickelt hat auf Basis AV1 heute meine Hardware zu kaufen ... ich würde da eher auf andere Rahmenbedingungen schauen und wenn es mal soweit ist umstellen oder mit ner kleinen GPU dann (wenn es soweit ist) umrüsten.
    2 points
  15. So, da ich bei meinen Messung der SAS Kontroller gestern Abend einen groben Fehler begangen habe, wiederhole ich das Ganze nochmal. (Ich hatte übersehen, daß da am Stromanschluß des Inter-Tech Netzteiles noch eine Festplatte hing. Ich hatte nur die SATA Datenverbindung getrennt.) Also Ausgangslage: Wieder einmal: - Gigabyte B760M DS3H DDR4 (BIOS/UEFI: 2023-11-09 F16b) - Intel I3-12100 boxed (incl. CPU Kühler) - 2x 16GB DDR4-3200 Mushkin Essentials - keine NVMe SSD - kein SATA - interne Netzwerkkarte (Realtek RTL8125BG) mit 1GBLan Link - PCIe 4.0 x16 wird benutzt um die verschiedenen SAS Kontroller nacheinander zu beherbergen - 1. PCIe 3.0 x1 leer - 2. PCIe 3.0 x1 leer - Leicke ULL 156W Netzteil 12V 13A 5,5 * 2,5mm - Inter-Tech Mini-ITX PSU 160W, Wandlerplatine (88882188) 12V Input - USB Bootstick: Transcend Jetflash 600 32GB; unraid 6.12.4 stable (weil es mit Realtek LAN sparsamer ist) - USB 2.0 Kabelpeitsche: USB_SanDisk_3.2 Gen1 32GB als einzige Disk im Array (weil sich unraid sowieso ja nur mit Array vollständig nutzen läßt). - Monitoranschluß und USB Kastatur/Mouse (per IPKVM, da das System im Keller steht) Array mit Autostart, damit es immer gleich ist und ich nach einem Reboot für die Tests nicht erst ins WebGUI zum Starten gehen muß. Meßergebnisse per AVM DECT200 über Fritzbox Webseite. Die unten getesteten SAS-Kontroller sind idle und ohne Beschaltung (kein Kabel, kein Laufwerk, kein extra Lüfter) Messung 1: System ohne Steckkarten So, zuerst einmal das nackte System: alle PCIe Slots leer, keine M.2 verbaut. Verbrauch ca. 9,08W (siehe Screenshot 1 links) Überraschung! Das Leicke und der USB Stick im Array scheinen rund 1W mehr zu schlucken, als das vorher verwendete QNAP TR-004 Netzteil (welches aber auch weniger maximale Leistung hatte) und ohne USB Stick im Array. Powertop: Es wird C10 erreicht (siehe Screenshot 1 rechts) Messung 2: Broadcom MegaRAID 9261-8i, PCIe 2.0 x8, 8x SAS 6Gb/s, 2x SFF-8087 (ein recht alter Raidkontroller mit BBU) unraid zeigt den Kontroller an als: RAID bus controller: Broadcom / LSI MegaRAID SAS 2108 [Liberator] (rev 05) Der Verbrauch liegt nach Bildschirm schwarz und rund 5 Minuten gewartet bei rund 36,40 W. (was wohl durch das alte PCIe 2.0 Interface zu erklären ist). (Siehe Screenshot 2 links) Powertop zeigt alle Tunables als "Good" an (auch den Broadcom /LSI MegaRAID SAS 2108) Aber das System kommt nicht mehr unter C2 runter. (Siehe Screenshot 2 rechts) Messung 3: Broadcom SAS 9207-8i, PCIe 3.0 x8, 8x SAS/SATA 6Gb/s, 2x SFF-8087 (schon etwas moderner als der vorherige. Ein reiner HBA ohne Raid und ohne BBU) unraid erkennt ihn als: Broadcom / LSI SAS2308 PCI-Express Fusion-MPT SAS-2 (rev 05) Der Verbrauch liegt nach Bildschirm schwarz und rund 5 Minuten gewartet bei rund 36,19 W. (Hier schlägt PCIe 3.0 zu) (siehe Screenshot 3 links) Powertop zeigt alle Tunables als "Good" an (auch den Broadcom / LSI SAS2308 PCI-Express Fusion-MPT SAS-2) Aber das System kommt nicht mehr unter C2 runter. (siehe Screenshot 3 rechts) Messung 4: Broadcom SAS 9300-8i, PCIe 3.0 x8, 8x SAS 12Gb/s, 2x SFF-8643 (hier sind wir schon so ungefär in der Genereation des MegaRaid 9361-8i, der in der erwähnten Diskussion angesprochen wurde. Nur ist das hier nur ein HBA, was ihn minimal sparsamer machen sollte als den Megaraid) Laut Datenblatt ist er mit 13W nominaler Leistung angegeben. unraid erkennt ihn als: Broadcom / LSI SAS3008 PCI-Express Fusion-MPT SAS-3 (rev 02) Der Verbrauch liegt nach Bildschirm schwarz und rund 5 Minuten gewartet bei rund 35,69 W. (Hier schlagen PCIe 3.0 und 12GB SAS zu. Dafür ist es eine neuere Chipgeneration) (Screenshot 4 links) Powertop zeigt alle Tunables als "Good" an (auch den Broadcom / LSI SAS3008 PCI-Express Fusion-MPT SAS-3) Aber das System kommt nicht mehr unter C2 runter. (Screenshot 4 rechts) Leider habe ich keine SAS Kontroller der neueren NVME und PCIe 4.0 Generation (weil die mir aktuell viel zu teuer sind). Fazit: es bleibt auch hier dabei, daß alle 3 SAS Kontroller den energetischen Verbrauch des gesamtes Systemes ziemlich anheben. Von ursprünglich rund 9 Watt auf nun rund 36 Watt, weil sie selber idle schon etwas ziehen und leider die Energiesparmodi des Mainboard von optimalen C10 auf miserable C2 anheben., Wenn ich mal ein bisschen nach Milchmädschenart rechne: System alleine 9W Kontroller 9300-8i nominal 13W, idle und unbeschaltet vermutlich ca. 8W. 9W+8W = 17W für die Technik. Bei einem gemessenen Verbrauch von rund 36W werden also durch den Anstieg von C10 auf C2 rund 20 Watt extra im System ver(sch)wendet. Ich kann mich nur wirklich nochmal für die falsch Messung vorher entschuldigen. Ich hatte eien angeschlossene Festplatte übersehen, die ich hier wirklich komplett abgezogen habe. Screenshot 1: System ohne jegliche installierte Steckkarte Screenshot 2: Broadcom MegaRAID 9261-8i, PCIe 2.0 x8, 8x SAS 6Gb/s, 2x SFF-8087 Screenshot 3: Broadcom SAS 9207-8i, PCIe 3.0 x8, 8x SAS/SATA 6Gb/s, 2x SFF-8087 Screenshot 4: Broadcom SAS 9300-8i, PCIe 3.0 x8, 8x SAS 12Gb/s, 2x SFF-8643
    2 points
  16. I've actually done it already and the warning is gone 🙂 but I agree the documentation is quite hard to overlook. Basically, you just need to set up these two variables in the container in two steps... 1. add the universal-package-installl Mod by adding a new variable to the container (2. screenshot) linuxserver/mods:universal-package-install 2. save -> apply which restarts the Docker 3. Add a new variable "Install Packages" which lists the stuff for the mod to be installed on the next restart, in our case: imagemagick-svg After save and apply, the packet should be installed during restart of the container and the warning should be gone This should be also shown in the logs of container There is a good video on how use these Mods particular useful for the SWAG container - but the approach is the same: hope that helps 🙂
    2 points
  17. @nofreeusername Ahhh du nutzt einen Remote Mount.. Wieso entpackst du nicht auf Unraid selbst? Versteh da nicht was der zweck sein soll Remote zu "Arbeiten". Direkt-Entpacken ist dafür nicht gut und allgemein Entpacken sehr mühsam / belastend. Du kannst Lokal downloaden + Entpacken und es dann aufs Remote verschieben lassen, das würde weit sauberer Funktionieren. Was das Problem ist kann dir hier denk ich keiner sagen, das kann von Problemen mit Berechtigung Anfangen und weiter zu Mount Probleme übergehen. Lokal auf Unraid würde das anders aussehen.
    2 points
  18. For now I have added an option in the XML template to select which 'tag' you want to install. On a fresh installation, you will see' Option: = 2.3.1 - The last of the 2.X versions (requiring only minor efforts on the installers part) = latest - The most recent of the 3.X version (as of writing this... requiring the "PORTS, PATHS, AND VARIABLES" from @Green Dragon 🙏 post above) I'll adjust the XML template again soon... to auto include all the right ports, paths & variables for the 'latest' tag.
    2 points
  19. Dieses Forum ist mMn sehr Anfängerfreundlich und niemand auch ich nicht will dir irgendwie blöd kommen. Aber ein wenig mehr "Fleisch am Knochen" wird schon benötigt. Daher mein "nö" bitte nicht zu persönlich nehmen, aber ja ein wenig triggern wollte ich dich schon. Denn du bist ja auch immer noch der Meinung dass du alle relevanten Informationen zur Verfügung gestellt hast um dir bei deinem Problem zu helfen. Anhand der diversen Nachfragen sowohl schon von mir als auch @saber1zeigen hoffentlich dass es eben doch nicht so ganz vollständig ist. Wie genau war die Disk gemountet? Wo wurde sie angezeigt? Meine Vermutung zur Ursache habe ich geschildert. Grundsätzlich auch schon einmal der Hinweis, USB HDDs im Array (und auch im Pool) sind ausdrücklich NICHT empfohlen! Wenn ich deine Aussagen richtig deute ist ja jetzt sogar die Parity eine USB HDD?! Kann klappen, Erfahrungsgemäß kommt es aber irgendwann zu (größeren) Problemen
    2 points
  20. Denke ich auch. Es wird einfach der Reihe nach gefüllt. Disk 1 = Voll > Disk 2 Disk 2 = Voll > Disk 3 Wenn jetzt neue Daten kommen, und in der Zwischenzeit wieder Platz auf Disk 1 ist, aber eigentlich Disk 3 dran wäre, wird Disk 1 genommen. @chilloutandi Unraid wird bei "Fill-Up" einfach immer die Disk in der Reihe nehmen, die die kleinste Zahl hat und Speicher frei hat. So verstehe ich "Fill-Up".
    2 points
  21. I went into the kernel modules built in the latest unraid on my machine and here are the kernel modules compiled. You can also see the thunderbolt network service is there and the ko thunderbolt net module is also compiled in. In the case of this TB3 network adapter I don't know if it needs to load the net module or not, but it is there. You may have to load it manually though (if it is necessary). This would be interesting to see if it is actually plug and play. I have no USB4 ports to test. alias tbsvc:knetworkp00000001v*r* thunderbolt_net alias wmi:86CCFD48-205E-4A77-9C48-2021CBEDE341 intel_wmi_thunderbolt alias pci:v*d*sv*sd*bc0Csc03i40* thunderbolt LM in kernel driver: thunderbolt-net.ko.xz thunderbolt.ko.xz I am not sure USB4 is compiled into the kernel yet so the modprobe needs to know about the port and how to attach the module to it but I am unsure it will work w/ USB4 but probably a trad TB3 port. But that is conjecture because I didn't look at the kernel symbols and have no idea what the Mobo would report upon plug. With all of that said just because you CAN do it, if it's not supported by limewire then you will be on your own.
    2 points
  22. This response goes right along with the rants others have pointed out. Feel free to move on to something else since. you no longer want to support the work done on Unraid.
    2 points
  23. You are of course correct that SMB1 is problematic from a security point at this time but I don't think you are correct in stating this is something that needs to be fixed on the android side - it seems like the most probable explanation so far in this thread is this is a mis-implementation of samba on unraid, somehow. Android already has clients that can handle SMB 1, 2, and 3 and things were perfectly fine with SMB2+ on unraid 6.9.2 but broke on 6.11.0+.
    2 points
  24. das Meiste wurde ka bereits von @EliteGroup beantwortet, meine Meinung, beide ... Win VM ist ja recht einach zu "skalieren", da der Win Server ja "managed" ist, schauen was Sache ist und entsprechend zuweisen, wenn da wirklich nur die DB Dienste abgehandelt werden braucht das OS mehr wie die Applikationen, bei dem vorhandenen Volumen musst du ja nicht "sparsam" sein Unraid und Ram, oder besser Linux host und Ram, Unraid "cached" recht viel und profitiert auch entsprechend davon, macht sich erst richtig bemerkbar wenn ich halt auch das NAS nutze was ja in deinem Fall nur ein "side" Effekt ist. Dazu einlesen zum Thema vm_dirty page und co ... Das OS ist "genügsam", dann kommt es halt auf die Applikationen an, Docker, laufende plugins, lxc Container, ... VM's !!! und der Rest wirs teilweise für file caching benutzt, gibt es einiges an "Infos" im Netz. das ist grundsätzlich schon ok, es gibt einen Grund warum SSD's nicht empfohlen sind. TRIM ist deaktiviert, vernichtet halt das Konstrukt "Parity", ist auch egal ob man Parity nutzt oder nicht, ist so ... ansonsten sind mittlerweile viele mit SSD im Array unterwegs da die Daten hier meist eh "statisch" sind und der TRIM Effekt auch nicht so relevant ist, man muss es nur wissen und damit leben das es passieren könnte dass die SSD's etwas langsamer werden im Lafe der Jahre ... ob ich mir jetzt dafür einen zfs pool antun würde ... auf keinen Fall aber der würde wieder vom RAM profitieren da ZFS RAM aktiv nutzt. Nur lies dich dazu wirklich ordentlich ein was alles dazu gehört, was ZFS kann und wann es Sinn macht dieses einzusetzen ... ich frag mal stumpf nach, wie sicherst du denn die VM's und Datenbanken (separat ?), extern auf nem 2. Gerät ? da dieses System "in der Firma" läuft ... produktiv ... würde ich schauen wie ich das immer schnell wieder produktiv bekomme im Falle das ....
    2 points
  25. First of all I completely agree with @Miss_Sissy's post. She gives good advice. I would add that it might be a good idea to hire one of the paid support people to help you through the process (https://unraid.net/blog/unraid-paid-support). I was a Windows guy but Windows was getting too expensive for me and all the software that ran on Windows just as expensive. I needed a more reliable but cheaper option that had a good GUI (I'm not a Linux guy). I tried TrueNAS and it's good and powerful but complicated. I tried unRAID and I really like it. I think you will too.
    2 points
  26. Here is my repo if you want to use for examples. https://github.com/SimonFair/unraid-lcd plan is to create a client to show Unraid specific info, but not built yet. client.php is my starter for 10 based on a pfsense plugin.
    2 points
  27. I'm going to give you some general advice because it sounds like that's what you are asking for. If you're feeling overwhelmed, I recommend that you hire a consulting engineer near you who has done this sort of thing before. When dealing with business-critical data, you don't want to experiment and try to learn on your own. Protection against drive failures is something best accomplished through RAID, not backups. For example, on our primary NAS, up to two of the six discs can fail without the NAS going offline or losing any data. On our secondary NAS, which has less valuable data, one of the five drives can fail without data loss. There are various forms of RAID and they can be configured to survive multiple drive failures. To use an extreme example, you could buy four 18TB drives and configure RAID so that you would lose no data even if only one of the three remained functional. Backups are for dealing with a catastrophic data loss, whether through flood, fire, malware, hackers, or some other act of God, Satan, or the Flying Spaghetti Monster. For that reason, you should follow some sort of backup strategy that puts backups offsite -- possibly in cloud storage or possibly on physical media. Based on what you've shared, my first thoughts would be an Unraid NAS that supports SAMBA protocol and automatic snapshots (snapshots let you roll back disks and directories to their state at some prior time). Unraid with a single ZFS pool consisting of four physical disks configured as RAID-Z2 would give you the abiliy to have half of the four discs fail simultaneously without any data loss, while supporting the aforementioned snapshots. My reason for suggesting Unraid is not because this is an Unraid forum. I'm on the Unraid forum because I've tried multiple commercial and open source NAS solutions and I think that Unraid is the best NAS OS, especially from a user interface perspective. I hope that I have left you with fewer questions rather than more. But remember that free advice is often worth what you pay for it, so don't trust me and especially don't trust anyone who disagrees with me!
    2 points
  28. 3.7.24 Update: Caveat Emptor: Multiple users have run into GUID conflicts with these devices. I will attempt again to contact Eluteng and ask about this to see if this was a recent manufacturing change or a one-off "bag batch". Another option/alternative to USBs that we've been internally testing and vetting are mSATA adapters/drives: This USB mSATA adapter (~$10) appears to provide unique GUIDs for Unraid: https://www.amazon.com/gp/product/B07VP2WH73/ This 32GB mSATA drive works with the above adapter (~$15): https://www.amazon.com/gp/product/B07543SDVX/ To avoid having the adapter hang off the back of the machine, these can allow you to mount it inside your case (depending on your system): https://www.amazon.com/gp/product/B000IV6S9S/ https://www.amazon.com/gp/product/B07BRVBQVW/ Important notes/caveats: The mSATA drive does not come pre-partitioned, so you have to create one yourself. Windows sees it as a hard disk, not a removable drive, so the USB Creator might not write to it and you may need to use the manual method. The USB Creator worked fine from a Mac for me. While we're not officially officially recommending these just yet, multiple members of the Unraid team are running OS instances off of this exact set up. We hope to have a full blog/video on this alternative soon. You can use them for Unraid VMs too, just be sure to configure "USB 3.0 (qemu XHCI)" in the VM template (even if the host only has USB 2 hardware!). As always, if you are running the same make/model of drive for both the host and the guest you will need the "USB Manager" plugin to pass the drive to the VM. Major props to @AgentXXL over in our Discord server for doing much of the early testing on this.
    2 points
  29. Ja eine reine Docker Oberfläche scheint für dich besser zu sein. Und nur so nebenbei, nur weil jemand ein YouTube Video macht heißt das nicht das es auch richtig ist was der da macht 😉 Alleine das Intro gefällt mir schon nicht und die aussagen... Dann ein Unraid mit lauter externen Festplatten, das würde kein einziger richtiger Unraid Fan so betreiben... Gut er sagt zumindest das es nicht empfohlen ist, hebt aber hervor wie viel besser es doch so wäre, was einfach nicht stimmt.
    1 point
  30. wie kommst du darauf ? gilt doch nur bei multi user ... wie auch beschrieben ... der Rest ist unten vorgegeben und simpel auszufüllen ... FTP, bin ich raus das ist 30 Jahre her hier ...
    1 point
  31. Dann makiere deinen Beitrag hier im Forum als gelöst indem du den Beitrag von mir als Lösung makierst 😉 Intern für alle deine Geräte bearbeitet AdGuard deine DNS Anfragen und filtert zb Werbung oder unerwünschte Inhalte... Es wird aber trotzdem ein "Online-DNS" benötigt im Internet der alle Domainnamen auflöst. Die Upstream-DNS-Server sind also die Server an die AdGuard sich wendet, er selbst weis intern nur was du "erlaubst" oder "sperrst". Alle anderen Domains holt er sich selbst von einem Upstream. In deinem Bild holt er sich jetzt deine Geräte-Namen von deiner Fritzbox als Upstream und Internet-Adresse vom Google-DNS Server (8.8.8.8) PS: Du kannst auf deinem PC "DNS Bench" ausführen und schauen welche DNS Server sind die schnellsten an deinem Internet-Anschluss. Du könntest dann sehen dann vielleicht 1.1.1.1 schneller reagiert als 8.8.8.8 im Internet. Damit könntest du dein Internet sogar ein bisschen schneller machen.
    1 point
  32. Leider kann ich im Bezug auf zfs dazu noch nichts sagen, weil ich bisher noch nicht versucht habe 2 unterschiedlich große Datenträger zu koppeln. Die Anleitung bezieht sich ja auch auf BTRFS (was ich dennoch meiden würde). Also habe ich es mit meinem B760M Testboard einfach gerade mal ausprobiert. Man nehme eine 2TB Samsung 970 Evo Plus und eine 4 TB Patriot Vioer V4300Lite. Wenn es klappt sollten fast 6 TB Speicherkapazität ohne Redundanz bereitstehen. (Ich nenne sowas gerne BigDisk, weil der Begriff JBOD leider mehrfach belegt ist.) Und es klappt! Schritt 1: die Datenträger einbauen, unraid starten & einen neuen Pool erstellen Schritt 2: Die unterschiedlichen Datenträger dem Pool zuordnen Schritt 3: Durch Anklicken des ersten der Datenträger im Pool die Einstellungen festlegen. Hier zfs Schritt 4: dann in dem neu aufklappenden Menu den raid0 Modus wählen: Schritt 5: wenn der Pool erzeugt wurde, sind die Datenträger natürlich noch nicht formatiert, aber wenn man das System per "START" dann startet wird einem im Main Tab unten die Formatierung angeboten (rechts das Kästchen anklicken) und den Button "Format" drücken. Schritt 6: Und wenn die Formatierung durch ist, sieht man dann hier fast 6TB Nutzkapazität. Ich hoffe damit ist Deine Frage beantwortet?
    1 point
  33. Ein neuer Tag... eine neue nagende Frage... Im Zusammenhang zu diesem Mainboard wurde die Frage an mich heran getragen, wie die Verbrauchswerte mit angeschlossenen Festplatten aussehen. Und da mich sowas nicht los läßt, also bitte. Wieder einmal: - Gigabyte B760M DS3H DDR4 (BIOS/UEFI: 2023-11-09 F16b) - Intel I3-12100 boxed (incl. CPU Kühler) - 2x 16GB DDR4-3200 Mushkin Essentials - keine NVMe SSD - kein SATA - interne Netzwerkkarte (Realtek RTL8125BG) mit 1GBLan Link - PCIe 4.0 x16 leer - 1. PCIe 3.0 x1 leer - 2. PCIe 3.0 x1 leer - Leicke ULL 156W Netzteil 12V 13A 5,5 * 2,5mm - Inter-Tech Mini-ITX PSU 160W, Wandlerplatine (88882188) 12V Input - USB Bootstick: Transcend Jetflash 600 32GB; unraid 6.12.4 stable (weil es mit Realtek LAN sparsamer ist); "powertop --auto-tune" im go file. - USB 2.0 Kabelpeitsche: diesmal leer, weil ich als Array nun 4 echte Festplatten nutze - Monitoranschluß und USB Kastatur/Mouse (per IPKVM, da das System im Keller steht) Als Festplatten nutze ich 4 alte Seagate Archive v2 8TB ST8000AS0002-1NA17Z und habe 3 als Datenfestplatten und 1 als Parityfestplatte in ein neu erstelltes Array geworfen. Achtung: diese Festplatten sind nicht wirklich 'optimal' in einem ernsthaft genutzten Array! Dies ist nur als Test für die Messungen gedacht. Nach anfänglichen Erfahungen vor Jahren rate ich heute von SMR als Parity ab. Auch sind Arrays, welche auf Schreibgeschwindigkeit setzen wollen, mit Festplatten <7200Rpm langsamer als welche mit eben 7200Rpm. Die Parity(s) sollte(n), in meinen Augen, immer die flotteste der Festplatten sein (wenn es von der Kapazität her paßt), weil die Parity maßgeblich die Schreibperformance beeinflußt. Technische Daten der Festplatten: ST8000AS0002-1NA17Z (laut www.gh.de) Formfaktor 3.5" Drehzahl 5900rpm Cache 128MB Leistungsaufnahme 7.5W (Betrieb), 5W (Leerlauf) Aufnahmeverfahren Shingled Magnetic Recording (SMR), Drive Managed SMR Ergänzung: als diese Festplatten damals in den Markt entlassen wurden, hatte man sie eben als Langzeitarchiv mit wenig Schreibbedarf entworfen und auch mit mehreren innovativen Stromsparstati beworben. Somit sind die elektrischen Werte (oben die Angaben und unten die Messungen) dieser Festplattentype nur als Anhaltspunkt zu sehen. Andere Festplattentypen können etwas andere Werte haben/erreichen. Ich warte, bis der Bildschirmschoner anspringt und er Bildschirm somit schwarz geschaltet wird, verlasse das WebGUI, weil auch ein offenes WebGUI einen kleinen Einfluß hat. Die Docker und VM Dienste sind gestartet, aber es ist kein Dockercontainer oder eine VM installiert. Gemessen wie üblich mit der selben DECT200 Steckdose und ausgelesen über eine Fritzbox. Ich nenne den Mindestwert einer ca. 10 Minuten Zeitperiode in der Anzeige. Alle Powertop Tuneables werden wieder als "Good" gemeldet. Messung 1: Parity building Alle Festplatten drehen, weil ich gerade die Parity erstellen lasse. Also 3 Datenfestplatten lesen und schreiben ihre Daten auf die Parityfestplatte. nach rund 10 Minuten Wartezeit liegt der Verbrauch bei 55,00 W. (Siehe Screenshot 1 links) Powertop meldet folgendes: (Siehe Screenshot 1 rechts) Keine Überraschung. Wenn die CPU was zu tun hat, warum sollte sie stromsparend auf der C10 Sonnenliege dösen? Also sehen die C-Angaben mies aus. Messung 2: idle Spin up Alle Festplatten drehen (spin up; Kreise sind grün ausgefüllt), aber langweilen sich. Ich habe einfach das Parity Building abgebrochen. Angezeigte Schreib-/Lesegeschwindigkeit 0MByte/s. nach rund 10 Minuten Wartezeit liegt der Verbrauch bei 30,61 W. (Siehe Screenshot 2 links) Powertop meldet folgendes: (Siehe Screenshot 2 rechts) Zu beachten, da ich nicht neu gebootet habe sind die Prozentzahlen nicht so hoch, weil ja vorher in fast gleicher Zeit das Paritybuilding lief. Aber C10 wird dennoch gut erreicht. Messung 3: idle Spin down Alle Festplatten schlafen tief und fest (spin down, Kreise sind grau). Ich habe sie manuell schlafen gelegt per Button "Spin down" Angezeigte Schreib-/Lesegeschwindigkeit 0MByte/s. nach rund 10 Minuten Wartezeit liegt der Verbrauch bei 9,58 W. (Siehe Screenshot 3 links) Powertop meldet folgendes: auch hier wieder C10 großteils erreicht (Siehe Screenshot 3 rechts) Messung 4: Preclear auf allen 4 Festplatten Da ich sowieso die Datenreste von den Festplatten wieder entfernen muß habe ich im dn UD (Unassigned Devices) alle Festplatten gleichzeitig in Preclear geschickt (ohne PreRead). nach rund 10 Minuten Wartezeit liegt der Verbrauch bei 64,80 W. (Siehe Screenshot 4 links) Da nun alle 4 Festplatten gleichzeitig schreiben verbrauchen alle gleichzeitig ihr Maximum. Lesend sind sie etwas sparsamer. Powertop meldet folgendes: Auch hier hat die CPU was zu tun, weshalb die C-States wieder grottenschlecht aussehen. (Siehe Screenshot 4 rechts) Screenshot 5 zeigt das Array, wie es in Messung 1-3 zusammengestellt war. Screenshot 6 zeigt die einzelnen Disks in UD als preclear gestartet wurde für Messung 4. Fazit: genau wie erwartet. Wenn die CPU etwas zu tun hat, sind die Energiesparmaßnahmen (C-States) kaum wirksam. Idle sinkt der Verbrauch und die CPU kann die C10 Sonnenliege aupacken. die drehenden Festplatten (Spin up) fressen aber zusammen rund 21 Watt (= ca. 4x 5,25 W). Und wenn dem ganzen System langweilig ist erreicht es sogar fast die Werte, die das nackte System ohne Festplatten erreicht. Die 4 Festplatten im Spin down schlagen alle zusammen also mit vielleicht 0,5 bis 1 W zu Buche. Screenshot 1: Array erstellt; 4 Festplatten; Parity building Screenshot 2: Array erstellt; 4 Festplatten; idle, Spin up Screenshot 3: Array erstellt; 4 Festplatten; idle, Spin down Screenshot 4: Array aufgelöst; 4 Festplatten alle UD preclear gleichzeitig Screenshot 5: Array erstellt für Messungen 1-3 Screenshot 6: Array aufgelöst, UD Preclear für alle gerade gestartet
    1 point
  34. Thanks for the response, it was an Inland 3D TLC NAND that I had to RMA once after getting it for about 2 months. They sent me a "fixed" one and turns out it just did the same thing again (only the first time the issues raised in Windows, so it was a very different error). It's not very performant so I don't think it would get too hot and has a lot of air flow on it. Went ahead and grabbed a Samsung 980 Pro to replace the NVME, fired up, put it under stress, it's working flawlessly. Thanks again for the help!
    1 point
  35. Bei 24 Lines wären es mehrer Kabel zu je 4 oder 8 Lines. Also ist in der Backplane wirklich ein SAS Expander verbaut, der das aufsplittet. Somit sind 10-30W Strombedarf in der Backplane versteckt (je nachdem, welche Backplane es ist und welche Art Expander). ich sehe da schwarz. Leider haben wir keine genauen technischen Details, deshalb gehe ich mal von einer Bandbreite an üblichen Verbrauchswerten aus: SAS-Backplane 10-30W + SAS Kontroller 8-27W + sparsames Mainboard mit CPU und Ram (wegen SAS Kontroller schlechte C-States) ca. 36W + Serverlüfter (je 2-10W) EDIT: Danke hawihoney! Hatte schon gesucht welche Lüfter da drin sind. Somit korrigiere ich mich: Grüner Lüfter: 12V x 0,58A = 6,96W pro Lüfter (Spitzenlast) Grauer Lüfter: 12V x 0,6A = 7,2W pro Lüfter (Spitzenlast) + Servernetzteil ein paar Prozent Verlust Wenn Du sagst, daß Du idle bei rund 100 W liegst, ist das schon recht effizient. Ich bin gerade dabei für Dich ein paar SAS Kontroller zu vermessen und packe die gleich zu meinen B760M Testbeitrag. So, Messung ist durch: https://forums.unraid.net/topic/156160-gigabyte-b760m-ds3h-ddr4-verschiedene-messungen-werte/?do=findComment&comment=1387735 Hab 3 Stück mal ganz grob vermessen (von ziemlich alt, über mittelmäßig bis zu heute noch ganz gut zu gebrauchen) und alle erhöhen den Energioebedarf eines ansonsten sehr sparsamen Systemes auf ca. das 5fache (anstatt rund 8W nun 40W). Dazu müsstest Du genauere technische Daten mitteilen (meist steht ja irgendwo aufgedruckt, was es ist) oder es selber messen. Sowas geht, wenn Du keine Karte mit -i (=internen) Anschlüssen hättest, sondern eine mit -e (externen) Dann ist das sogar so vorgesehen. Aber dann müsste der I5 auch dauerlaufen, wenn Dein unraid NAS läuft. Nein, da der SAS Kontroller mit nur wenigen Kabeln (und den darin enthaltenen nur 4 oder 8 Lines) mit den 24 Bays Spricht, ist definitiv ein SAS Expander dazwischen. SAS Expander können in der Regel eingangsseitig kein SATA. Ausgangsseitig aber sehr wohl.
    1 point
  36. This might be affected by the excluded files in the recycle bin. As I mentioned already, this is a very bizare get around and I don't expect it to work in all cases. It's going to end up being up to the samba development team to find the final solution.
    1 point
  37. Hello, Wine isn't made to run a server, it's a "compatibility layer" for windows application. We cannot have a working Windows OS under docker, it's not made for that and performance would be horrible. If that's what you want, you could simply run a OS VM in unraid. Also, all Wine version of server are inferior version of real linux version. Once a linux native problem is made, we stop using wine and run native version because there's much less problem with a native version.
    1 point
  38. Okay das hat schon geholfen, ty Tatsächlich war es vorher nicht angehakt und es wurde trotzdem nicht angezeigt, deshalb dachte ich, ich hau mal die Haken da rein Aber sieht jetzt gut aus, danke dir
    1 point
  39. You must still have the standard parity check set to the schedule when you want the parity checks started, but you must set the Cumulative Parity Check setting to No if you are using the Parity Check Tuning plugin to handle pause/resuming of increments. I'll reword that message to make it slightly clearer.
    1 point
  40. Have you ever run a correcting parity check? If not then you will keep getting the same errors until you do.
    1 point
  41. Here you are! https://github.com/unraid/lang-bn_BN Please let me know if you have any questions on the formatting of translations.
    1 point
  42. Check settings. Whats inside allowed appdata source paths? Is the volume in question maybe "external" and therefore excluded? Some of your containers excluding /mnt which leads to empty zips..? Point to the backup and restore all XMLs and appdatas. Use Previous apps to install all containers. Currently you need some manual work. Another check here: I bet this container is inside of a group?
    1 point
  43. Was gibt es zu beachten, wenn man Docker/VM Pfade auf /mnt/cache ändert? Standardmäßig nutzt Unraid überall den Pfad /mnt/user. Hinter diesem Pfad steckt eine Software namens "FUSE". Sie sorgt dafür, dass Dateien, die auf dem Array und dem Cache Pool liegen, gemeinschaftlich in einem Pfad zu sehen sind. Das versteht man am besten an Hand eines Beispiels. Ich erstelle über das Netzwerk in meinem Unraid Share "isos" eine neue Datei: Wechseln wir nun in Unraid auf Shares > isos > Inhalt anzeigen, sehen wir zwei Dinge: - der Pfad heißt "/mnt/user/isos" - die neue Datei hat die LOCATION "cache" "cache" heißt in dem Fall, dass die Datei nicht im Array liegt, sondern im Cache-Pool. Dieser hat den Pfad "/mnt/cache". Schaut man sich den Inhalt des Cache Pools über Main > Cache Pool Datenträger > Inhalt anzeigen an, sieht man, dass dort im Ordner "isos" nur diese eine Datei liegt: Die restlichen Dateien des Shares "isos" liegt in meinem Fall auf "disk6". Also wiederhole ich die Schritte und schaue mir über Main > Disk 6 > Inhalt anzeigen den Ordner an und finde die restlichen Dateien: Zusammenfassung: - /mnt/cache ist der direkte Pfad auf unseren SSD Cache Pool - /mnt/disk6 ist der direkte Pfad auf unsere Disk 6 des Arrays - /mnt/user zeigt alle Dateien an, egal ob sie auf einer Disk oder dem Cache liegen - greift man über das Netzwerk auf einen Share zu, nutzt man dabei immer den Pfad /mnt/user Was ist nun das Problem an /mnt/user? Die FUSE Software verursacht bei Lese- und Schreiboperation eine sehr hohe CPU Last. Am besten sieht man das, wenn man über das Terminal während eines Uploads das Programm "top" laufen lässt (der FUSE Prozess heißt shfs oder sshfs): Wo spielt die CPU-Last von /mnt/user eine Rolle? Beim Upload nur dann, wenn euer Server eine sehr schwache CPU besitzt. Ihr seht ja im oben genannten Beispiel, dass ich mein 10G Netzwerk fast auslaste. Tatsächlich ist aber "/mnt/user" Schuld daran, dass es nur "fast" für eine Spitzenleistung ausreicht. Was bei der Uploads zutrifft, gilt aber auch für Docker Container. Als Beispiel nehmen wir mal Nextcloud. Gehen wir davon aus, dass die Maria DB und Nextcloud auf /mnt/user gestellt ist: Nun aktiviere ich die Entwickler-Einstellungen im Browser und kann so die Ladezeit von Nextcloud sehen, die bei 4.5 Sekunden liegt: Jetzt stelle ich alle Pfade auf /mnt/cache um: Und wiederhole die Messung und lande bei 2.91 Sekunden: Also ca 40% schneller, nur weil ich die Pfade angepasst habe. Es gibt sogar User, die hatten vor der Umstellung auf /mnt/cache noch viel schlechtere Ladezeiten (5 bis 50 Sekunden). Ich vermute, weil die auch noch bei der Docker-Installation /mnt/user verwenden. Das wollte ich für diesen Test jetzt nicht zurück ändern, denn das steht bei mir bereits alles auf /mnt/cache: Wie man sieht habe ich mir für docker einen separaten Ordner / Share gesetzt. Ihr werdet da /mnt/user/system/docker stehen haben. Außerdem nutze ich kein docker.img, sondern die dateibasierte Variante, was ich auch jedem nur empfehlen kann, wenn er eine bessere Performance haben will. Was ist der Haken an /mnt/cache? Bevor Ihr jetzt hingeht und alle Pfade von /mnt/user nach /mnt/cache ändert, müsst ihr folgende Dinge beachten: 1.) Ihr müsst euch sicher sein, dass alle Dateien in /mnt/user/appdata ausschließlich auf dem Cache liegen. Also Shares > appdata > Inhalt anzeigen und die Spalte LOCATION sichten. Wenn da nur "cache" steht, ist diese Bedingung schon mal erfüllt: 2.) Alle Shares und alle Pools sollten einen Minimum Free Space eingestellt haben. Also Shares > appdata > Minimum Free Space: Und Main > Poolname "Cache" > Minimum Free Space 100000000 entsprechen hierbei 100GB. Auf die Art wechselt Unraid beim Hinzufügen von Dateien über das Netzwerk (also bei der Nutzung von /mnt/user), sei es durch Container oder beim Upload, den Datenträger, sobald weniger als 100GB frei sind. Das ist wichtig, denn bei /mnt/cache werden weder die Cache-Regeln wie "Prefer" oder "Yes" angewendet, noch greift hier der Minimum Free Space. Daher müsst ihr immer dafür sorgen, dass wenn Ihr Dateien über das Netzwerk hochladet (was bekanntlich über /mnt/user passiert), immer genug freier Speicherplatz auf dem Cache vorhanden ist. Ansonsten crashen euch wegen voller SSD irgendwann die Container. 3.) Falls euch mal der Cache Pool kaputt geht oder ihr die SSD gegen eine größere ersetzen wollte, dürft ihr NIEMALS den Docker Service starten, solange die Dateien nicht wieder vollständig auf dem Cache Pool liegen! Denn ohne Cache Pool existiert der Pfad /mnt/cache nicht. 4.) Backups vom appdata-Share machen! Diese Anpassung erfolgt auf eigene Gefahr! Warum bringt /mnt/cache nichts bei VMs? Die Unraid Entwickler wissen natürlich, dass FUSE den Datenzugriff verlangsamt. Aus dem Grund werden alle Vdisk-Pfade, ohne dass ihr das bemerkt, beim Starten der VM von /mnt/user in /mnt/cache oder /mnt/diskX geändert. Den einzigen Pfad, den ich ihr tatsächlich beeinflussen könnt ist der von libvirt unter Einstellungen > VM: Natürlich könnt ihr für das gute Gewissen trotzdem alle anderen Pfade auf /mnt/cache ändern, aber ihr werdet dadurch wie gesagt keinen Performance-Vorteil erfahren.
    1 point
  44. Ive been tinkering around to get tunneled remote access to my Unraidserver while having some Docker-Container exposed to my home network that my Server also needs to access. It seemed to be a 2/3-Affair. Either tunneled access and Docker running while having no access from the Host to the Container No tunneled access to the Server while having the Container accessible from the Host or Docker-Container and Host were able to communicate but your tunneled access is limited to the unraid system itself. Here is my solution to that Problem. First, the "standard" tunnel access. No further steps on that. This just guarantees access via the tunnel in case the Array/Docker-Server didnt start at all. !IMPORTANT! Secondly. We gonna add another tunneled access to the Server. The recommended options are fine. Now we need to manually edit the wg*.conf, in my case wg1 and change the adapter from br0 to shim-br0. And thats it. Now you always got 1 tunneled access to the Server incl. all Docker-Container and access to the internet. The tunnel, that got modified to the shim-br0 network is the one that has all access while Docker is running. The wg0 interface is in this example is the "oh shit, something is wrong" connection. Update for 6.12.4: If youre running the macvtap network you need to modify the file to look like this, the need for a second tunnel does not exist anymore. PostUp=logger -t wireguard 'Tunnel WireGuard-wg4 started';/usr/local/emhttp/webGui/scripts/update_services PostUp=iptables -t nat -A POSTROUTING -s 10.253.4.0/24 -o eth0 -j MASQUERADE;ip6tables -t nat -A POSTROUTING -s fc00:253:4:0::/64 -o eth0 -j MASQUERADE PostUp=iptables -t nat -A POSTROUTING -s 10.253.4.0/24 -o vhost0 -j MASQUERADE;ip6tables -t nat -A POSTROUTING -s fc00:253:4:0::/64 -o vhost0 -j MASQUERADE PostDown=logger -t wireguard 'Tunnel WireGuard-wg4 stopped';/usr/local/emhttp/webGui/scripts/update_services PostDown=iptables -t nat -D POSTROUTING -s 10.253.4.0/24 -o eth0 -j MASQUERADE;ip6tables -t nat -D POSTROUTING -s fc00:253:4:0::/64 -o eth0 -j MASQUERADE PostDown=iptables -t nat -D POSTROUTING -s 10.253.4.0/24 -o vhost0 -j MASQUERADE;ip6tables -t nat -D POSTROUTING -s fc00:253:4:0::/64 -o vhost0 -j MASQUERADE
    1 point
  45. This is due to the built-in "intelligence", which assumes you want to copy/move to the same folder on a different target. You can manually remove the folder part before doing the actual copy or move operation.
    1 point
  46. When trying to move a single file to the base of a share (disk share in this case), file manager insists on recreating the parent folder in the destination unless a different sub folder is clicked.
    1 point
  47. I think it already supports SMBv1. See here: https://www.cyberciti.biz/faq/how-to-configure-samba-to-use-smbv2-and-disable-smbv1-on-linux-or-unix/ Most people are actually trying to turn it off. MS is a major leader in this effort and most of the problems with smb have arisen out their changes to implement it! If you find that SMBv1 is not working on a WIN10 computer, I would suggest that you start there. I am not sure what the status on earlier versions of Windows is. I looked at the smb.conf (found in /etc/samba ) and there was no global reference to the samba version. If you want to change any Samba parameter, you can easily do it Settings >>> SMB >>> SMB Extras Unraid has provide to allow the user to easily add a smb-extra.conf which is automatically included in the SMB configuration as Samba starts. (Look at the smb.conf toward the end of the file for the hook.) If you find that it is not SMBv1 working in Samba, you can look up the Samba documentation by googling Samba documentation and here is a link directly to the smb.conf configuration MAN page: https://www.samba.org/samba/docs/current/man-html/smb.conf.5.html
    1 point