Leaderboard

Popular Content

Showing content with the highest reputation on 01/08/21 in all areas

  1. https://technicalramblings.com/blog/how-to-setup-grafana-influxdb-and-telegraf-to-monitor-your-unraid-system/ You still need to do some of the "Dependencies" part in the instructions from this topic after you follow that guide btw.
    2 points
  2. Sweet! Now I just have to update like a 100 panels for version 1.6 😂 Thanks for testing.
    2 points
  3. Sorry guys, did not see that update. Will build now Sent from my iPhone using Tapatalk
    1 point
  4. No. Everything is the same. The only difference is machine learning (hook processing) is gone.
    1 point
  5. That all looks good. The Realtek RTL8125 NIC will require unRAID 6.9.0 RC2 (latest available) for driver support. It will not work on 6.8.3.
    1 point
  6. Thanks for the help and recommendations! I swapped around the graphics cards, but was still having issues so I did a clean windows install and that seems to have fixed all of my issues. I really appreciate the help!
    1 point
  7. I instruct them to call it “Varken”. We’ll see if everyone follows directions. I suppose that makes sense if someone already has a datasource for Varken that is not called “Varken”. I’ll look into it. Thx.
    1 point
  8. Laut hier passiert das nur, wenn man versehentlich die Größe des Images falsch angibt (zB 16 statt 16G): https://forums.unraid.net/topic/50015-only-an-virtio-512-b-disk-available-when-installing-debianubuntu/?tab=comments#comment-492469
    1 point
  9. No problem at all! I ran into the same problem this morning when the container updated overnight, looks like we both got the same bad update. Good news is, at my next scheduled update it would have fixed itself, but why wait
    1 point
  10. Just switched to the advanced view, clicked on "force update" and all is good now! I have to remember this tip. 🥳 Much appreciated @CorneliousJD.
    1 point
  11. Just click force update - this has been fixed already in another new update.
    1 point
  12. Not immediate "damage", long term wear is accelerated. http://www.tempestbatteries.com/html/BatteryLife.html
    1 point
  13. Also ich habe die gleiche CPU und das gleiche Board und nutze folgenden RAM. https://www.mindfactory.de/product_info.php/16GB-Kingston-Server-Premier-KSM24ED8-16ME-DDR4-2400-ECC-DIMM-CL17-Sing_1251139.html Grus9
    1 point
  14. The following is based on a request by the OP @Waffle I'll be editing this post throughout the day, as I complete my thoughts, so until I put a big "DONE" at the top, consider it an incomplete work in progress. I just don't want to lose my work by accident. Copying all data from current array, to new disks as Unassigned Devices. "Tools" used (hyperlinks): Community Applications Unassigned Devices and UD+ binhex - krusader When I make reference to any of the above, use the hyperlinks to get specific instructions on how to install or manage them. They are a treasure trove of information. We'll need Docker to work, so if you haven't already, go to your 'SETTINGS' tab and pick 'DOCKER' under System Settings. Make sure it's enabled. You'll need to install Community Applications first. Once you have that, everything else is installable from there, by search for them by name. With all of them installed, and assuming you have plugged in drives that are NOT part of the array, you should be able to see drives listed in 'Unassigned Devices'. If format is greyed out, you'll need to go into UD's settings and enable 'Destructive Mode'. Click 'FORMAT' to format the disk. Make sure to pick XFS (it's default) as you're turning these new disks into an array later. Follow the prompts to complete formatting. 'MOUNT' the disk by pressing the button. Repeat as needed for all of the Unassigned Devices you have listed that need formatting. Let's get ready to copy some data. You'll have the krusader docker available on the 'DOCKER' tab. If it's not 'started', click on the icon for it, and in the menu click 'start'. Once it's running, same menu, click 'WebUI'. Krusader is just a GUI file manager. It's easy enough to use, but take note it only has a single folder 'tree' on the left; make sure you have clicked into the correct target window if you want to change your left and right views, otherwise you'll wonder what you've done wrong. Also, the 'noVNC' call out on the left, has a right-pointing chevron; click it. It'll get that menu mostly out of the way. The folder you'll care about, is the 'HostMedia' folder. You'll find everything important in there. Here, we need to make a decision: The 'disk#' folders are the individual data disks in your array. You can access your data through them, but only for the specific disk in question. The 'user' folder contains all of your shares. From there you can access your data without regard to which disk it's actually on. *IF* you have a known failing/problematic disk in the array, I'd suggest going directly to that disk to copy the data on it. The 'disks' folder contains all of the Unassigned Devices drives you've added/formatted above. From this point on it's just a matter of using the krusader file manager to get your source and target set up, and clicking 'F5 Copy.'
    1 point
  15. Some realtek NIC show wol g there, but you still need excute that command in go file. I believe this will set/reset the NIC after driver load.
    1 point
  16. You might want to look at this before going ahead.
    1 point
  17. okay, uptating to 6.9 did did the trick tuvm
    1 point
  18. Yep, pool fs is corrupt, best bet is to backup and re-format.
    1 point
  19. I'm not sure, this is the main issue! The hamletic question is: how can you check for the device path if the device is not attached? This is why in my last reply I wrote "by guessing"... If I were you, I would try the DeviceProperty Add: https://forums.unraid.net/topic/84601-support-spaceinvaderone-macinabox/?do=findComment&comment=932679 without messing with the SSDT
    1 point
  20. Hi, sorry for the late reply. If you enter IP and port (public IP) directly, it works with joining. I don't know why it doesn't work via the server list.
    1 point
  21. Jetzt gibt es kein zurück mehr, die Teile sind bestellt :-)
    1 point
  22. I have tried the built-in setting and I get the same results form that previous post you linked. Enabling "Turn off UPS after shutdown" my UPS will go into "Schedule Mode" and count down from 60 min. When it hits 0 nothing happens, it doesn't turn it off or anything. I also posted in the [Plugin] NUT thread about some things I just tried too if you're interested. I tried to force some setting upon boot but it seems NUT will randomly reset the variable for shutdown and start that were set in the ups.conf file. For now I've uninstalled and I'm back on the built-in without the UPS shutdown enabled.
    1 point
  23. 1 point
  24. It looks like the filesystem on sdd1 is corrupt which ends up causing the docker images mounted on that filesystem to become readonly. The docker image errors are a result of the corruption on /dev/sdd1. Jan 7 08:27:09 Nasgard kernel: BTRFS critical (device sdd1): corrupt leaf: root=2 block=948912128 slot=56, unexpected item end, have 134231043 expect 13315 Jan 7 08:27:09 Nasgard kernel: BTRFS: error (device sdd1) in __btrfs_free_extent:6805: errno=-5 IO failure Jan 7 08:27:09 Nasgard kernel: BTRFS info (device sdd1): forced readonly
    1 point
  25. https://forums.unraid.net/topic/53062-ubuntu-16041-x64-quotdemonicquot-audio/?tab=comments#comment-519239
    1 point
  26. Vielen Dank für den Hinweis. Das war die UEFI Modus bei Erstellung von dem Stick. Bein ersten Mal hat es es wohl ohne geklappt. Und ich habe die "Customize" übersehen. Jetzt hat es funktioniert. Hat nur leider bis jetzt übet 5 Stunden Ärger gekostet... Vielen dank nochmals. P.S. Ich habe noch die Testversion. Gibt es beim Kauf auch die Paypal- Zahlung? habe auf der Seite keine Infos dazu gesehen.
    1 point
  27. 1 point
  28. Just use a fan splitter hub to connect all your fans to the cpu fan header and set you fan curve in the bios
    1 point
  29. It is for fan speed control based on hdd temps only
    1 point
  30. I think you need @JorgeB. The way that I see it, btrfs usage shows ~931G of total space on the cache pool, but df is reporting that the size is only 466G, and this is playing havoc with the docker.img file.
    1 point
  31. Hallo, das ist ohne weitere Infos schwer zu beantworten... - Hast du einen USB-3 Stick oder einen USB-2? - Hast du beim Erstellen des Stick angeklickt dass er im UEFI Modus erstellt werden soll oder nicht? - steckt der Stick in einem 2er oder 3er USB Port - hast du im BIOS eingestellt dass es von USB legacy/uefi bootet?
    1 point
  32. Abend, Hardware ist bestellt. Der G5400 war leider nicht lieferbar als Boxed. Hab jetzt den Tray bestellt und nen kleinen Kühler dazu. Auch das Case und meine 860 Evo waren nicht lieferbar. Das war alles was... sollte denke ich spätestens Anfang nächster Woche alles eintrudeln. Ich halte euch auf dem laufenden. LG und schönen Abend
    1 point
  33. 盼望着,太棒了! i love unraid
    1 point
  34. Done. I don't really see why you'd want this though as there's absolutely nothing that can be edited via the xml that can't be done via the template screen, except for any internal CA elements.
    1 point
  35. The /dev/sdX type names can always change between boots as Linux assigns them dynamically during the boot process so you should avoid using them if at all possible. You should use one of the /dev/by-id ways of identifying the drive instead as they are invariant.
    1 point
  36. Search structured wiring enclosure.
    1 point
  37. Every array drive in UnRAID is a self-contained file system so can be read when not part of the array. This means that they can be individually mounted when removed from the array and as long as they are not actually failing their contents read. The easiest way to mount drives that are not part of the array is the Unassigned Devices plugin. once mounted you can use your favoured method for copying files. There are a wide variety of choices such as cp, rsync, or mc from the command line, Krusader docker container for an UnRAID hosted graphical file manager, or over the network from a client PC/Mac using its file manager.
    1 point
  38. v6.9.0-rc2. Configuration of how dates and times appear is spread over multiple Settings > User Preferences. Display Settings has one kind of date configuration, and then Notification Settings has another. And I don't even think that they're the same; Notifications had DD-MM-YYYY. Please consider putting all date/time options in the Settings > System Settings > Date and Time option, and collapse to a single standard. If I select YYYY-MM-DD, I wouldn't expect that I'd see that format in one place, but a different format in another. (Notification popup vs. a log message for example).
    1 point
  39. @Rick_Sanchez To follow on from your post. Borgmatic will read the crontab.txt automatically, this is part of the docker setup. When you change the commands in crontab.txt you will need to restart the docker to load the changes. If you console into your borgmatic docker you can test your config files by simply typing borgmatic. borgmatic will read the .yaml files in the order they are list "alphabetically". I have 2 .yaml files, nextcloud.yaml and personal.yaml Both of these run two different backups. I typically use the following command in console to see if everything is running smoothly borgmatic --verbosity 2 Also this to list my archives borgmatic --list Please let me know how you get on with everything, any further questions please ask.
    1 point
  40. Ja, das geht problemlos. Es ist aber kein "bestehendes Volume". Das ist anders als bei Synology, wo das RAID durch ein Volume abgebildet wird. Bei Unraid ist jede HDD ganz normal formatiert. Hast du also 4 HDDs und 1 davon ist die Parität, so hast du 3 ganz normale Volumes. Fügst du eine weitere HDD hinzu, dann sind es 4. Und ja, alle werden durch die Parität geschützt. Das einzige was du dir merken musst, dass die Parität die größte HDD sein muss und jede neue HDD kann nicht größer sein als die HDD mit der Parität. Kleiner kann sie aber sein. Also ähnlich wie beim Syno SHR. Tatsächlich wird dadurch nicht mal die Parität neu berechnet, denn die neue Platte wird von Unraid komplett mit Nullen beschrieben, so dass die Parität unverändert bleiben kann. Weder BTRFS noch ZFS sind ohne RAID selbstheilend. @JorgeB hat hier einige Fragen beantwortet: https://forums.unraid.net/topic/99793-btrfs-vs-xfs-main-array-any-btrfs-experts/?tab=comments#comment-920561 Bei Fehlern müssen diese einzelnen Dateien also aus einem Backup wiederhergestellt werden. Da XFS aber robuster bei plötzlichem Ausfall des Servers ist (warum auch immer dieser ausfällt, zB weil du ihn nach Einfrieren selbst hart herunterfährst), empfehlen viele XFS in Kombination mit dem Dynamix File Integrity Plugin zu nutzen, welches von jeder Datei eine Hashdatei erstellt und diese regelmäßig auf Bitrot prüft. Aber auch hier muss die korrupte Datei aus einem Backup wiederhergestellt werden. Willst du dagegen ein selbstheilendes Dateisystem, dann musst du ZFS im RAID nutzen oder BTRFS im RAID1 (andere RAID-Stufen gelten ja immer noch als experimentell, wobei Syno es so einsetzt). Das geht, setzt aber voraus, dass alle deine Projekt-Dateien auf den NVMe SSDs liegen. Das HDD Array ist zu langsam dafür. Außerdem benötigst du eine potente CPU mit hoher Single Thread Leistung. Also einen i3 8100 oder 9100 oder 10100. Auch sollte man SMB Multichannel aktivieren und ich würde direkt auf die Cache Disk schreiben und nicht auf einen Unraid Share, um Unraids Overhead zum umgehen. Dazu kann ich dir dann später noch ein paar Tipps geben. Die 1175 MB/s über 10G sollte denke ich für den direkten Schnitt ausreichen, aber sie sind trotzdem nicht so schnell wie >3000 MB/s einer lokalen NVMe. Ist ja logisch. Die lokale NVMe kann auch viel besser mit parallelen Zugriffen umgehen als SMB. Müsste man einfach mal testen. Übrigens kann man auch sehr hohe Upload-Geschwindigkeiten erreichen, wenn man sehr viel RAM im Server verbaut. Bei zB 128GB RAM und 50% vm.dirty_ratio kannst du bis zu 64GB an Daten sogar auf das HDD Array mit 10G Geschwindigkeit hochladen. Linux RAM Caching macht das möglich. Allerdings ist dann eine USV absolut notwendig. Taugt nichts für dein Vorhaben. Egal welche CPU. Viel zu wenig Single Thread Leistung. Single Thread Leistung am unteren Limit für dein Vorhaben, aber mangels Kernen kein restliches Potential für weitere Spielereien. Der macht richtig Laune. Sehr hohe Single Thread Leistung und 6 Kerne. Für Plex optimal. Als Davinci Renderserver schwach, aber wenn du mal keinen Bock hast auf deinem Client zu rendern, könntest du es auf den Unraid-Server auslagern und holst das fertige Rendering zB am nächsten Tag ab. 128GB? ^^ ECC ist jetzt diese Frage, die du dir selbst stellen musst. Das ist genau das selbe wie mit dem selbstheilenden ZFS RAID. Glaubt man an Bitrot oder nicht Wenn es ein Thema für dich ist, dann wird es teuer, denn ein i5 unterstützt kein ECC. Du brauchst dann einen Xeon oder musst runter auf einen i3-9100 bis i3-9350K. Der i3-10100 unterstützt kein ECC mehr. Ab der 10ten Generation geht nur noch Xeon. Also mindestens 300 € nur die CPU oder man probiert es mit einem i3. Ich selbst habe 10G und einen i3-8100 und teste immer wieder was mit diversen Windows VMs. Mein aktuelles Lieblingsboard ist das Gigabyte C246M-WU4 (8x SATA, 2x M.2, 128GB ECC RAM). Denk dran, dass du mit zwei M.2 nur noch 4x SATA Ports nutzen kannst: Wie groß ist der SLC Cache? Du sprachst ja von großen Dateien. Die QLC SSDs sind ja bekannt massiv abzukacken, wenn der SLC Cache voll ist. Machen denke ich viele auf kurzen Strecken, weil es günstig ist. Ich denke nicht, dass etwas dagegen spricht. Preislich bin ich da nicht auf dem Laufenden, meine aber mal was von 30 € pro Karte gelesen zu haben. Wobei ich gerade nicht weiß ob da auch die Kabel dabei waren. Das musst du wissen. Hängt ja auch davon ab wie viele Platten schlussendlich eingesetzt werden sollen. In meinen Augen alles völlig egal. Vorzugsweise die Parität mit einer schnelleren Platte ausstatten, ansonsten kannst du jeden "Müll" verbauen. Die Platten werden wie du schon sagtest regelmäßig schlafen geschickt. Die werden also nicht mehr belastet als in einem Desktop PC. Anders als bei einem RAID ist es sogar egal ob du 5400 mit 7200 rpm Platten mischst. Gebrauchte Platten gehen genauso. Haben sie allerdings Fehler, solltest du sie logischerweise nicht mehr verwenden. Ne, da würde ich auch nur die alten Sachen für verwursten. Du kannst ja sogar einen zweiten Unraid Server damit basteln. 10G usw sehe ich keinen Sinn drin, weil du ja denke ich inkrementell sichern wirst. Mein Unraid Backup Server steht Remote bei einem Freund und hat nicht mal eine Parität.
    1 point
  41. Unraid ist wie der Name schon sagt kein RAID. Es gibt zwar wie bei einem RAID eine Parität und man kann eine Netzwerkfreigabe (Share) auf mehreren Platten verteilen, aber da endet auch schon die Ähnlichkeit. Um das Unraid Konzept zu verstehen, sollte man meiner Ansicht nach erstmal ein RAID verstehen. Bei einem RAID werden Dateien in ihre Bits zerlegt und auf den Platten verteilt. Sagen wir mal wir haben ein RAID5 mit 4 Platten und zwei Dateien mit jeweils 3 Bits. Das erste Bit landet auf Platte 1, das zweite Bit auf Platte 2 und das dritte auf Platte 3. Auf der 4. Platte landet die Parität aus diesen drei Bits. Die Bits der zweiten Datei werden ebenfalls verteilt, nur dass diesmal die Parität auf einer anderen Platte liegt. Bei der Parität handelt es sich um das Rechenergebnis einer XOR Berechnung. Stell dir der Einfachheit halber eine Quersumme vor. Geht nun eine der Platten kaputt, kann man mit den anderen drei die fehlende Information, entweder die Parität oder das Bit der Dateien errechnen. Gehen zwei Platten kaputt, dann ist das nicht mehr möglich und alle Daten sind verloren. Nun stellen wir das Unraid Konzept gegenüber. Erneut 4 Platten, wovon eine die Parität darstellt. Nun werden die Dateien aber nicht auf die Platten zerlegt, sondern jeweils vollständig auf Platte 1 und Platte 2 abgelegt. Platte 3 bleibt leer. Die "Quersumme" wird nun wieder berechnet und landet auf Platte 4. Im Gegensatz zum RAID5 landet sie übrigens immer auf Platte 4. Auch hier kann eine Platte problemlos ausfallen und das fehlende Bit würde errechnet. Was ist nun der Unterschied: - bei einem RAID5 kann man eine Datei von 3 Platten gleichzeitig lesen. Man hat also eine 3-fach höhere Lesegeschwindigkeit (selbes gilt beim Schreiben). - bei Unraid muss nur die eine Platte laufen, auf der die Datei liegt, die du abrufen möchtest, was außerordentlich stromsparend ist - bei Unraid könnte Platte 2, 3 und 4 kaputt gehen und die Datei auf Platte 1 wäre immer noch da. Ein Totalverlust ist also erst möglich, wenn wirklich alle Platten kaputt gehen (wenn man viele Platten hat, ist das ein nennenswerter Bonus) - bei Unraid kannst du eine Platte ausbauen und über einen PC auslesen - bei Unraid ist die Lesegeschwindigkeit auf das Maximum einer Platte limitiert - bei Unraid ist die Schreibgeschwindigkeit auf ca 70 MB/s limitiert (mit aktivierter Turbowrite-Option auf das Maximum der langsamsten Platte des Arrays) Aber auch Unraids SSD Cache ist anders: - Syno, QNAP, FreeNAS, etc nutzen die SSDs zu 100% als Zwischenschicht auf der permanent alle aktuellen Dateien als Kopie vorgehalten werden, wobei Uploads die jeweils ältesten Dateien überschreiben. Die SSDs werden also ständig neu beschrieben und sie funktionieren nicht ohne das HDD RAID dahinter, da sie damit live synchron gehalten werden. - SSDs nutzen sich bei anderen NAS Betriebssystemen entsprechend schnell ab - Unraid nutzt die SSDs dagegen als normales Laufwerk, wobei Uploads erstmal auf den SSDs landen und nach x Stunden durch den so genannten Mover auf die HDDs verschoben werden. Der SSD Cache verhindert also vollständig, dass die HDDs überhaupt anlaufen. Dadurch sind Uploads nicht mehr auf die 70 MB/s limitiert, sondern auf die Geschwindigkeit der SSD, die bekanntlich viel schneller sind - zusätzlich hat der Nutzer die Wahl, ob er bestimmte Dateien permanent auf den SSDs belässt. So kann man zb virtuelle Maschinen oder Docker Container durchgehend ohne HDDs betreiben Unraid ist also mit der richtigen Hardware besonders stromsparend und leise. Außerdem bietet es eine besonders hohe Ausfallsicherheit und die vermutlich beste Oberfläche für VMs und Container. Der Nachteil ist, dass nicht alle Daten ständig mit RAID-Geschwindigkeit abgerufen werden können (sofern dies nicht eh durch 1G LAN begrenzt ist). Aber und das sollte man auch nicht unerwähnt lassen, kann man in Unraid in Zukunft auch mehrere RAIDs konfigurieren. In der neuesten Beta mit BTRFS, aber ZFS steht auch auf der Agenda (bzw es gibt auch schon ein Plugin dafür). Ich bevorzuge aber das ursprüngliche Unraid Konzept und verzichte bewusst auf RAIDs.
    1 point
  42. FIXED: CRON schedule not running Ok sorted it. I recreated the crontab.txt file in the docker console using vi. Now the cron is working. It must have been a permissions issue, I normally edit the txt file in notepad+ in my Windows 10 machine via the shared network drive. I will play around and see how I caused it and report back
    1 point
  43. em…a little bit of experience…fork and pull?
    1 point
  44. Well, I found a quick fix for the broken easy-rsa download if anyone wants to use it. It worked for my system but I don't know if it will work for yours (although it should). 1) Go to your the scripts directory in your plugin installation directory it should be located in: /usr/local/emhttp/plugins/openvpnserver/scripts 2) Use nano (or your favorite text editor) to edit the rc.openvpnserver script. 3) Using your text editor scroll down until you hit a function called "openvpnserver_get_easy", in this function you will want to make the following changes: delete or comment out: wget $EASYRSA_DL_VERSION line, this command is causing problems since an earlier curl does not work properly. replace this line with this command: wget "https://github.com/OpenVPN/easy-rsa/archive/master.zip" And, that's it!. After you save the script you can run the following command to download easy rsa, or you could click on the GUI's button. Your choice: ./rc.openvpnserver download_easy-rsa It is worthy to note that this is a more or less patchwork solution, while it works now I do not know how long it will remain that way. If you have any suggestions or questions, leave a response. Good luck!.
    1 point
  45. You can try to stop your docker container and then use the `exec` step so that you are the only one running certbot. I assume a restart of the container did not work? You can check to see if your DNS is configured correctly by using https://dnscheck.ripe.net/ for example. (Or sharing your domain here)
    1 point
  46. I was having the same problem wit hthe GUI locking up after an NFS server went down that my unraid box connected to. Fixed it with: /etc/rc.d/rc.nginx restart /etc/rc.d/rc.nginx reload /etc/rc.d/rc.php-fpm restart /etc/rc.d/rc.php-fpm reload
    1 point
  47. Here's what I do when I replace a data drive: 1. Run a parity check first before doing anything else 2. Set the mover to not run by changing it to a date well into the future. This will need to be undone after the array has been recovered. 3. Take a screenshot of the state of the array so that you have a record of the disk assignments 4. Ensure that any dockers which write directly to the array are NOT set to auto start 5. Set the array to not autostart 6 Stop all dockers 7. Stop the array 8. Unassign the OLD drive (ie: the one being replaced) 9. Power down server 10. Install the new drive 11. Power on the server 12. Assign the NEW drive into the slot where the old drive was removed 13. Put a tick in the Yes I want to do this box and click start. The array will then rebuild onto the new disk. Dockers that don't write directly to the array can be restarted. When the rebuild is complete, the mover, docker and array auto start configuration can be returned to their normal settings. NOTE: You CAN write to the array during a rebuild operation, but I elect not to do so, to ensure my parity remains untouched for the duration of the recovery. Reading from the array is fine as the device contents are emulated whilst the drive is being rebuilt.
    1 point