All Activity

This stream auto-updates

  1. Past hour
  2. Hallo zusammen, ich habe performance Problem, vielleicht hat einer eine Idee. (Die Serverhardware: 12-Kern 3900XT, 64 GByte ECC Ram, Toshiba 18 TB HDDs.) Ich habe zwei 18 TB Festplatten im Array ohne Parity und ohne Cache eingerichtet (jeweils zfs und verschlüsselt) und auf diese Daten kopiert, die ich auf einer anderen verschlüsselten 18 TB Festplatte habe. Das sind alles Bilder und Videos von meinen Kameras. Dabei habe ich die Daten auf beide 18 TB Festplatten verteilt, sodass sie jeweils nur ca. 50 % des Speicherplatzes belegen. Wenn ich beispielsweise mit WinDirStat die Festplatten scanne, gibt es einen riesigen Unterschied bei der Einlesezeit zwischen dem beiden Systemen: Einlesen unter Win11, von der Truecrypt verschlüsselten Festlatte: 7 Minuten 7 Sekunden. Einlesen des selben Laufwerkes über ein 2,5 Gbit Netzwerk: 14 Minuten 56 Sekunden. (Denke das zeigt, mein Netzwerk hat Potential noch oben) Einlesen des von Unraid geteilten neuen Laufwerkes über 2,5 Gbit Netzwerk: 1 Stunde, 23 Minuten !!! Was läuft hier falsch? Ich erwarte zumindest die Geschwindigkeit vom zweiten Fall, wenn nicht besser, da die Daten von zwei Platten gelesen werden statt einer. Das durchsuchen des Arrays dauert extrem lange. Die Übertragungsgeschwindigkeit großer Daten unterscheidet sich dabei nicht, geht mit 180 - 270MB/s, wenn dann ist Unraid sogar im Vorteil. (bitte ignoriert, dass das Unraid share etwas mehr Daten hat, das sollte sich vergleichsweise wenig auswirken)
  3. This started right after downloading and installing this update, where I was asked to reboot the server to complete the install but no matter what I tired, it just ignored both commands from UI and console. Curiously after trying to reboot/shutdown this happens with CPU, and all dockers and VM keeps working fine. This is the diagnostics file: tower-diagnostics-20240328-2011.zip
  4. I can add fuel on the fire -i had this issue too and realized it when sonarr started mass removing stuff saying it couldn't find it
  5. I don't think the title is quite descriptive enough. I have a primary cache pool of several drives that's explicitly for files. I also created a separate secondary btrfs formated cache pool with its own singular non-redundant ssd for docker appdata. Plex has just about filled it up with its database. I'm at 93% capacity. I would just add another drive and extend the pool, but I'm all out of SATA ports. So I bought another drive twice the capacity to replace it. My question is, what's the best/proper procedure for replacing that drive? Do I set the 'appdata' share to move everything to the array, remove the drive, install the new one, start the array, and move all the files back? I fear if anything goes wrong all my containers are gonna get corrupted or not work.
  6. Took them out of the chassi to make sure that they were spinning and not just vibrating from the other disks, and indeed they were not. Changed the power connector and all of them work flawlessly, many thanks!
  7. Dear Unraid Community, I have HP ML110 Gen 7 - E3 1220 - 4GB RAM, I'll be upgrading the CPU/RAM to 1280/16 RAM. ( parts requested, awaiting arrival ). but until then i have connected my HDDs as following : ( i know i'm using green HDDs, but all of these HDDs are brand new ) parity sync takes too long (2 days, 8 hours) with speed of 20 Mbps . which is very slow. I have attached the diagnostics. can you please help me diagnose what is the issue and how can i fix it ? Best Regards. homenas-diagnostics-20240329-0149.zip
  8. I rebuilt the drive and it seems to be working. I need to go tackle the docker image location now Thanks!
  9. Ich glaube so langsam zu verstehen, was Du machen willst. Bitte korrigiere mich, wenn ich falsch liege: a) Du hast ein bestehenden Windows-Server, dessen Festplatten Dir gehören, aber die eben auch voll mit Daten sind (3x 12 TB, 2x 16 TB, 1x 18 TB und 1x 20 TB). b) Du willst nun unraid aufsetzen und leihst Dir dafür Festplatten um ein Array aufzubauen (ein Gemisch mit zusammen ca. 25TB freier Nutzkapazität). c) Nun willst Du die Daten erst einer einzelnen Disk aus Deinem Windows System ins Array verfrachten. (Beispielsweise die 20TB Disk) Dazu schließt Du die Disk einfach an unraid an und mountest sie außerhalb des Array per unassigned Devices (UD). d) wenn die Daten ins Array kopiert/verschoben wurden, kannst Du diese ehemalige 20TB Windows Disk aus den UD unmounten und ins Array einbinden. unraid löscht die Disk und Du kanst sie dann formatieren lassen. Danach hast Du deren Platz im Array wieder als freie Kapazität. e) und dann das Spiel mit der nächsten WIndowsDisk (18TB) wiederholen, da ja nun wieder freier Platz im Array vorhanden ist. f) - x) Das geht dann solange so weiter, bis alle Disk des WindowsServers in unraid sind. y) Am Ende sollen die geliehenen Festplatten wieder leer geschaufelt werden, z) damit Du wie aus dem Array entfernen kannst und Deinen Spender zurückgeben kannst. Sehe ich das richtig? Gundlegend funktioniert das gut, ist aber seeeeeeeeeeeeeeeehr zeitaufwändig. Wenn Du während der "Füllaktion" auf die Sicherheit einer Parity verzichten kannst, geht es etwas schneller, da Parity stark ausbremst. Achtung! Wenn Du später eine Paritydisk in das Array mit den beschrieben Disks einbinden willst: die Paritydisk muß mindestens so groß sein, wie die größter Festplatte mit Nutzdaten im Array. Da Du nur eine 20TB Festplatte hast, solltest Du dann vielleicht in Punkt c mit der 18TB beginnen oder vielleicht sogar von klein nach groß die Daten ins Array migrieren. Denn Deine 20TB würde dann ja die Parity. Ansonsten: das da oben ist eigentlich genau der auszuführende Ablauf. Um später die geliehenen Disks wieder leer zu bekommen ( Siehe Punkt y ) kannst Du dann Tools wie unbalance oder mc oder krusader oder so nutzen um von den betreffenden geliehenen Disks die Dateien auf die Disks zu verschieben, die im Array verbleiben sollen. Um dann die Disks zu entfernen (welche Du Deinem Spender zurückgeben willst) kannst Du einfach dann mit dem Tool "new config" das Array auflösen und mit den Festplatten neu aufbauen, die Du drin lassen willst (das wäre dann Punkt z ). Und dabei kannst Du dann auch Deine Paritydisk mit festlegen und die Parity erstellen lassen (vermutlich eben auf der 20TB, die dabei komplett überschrieben wird) Und hier eine sehr wichtige Anmerkung: Das wäre dann eine umfangreiche Aktion ohne Netz und doppelten Boden! bei jedem der Schritte kann etwas massiv schief gehen und Du kannst Daten verlieren. Du solltest wirklich darüber nachdenken Dir ein Backup der Dir wichtigen Daten extern anlezulegen. Falls ich etwas falsch verstanden habe: Sorrrrrrrry! War keine Absicht!
  10. Greetings! Was wondering if anyone had been able to get the email notifications from fail2ban working. I've got Cloudflare blocking working however can't seem to figure out how to get the sendmail.conf working properly with the setup.
  11. The files are there - if you can work out by examining them what their correct filename should be. in practice many people find it easier to restore from backups.
  12. Today
  13. Dieser Port ist nur dafür da die Weboberfläche von crushftp10 in unraid zu erreichen für die EInstellungen. Da ich schon was anderes auf dem üblichen 443 hatte, habe ich einfach mal 444 für meinen Crashkurs genommen. Ich habe einfach rechts mit dem 'Durchsuchen' Button in crushftp10 so lange rumgesucht, bis ich ein Verzeichnis gefunden habe, daß ich vorher genau dafür erstellt hatte. Da kam dann das beschrieben Verzeichnis bei raus. links in der WebUI von crushftp10 habe ich das Verzeichnis angelegt (siehe meinen Screenshot unten, den ich mit 1. 2. 3. ergänzt habe). Wie gesagt, hatte ich den FTP von unraid auf die Schelle nicht benutzen können. Deshalb habe ich den wieder deaktiviert. Ich vermute, wenn bei Dir 2 FTP Server laufen (unraid und crushftp10) dann wird die Kameras einfach vom unraid ftp abgelehnt. Disable mal den unraid FTP server, wenn Du es mit crushftp versuchen willst. Ich befürchte diese Antwort kommt von urnaid FTP. Wie gesagt EInfach mal disablen.
  14. You are correct, there is quite a few files in that directory. Are those files basically gone for good and require restoration from a backup or can they be recovered?
  15. Hi, I've been helping a friend get an unraid box going over the last year. This week, we were doing some maintenance, updates and what-not. There were 2 Flash drives needed to keep the server happy? 1 seemed to have the key, the other the config? Not sure what happened there but, while consolidating the correct key to the correct drive, the incorrect config was loaded and the array started by accident. Its a 2x 4tb drive ZFS array with no parity. a 1tb NVME cache drive formatted ZFS. Disk 1 had about 1tb of data on it (nothing critical) The incorrect config set disk 1 as a parity drive. It started, was immediately noticed and shutdown. Correct config was reloaded and disk 1 now reads 'unsupported, missing or invalid file system'. With no dockers or VM's (although they appear to be on the cache drive). The Data on the drive is very replaceable, but if there is a possibility to recover the now blank unraid to where we were it would be desirable. Diagnostics attached. Thank you, tower-diagnostics-20240328-1805.zip.crdownload
  16. Nochmal fix geschaut, es ist das Dynamix Auto Fan Control, Das zeigt gut die Drehzahlen an, aber leider kennt es scheinbar nur an und aus der Lüfter...sprich Plugin deaktiviert heißt Lüfter sind aus,
  17. I just found the culprit! I had to enable VT-d. Intel Virtualization Technology wasn't enough apparently.
  18. I started on 4.7. It just worked, and it worked very well as a basic NAS, but there were no plugins, no docker, no apps, and a relatively basic web interface. There were a few extensions to add additional functionality to the UI. I got my first license in early 2011. I am still using that USB stick with the current release, although I currently have four licenses in total.
  19. Unraid flows logs on Terramaster F4-424, see diagnostics file unraid-diagnostics-20240328-2252.zip
  20. I answer myself: Even though I had Intel Virtualization Technology enabled, that wasn't enough. I also had to enable VT-d to have my iGPU available. This is what I see after enabling VT-d:
  21. Hi, I have an issue for the last few releases where on my docker tab when I click "check for updates" it just spins forever. I have searched on this and one possible reason is pihole - I run a pihole on a ri-pi and another via unraid-docker. However in Unraid network settings DNS settings I manually put in 1.1.1.1 for primary and 8.8.8.8 for secondary so it should bypass pihole (my Asus merlin router points toward pihole DNS). I'm looking for other ideas on how to troubleshoot? I am on latest version 6.12.9. thanks
  22. I know this is an old post but I'm on the same boat, as you can see in my post: Did you ever solve this issue?
  23. FTP ist ein ganz einfaches Protokoll, so wie auch z.B. Usenet, Mail, etc. Als die entstanden musste ich die noch auf der Kommandozeile abrufen. Da ich davor schon ein paar Jahre einen BBS (Bulletin Board System) für andere Entwickler betrieben hatte, war das pillepalle einfach. Ich schweife ab ... FTP und seine Derivate gehören nicht nach draußen PUNKT. Alternativen gibt es reichlich. Für so eine simple Bildbetrachtung würde ich persönlich kein Fass (NGINX, diverse Container, Router Ports) aufmachen. Ich würde mir einen ohnehin sinnvollen VPN Kanal ins Netzwerk schaffen (z.B. über den Router). Dann kannst Du Dir die Bilder völlig banal über den Dynamix File Manager (Plugin aus dem Unraid App Store) anschauen. Wenn Du doch mehr willst vielleicht dann doch Nextcloud oder oder oder. Wenn Du z.B. eine Fritzbox besitzt starte mit deren VPN (Stichwort MyFritz) und probiere den Zugriff auf die Bilder aus. Komplizieren kann man dann immer noch ...
  24. HA VM > docker isn't too bad unless you depend on a lot of internal stuff... In which case you have more than just HA docker needed. It took me a few hours and had to redo a bunch of customized bits as some resources changed name... I only saved a little bit in power consumption but maybe the improvement on an AMD platform isn't as big. It has also been more stable. I used to have to restart 2-3 times every update. In the end, glad I did the switch.
  25. just switched back to macvlan, and the system froze again as soon as the S3 sleep plugin triggered for inactivity. prior to switching (macvlan), the S3 sleep plugin triggered for inactivity twice, and was able to WOL twice, no problem; even went to sleep while the macOS VM was on (not ideal) but system didn't freeze. Will try to use ipvlan a couple more days and see if it freezes or not, then switch back to macvlan. Also, experienced the crashes/freezes after updating to 6.12.9
  26. btrfs does everything ZFS does, mostly, in a much more friendly and less resource intensive way, with added features, and more modern. I see no reason to adopt ZFS except being a bigger name and more enterprisy. about your last point - it doesn't matter if ZFS can expand. btrfs does this already. Both of them stripe data. With unraid i know that I can simply take any drive and it will have all its files in native format, readable outside the array.
  27. Hi all. I'm sorry - I'm confused on a new level. It has been ages when I was building a PC the last time, and for the past couple of times I have just gone to toms hardware and choosed the bang for the buck of the month PC that was in my budget. Last time I had a hardware failure I ended up with a complete new system, because I accidentally ordered wrong parts that dident fit in my aging PC But hey - Now I have a complete new system that I can fool around with. However. I'm tired of not having a dedicated NAS that does NAS things. Therefore I want, with your help. I would like to build myself a new server build upon the Jonsbo N3 case, but I need some help in picking the required hardware. I'm not to concerned with the speed of the NAS in terms of HDD speeds, but prefered that each drive could have its full speed, and not be cogged down due to a cheap HBA I have 2 Unraid licences, a basic, and a plus. I plan on using the plus onto this build. The basic one I am using to fool around with, test bench you can call it. My needs are as following. Be able to utilize all 8 slots of the case. CPU: I'm leaning towards the Intel N100, since its quite nice of its TDP and CPU mark. Useage: Mainly dockers as, Radarr, Sonarr, Deluge, etc. Nothing really heavy. no VMs in this machine I would like if the mobo had a few M.2 slots, so I could use a HBA on one of them, and use the other M.2 as cache I dont know of a site where I can compare diffrent hardware, eg sort and filter on my needs. If you have any ideas on witch, motherboard, cpu, PSU and HBA to use - all help would be fantactic
  1. Load more activity