Helmi

Members
  • Posts

    26
  • Joined

  • Last visited

Everything posted by Helmi

  1. I'm having issues getting Nodered running. Well it basically runs but installing any packe from the pallet manager fails. This is the error 31 Aug 14:10:04 - [info] Installing module: node-red-contrib-tesla, version: 2.0.0 31 Aug 14:10:05 - [warn] Installation of module node-red-contrib-tesla failed: 31 Aug 14:10:05 - [warn] ------------------------------------------ 31 Aug 14:10:05 - [warn] npm WARN config production Use `--omit=dev` instead. npm ERR! code FETCH_ERROR npm ERR! errno FETCH_ERROR npm ERR! invalid json response body at https://registry.npmjs.org/node-red-contrib-tesla reason: Invalid response body while trying to fetch https://registry.npmjs.org/node-red-contrib-tesla: ENOSYS: function not implemented, link '/data/.npm/_cacache/tmp/3c40871e' -> '/data/.npm/_cacache/content-v2/sha512/1a/74/6e414427fdd48c5bcf4fe17c1fa287ea548296862017d04013ebfd46a72b610955fd5638adf2df725c41129d7de8a3af16e53787a697b8aad20fd7f97e81' npm ERR! A complete log of this run can be found in: npm ERR! /data/.npm/_logs/2023-08-31T12_10_04_289Z-debug-0.log 31 Aug 14:10:05 - [warn] ------------------------------------------ Error: Install failed at /usr/src/node-red/node_modules/@node-red/registry/lib/installer.js:285:25 at processTicksAndRejections (node:internal/process/task_queues:96:5) 31 Aug 14:10:05 - [error] Error: Install failed I double checked disk space, permissions, network coneectivity to npmjs.org (also DNS) - everything looks fine. Any idea what might be going on here?
  2. Hey, first of all sorry if this topic is misplaced. I was searching for a nodered thread in docker containers section but couldn't find one. Also I think it may not be specific to this container. However here's what happens. I installed Nodered from the app section in Unraid (the one from Spants based off of the original nodered docker). This works well but as soon as I try to install pallets either from the web UI or manually via npm install on the console I get this error: 31 Aug 14:10:04 - [info] Installing module: node-red-contrib-tesla, version: 2.0.0 31 Aug 14:10:05 - [warn] Installation of module node-red-contrib-tesla failed: 31 Aug 14:10:05 - [warn] ------------------------------------------ 31 Aug 14:10:05 - [warn] npm WARN config production Use `--omit=dev` instead. npm ERR! code FETCH_ERROR npm ERR! errno FETCH_ERROR npm ERR! invalid json response body at https://registry.npmjs.org/node-red-contrib-tesla reason: Invalid response body while trying to fetch https://registry.npmjs.org/node-red-contrib-tesla: ENOSYS: function not implemented, link '/data/.npm/_cacache/tmp/3c40871e' -> '/data/.npm/_cacache/content-v2/sha512/1a/74/6e414427fdd48c5bcf4fe17c1fa287ea548296862017d04013ebfd46a72b610955fd5638adf2df725c41129d7de8a3af16e53787a697b8aad20fd7f97e81' npm ERR! A complete log of this run can be found in: npm ERR! /data/.npm/_logs/2023-08-31T12_10_04_289Z-debug-0.log 31 Aug 14:10:05 - [warn] ------------------------------------------ Error: Install failed at /usr/src/node-red/node_modules/@node-red/registry/lib/installer.js:285:25 at processTicksAndRejections (node:internal/process/task_queues:96:5) 31 Aug 14:10:05 - [error] Error: Install failed I even did a fresh install, checked folder permissions, disk space and everything. I'm a bit lost. I tried wgetting ome of the URLs it tries to fetch - the problem occurs no matter which packet I try to install. does anyone have any idea where this may be coming from? I thought I've seen it all but I can't seem to wrap my head around this one - also google didn't bring up anything helpful - or maybe I just completely missed something obvious. Thanks for helping, Frank
  3. Yeah, thanks - I just luckily found that SeaBios seems to be working. Looks like it's solved for now.
  4. Hi everyone, I'm trying to install DietPi as a VM on Unraid for a few hours now but I keep failing. I downloaded the Bullseye-Version of the PC/x86 image as I was told that this should be working without issues. I created a VM using the ISO as installer ISO and creating a Sata-based disk image with sizes between 10G and 50G. The installer starts and runs without any bigger errors as far as I can see. It shuts down in the process and doesn't start again. After manually restarting the VM the installer starts at the same position again. If I remove the installer ISO all I get is the UEFI boot manager. There are partitions that have been created by the installer, but booting doesn't seem to work and also the installer doesn't seem to recognize those partitions. Any idea what might be going on? Thx, Helmi EDIT: Here's a copy of the VM log 2023-07-21 17:46:49.595+0000: starting up libvirt version: 8.7.0, qemu version: 7.1.0, kernel: 6.1.38-Unraid, hostname: Yoda LC_ALL=C \ PATH=/bin:/sbin:/usr/bin:/usr/sbin \ HOME=/var/lib/libvirt/qemu/domain-32-DietPiTest \ XDG_DATA_HOME=/var/lib/libvirt/qemu/domain-32-DietPiTest/.local/share \ XDG_CACHE_HOME=/var/lib/libvirt/qemu/domain-32-DietPiTest/.cache \ XDG_CONFIG_HOME=/var/lib/libvirt/qemu/domain-32-DietPiTest/.config \ /usr/local/sbin/qemu \ -name guest=DietPiTest,debug-threads=on \ -S \ -object '{"qom-type":"secret","id":"masterKey0","format":"raw","file":"/var/lib/libvirt/qemu/domain-32-DietPiTest/master-key.aes"}' \ -blockdev '{"driver":"file","filename":"/usr/share/qemu/ovmf-x64/OVMF_CODE-pure-efi.fd","node-name":"libvirt-pflash0-storage","auto-read-only":true,"discard":"unmap"}' \ -blockdev '{"node-name":"libvirt-pflash0-format","read-only":true,"driver":"raw","file":"libvirt-pflash0-storage"}' \ -blockdev '{"driver":"file","filename":"/etc/libvirt/qemu/nvram/0a147a2c-4680-bcb3-7ea9-e6c6916f4587_VARS-pure-efi.fd","node-name":"libvirt-pflash1-storage","auto-read-only":true,"discard":"unmap"}' \ -blockdev '{"node-name":"libvirt-pflash1-format","read-only":false,"driver":"raw","file":"libvirt-pflash1-storage"}' \ -machine pc-q35-7.1,usb=off,dump-guest-core=off,mem-merge=off,memory-backend=pc.ram,pflash0=libvirt-pflash0-format,pflash1=libvirt-pflash1-format \ -accel kvm \ -cpu host,migratable=on,host-cache-info=on,l3-cache=off \ -m 4096 \ -object '{"qom-type":"memory-backend-ram","id":"pc.ram","size":4294967296}' \ -overcommit mem-lock=off \ -smp 1,sockets=1,dies=1,cores=1,threads=1 \ -uuid 0a147a2c-4680-bcb3-7ea9-e6c6916f4587 \ -no-user-config \ -nodefaults \ -chardev socket,id=charmonitor,fd=40,server=on,wait=off \ -mon chardev=charmonitor,id=monitor,mode=control \ -rtc base=utc,driftfix=slew \ -global kvm-pit.lost_tick_policy=delay \ -no-hpet \ -no-shutdown \ -boot strict=on \ -device '{"driver":"pcie-root-port","port":16,"chassis":1,"id":"pci.1","bus":"pcie.0","multifunction":true,"addr":"0x2"}' \ -device '{"driver":"pcie-root-port","port":17,"chassis":2,"id":"pci.2","bus":"pcie.0","addr":"0x2.0x1"}' \ -device '{"driver":"pcie-root-port","port":18,"chassis":3,"id":"pci.3","bus":"pcie.0","addr":"0x2.0x2"}' \ -device '{"driver":"pcie-root-port","port":19,"chassis":4,"id":"pci.4","bus":"pcie.0","addr":"0x2.0x3"}' \ -device '{"driver":"ich9-usb-ehci1","id":"usb","bus":"pcie.0","addr":"0x7.0x7"}' \ -device '{"driver":"ich9-usb-uhci1","masterbus":"usb.0","firstport":0,"bus":"pcie.0","multifunction":true,"addr":"0x7"}' \ -device '{"driver":"ich9-usb-uhci2","masterbus":"usb.0","firstport":2,"bus":"pcie.0","addr":"0x7.0x1"}' \ -device '{"driver":"ich9-usb-uhci3","masterbus":"usb.0","firstport":4,"bus":"pcie.0","addr":"0x7.0x2"}' \ -device '{"driver":"virtio-serial-pci","id":"virtio-serial0","bus":"pci.2","addr":"0x0"}' \ -blockdev '{"driver":"file","filename":"/mnt/user/isos/DietPi_NativePC-BIOS-x86_64-Bullseye_Installer.iso","node-name":"libvirt-2-storage","auto-read-only":true,"discard":"unmap"}' \ -blockdev '{"node-name":"libvirt-2-format","read-only":true,"driver":"raw","file":"libvirt-2-storage"}' \ -device '{"driver":"ide-cd","bus":"ide.0","drive":"libvirt-2-format","id":"sata0-0-0","bootindex":2}' \ -blockdev '{"driver":"file","filename":"/mnt/user/domains/DietPiTest/vdisk1.img","node-name":"libvirt-1-storage","cache":{"direct":false,"no-flush":false},"auto-read-only":true,"discard":"unmap"}' \ -blockdev '{"node-name":"libvirt-1-format","read-only":false,"cache":{"direct":false,"no-flush":false},"driver":"raw","file":"libvirt-1-storage"}' \ -device '{"driver":"ide-hd","bus":"ide.2","drive":"libvirt-1-format","id":"sata0-0-2","bootindex":1,"write-cache":"on"}' \ -netdev tap,fd=41,id=hostnet0 \ -device '{"driver":"virtio-net","netdev":"hostnet0","id":"net0","mac":"52:54:00:b4:38:db","bus":"pci.1","addr":"0x0"}' \ -chardev pty,id=charserial0 \ -device '{"driver":"isa-serial","chardev":"charserial0","id":"serial0","index":0}' \ -chardev socket,id=charchannel0,fd=39,server=on,wait=off \ -device '{"driver":"virtserialport","bus":"virtio-serial0.0","nr":1,"chardev":"charchannel0","id":"channel0","name":"org.qemu.guest_agent.0"}' \ -device '{"driver":"usb-tablet","id":"input0","bus":"usb.0","port":"1"}' \ -audiodev '{"id":"audio1","driver":"none"}' \ -vnc 0.0.0.0:1,websocket=5701,audiodev=audio1 \ -k en-us \ -device '{"driver":"qxl-vga","id":"video0","max_outputs":1,"ram_size":67108864,"vram_size":67108864,"vram64_size_mb":0,"vgamem_mb":16,"bus":"pcie.0","addr":"0x1"}' \ -device '{"driver":"virtio-balloon-pci","id":"balloon0","bus":"pci.3","addr":"0x0"}' \ -sandbox on,obsolete=deny,elevateprivileges=deny,spawn=deny,resourcecontrol=deny \ -msg timestamp=on char device redirected to /dev/pts/2 (label charserial0) qxl_send_events: spice-server bug: guest stopped, ignoring 2023-07-21T17:48:25.603374Z qemu-system-x86_64: terminating on signal 15 from pid 6456 (/usr/sbin/libvirtd) 2023-07-21 17:48:25.824+0000: shutting down, reason=shutdown
  5. Thank you for your feedback guys. I ordered the X520-DA2 for the server and added some DAC cables on my ubiquiti order in addition to some patch cables and network tech i ordered there.
  6. Hey everyone, we're moving houses soon and we'll have a new network setup there. The upcoming switch will have two SFP+ ports. One of which will be used to connect to the dream machine, the other I thought of using for my Unraid Server. I don't have any 10G/SFP experience so far so I was wondering if getting something like an Intel X520-DA1 and connect it via Direct-Access-Cable (DAC) should work well with Unraid. Primarily thinking about driver issues here - but maybe any other concerns too. I'd be heappy to hear from experienced users on that end. Thanks, Helmi
  7. I recently swapped a broken, older disk for a new one. Now, during the rebuild process another disk had read errors and was taken offline. I got the email notification a few hours ago. From what I've seen on the disk itself there seems to be no SMART report available from the disk. I'm not very experienced in troubleshooting issues - I'd be thankful for anyone that could check on the diagnostics and help me track down the issue. Thanks EDIT: This was the notification for reference Event: Unraid Status Subject: Notice [YODA] - array health report [FAIL] Description: Array has 9 disks (including parity & cache) Importance: alert Parity - TOSHIBA_MG07ACA14TE_81G0A07SF94G (sde) - active 34 C [OK] Parity 2 - TOSHIBA_MG07ACA14TE_81G0A07TF94G (sdb) - active 37 C [OK] Disk 1 - TOSHIBA_MG07ACA14TE_71T0A22GF94G (sdc) - standby (disk has read errors) [DISK DSBL] Disk 2 - WDC_WD60EFRX-68L0BN1_WD-WXB1HB4WZE5P (sdi) - active 28 C [OK] Disk 3 - WDC_WD60EFRX-68L0BN1_WD-WX21DC59A68P (sdg) - active 38 C [OK] Disk 4 - TOSHIBA_MG07ACA14TE_81G0A08LF94G (sdd) - active 36 C [OK] Disk 5 - TOSHIBA_MG07ACA14TE_8190A05JF94G (sdh) - active 35 C [DISK INVALID] Appspace - Samsung_SSD_970_EVO_Plus_2TB_S4J4NG0M604136A (nvme0n1) - active 44 C [OK] Cache - Samsung_SSD_850_PRO_512GB_S250NX0H514288H (sdf) - active 32 C [OK] Parity sync / Data rebuild in progress. Total size: 14 TB Elapsed time: 1 hour, 18 minutes Current position: 10.6 TB (75.9 %) Estimated speed: 109.6 MB/sec Estimated finish: 8 hours, 33 minutes Sync errors corrected: 0 yoda-diagnostics-20230116-0723.zip
  8. yeah but the array won't start with two unassigned disks - the broken one is unassigned already (disk1)
  9. How would I remove Parity 2 then without it being missed? That's what I would need to do, right?
  10. Hi, one of my older drives seems to be broken. Not a big issue - I also do already have a standby drive in place for that case. Unfortunately i did wrong and added the new drive to a new Slot in the array instead of putting it in the same one the old one was in and started the array until I noticed. Now I don't seem to be able to remove the drive again from the array without it to be known as missing. Attached is a screenshot. Disk1 is the broken one, Disk5 is the new one that is supposed to replace the broken one. How can I remove the Drive in Disk5 again from the array? It hadn't been mounted yet so there's definitely no data from the array on it. Thanks for helping
  11. Here's my Disk Array Setup: Parity 1: 14TB Parity 2: 14TB Disk 1: 6TB Disk 2: 6TB Disk 3: 6TB Disk 4: 14 TB Disk 4, while beeing only a few months old showed some read errors in the recent parity check and was disabled by unraid This is from the report: Disk 4 - TOSHIBA_MG07ACA14TE_81G0A08.... (sdc) - active 35 C (disk has read errors) [DISK DSBL] It looks like the disk wasn't just disabled but gone completely. Not sure if it's that broken but disk 4 now shows "no device" and unassigned devices doesn't have any disk too. A replacement is already ordered and should arrive tomorrow. Let's assume the old one is completely broken and doesn't even spin up anymore... would I just put the new one in place? Unraid seems to be well aware of disk4 data and I guess only needs a new/working disk assigned to then restore the data from parity? I really wasn't hoping to have this all tested so quickly.
  12. Diagnostics added to first post. Array was started in maintenance - good enough?
  13. I'm running this setup: 1 Toshiba 14TB Parity (recently changed from a 6TB) 3 WD 6 TB Array 2 Toshiba 14TB waiting to extend the array. Everything worked fine until I did the following today: - stopped the array, server shutdown - added the additional Toshiba drives to the system - rest untouched - booted the machine, stopped the array to add the additional drive - added the Toshiba drive as 4th drive, started and clearing started That's where I noticed the third WD drive didn't mount. Filesystem type "auto" "fileysystem not mountable". I canceled the clearing and stopped the array to remove the Toshiba drive again but still the WD drive doesn't mount. Not sure what happened there. Any idea how I can approach this. I'm a bit clueless. This drive contain some TB of data. 😕 Thx for helping, Frank yoda-diagnostics-20220124-1934.zip
  14. In FreePBX hab ich gerade mal einen halben Abend versenkt. Leider ist es offenbar ein mittelschweres Drama das mit einem Telekom-Anschluss zum laufen zu kriegen. Es ist mir erstmal nicht gelungen, trotz diverser Fundstellen im Netz mit Tipps. *seufz* Ansonsten wäre da wohl alles drin was ich brauche (und natürlich viel viel mehr).
  15. Hi zusammen, hier läuft noch eine Fritzbox, deren einziger Einsatzzweck es ist Faxe zu empfangen (eigentlich zu vernachlässigen, denn außer Spam 3 mal im Jahr kommt da schon lange nix mehr) und Telefonie inklusive Anrufbeantworter zu "lösen". Telefonie wird hauptsächlich an einem (insgesamt 2-3) Endgerät genutzt (Softphone an macOS) und Anrufbeantworter-Anrufe werden als wav per E-Mail weitergeleitet - 2 Anrufbeantworter sind aktiv. Die Außenanbindung erfolgt über die Telekom (VoIP). Da wir kein DECT mehr nutzen und auch kein festverkabeltes Phone ist die Fritzbox eigentlich wirklich völlig unnütz. Der Unraid-Server dürfte genug Performance frei haben um die VoIP audiostreams hinzubekommen. Jetzt frag ich mich obs eine gute, einfache PBX-Lösung gibt die für unseren Minimalanspruch nicht völliger Overkill ist und die sich im Einsatz mit Unraid bewährt hat. Hat jemand ne Idee, oder - noch besser - eigene Erfahrungen?
  16. Danke für den Input. Ja, das mit dem Host access for custom networks wusste ich eigentlich schon, hab ich aber irgendwie verdrängt. Das löst in der Tat einen Teil des Problems. Dennoch würde ich gerne ein custom bridge network auf eine andere IP legen. Also statt einzelnem Container auf eine einzelne IP nochmal ein Bridge-Network. Hat jemand ne Ahnung wie das funktionieren könnte? Beim ipvlan bin ich mir noch unsicher was es mir wirklich bringen würde, ich hab auch erstmal macvlan gelassen für custom:br0.
  17. Nur damit ich das richtig verstehe: Der Public DNS für deine Domain (Der Screenshot sieht nach All-inkl aus? und example.com hast du da vermutlich aus privacy-Gründen reingetackert?) trägt deine lokalen IPs damit deine lokalen Aufrufe (über den Public DNS) richtig auflösen? Netter Stunt Das mit PiHole stimmt zwar, aber es gehen halt leider keine Wildcards - das heißt du musst jede Subdomain extra eintragen. Nebenbei: Das mit den .local-Adressen im verlinkten Blogpost ist wohl auch nicht mehr so ganz einfach. Davon wird fast überall abgeraten weil einem das wohl spätestens in der Kombination mit Apple-Geräten um die Ohren fliegt. Aber was anderes: Deine Docker-Container laufen alle in einem Bridge-Network? Wie hast du das denn mit :80 gelöst? Hast du das Unraid-Interface umgebogen oder läuft das über einen zweiten NIC? Sonst conflicted das doch mit dem NPM, oder?
  18. Das mit den Subdomains hab ich tatsächlich auch so vor. Externer Zugriff ist erstmal gar nicht vorgesehen, aber gut das schonmal im Kopf zu haben. Die Aufteilung in IPs ist daher natürlich auch nicht wirklich nötig, aber wie oben geschrieben eben nice to have. Darf ich fragen wie du DNS bei dir organisierst? Hast du einen lokalen DNS laufen der das mapping macht? Hier läuft ein pihole und sonst kein DNS lokal (abgesehen von dem was Unifi selbst an DNS macht) und ich frag mich ob mich die local DNS option von pihole alleine auf Dauer glücklich macht. Schon allein die fehlenden Wildcards nerven da etwas.
  19. Tach zusammen, ich hatte in der Vergangenheit auf der Syno bereits rund 7-8 Docker container laufen - alle auf der gleichen IP und entsprechend unterschiedlichen Ports. Vor allem beim Containern die man seltener benutzt vergisst man schon gerne mal die ausgefallen Portfolge und auch sonst ist das (z.B. für lokale Mitbenutzer des Netzwerks) nicht sonderlich zugänglich. Nicht nur weil mit dem Unraid-Server auch die Komplexität der Angelegenheit zunimmt, will ich das etwas vereinfachen und auch besser strukturieren. Strukturieren heißt nach Möglichkeit verschiedene Themen auch auf verschiedene IP-Adressen verteilen (Es gibt im Unraid-Server nur ein NIC). Das ist jetzt zwar nicht unbedingt nötigt, würde mir aber gut taugen. Was ich noch nicht rausgefunden habe: Gibt es die Möglichkeit custom Bridge networks in Docker (also über docker create network...) eine eigene Host-IP zuzuweisen? Der Plan wäre sowas wie: - Unraid Main IP: 10.10.50.30 (Port 80 führt zum Unraid Interface) - proxy-bridge: 10.10.50.31 - mit u.a. nginx-proxy auf Port 80 - smarthome-bridge: 10.10.50.32 - mqtt, node-red, grafana,etc. - media-bridge: 10.10.50.32 - plex,.... - xyz-bridge.... Also ein Bridge-Network pro Thema mit jeweils einer Host-IP bei denen sich freigegebene Ports nicht gegenseitig kreuzen(?). Wenn ich den Cross-Network-Access in Docker richtig verstanden habe, sollten die Bridge-Networks in der Lage sein untereinander zu sprechen, was ja z.B. nicht möglich wäre, würde ich die IP für den Nginx-Proxy custom vergeben an br0 (bereits getestet und geflucht). Ich könnte mir natürlich auch das Leben vereinfachen und mir einfach eine Übersichtsseite mit Links zu verschiedenen Services basteln, aber das scheint mir gerade viel zu banal. LOL Wie macht ihr das denn?
  20. Deine NVMe hast du dann als Cache eingebunden oder wie machst du das? Mir fehlt noch etwas der Überblick aber wenn ich beim erstellen einer neuen VM in die UI schaue, dann werden mir nur Disks aus dem Array angeboten - inklusive Cache Pools. Möglicherweise verstehe ich das aber einfach alles noch nicht richtig. Ich glaub ich les mir erstmal das Manual durch zum Storage Management
  21. Tach zusammen, mittlerweile habe ich mir die Hardware zusammengebaut (danke an @mgutt für die Beratung hier). Nun stehe ich vor ein paar Fragen beim initialen Setup. Ich habe erstmal 3 Platten drin mit je 6TB, die ich später durch größere ersetzen will. Wenn ich es richtig verstanden habe, kann man nur ein Array aufbauen - mit maximal zwei Parity-Platten, die jeweils die Maximalgröße der hinzugefügten weiteren Platten vorgeben, richtig? Angenommen ich baue jetzt mein Array mit einer Parity-Platte und zwei weiteren Platten im Array auf (mit den erwähnten 3x6TB), könnte ich dann später eine größere Parity-Platte hinzufügen und nach integration die alte 6TB rausnehmen um am Ende eine größere Parity-Platte zu haben oder wie wäre die Vorgehensweise. Hintergrund: Noch läuft hier ein Synology-Nas mit 2x10TB und 1x12TB die ich später in den Unraid-Server hängen will. Weiterhin hängt im Server noch eine 2,5"-SSD (512GB) und eine M2.SSD - der Plan war die M2.SSD als Platte für VMs zu verwenden und die 2,5" als Cache für das Array. Ist das sinnvoll? Mein Wissen ist bisher sehr theoretisch und im Grunde bin ich im Moment auch erstmal nur bereit für Spielereien aber die gröbsten Fehler würde ich gerne gleich vermeiden. Jetzt wo ich den Beitrag zuende geschrieben habe denke ich, es gibt sicher irgendwo einen Einsteigerguide, den ich vielleicht zuerst hätte suchen sollen 🙉
  22. Valide Punkte. Ich schau mir das nochmal an, danke dir auf jeden Fall für den Input.
  23. Ich wünschte ich hätte etwas mehr Zeit mich dem Thema anzunehmen - schon wieder 3 Wochen vergangen *seufz* Ich hab mir das alles nochmal ein wenig angesehen. Die Xeon CPUs sehen mir nach einer vernünftigen Lösung aus. Einzig beim Mainboard bin ich mir nicht sicher ob es sinnvoll ist sich ohne grund auf ein Micro ATX zu "beschränken". Ein normaler Formfaktor würde ja doch noch ein paar mehr Erweiterungsoptinen mit sich bringen. Beim Gehäuse bin ich auch noch nicht sicher ob ich nicht gleich auf ein Rackgehäuse wechseln soll. Hmmmm.
  24. Danke für die Aufklärung und auch danke für den Gedankenanstoß für ein komplett neues System. In der Tat hatte ich darüber auch schon nachgedacht, vor allem weil sich das Gamingsystem vermutlich komplett ganz gut verkaufen ließe im Moment. Leider sieht die Verfügbarkeit bei den Xeon-CPUs ja nicht sonderlich gut aus. Ich werde mir das mal genauer anschauen, von denen hab ich gleich gar keine Ahnung.
  25. Hallo zusammen, ich hab die Tage schon mal im Hardware-Bereich gepostet, der Deutsche Bereich scheint allerdings deutlich aktiver zu sein, was mir leider erst hinterher auffiel. Daher an dieser Stelle schon mal sorry für den Doppelpost. Ich schreibe ohnehin nicht beim anderen Post ab, daher wird der sicher auch etwas anders werden Wie im Titel schon steht bin ich neu bei Unraid. Ich betreibe seit vielen Jahren verschiedene Synology NAS mit denen ich grundsätzlich immer ganz zufrieden war, da aber mittlerweile der Fokus auf Application Serving steigt und auch dank diverse Cloud-Dienste die eigentliche Datenspeicherung etwas in der Wichtigkeit sinkt, will ich mich jetzt was verändern was den Home-Server angeht. Als Hardware möchte ich ein vorhandenes System nutzen, das bis vor einem dreiviertel Jahr noch für Gaming genutzt wurde. Es besteht aus einem Ryzen 9 3950x, 64GB RAM, einem MSI B450 Gaming Pro Carbon und einer RTX 2080. Aktuell läuft da noch ein Windows-System drauf für eine hand voll Desktop-Anwendungen. Ich habe überlegt diese Windows-Installation zu "virtualisieren" wenn das mit überschaubarem Aufwand möglich ist. Dafür könnte die 2080 auch im System bleiben wobei die aber eigentlich völliger Overkill dafür ist. Das virtuelle Windows sollte eher nicht für Gaming dienen sondern für kleinere und mittlere Desktop-Anwendungen - wahrscheinlich sogar nur im Remote-Zugriff. Ansonsten will ich bisher auf der Syno verwendete Docker-Images und Syno Applikationen umziehen: - Plex-Server (Syno App) - Sonarr/Radarr/nzbget (Docker) - Pihole Dazu kommen sollen in Zukunft - HomeAssistant oder iobroker - Node Red - Cloudflare DDNS Ein Umzug der in den nächsten 12-18 Monaten antsteht kommt mit einem größeren Netzwerkumbau einher, dafür möchte ich dann auf 10G Ethernet umrüsten bzw. je nach Umbau des Systems jetzt schon darauf achten. Aus der Syno werde ich nach Umzug der Daten 3 Platten (2x10 TB, 1x12 TB Iron Wolf Pro) mitnehmen, 4 6TB Platten liegen hier noch rum, die erstmal als grundlage dienen sollen. Für die Parity braucht es ja eine Platte mit maximaler Größe (bezogen auf das Array), wenn ich das richtig verstanden habe. Da habe ich überlegt ggf. eine aktuelle 14TB oder so zuzukaufen. Beim Querlesen ist nun der eindruck entstanden, dass für Unraid gar nicht zwingend NAS-Platten empfohlen werden. Hab ich das richtig verstanden? Die Platten in der Syno sind nun ja schonmal da, aber ich frag mich natürlich was ich da nun sinnvollerweise kaufe. Das Mainboard ist nicht das beste und die ganzen Gamingfeatures bräuchte ich für den Server im Grunde nicht, aber da es nun schon mal da ist werde ich es wohl erstmal nicht ersetzen. Aktuell ist da eine NVME-SSD mit 1TB verbaut. Platz für eine zweite ist vorhanden. Da läuft im Moment noch das Windows-System drauf - ansonsten könnte das evtl. auch mal ein SSD-Cache sein. Das einzige was ich erstmal ersetzen muss ist das Gehäuse. Leider bietet es keinen Platz für Festplatten. Ich hab da erstmal an ein Fractal Design Define gedacht. Da sollten 8 Platten oder so problemlos unterkommen können und noch halbwegs gekühlt werden. Nach dem Umzug soll alles mal ins Rack - da ist das Define zwar nicht ideal, sollte aber von der Größe her zumindest liegend ins Rack passen. Aktuell ist es etwas einfacher zu handlen als so ein 19"-Rackmonster rumzuschieben. Eine größere Frage ist noch Drive I/O - auf dem Mainboard sind 6 Sata-Ports vorhanden. Das wird spätestens nach 6 Laufwerken eng und ich hab mich gefragt ob man die Platten hinterher beliebig auf einen anderen Controller stecken kann, ohne dass Unraid durcheainder kommt. Vielleicht macht es hier sinn gleich auf einen SAS-Controller mit Breakout-Kabeln zu wechseln? Welcher empfiehlt sich hier aktuell? Ansonsten bin ich dankbar für jeglichen Input. Cheers, Helmi