Jump to content

Zonediver

Members
  • Posts

    1,716
  • Joined

  • Last visited

Everything posted by Zonediver

  1. Das müßte ich erst probieren... das wäre interessant.
  2. Gemounted war sie nicht - sie stand nur unter UD drinnen... Aber gut... jetzt weiß ich noch immer nicht, wo die 28GB Speicherbelegung herkommen...
  3. Das kann ned sein, weil ich das bis jetzt 11x gemacht habe (seit 2010) und nie war's nötig, die Platte zu Nullen oder (vorher) zu formatieren. Der Fakt, dass unraid die Disk einfach zu den unassigned reinhängt is ja auch merkwürdig... das gabs vorher ja auch ned bitte...
  4. Weil die Platte dort eingebaut war und ich den Inhalt nullen mußte, da unraid sonst ewig braucht, weil Nullen geschrieben werden müssen. Aber es konnte ja keiner wissen, dass die neue Version das "nun generell" macht - egal was auf der Platte drauf (oder nicht drauf) ist... das war bis dato ja nie so.
  5. Doch - ich hatte das vorher unter Windows gemacht - dauerte ebenfalls 8 Std. Es könnte aber sein, dass die neue unraid-Version jedes Bit auf 0 prüft. Unter 6.7. war das so, wenn auf der Platte die ersten 50-100GB mit Nullen "vollgeschrieben" waren (ich weiß, ist falsch), dann wurde die Platte sofort ins Array integriert.
  6. Soweit ich weiß, belegt XFS pro 1TB ziemlich genau 1GB auf der Platte - also sollten das 4GB sein. Und ja, unraid hat die Disk gleich mal als unassigned device reingeklopft - ohne zu fragen... Das war bei der v6.8 noch ganz anders... Außerdem wollte das Ding "unbeedingt" einen Disk-Clear durchführen - die Disk war aber leer - ohne Dateisystem - was für ein Rotz! Dieser Vorgang dauerte 8 Std. und konnte nicht abgebrochen werden - was is da los mit unraid? Wurde das absichtlich integriert???
  7. Hat das schon mal jemand gesehen? Irgendwie merkwürdig, da die Disk nach dem Clear vollkommen leer war und noch ist. Ist das ein Bug oder hat das etwas mit dem File-System XFS zu tun? Vielleicht kann mir da wer weiterhelfen 😉 EDIT: Hab da noch etwas gefunden: Jun 10 20:37:15 Horus emhttpd: writing GPT on disk (sde), with partition 1 byte offset 32KiB, erased: 0 Jun 10 20:37:15 Horus emhttpd: shcmd (292022): sgdisk -Z /dev/sde Jun 10 20:37:15 Horus root: #007Caution: invalid main GPT header, but valid backup; regenerating main header Jun 10 20:37:15 Horus root: from backup! Jun 10 20:37:15 Horus root: Jun 10 20:37:15 Horus root: #007Warning: Invalid CRC on main header data; loaded backup partition table. Jun 10 20:37:15 Horus root: Warning! Main and backup partition tables differ! Use the 'c' and 'e' options Jun 10 20:37:15 Horus root: on the recovery & transformation menu to examine the two tables. Jun 10 20:37:15 Horus root: Jun 10 20:37:15 Horus root: #007Warning! Main partition table CRC mismatch! Loaded backup partition table Jun 10 20:37:15 Horus root: instead of main partition table! Jun 10 20:37:15 Horus root: Jun 10 20:37:15 Horus root: Warning! One or more CRCs don't match. You should repair the disk! Jun 10 20:37:15 Horus root: Main header: ERROR Jun 10 20:37:15 Horus root: Backup header: OK Jun 10 20:37:15 Horus root: Main partition table: ERROR Jun 10 20:37:15 Horus root: Backup partition table: OK Jun 10 20:37:15 Horus root: Jun 10 20:37:15 Horus root: Invalid partition data! Jun 10 20:37:16 Horus root: GPT data structures destroyed! You may now partition the disk using fdisk or Jun 10 20:37:16 Horus root: other utilities. Jun 10 20:37:16 Horus emhttpd: shcmd (292022): exit status: 2 Jun 10 20:37:16 Horus emhttpd: shcmd (292023): sgdisk -o -a 8 -n 1:32K:0 /dev/sde Jun 10 20:37:17 Horus root: Creating new GPT entries in memory. Jun 10 20:37:17 Horus root: The operation has completed successfully. Jun 10 20:37:17 Horus emhttpd: shcmd (292024): udevadm settle Jun 10 20:37:17 Horus kernel: sde: sde1 Jun 10 20:37:17 Horus emhttpd: shcmd (292025): /sbin/wipefs -a /dev/md11 Jun 10 20:37:17 Horus emhttpd: shcmd (292026): mkfs.xfs -m crc=1,finobt=1 -f /dev/md11 Jun 10 20:37:21 Horus s3_sleep: Disk activity on going: sde
  8. Wie wurde die Verknüpfung in Windows ausgeführt? Heißt die wirklich "NAS-UNRAID\Storage 1 (mit Leerzeichen)"? Wenn ja, dann könnte es ein Problem bei der Namensauflösung geben. Trag die IP des Server mal in die HOSTS-Datei unter Windows ein oder schreib die IP in die Verknüpfung. Und das Leerzeichen zwischen "Storage" und "1" ist auch keine gute Idee - sowas mag Linux garnicht... Ich hab's bei mir über die zweite IP des Servers gemacht (10GBit-Segment)
  9. Du mußt die PowerShell als Administrator starten, dann geht's
  10. Das könnte schon sein, weil ich dieses Problem beim Umstieg von Win 7 auf Win 10 (1909) auch hatte. Ich mußte in den SMB-Settings den Eintrag umstellen auf "min protocol = SMB2" Die Frage is nur, welches Win 10 er zur Zeit benutzt. Ein aktuelles Win 10 benutzt v3.1.1
  11. I am using unraid since April 2010 with various HW-platforms and never used ECC. At this timeframe i had one (horrible) RAM-outage and thats it - my data was not affected. In general, i use my unraid server only for plex with HW-transcoding without VMs - so i dont need ECC... But my next system will be based on a DDR5 platform and this new RAM-type has integrated ECC.
  12. And what is your Hardware on Unraid and WindowsPC? Tell us... I am using this NIC since Oct. 2019 without issues... Rate ~1,07GB/sec (both directions)
  13. Use the Plex-Docker from linuxserver.io - its working 👍
  14. I used the "Server Layout" plugin for a long time. That did exactly the same thing. At some point it went EOL and since then I've been looking for a replacement - thanks again for this tip 👍👍👍
  15. No - Total PowerOn Time from SMART would be ok - but all on one sheet to see it for all HDDs together. Maybe a script can do this? Over Console?
  16. Is there a plugin that can show me the working hours of my disks? Thanks for your help 😉
  17. What I often noticed, when the server has very little RAM, then uploading new files to the server becomes a game of patience. Hence my "8GB recommendation". And because I often play more than 300GB on the server at once, I decided on 32GB
  18. I would recommend at least 8GB RAM because with 4GB its terrible
×
×
  • Create New...