DataCollector

Members
  • Posts

    3330
  • Joined

  • Last visited

  • Days Won

    11

Community Answers

  1. DataCollector's post in Unraid nur mit USB Sticks betreibbar? was marked as the answer   
    Grundlegend: ja.
    Nachteil: nicht jeder billige USB Bootstick unterscheidet sich von seinen Geschwistern weit genug und unraid kann (wie aber auch bei anderen Datenträgern) dann Probleme bekommen die zu unterscheiden, wodurch die dann eben doch nicht alle am selben System genutzt werden können.
    (Stichwort: Intenso und seine Chargen von Datenträgern mit den selben Seriennummern)
     
     
    Welche Funktionen soll es differenzieren?
    Ein USB Stick meldet sich in der Regel nicht mit bestimmten SATA üblichen Fähigkeiten an und dann werden die auch auf dem Stick nicht benutzt.
    Beispielsweise Native Command Queuing findet sich auf USB Sticks nicht, also kann man das dort auch nicht erwarten. Auch sind diese lustigen Sachen, wie die A1 oder A2 kompatibilität bei SD Speicherkarten bei USB Sticks nicht vorhanden. Viele USB Sticks haben auch keine Temperatursensoren, die von außen ausgelesen werden können, also zeigt unraid da auch meist nix an.
     
     
    Dann mach es doch. Ich schätze, es hindert Dich niemand.
     
  2. DataCollector's post in Anfängerfragen was marked as the answer   
    Du kannst die Dateien (und verzeichnisse entweder manuell verschieben (mc oder krusader, unbalance oder so), wenn Du weißt, was Du machst oder
    Du läßt es vom Mover machen, indem Du ihn so einstellst, das vom Secondary (array) auf primnary (Cache) verschoben werden soll, dann stoppst Du deine laufenden VM und Docker, dann Stoppst Du den VM Dienst und den Docker dienst und wirfst den Mover an. Der nimmst dann alle teile, die im Array liegen (secondary) und movt die dann in den cache (primary).
    Wenn der fertig ist, kannst Du Dockjer und VM Dienste wieder starten udn die Dockercontainer und Deine VMs. Fertig.
  3. DataCollector's post in CPU Spikes alle 5-10 Sekunden was marked as the answer   
    Ansonsten vielleicht mal über einen Monitor-Dummystick nachdenken.
    Einige Mainboards/Grafikkarten sind da empfindlich und nur mit solchen Tricks zur vollen Kooperation zu bewegen.
    Natürlich sollte man dann mal schauen ob der Dummy nicht über die Zeit dann sogar mehr Strom benötigt, wie die Spikes zusammengerechnet.
     
    (Keine Medikamente ohne Nebenwirkungen 😄 )
  4. DataCollector's post in LSI HBA Card einfach so austauschen? was marked as the answer   
    Ich vermute Du meinst, Du willst die -16i neu einsetzen und die alte -8i dafür rausnehmen/entfernen.
     
     
    Da beides SAS Kontroller im HBA Modus sind, werden die Festplatten transparent durchgereicht und somit sollte der Austausch dahingehend kein Problem sein.
    Beachte, daß die 9300-16i eigentlich 2 9300-8i auf einer Platine sind und sich etwas ungewöhnlich verhalten kann, je nachdem welche Firmware drauf ist.
    Vielleicht interessiert Dich dazu:
    https://www.mydealz.de/comments/permalink/45323776
    bzw. der relevante Link darin (den das Forum hier nicht einfügen läßt, weil es ein Link zu einem Konkurrenzprodukt zu unraid ist).
     
     
     
    Eigentlich nicht, da die 9300-16i (bestehend aus 2 internen 9300-8i Chipkonstruktionen) ein ziemlicher Stromfresser ist (erkennbar an dem riesigen Kühler), wirkt es sich kaum noch aus, ob Du nun alle Port des 16i oder ein paar weniger am 16i und dafür ein paar mehr am Mainboard nutzt.
    Daß es Deine C-States fast komplett verhagelt sollte Dir ja schon mit dem 8i aufgefallen sein.
     
    Beachte die erforderliche Luftbewegung. Der alte 8i war dahingehend nach halbwegs handzahm, aber der 9300-16i  ...
    Hier das Usermanual mit der Powerangabe.
    https://docs.broadcom.com/doc/12353308
    "Power Requirements:
    PCIe 12.0 V = 2.25 A
    Passive cable, nominal = 26,9 W"
     
    Die rund 25W möchten gerne aktiv gekühlt werden!
    (Vielleicht sind doch ein paar sparsame SATA Kontroller, zusätzlich zu Deinen onBoard 6 SATA, da doch empfehlenswert um 16 Ports zu erreichen?)
  5. DataCollector's post in Diks 2 Lesefehler, Hardware zu schwach? was marked as the answer   
    Bezogen auf Dein DISK2 Problem:
    Bevor Du Geld ausgibst: Schließe die Disk2 doch einfach mal Onboard oder einen anderen SAS-Port an.
    Laut Deiner Diagnostics hast Du:
    ASUS B85M-E (0MB0F60-M0EAY0) (welches laut www.gh.de folgendes bietet)
       4x SATA 6Gb/s
       2x SATA 3Gb/s
    Dazu ein 
       SAS 8 Port HBA Kontroller
    und daran gemeinsam
       10 SATA Festplatten + 1 SATA SSD
     
    Also hast Du 14 SATA/SAS Ports, von denen nur 11 belegt sind.
    Also kannst Du die Disk2 doch einfach mal an einen anderen SATA-Port anschließen um zu sehen ob der Fehler mit der Disk mit wandert (was dann kein Kabelproblem mehr sein kann) oder ob sich keines oder ein anderes Fehlerbild zeigt.
     
    Benutzt Du Wechselrahmen/Backplanes oder sind die SATA Kabel direkt auf die Festplatten gesteckt?
     
    Und nur so zur Info: diese SAS-SATA Breakout Kabel mit den sehr dünnen Aluschirmen und fast keiner Isolierung sind sehr filigran. Aus eigener Erfahrung kann ich sagen, daß ich mal allein durch ein eher eng verlegtes Kabel anscheinend das Signal des Kabels so verschlechtert habe, daß die daran getestete Festplatte spontan im SMART die CRC Fehler massiv hochgezählt hat. Kabel getauscht: keine neuen Fehler mehr.
     
    Wenn man etwas mehr mechanische Stabilität braucht könnt eman sich Kabel mit einer etwas dickeren und somit mechanisch stabileren Isolierung suchen:
    (Hier nur ein Beispiel, was ich meine)
    https://geizhals.de/delock-mini-sas-x4-sff-8087-auf-4x-sata-kabel-83057-a428821.html
     
  6. DataCollector's post in HDD Pool: Single-Disk oder RAID0? was marked as the answer   
    Für ersteres nutze ich zfs (hatte ich ja schon oben erwähnt).
    Aber das ist ja eigentlich egal.
    Wenn es Dir doch um Datensicherheit geht, sollte ein regelmäßiges Backup ins Fadenkreuz Deiner Auswahl treten.
     
     
    Ein Tool für die Geschwindigkeit einzelner Datenträger (also nicht des gesamte Pool, sondern jedes Einzelteiles) ist bei mir der Docker "Disk Speed".
    Aber jeder Testdurchlauf schluckt einiges an Zeit.
    Das sollte man im Hinterkopf haben.

  7. DataCollector's post in Cache Drive size raid0 mode was marked as the answer   
    Leider kann ich im Bezug auf zfs dazu noch nichts sagen, weil ich bisher noch nicht versucht habe 2 unterschiedlich große Datenträger zu koppeln. Die Anleitung bezieht sich ja auch auf BTRFS (was ich dennoch meiden würde).
     
    Also habe ich es mit meinem B760M Testboard einfach gerade mal ausprobiert.
    Man nehme eine 2TB Samsung 970 Evo Plus und
    eine 4 TB Patriot Vioer V4300Lite.
    Wenn es klappt sollten fast 6 TB Speicherkapazität ohne Redundanz bereitstehen. (Ich nenne sowas gerne BigDisk, weil der Begriff JBOD leider mehrfach belegt ist.)
     
    Und es klappt!
     
    Schritt 1: die Datenträger einbauen, unraid starten & einen neuen Pool erstellen

     
    Schritt 2: Die unterschiedlichen Datenträger dem Pool zuordnen

     
    Schritt 3: Durch Anklicken des ersten der Datenträger im Pool die Einstellungen festlegen. Hier zfs

     
    Schritt 4: dann in dem neu aufklappenden Menu den raid0 Modus wählen:

     
    Schritt 5: wenn der Pool erzeugt wurde, sind die Datenträger natürlich noch nicht formatiert, aber wenn man das System per "START" dann startet wird einem im Main Tab unten die Formatierung angeboten (rechts das Kästchen anklicken) und den Button "Format" drücken.

     
    Schritt 6: Und wenn die Formatierung durch ist, sieht man dann hier fast 6TB Nutzkapazität.

     
    Ich hoffe damit ist Deine Frage beantwortet?
     
  8. DataCollector's post in Cache drive tauschen!!! was marked as the answer   
    Die 7GB sind der Platzbedarf für die Filetable und so.
    Im Gegensatz zu Windows, welches solche Datenmengen verschweigt, zeigt unraid an, daß eben auch die Verwaltungsdaten des Dateisystemes eben etwas Platz beanspruchen.
     
    alturismo hat recht. Du kannst nun tauschen. Der Datenträger enthält nichts mehr, was wichtig ist.
     
    Solltest Du Deine Share Einstellungen beibehalten wollen macht es Sinn dem neuen Cache Pool den selben Namen zu geben, den der alte Cache Pool hatte, dann braucht man nicht alle Shares (die den Pool benutzten) anzupassen.
  9. DataCollector's post in BIOS ohne usb Boot option was marked as the answer   
    Wie gesagt: behalte den Wert im Auge. Wenn der sich erhöht, dann hast Du ein aktuelles Problem.
    Wenn der sich nicht erhöht war das mal ein Problem in der Verkabelung (irgendwann früher, als die Festplatten mal schon wo anders eingesetzt wurden).
     
    Wenn Du unraid auch davon überzeugen willst, daß Du den Wert kennst und in diesem Zustand für ok betrachtest, dann klicke mit der Mouse im Dashboard einfach auf das gelbe Handsymbol und bestätige es. Das wird dann wieder grün. Sollte der Wert sich danach wieder verschlechtern, wird unraid sowieso wieder eine Warnung ausspucken (wenn man die Warnungen nicht abgeschaltet hat).
     
    Aktuell sehe ich keinen Handlungsbedarf. Erst, wenn sich bei den UDMA CRC Werten was verschlechtert, ist im aktuellen Signalweg zwischen Festplattenkontroller und Festplatte ein Problem (meist eben Verkabelungsproblem).
  10. DataCollector's post in HDDs gehen bleiben nicht mehr im Spin Down was marked as the answer   
    domains und isos sind auch auf Disk1
     
    Ich würde alle 4 Systemshares auf den Pool/SSD/Cache legen. Dann kann die Disk in Spindown gehen (sofern man das so konfiguriert hat).
     
     
  11. DataCollector's post in (Netzwerk-)Problem mit USB C Hub was marked as the answer   
    Wie "Du kommst nicht soweit"?
    Kannst Du auch im Booten mit GUI diese Optionen dort nicht erreichen oder wie ist das zu verstehen?
    Das die WebGui bei Netzwerkproblemen vielleicht nicht mehr erreichbar ist, kann ich ja verstehen, aber dafür gibt es ja die Option beim Booten in den lokalen GUI Modus zu gehen.
    Und da Du sowieso diese USB-LAN Lösung ansteckst bist Du ja sowieso vor Ort.
     
  12. DataCollector's post in Parity Festplatte ausversehen ins Array gehängt was marked as the answer   
    Definition: Die Festplatte im Array, die Parity werden sollte nenne ich mal "PD2".
     
    - Also zuerst kopierst/verschiebst Du die Dateien von PD2 auf einen anderen Datenträger (egal ob Array, Pool oder extern).
    - Dann merkst Du Dir genau (Screenshot des "Main"-Tab), welche Festplatte im Array wofür verwendet wird (Parity, Daten).
    - In Folge kannst Du die Konfiguration des Array unter "Tools / new config" auflösen (keine Sorge, die Daten der Datenfestplatten bleiben auf den Festplatten drauf).
    Achtung! Nur das Array auflösen! Die Pools können/sollten bleiben.
    - Das Array in unraid (im "Main"-Tab) so zusammenstellen, wie es war, nur die PD2 eben dieses Mal als Parity zuordnen.
    - Unraid sollte Dich dann warnen, daß (beide) Paritydsisks überschrieben werden, was ja auch richtig ist.
    - Das Array starten und unraid dieses überschreiben machen lassen.
    (Bevorzugt sollte man abwarten, bis das erledigt ist. Bei großen Festplatten kann das auch mal >1 Tag dauern. Dabei darauf achten, ob wirklich von den Datenfestplatten nur gelesen und auf die Parity deshalb geschrieben wird.)
    - Wenn das durch ist, sollte das Array so aussehen, wie Du willst und Du kannst (falsl extern/auf Pool gesichert) die von PD2 verschobenen Dateien wieder dahin schieben, wo sie wirklich hin sollten.
     
     
  13. DataCollector's post in Futro S740 oder Wyse 5070 - Welche interne SSD M.2? was marked as the answer   
    Wenn der wenigstens SATA spricht würde ich dort dann eben eine SATA M.2 einbauen, die möglichst viel Kapazität hat und dort rein passt.
    Transcend hat zwei in M.2 2280 Bauform mit knapp unter 4TB im Portfolio.
    https://geizhals.de/?cat=hdssd&xf=252_3840~4832_4
    Aber wie gut die sind, weiß ich nicht.
     
    (sofern das Ding eben als NAS/Datenspeicher dienen soll. Wenn Du es nur als Docker/VM Unterbau nehmen willst darf/kann es auch erheblich kleiner sein)
     
     
    Korrekt. Den "benötigt" man sowieso nicht, aber wenn man normale Festplatten verwendet, ist ein (oder mehrere) SSD Cache als flotter Zwischenspeicher und für die Systemshares sehr hilfreich/beschleunigend.
     
     
     
    Wenn Du Parity verwenden willst brauchst Du mindestens 2 Laufwerke. Der ParityDatenträger muß mindestens genau so groß wie der DatenDatenträger sein und es ist sehr zu empfehlen, daß Parity der flotteste Datenträger im System ist, weil dieser Maßgeblich die real nutzbare Schreibgeschwindigkeit beeinflußt.
    Zu extern (was bei dem Gerät wohl USB heißt) äußere ich mich nicht.
     
     
    Die Parity sollte am flottesten sein, weil sich die reale Schreibgeschwindigkeit des Array auf ca. 33-50% der Parity einpendeln wird.
    Welchen der Datenträger Du nun als Parity verwendest mußt Du entscheiden/einstellen.
     
     
    Ein (extra) SSD Pool als Cache macht Sinn, wenn man
    a) ansonsten langsamere Datenträger hat
    b) die Pools voneinander trennen will, weil die sich unter last in die Quere kommen
    c) andere Pools schon voll oder in anderer Benutzung sind.
     
    Ob man einen SSD Cache einsetzen will oder nicht, hängt vom Anwendungszweck ab und ob es einem ansonsten nicht zu langsam ist.
    Das hat aber nichts damit zu tun ob man nun einen oder 2 oder die maximalen 30 Datenträger im Array hat.
  14. DataCollector's post in Beratung zu Datei-System und Disk-Verteilung erbeten was marked as the answer   
    Niemand zwingt Dich einr Parity zu nutzen. Und wenn Du darauf verzichtest kann das Array sogar ungebremst schreiben. Natürlich warnen kleine orangefarbene Dreiecke in unraid, daß die Daten auf den Disks gegen Ausfall ungesichert sind, aber daran gewöhnt man sich.
    Es ist nur so, daß der haupteinsatzzweck von NAS eben die gute Verfügbarkeit in einem Netzwerk für mehrere Personen/Computer/Geräte ist. Deshalb wird von vielen Nutzern/Admins eben wert auch auf weitgehend reibungslosen Betrieb in den normalen "Office Hozurs" gelegt und dafür kann man mit Parity, Raid und UPS ziemlich weit vorsorgen. Wenn Du das alles nicht brauchst und Deine Daten ab und zu in einem backup sicherst ist das sehr wohl ein legitimer Wunsch und mit unraid machbar.
     
     
    ...solange der Blitzschlag natürlich nicht gleich den lokalen PC und das NAS wegbrutzelt.
    Aber ich glaube dann hat man sowieso erst einmal andere Sorgen. 🚒
     
     
    Hier ist eben eigentlich eine geeignet Backupstrategie anzuraten.
    Aber wenn man zfs einsetzt ist auch die Möglichkeit der Snapshots dabei. Aber das ist noch nicht wirklich gut in unaid integriert.
    Ich kenne mich damit kaum aus und da sollten besser andere etwas zu sagen. Vielleicht machst Du zu generellen Fragen von zfs Snapshots in unraid und wie man das am besten handelt einen extra Beitrag/Frage auf.
     
     
    In meinen Augen gehören Backups (abgesenen von der Zeit in der sie erstellt werden) sowieso nicht auf das selbe System.
    Ich habe für einige Daten noch ein altes Zyxel N540 NAS, welches ich bei bedarf per IP Steckdose einschalte, dann die Sicherungen/Backup/Kopien (manuell) durchführe und im Anschluss wieder herunterfahre und dann vom Strom (per IP Steckdose) trenne.
    Da kann eien Ransiomsoftware auf dem Hauotsystem alles verschlüsseln, die Daten, die ich für sichernswert halte, sind weiterhin kuschelig im Zusatznas und verändern sich dabei nicht.
    Bei anderen Sachen (größere Datenmengen, dei das Zyxel sprengen würden) gleiche ich auch sporadisch meine Main- & Backup-Server miteinander ab und mein Backupsystem ist auch ansonsten stromlos.
     
     
    Alle Devices, die direkt in unraid angeschlossen sind zählen mit (außer der Boot USB Stíck). Ob später eingeschaltete und per UD eingebundene USB Festplatten dann auch dazu zählen, weiß ich nicht, wäre aber blöd von Lime, wenn die das ignorieren würden. Denn dann könnte man mit einer Basic Lizenz etliche dutzend Festplatten zusätzlich betreiben und das ist nicht so ganz im Sinne der Erfinder.  
     
     
    Ich kenne das CWWK J6413 jetzt nicht, aber wenn es die 6x SATA ansteuern kann ohne sich (wie bei einigen N100 Mainboards) gegenseitig in dei Quere zu kommen, dann ist das ja okay.
     
     
    Wen Du auf Parity verzichtest, wäre das eine Festplatte und eine Cache SSD.
    Das ist schön schnuckelig klein machbar.
     
     
    18TB Data und 18TB externes Backup, wäre bei dem, was ich von Dir las meine Wahl.
    Dazu eine NVMe SSD für Cache.
     
     
    Nein, die Backplatte muß nicht ins Array, macht auch im Hinblick auf den Ransomwaregedanken keinen Sinn, die zugänglich zu haben. nutze dafür eine externe Lösung.
     
     
    Der Gedanke ich, daß Festplatten drehend idle mehr Strom fresen als eine SSD, die durch ihr eigenes Managemet schnelle idle und stromsparender ist.
    Auch ist der Gedanke, daß eine Festplatte langsamer ist als eine SSD und ein Array mit Parity nochmal viel langsamer schreibt dabei vorhanden.
    Deshalb schaltet man eine SSD als Cache vor und die kann man dann timergesteuert per Mover ind Array verschieben lassen.
    Gedacht ist es eben, daß das NAS eben tagsüber vollümfänglich den Nutzern aus Speicher zur Verfügung steht. Wenn man auf alte Daten zurückgreift muß man den spinup der Arrayfestplate abwarten, aber dann hat man die alten Daten. wenn man auf recht aktuelle Daten des Tages zugreift, dann liegen die noch im Cache und sind ruckzuck zu erreichen und zu schreiben.
    Und wenn das NAS sich dann nachts langweilt, weil alle User träumen, aknn es sich damit beschäftigen die täglich ngefallenen Daten ins Array zu schieben um Platz für Neueres zu bieten.
    Das ist der Defaultgedanke hinter unraid.
    Ntürlich kannst Du bei einem Haushalt der Deinen 1Tb Cache kaum in eienr Woche ausreizt dei mover Intervalle auch auf Sonntag Nacht einstellen und dann arbieten alle in der Woche eben schreibend auf dem SD Cache und erst nach dem Mover lanmden die Daten in Array und der Cache ist dann wieder frei.
    Und wenn Du meinst, Du hast Daten, die Du immer wieder scghnell brauchst und Du auf den Spinup der Festplatte nicht warten willst (Favoriten-Musik-Dateien) kannst Du auch Shares erstellen, die dann eben permanent auf der SSD verbleiben und nicht ins Array verschoben werden.
     
    Alles sehr individuell einstellbar.
     
     
    Du mußt sowieso nicht für jedes Share einen eigenen cachePool anlöegen. Du kannst individuell für jedes Share (freigegeben verzeichnis) einstellen
    - ob es auf den Cache (Pool SSD) schreiben und dort verbleiben soll
    - ob es auf den Cache (Pool SSD) schreiben und per Mover irgendwann (einstellbar) ins Array verschoben werden soll
    - ob es auf gar nicht auf den Cache (Pool SSD) geschrieben, sondern direkt ins Array geschrieben werden soll.
    - ob es direkt auf das Array geschrieben und später per Mover auf den Cache geschoben werden soll.
     
    Das ist sehr flexibel konfigurierbar.
     
     
     
    Brauchst Du nicht. Kannst Du aber machen.
    Ich beispielsweise habe (max) 30 Festplatten im Array, mehrer Pools für verschiedene Benutzungen und nur einer davon ist der vorgeschaltet SSD-Cache für das Array.
    Die anderen Pools sind bei mir sind einfach mehr Speicherplatz für andere Dateien.
    Die Doku erklärt nur (annähernd), was beispielsweise möglich ist, nicht, daß man es auch machen muß.
     
     
    Ich nutze Preclear (Extraplugin, welches zu den UD [unassigned devices-Plugin] gehört um, vor dem Einbinden in das Array, die Festplatten einmal zu testen, bevor sie wirklich eingesetzt werden und gleichzeitig einmal zu "Nullen".
    Aber das ist seit einigen Versionen von Unraid nicht mehr zwingend notwendig.
    Wenn man eine Festplatte direkt ins Array zufügt, kann unraid das auch selber. Sollte sich dabei aber herausstellen, daß die Festplatte ausfällt, ist das Array 'beschädigt'. Somit gibt es mir ein gutes Gefühlt zu wissen, daß die Festplatte vorher schonmal in der Umgebung gut durchgelaufen ist. Wenn die beim Preclear schon Probleme zeigen, ist das Array dann nicht negativ betroffen.
     
  15. DataCollector's post in upgrade von I5 auf I7 sinnvoll was marked as the answer   
    Mir scheint, Dein Einwand fußt auf einem Mißverständnis:
    Es gibt I7 mit 35W
    Es gibt aber auch I7 mit 65W oder gar mehr.
    Du kannst aufrüsten, aber Du mußt entweder die richtige CPU finden oder die CPU irgendwie in ihrem Leistungsbedarf eingrenzen/deckeln.
    Bei normalen und modernen PCs ist eine Leistungsbegrenzung der CPU weitgehend möglich. Aber die MiniPCs haben nicht diesen vollen Einstellumfang im BIOS/UEFI.
     
     
    Wenn man ein System für eine 35W CPU hat, kann man dort jede kompatible 35W CPU einbauen (und hoffen, daß der Hersteller im BIOS/UEFI da keine Schranken eingebaut hat).
    Aber Du kannst (oder besser: solltest) keine 65W CPU dort einbauen.
     
  16. DataCollector's post in Parity Sync langsam was marked as the answer   
    über 100 MByte/s: Das sind gute Werte und werden im Realbetrieb sogar noch absacken.
     
    Generel (normaler Paritybetrieb):
    Ein Array mit Parity und mindestens 2 Datenfestplatten arbeitet per default in dem Modus,
    bei dem zuerst der Parityblock und alle zugehörenden Datenblöcke der Festplatten gelesen werden, dann rechnet die CPU die passenden Paritydaten aus und schreibt den Parityblock neu. Da der aber gerade schon unter dem lesekopf durchgeflutscht ist, muß der PC warten, bis der Block woeder vorbei rotiert.
    Dadurch erreicht man bei einer solchen Konstellation in der Regel Schreibraten zwieschen 1/2 und 1/3 Der Parityfestplatte an der jeweiligen Stelle.
    Auch sind Festplatten im Anfangs-/Außenbereich schneller als im Ende-/Innenbereich.
     
    Hier stellt sich nun die Frage:
    War vorher die Parity schon da aber ungültig: dann ist der Normalbetrieb auch dabei so, wie oben beschrieben.
    Wenn die Parityfestplatte erst jetzt hinzugefügt wird und vorher nicht vorhanden war, sollte er sich das vorherige Paritylesen sparen können und direkt neu konstruieren.
    Das wäre etwas schneller.
     
    Man kann auch versuchen mit dem "reconstruct write" modus die Sache zwangsweise ohne Paritylesen zu forcieren.
  17. DataCollector's post in Anfänger Fragen zu Lizenzen und Win98_inabox was marked as the answer   
    In der Theorie schon, aber Lime/unraid besteht auf einer eindeutigen Device ID für die Lizenz.
    Schon bei USB Sticks wird das immer seltener. Bei SD Karten sehe ich da auch im weiten Feld eher schwarz.
     
    Funfact: in dem ct3003 Video zu dem Thema unraid glaube ich zu erkennen, wie die eine MicroSD Karte in einem Lexar USB Kartenleser als Bootstick verwendet haben. Es ist also nicht auszuschließen, daß es funktioniert.
    Aber das ist so nicht vorgesehen. Du kannst es ausprobieren. Wenn Du unraid bootfähig darauf erstellen kannst und das mit den Lizenzen klappt, könntest Du es machen.
     
    Zusatzinfo: Ich habe leider schon einige SD/MicroSD Kartenleser erlebt, die bei dauerhaft eingesteckter Karte (also wirklich über Wochen/Monate immer drin gelassen!) die Spannkraft auf den Federbeinchen verloren und somit es im Laufe der Zeit zu Kontaktproblemen kam.
    Ich führe sie Probleme einerseits darauf zurück (Spannkraft) und andererseits auf einer gewissen Verschmutzung (obwohl die Karten permanent drin blieben).
    Ich würde es Oxidation nennen, doch angeblich sind da ja überall Goldkontakte verbaut und Gold sollte dahingehend ja nicht oxidieren. Aber dennoch hat dann reinigen oft geholfen.
     
    USB Hubs existieren
     
  18. DataCollector's post in Apps Store does not install itself - community.applications.plg -plugin: bad file MD5 - 2024.02.10b was marked as the answer   
    Problem solved.
    20 minutes later the installation worked! Now it got the correct md5 file.
    So it was a hiccup at the distant serverfile.
     
  19. DataCollector's post in CPU Last was marked as the answer   
    Tja, ich weiß weiterhin nicht welchen Befehl Du nutzt, somit kann ich nicht sagen ob rsync da auch Checksummen erzeugt oder Du nur direkt die Dateien kopieren läßt.
    Auch habe ich selber kein N100 System.
    Aber so grob gesagt sieht mir das nicht ungewöhnlich aus.
    Mein I3-8100 ist etwas unwesentlich flotter und auch da kann rsync schon mal auf 50% ansteigen.
     
    Wenn Du einen nackten Kopierprozess beurteilen willst nimm nicht rsync sondern kopiere normal.
    Bei unraid kann man das mit dem Dynamix File Manager oder dem midnightcommander (mc) machen.
     
  20. DataCollector's post in Server stürzt nach Spindown der Platten ab was marked as the answer   
    Fror er ein (lief also weiter und zeigte keine Reaktion) oder war er aus (Power down)?
     
     
    Da beim Paritycheck in der Regel von den Datenplatten nur gelesen wird und der Paritycheck ja auch recht lange dauert, sehe ich nicht, warum dadurch auf den Datenfestplatte ein Schreibvorgang noch offen sein sollte, der dann beim harten Ausschalten in irgendeiner Form das Dateisystem zerschießen könnte.
     
     
    Das ist logisch, da der Syslog ja bei jedem Start neu erstellt wird. Wenn das alte Log nach einem Neustart vorhanden sein soll bleibt nur das Syslog über den Syslog Server auf den USB Stick schreiben zu lassen. (Achtung! Wenn man das zu lange machen läßt verschleißt der USB Stick recht schnell).
     
     
    Ich nicht und der simple Spindown der Parity ließe sich ja auch simulieren um zu sehen, ob die Kiste dann direkt abschmiert/einfriert/ausgeht.
     
     
    In der beschriebenen/vermuteten Form: Nein.  (da stimme ich alturismo vollkommen zu)
     
    Es gibt anders herum (SAS) Festplatten die unraid nicht zum Spindown bewegen kann, aber das ist ein anderes Thema.
     
  21. DataCollector's post in Eine SSD ins Array packen? (Emby Problem) was marked as the answer   
    Frage: Ist Dir die Ausfallsicherheit dieser SSD wichtig?
    Wenn nicht, könntest Du die SSD auch einfach als eigenen Pool anlegen und dort die selben Verzeichnisse manuell erstellen.
    Mich hatte mal das Fuse System dahingehend verwirrt, daß es auf allen Datenträgern nach dem selben Stammverzeichnis zu suchen scheint und somit auch Stellen erkennt, wenn diese nicht normal als Share über den offiziellen Weg angelegt wurden.
     
    Ich habe das nicht weiter verfolgt, aber man könnte das mal ausprobieren.
    Vorteil: auch Schreibbefehle (durch das manuelle Kopieren der Bilder auf die SSD) werden nicht durch die Array Parity ausgebremst.
    Wenn Du für diese SSD Ausfallsicherheit willst, kannst Du ihr auch per zfs ein Geschwisterchen zuordnen (Raid1).
     
    Gerade das Verändern der Daten wäre dann bei einer nicht schreibgebremsten SSD im Pool sinnvoll und die Parity Platte(n) im Array könne weiter schlafend bleiben.
     
     
    Ich weiß nicht ob man das Thema schon gelöst hat, aber bei früheren Versionen beherrschte unraid im Array kein Trim.
    Und eben, daß bei einem Array mit Parityschutz die SSD schreibend eben durch die Paritydisk (auch deren Aufwachen!) dennoch warten muss/ausgebremst wird.
     
  22. DataCollector's post in Community Applications - Seite lädt nicht was marked as the answer   
    Hast Du mal die Plugin-seite betreten und versucht dort die CA zu aktualisieren, bevor Du den APP Store betrittst?
  23. DataCollector's post in WebGui erreichbar aber reagiert nicht was marked as the answer   
    Soweit ich es verstanden habe:
    Wenn im unraid Array nur 2 Datenträger (1 Daten + 1 Parity) enthalten sind, dann nutzt es nicht das eigentlich gedachte Verfahren, sondern es ist dann eigentlich ein Raid1.
    Und das erklärt, warum beide Deiner Festplatten identisch aussehen. Sie sind es (bezogen auf die Nutzdaten/Dateien) auch.
    In dem Fall gibt es datentechnisch keinen Unterschied zwischen den Festplatten und es ist eigentlich egal welche Daten und welche Parität ist.
     
    Falls Du die Festplatten dennoch unterscheiden willst: im unraid Main Tab sind die Datenträger des Array in der Regel aufgelistet.
    Darin sind dann meist eine rudimentäre Benennung der Festplatte und deren Seriennummer zu sehen.
    Spätestens anhand der Seriennummer sollten sich die Festplatten dann unterscheiden lassen.
    Siehe auch Screenshot meines kleineren Systemes (2nd Shipon)
     
    (Ausnahme; Wenn man unraid mit einem Raidkontroller im Raidmodus betreibt, meldet dieer nicht die echten Festplatten mit ihren physikalischen Daten, sondern eben nur die als Raid erzeugte virtuelle Disk, die sich eben als Gesamtheit der einzelnen physikalischen Datenträger ergibt, so kann unraid die eizelnen Datenträger in dem Raid nicht sehen oder gar einzeln anzeigen. Auch einer der Gründe, warum Raid in unraid nicht empfohlen wird.)
     
     

  24. DataCollector's post in Generelle Verständnisfragen was marked as the answer   
    Ich versuche mal Dein Dunkel zu lichten, auch wenn ich alturismo eigentlich zustimme, daß diese Grundlagen alle schon super in Youtube Tutorials und auch hier im Forum und der Dokumentation erklärt sind.
    Man hat mir am Anfang hier im Forum auch sehr geduldig, liebenswert und freundlich geholfen, also will ich das auch versuchen zurück zu geben.
    (Vergib meine Art zu Quoten. Seit einiger Zeit ist die Forumssoftware umgestellt worden und ich bin noch immer zu unwissend seit dem korrekt zu bedienen um mehrfaches Quoten in einem Beitrag zu erreichen.)
     
     
    Du:  -HP Micro Gen8 Server mit Xpenology
    SATA oder SAS Kontroller? SAS schluckt mehr strom. Umbau vielleicht erstrebenswert?
     
    Du:  -4 SATA Platten (1-4 TB, unterschiedliche Größen), die NICHT als RAID laufen sondern als einzelne Platten
    Also genau das, was unraid im Array machen kann.
     
    Du:  -Da di Platten alle jeweils Standalone laufen, weiß man genau, was auf den einzelnen Platten drauf ist, z.B: Platte 1: Filme, Platte 2: Fotos, usw. Die Daten werden dadurch nicht auf verschiedene Platten verteilt.
    Also genau das, was unraid im Array machen kann.
     
    Nun zu Deinen Dunkeklstellen (ich habe die Antworten etwas umgestellt und teils zusammengefasst):
     
    Man kann ein Share (Unterverzeichnis) so einstellen, daß es nur auf einer Festplatte im Array oder auch nur auf einem Pool liegt. Somit kann man einstellen, daß alles, was man da rein schreibt auch nur auf dem eingestellten Datenträger geschrieben wird.
    Ob man das wirklich will oder vielleicht doch noch einen SSD Cache vorschaltet (= also in Summe 2 Datenträger) muß man selber entscheiden.

    Wenn Du in Windows ein Share von unraid beschreibst, landen die Dateien dort, wo Du es vorher für das Share eingestellt hast.
    Beispiel: Du hast ein Share "Bananenbilder" und dort eingestellt, daß dieses Share nur auf ArrayDisk3 liegen soll, dann wird jede Datei, die Du in "Bananenbilder" über Lan rein schreibst, auch nur auf dieser Disk3 geschrieben, bis die voll ist (bzw. die eingestellte Füllgrenze erreicht ist).
    Da Festplatten (hier Disk3) aber recht 'langsam' sind gibt es eben auch das Konstrukt, die Daten erst einmal in einen Pool/SSD Cache zu schreiben, wodurch die Daten erst einmal dort liegen und nach eingestelltem Schedule des Movers ggf. später auf ArrayDisk3 verschoben werden. Damit sind dem Share "Bananenbilder" aber 2 Datenträger zugeordnet. Einmal das Array Disk3 und einmal eine Pool SSD.

    Die Parity (sofern vorhanden) läuft immer gleichzeitig zu einem Schreibvorgang auf jeder beliebigen einzelnen Disk im Array. Es wird also nicht seriell/nacheinander erst auf Parity und dann auf ArrayDisk geschrieben. Die werden zeitgleich beschrieben. Aber genau das bremst bei vorhandener Parity die Schreibgeschwindigkeit im Array auf ca. 1/3tel der Schreibrate der betreffenden Festplatte an der Stelle, die man sonst ohne Parity erreichen könnte. Deshalb nutzt man ja einen SSD Cache (Pool), welcher schnell beschrieben werden kann und somit zwischenpuffert.

    Eine Datei wird nie auf alle Disks im Array verteilt. Bei einem klassichen Raid würde versucht eine Datei über alle Disks zu verteilen. Bei unraid ist eine Datei immer komplett auf einer Disk im Array. Egal ob eine Parity da ist oder nicht.

    Parityfestplatte:
    Die erste/einzige Parity Festplatte in unraid Array enthält die Quersumme aller gleicher Sektoren der im Array enthaltenen Festplatten und muß deswegen zwingend mindestens so groß, wie die größte Datenfestplatte sein.
    Ja, anhand der Parityfestplatte kann man den Ausfall einer der Datenfestplatten im Array abfangen und dadurch normal weiter arbeiten, weil der Ausfall durch Simulation im laufenden Betrieb kompensiert wird.

    Man kann das Array auch ohne Parity betreiben, hat dann aber auch keine Sicherheit gegen Datenträgerausfall im Array. Aber Backups machst Du ja sowieso.
     
    Automatische Wiederherstellung:
    Nein. Ein paar Klicks sind schon erforderlich.
    Wenn man das Array stoppt (und zur Sicherheit System ausschaltet) eine neue Festplatte einbaut (System wieder einschaltet) und dem Array an Stelle der fehlerhaften Datenfestplatte die neue (mindestens gleich große) Festplatte zuordnet, wird auf der neuen Festplatte der Datenstand der alten Festplatte wieder hergestellt.
    Ich würde empfehlen den Start des Wiederherstellungsvorgangs per WebGUI oder GUI am Monitor zu begleiten, falls aus irgendwelchen Gründen an Anfang doch noch die eine oder andere Nachfrage vom OS beantwortet werden muß.
     
    Cache/Pool:
    Der Datenträger, den Du als Cache nutzen willst ist ein normaler Datenträger, den man nicht im Array, sondern in einem Pool betreibt. Ja, er verhält sich wie ein normal formatierter Datenträger und man kann dort Daten aufkopieren.
    Man sollte aber weder im Array noch in einem Pool die Datenträger komplett bis auf das letzte Bit vollschreiben. Dafür gibt es Einstellungen in den Shares und Pools um das zu unterbinden.
     
    Einzelzugriff auf Disks:
    Unraid arbeitet eigentlich mit Shares/Unterverzeichnissen, die man einzeln anspricht. Ich nutze es nicht, aber es soll auch eine Freigabe auf Festplattenebene möglich sein. Dann umgeht man das FUSE Dateisystem.
     
    Und nun: versuch es einfach. Erstens hast Du ja sowieso ein Backup und zweitens lernt man beim Ausprobieren sehr schnell und gut.
    😉 👍
  25. DataCollector's post in Füll-Limit bei 92% ? evtl. Speicher reserviert? was marked as the answer   
    Auf welchen der Shares willst Du denn kopieren/verschieben und wie sehen seine Einstellungen in unraid aus?
    Und sollte da BTRFS im Einsatz sein, wäre eine überprüfung der betreffenden Datenträger anzuraten.
    Ich habe zum Glück kein BTRFS mehr im Einsatz, aber soweit ich mich entsinne gab es da eine Option, in der Nähe des Balance Status, die auf Fehler zu überprüfen.