Jump to content

DataCollector

Members
  • Posts

    3,417
  • Joined

  • Last visited

  • Days Won

    11

Posts posted by DataCollector

  1. 5 minutes ago, Tremendous said:

    grafik.png.5760ba27f202401bc41f1a48ec014cdc.png

     

    Welche Anwendungen laufen gerade?

    Kann es sein, daß Plex da eine Datenbank aufbaut und mediafiles einliest oder so?

     

    Und nur so: Deine Parity ist ja auch aktiv. Da wird also nicht nur vom Array gelesen, sondern auch geschrieben.

     

    • Like 1
  2. 15 minutes ago, base64 said:

    Heyho, danke für die schnelle Antwort :D

    dann werde ich das mall ausbauen und testen. Hast du auch auf deinem B760M DS3H AX einen anderen Kühlkörper ? wenn ja welchen ?

     

    Zu meinem Gigabyte B760M DS3H DDR4:

    Ich habe diese dünnen Blechdeckel gar nicht erst montiert.

    Und nur zur Erinnerung zitiere ich mich: "Da ich das Mainboard sowieso nur für Testzwecke (eigentlich für Windows zum Festplatten und SSD testen & prüfen) gekauft habe, habe ich aktuell Zeit es auch für Unraidtests zu nutzen."

    Dieses Mainboard nutze ich nicht für ein unraid Langzeitsystem, Aktuell teste ich damit nur Hardware.

     

    Bei eher unkritischen NVMe SSD M.2 verwende ich geklipste kleine Kühler

    https://www.amazon.de/gp/product/B089RBKH31

     

    Bei eher wärmer werdenden NVMe SSD M.2 sind es dann die geklipsten größeren geworden:

    https://www.amazon.de/gp/product/B08XZ6FTHL

     

    Aufgrund eines Sonderangebotes habe ich mir dann auch vor kurzem ein paar Sabrent mit Heatpipe für extreme Fälle geholt (aber noch nicht montiert)

    https://www.amazon.de/dp/B07TN2RX2K

     

     

    • Like 1
  3. 5 minutes ago, base64 said:

    Die Frage ist, gerade wie mache ich am besten einen Stress Test, ohne die Appdata/Docker/VM etc zu zerstören.

     

    Indem Du die Systemshares wo anders hin überträgst udn die NVMe SSD dann erst testest.

    Ich baue die aus und stresse (fast) alle meine Datenträger indem ich sie einmal sequentiell von vorne bis hinten dauerbeschreiben und danach alles auch verify/lesen lasse. Dabei schaue ich sporadisch auch auf die Temperaturwerte.

    Ich nutze bevorzugt unter Windows HDTunePro, aber auch h2testw schreibt einen Datenträger voll. Unter Linux, sollte DD nicht auch einen Datenträger von vorne bis hinten stressen können?

     

    SSDs bremsen in der Regel erst so ab 60 Grad (oder mehr)  und begindnen dann zum Selbstschutz eben zu drosseln. Durch die interne Überwachung ist ein Überhitzjngsschaden durch normalen Gebrauch ausgeschlossen (wenn nicht sogar diese Temperaturüberwachung defekt ist). Aber eien SSD, die eben zu warm wird, kann sich auch ganz "abmelden", dann sieht es eben aus, als wäre sie gar nicht da. Und je nachdem, was auf der SSD drauf ist (relevante Daten, die das OS braucht) tillt das OS natürlich ggf. auch aus.

     

     

  4. 33 minutes ago, base64 said:

    ich hab manchmal das Problem das meine Cache NVME (Lexar_SSD_NM790_1TB_NL7223R000486P2202) zu warm wird laut Unraid:

    27-04-2024 03:01Unraid Cache disk temperatureWarning [FIRESPRAY] - Cache disk is hot (46 C)Lexar_SSD_NM790_1TB_NL7223R000486P2202 (nvme0n1)

    Danach steigt diese aus (Docker und VMs laufen nur noch komisch ) ich starte den Server durch alles super.

     

    Ja, die NM790 sind Hitzköpfe. ohne Kühlkörper würde ich die nicht betreiben.

    Aber auch unter einem Dauerschreibtest (HDTunePro unter Windows) mit Peak 61 Grad Celsius laut Lexars eigener Software, sind die bei mir nie "ausgestiegen".

     

     

    33 minutes ago, base64 said:

    Eigentlich ist es nicht schlimm, weil reboot tut gut, aber wenn man doch was schnell braucht nervt es etwas die 5 min warten.

    Hat jemand einen Tipp wo ich schauen kann warum das so ist oder eventuell eine Lösung?

     

    (besseren) Kühlkörper drauf montieren.

     

    33 minutes ago, base64 said:

    Achso die NVME hat eine passive Kühlungsplatte drauf.

     

    (besseren) Kühlkörper drauf montieren.

     

    33 minutes ago, base64 said:

     

    Der Aufkleber auf den Chips ist auch noch drauf, weil ich den nicht richtig runter bekomme ....

     

    Aus Garantiegründen sollten die Aufkleber auf den Chips auch nicht entfernt werden.

  5. 2 hours ago, MikeSierra said:

    Problem, die erste, vollere (damals 87%) der alten WD Red hatte auf einmal sehr viele Fehler (1386) siehe Hardcopy!
    Ziel soll sein, die 2 WD Reds (nacheinander, nicht gleichzeitig) mal mit PreClear zu prüfen um sie
    a) eventuell weiter zu verwenden
    b) sie gegen neue HDDs zu ersetzen.

     

    Bevor da etwas falsch verstanden wird: Der Fehlerzähler bedeutet nicht, daß die Festplatte selber einen Schaden hat. Das könntest Du über die S.M.A.R.T. Werte herausfinden.

    Hier wird Dir angezeigt, daß im gesamten Signalweg ein (viele) Promlem(e) gezählt wurden.

    Wenn Du Dein System neu bootest verschwinden diese gezählten Fehler... bzw. restettet sich der Counter.

     

    Solche Fehler können auch in defekten/zu stark beanspruchten/geknickten Kabeln oder so liegen.

     

    2 hours ago, MikeSierra said:

    Ich hoffe ihr könnt mir folgen, wie oder was mache ich das jetzt am besten?

     

    Zuerst: Backup aller Dir wichtiger Daten auffrischen/machen.

     

    Dann Ausschluss durch Kreuztests:

    Ich würde zuerst mal schauen ob ein Wechsel der Position der Festplatte(n) an den Ports der Kontroller/Kabeln da eine Änderung bewirkt.

     

    System runter fahren, Festplatten umstecken, hochfahren und testen.

    Wenn Du die betroffene Festplatte1 anstatt über Kabel1 am Kontrollerport1  nun neu an Kabel2 am Kontrollerport2 betreibst: steigen bei der Festplatte1 die Fehler bei neuer Benutzung auf an der neuen Position?

    Wenn Du eine andere Festplatte2 an Kabel1 an Kontrollerport1  betreibst, steigen dort die auf einmal die Fehler?

    Wie verhält es sich, wenn Du die Festplatte1 mit einem Kabel3 an dem Kontrollerport1 oder 2 betreibst?

     

    etc...

     

     

    2 hours ago, MikeSierra said:

    Was mir aber auch auffiel:
    Nachdem ich das vor geraumer Zeit schon per Dynamix File Manager umkopiert habe auf den 3. Datenträger des Arrays (18 TB Toschiba) sind neue Daten immer auf die 3. Platte (18 TB Toschiba) geschrieben worden, obwohl HighWater eingestellt ist.

     

    Laut Screenshot ist die Befüllung der 18TB Toshiba unter 9TB  (ca. 7,44 TB). Deshalb wird die weiter benutzt, bis die bei ca. 50% Füllung ist.

     

    2 hours ago, MikeSierra said:

    Ich ging davon aus, die geleerten WD Reds werden wieder zuerst voll geschrieben, bevor wieder was auf die 3. Platte (18 TB Toshiba) geschrieben wird.

     

    Wenn ich mich nicht irre:

    Es wird die Festplatte mit dem meisten freien Platz bis 50% gefüllt, dann die Nächstgrößte ..... wenn alle bis 50% voll sind, geht es wieder bei der los mit dem meisten freien Platz bis die bei 75% ist. Und immer so weiter.

     

    2 hours ago, MikeSierra said:

    Auch sind immer noch Daten aus
    appdata auf Datenträger 2
    system auf Datenträger 1 (die mit den 1386 Fehlern)

     

    Eigentlich macht es sinn diese systemshares exklusiv auf den Pool/Cache SSD zu haben, damit dei festplatten schlafen können.

    Schalte VM und Docker aus, dann kann man diese Shares bewegen. Solange VM und Docker laufen, werden aktuell benutze Shares (Dateien darin) nicht bewegt.

     

  6. 6 hours ago, alturismo said:

    Thema Parity Check nach unclean shutdown

    Ja, nachdem Tremendous diese Info nachgereicht hat, war das klar.

     

    6 hours ago, alturismo said:

    in dem Fall hast du ja nur auf die SSD (in einem pool) geschrieben, da hätte ich das abgebrochen ;)

     

    Nicht ich, sondern Tremendous.

     

    6 hours ago, alturismo said:

    parity is valid kann man da auch nicht triggern, das kommt automatisch ...

     

    Nach einem "New Config" des Array kann das einem angeboten werden, wenn man eben Parityfestplatten einbindet.

    Dann kann es also durch das von mir vermutete "new config" sehr wohl triggern.

     

    Siehe Bild 1, 2 und 3

     

     

    NC1-Screenshot 2024-04-28 115901.png

    NC1-OverwrittenScreenshot 2024-04-28 120224.png

    NC1-ParityScreenshot 2024-04-28 120259.png

  7. 3 hours ago, alturismo said:

    wenn disks im array sind und entfernt werden ist die parity definitiv dran, da fehlt was ...

    Ich las von ihm     "Dann packe ich die als Pool Platte mit rein."

     

    Ich bin natürlich davon ausgegangen, daß die SSD dann in einem Pool und nicht im Array ist.

    Deshalb meine Verwunderung nun über sein Parity rebuild.

    • Like 1
  8. 59 minutes ago, Tremendous said:

    Nach 20 GB Schreibleistung hat die SSD den Dienst verweigert und wird auch nicht mehr erkannt:

     

    Ist zwar ein unglücklicher Fall, aber wenn die SSD wirklich verstorben ist, ist das Pech.

    Meine MX500 (2TB) haben bis zum Ausbau super in unraid sogar als Raidverbund im Pool gearbeitet. Aber natürlich ist auch die 'Lebensdauer' einer SSD endlich. 

    Mein Beileid!

     

    59 minutes ago, Tremendous said:

    Jetzt läuft auch noch der Parity Check danach, ich bekom zuviel :)

     

    Das wundert mich. Warum ist davon das Array betroffen gewesen? Hast Du mit "New Config" hantiert und danach vergessen die Parity als gültig anzukreuzen?

  9. 53 minutes ago, mx4k said:

    1. Schnelle SSD

    2. Langsamere SSD

     

    Ist beim Schreiben egal, da sich die beiden SSDs im Array in dieser Konstellation (nur 2 Disks gesamt und 1 davon parity) aneinander angleichen.

    Beim Lesen macht es (wie alturismo schrieb) Sinn, die Daten auf der schnelleren SSD zu haben (hier mutmaßlich die NVMe).

     

    Mit "schneller" SSD hatte ich gemeint, daß eben die Daten auf generell einer SSD liegen, welche (je nach Modell doch) schneller als vielleicht eine Festplatte ist.

    Das hatte ich mißverständlich ausgedrückt. Sorry!!!!

  10. 21 minutes ago, Tremendous said:

    Binde ich die SSD dann im Array ein mit eigenem Share? Oder als Pool Devise?

    Am liebsten hätte ich die schon in der Parity mit drin, die Daten sind aber extern noch gesichert.

     

    Wenn Du sie primär nur zum lesen benutzt ist es im Array per Parity gesichert wird beim Schreiben aber die Parity wecken und diese bremst, hat aber kein Trim.

       (Bitte beschwere Dich dann später nicht, daß wegen winzigster Indexdateien dauernd Deine Parity mit anläuft/gar nicht mehr schläft.

     

    Wenn Du sie einzig in einen Pool packst hast Du Trim und wirst nicht durch eine Parity gebremst, hast aber keine Ausfallsicherheit.

     

    Was Du da willst (bzw. Dir wichtig ist), mußt Du entscheiden.

  11. 1 hour ago, mx4k said:

    Die Hardware beinhaltet zwei 2TB SSDs.

    Da ich ein absoluter Unraid-Anfäger bin, wollte ich fragen, wie ich am besten die Haupt-Konfiguration vornehmen soll.

     

    Wenn Du keinen anderen Datenträger (abgesehen von dem USB Bootstick) hast, sind nur diese 3 Szenarien möglich:

     

    a) Beide Datenträger in das Array und somit akzeptieren, daß TRIM nicht funktioniert.

     

    a1) Wenn Du Ausfallsicherheit willst, wird einer der Datenträger die Parity, wodurch das Array sowas wie Raid1 darstellt.

         Dann hast Du rund 2TB Nutzkapazität. Alle Systemshares laufen auf der flotten SSD.

     

    a2) Oder Du packst beide SSD ins Array (ohne Trim) und verwendest Sie ohne Ausfallsicherheit = 4TB Nutzkapazität.

     

    b) Man könnte auch eine SSD ins Array und eine in einen Pool stecken, aber das ist macht nur begrenzt Sinn.

        Dann hast Du 2+2TB Nutzkapazität.

     

    Es kommt also darauf an, ob Du Ausfallsicherheit (a1)  oder keien Ausfallsicherheit (a2) haben willst.

     

    1 hour ago, mx4k said:

    Ziel ist es eine möglichst hohe Datensicherheit zu haben (vor Ausfall). Die Menge des Speichers ist nicht so wichtig.

     

    Also Variante a2.

     

    Edit: Variante a1

     

     

    • Upvote 1
  12. Dieser Beitrag enhält meine persönliche Meinung zu diesem Fall. Jede andere Person darf gerne eine andere Meinung haben, die ich ihr/ihm auch nicht abspreche.

     

     

    5 hours ago, Cramp4600 said:

    Was sollte ich denn noch berücksichtigen?

     

    Was Du sollst, kann ich Dir nicht sagen.

     

    Bei einem System mit aktuell (wenn ich oben richtig in Erinnerung habe) gesamt 4 Datenfestplatten im späteren Gedankengang 2 Parity einzuplanen ist schon ein sehr großes Sicherheitsbedürfnis, welches über das hinausgeht, was wohl die meisten unraidnutzer für Ihre Daten als erforderlich ansehen.

    Aber das ist ja das schöne an unraid: man kann es machen, wenn man es will.

     

    Aber der Ausfall einer oder 2 Festplatten sind nicht wirklich alles, was den Ausfall des Systemes bewirken kann:

    Ausfall der CPU, 

    Ausfall des Netzteiles,

    Spannungsschwankungen des nur teildefekten Netzteiles,

    Ausfall einer relevanten Kabelverbindung,

    Oxidation oder schlechter Kontakt von Steckverbindern (man erinnere sich an diverse verschmorte PCIe Powerstecker bei Grafikkarten oder wie häufig hier von steigenden Festplattenproblemen geschrieben wird, was sich durch auswechseln der Kabel oder zumindest reinigen der Kontakte beheben lies), 

    Kinderhände die Taster finden, 🚸

    Mitbewohner mit denen man sehr heftigen (Trennungs)Streit hat (es soll bei einem Streit ja nicht nur Geschirr kaputt gegangen sein), 👺

    Einbruch/Diebstahl,

    Hacker/Ransomware/Trojaner

    Blitzschlag,⛈️

    Hochwasser,🌊

    LKW rast ins Haus,🚚

    Angriffe einer fremden Staatsmacht,🪖

    Nuklearschlag/-unfall,💣

    Alieninvasion 👾

     

    Such Dir etwas aus, was Du für Dich als zu vermeiden erachtest und überlege, wie Du "um jeden Preis" eine Lösung für Deinen unraidserver findest.

     

     

    5 hours ago, Cramp4600 said:

    Meinst du damit das noch andere Hardware kaputt gehen kann wie der Cache oder das MB oder eher Fehler die mit den Daten passieren können?

     

    Ich meine damit alles. Es gibt immer einen Vektor/Richtung die die Ausfallsicherheit kompromittieren kann.

    Ich sehe schon die Idee mit 2 Parity auf 4 Datenfestplatten (also ein Verhältnis von 1:2) für Daten im Privatbereich nur wegen der Ausfallsicherheit als ... etwas viel an.

    Ich habe auch 2 Parityfestplatten, aber die sichern dann auch aktuell 24 und später 28 Datenfestplatten im Array ab.

     

    Wenn man bei so wenigen Datenfestplatten eine Parity für die Ausfallsicherheit und dazu noch halbwegs aktuelle Backups hat und die auch ab und zu auf Korrektheit prüft, ist das schon viel und im Privatbereich überwiegend ausreichend.

     

    Ich bin nicht allwissend, aber kann mir eben nicht vorstellen, welche unwiederbringlichen privaten Daten da drauf sein könnten, die eine so hohe Ausfallsicherheit benötigen, daß man es nicht verschmerzen kann, daß beispielsweise das einizige Video der Geburt/Hochzeit/Kindergeburtstag nicht 24/7 jede Skeunde zu sofort aufrufbereit vorhanden sein muß.

    Das ein Einspielen eines Backups ein bisschen Zeit in Anspruch nimmt ist mir klar, aber welcher Schaden entsteht im Privatbereich, wenn man mal einen Tag lang nicht auf diese Daten zugreifen kann, weil man gerade eine 20TB Festplatte wieder einspielt?

     

    Okay, wenn man da in irgendeiner Weise berufliches drauf hat und ein Ausfall des Systemes dennoch die Bezahlung einer 30 köpfigen Mannschaft beim Däumchendrehen nach sich zieht, dann macht es Sinn.

    Auch wenn die komplette Steuerung und Kontrolle des Beatmungsgerätes der Oma im Haus dran hängt: kann macht es Sinn.

     

    Wenn aber nur das eine oder andere Blockbustervideo oder Spieleimage drauf liegt und ein Ausfall nicht gleich eine Raserei nach sich zieht, in der der wutentbrannte Betrachter mit einer Axt durch die Bude rennt und alles umhaut, was in 2m Entfernung ist, dann ist es doch ein recht hohes Bedürfnis an Ausfallsicherheit/Dauerbetriebsfähigkeit.

     

    5 hours ago, Cramp4600 said:

    Ja genau das ist der Punkt wo fängt man an und wo hört man auf weil es die kosten sprengt.

     

    Vielleicht sollte man im Auge behalten, welche Kosten durch einen temporären Ausfall entstehen.

    Wie gesagt: wenn in der Firma dann eine mehrköpfige Manschaft Däumchen dreht und man denen dennoch pro Person ihren Lohn von xx Euro pro Stunde bezahlen muß: dann ist es sehr sinnvoll eine extrem hohe Ausfallsicherheit einzuplanen und zusätzlich ein mehrstufiges und ggf. sogar extarn geloagertes Backupkonzept umzusetzen. Dann wiegen die Kosten im Ausfalll-falle die Kosten für den Aufwand rechnerisch schnell auf.

     

    Im Privatumfeld hingegen sind die Kosten für den nicht mehr vorhanden Betrieb (wegen Ausfall) dann doch eher überschaubar.

    Wenn man da für Kumpels kostenlos mit plext oder einen Gameserver betreibt, dann haben die eben mal Pech. Die werden daran nicht sterben.

    Wenn man im Haus den Ausfall hat sinkt zwar die Laune der Mitbewohner, aber das ist dann Schicksal.

    Dann gehen die eben raus Federballspielen, spazieren oder hängen mit den 'Bros' ab.

     

    5 hours ago, Cramp4600 said:

    Unraid hängt bei mir an einer USV

     

    Die (normale batteriebetrtiebene) USV hilft Dir im Zusammenhang mit dem gewünschten Dauerbetrieb nur bei kurzzeitigem Ausfall. Solange Du da nicht noch ein Dieselaggregat mit großem Tank oder so hast, wird ein längerfristiger Ausfall schon den Serverbetrieb beinträchtigen.

    https://de.wikipedia.org/wiki/Münsterländer_Schneechaos#Stromausfall

    Die USV wirkt zwar auch bei eben einem kurzen Stromausfall mit (stellt aber auch wieder einen Single Point of Failure dar), ist aber eigentlich eher für die Datensicherheit und nicht die Ausfallsicherheit gedacht.

    Mit einer USV wird bei einem Stromausfall über einen längeren Zeitraum bewirkt, daß unraid in einen definierten Zustand herunter fahren kann, weil Daten im RAM sonst bei spontanem Ausfall verloren gehen. Das ist eben dem Design geschuldet, daß unraid auf Linux aufbaut und Linux (per deflaut) vieles im Ram behält und dies ggf. erst nach einiger Zeit irgendwohin schreibt. Und genau dafür ist RAM ja auch da.

     

    Und da ich es oben erwähnte, wenn Du den USV Single Point of Failure umgehen willst, brauchst Du eine Server PSU, welche mit 2 oder 3 redundanten Netzteilen über unterschiedliche Stromwege betrieben wird. Dann kan eien USV in einem Stromweg helfen, bis beispielsweise die Notstromversorgung eines anderen Stromweges angesprungen ist.

     

    5 hours ago, Cramp4600 said:

    und eine Überspannungsschutz

     

    Auch hier, was im normalen Haushalt so Uberspannungsschutz genannt wird ist eher für kleinste Spannungsspitzen. und da muß man auch meist etwas weiter denken. Was ist, wenn eine hohe Überspannung auf einem anderen als dem 230V Hausnetzwege zum Computer kommt? LAN per Kupfer hat zwar ein paar "Spannungsabfangende" Bauteile in den Netzwerkanschlüssen, aber bei einem höheren Energiegehalt der Überspannung ist das auch zu überbrücken.

    Und was ist mit angeschlossenen Monitoren und deren Signalwegen oder so?

     

    5 hours ago, Cramp4600 said:

    des weiteren backuppe ich alles wichtige auf einen externen Server.

     

    Wofür im Privatumfeld dann die zweite Parity im Array mit nur 4 Datenfestplatten?

     

    Du kannst machen, was Du willst, aber eine zweite Parityfestplatte schützt nur gegen Festplattenausfall von eben maximal 2 Festplatten im Array.

    Wenn Du Dein System gesamt Ausfallsicher machen willst, mußt Du weit mehr betrachten als nur die 'drehenden Eisen'.

    Sollte es Dir hingegen gar nicht um die Ausfallsicherheit des unraidservers gehen, sondern nur um Datensicherheit, tja, dann ist eben ein geeignetes Backupkonzept viel sinnvoller als die Speicherkapazität/Geld in eine 2. Parity zu stecken.

     

     

    Wobei ich der Fairneß halber nicht verschweigen will, daß ich auch da etwas extremer unterwegs bin.

    Meine mir wichtigen Daten liegen auf Raid6 (aber mit mindestens ca. 10 Festplatten pro Raidverbund), mein großes unraidsysteme hat auch 2 Parity (aber eben für weit mehr Datenfestplatten) und ich habe von (fast) jeder Festplattengröße mindestens eine Coldspare im Regal liegen, um auch über Wochenenden/Feiertage /etc... Probleme ausbügeln zu können.

    Aber mein Ziel ist eben die Datensicherheit. Ob das eine oder andere System mal ein paar Tage/Wochen offline ist  ist kein Problem für mich. Hauptsache die Daten überleben.

    Beispielsweise hat mein großes unraidsystem schon seit Anfang Dezember '23 einen Ausfall von 20 der 26 Festplatten (wg. den SAS Kontroller). Das Array ist also eigentlich seit fast 1/2 Jahr tot.

    Stört es mich: ja.

    Ist es wirklich relevant: nein, da ich die Daten eben auch auf mehreren Systemen noch wo anders habe und bisher keine Zeit/Lust aufkam das Thema neu anzugehen.

    Ausfallsicherheit ist bei mir zwar wichtig aber nicht so relevant.

    Datensicherheit ist mir hingegen extrem wichtig.

  13. 4 hours ago, Cramp4600 said:

    Also ist meine beste Möglichkeit für mehr Performance alles zuerst auf den Cache zu schreiben.

     

    Ja, und genau das ist ja auch der Grund dem Array einen Pool mit SSD(s) vorzuschalten

    Die Parity bei einem Array mit mehr als 2 Festplatten bremst eben.

     

    4 hours ago, Cramp4600 said:

    Und dann bei Gelegenheit noch eine zweite Parity einzubauen das ich da auch auf der sicheren Seite bin.

     

    Naja, Du bist mit 2 Paritydatenträgern sicher gegen den Ausfall von maximal 2 Datenträgern im Array.

    Wenn das die gesuchte (Ausfall)Sicherheit ist: ja.

    Gegen so gut wie (fast) alles andere was passieren kann bist Du damit nicht sicher.

     

    4 hours ago, Cramp4600 said:

    Aber wenn ich es richtig verstanden habe habe ich keine Absicherung gegen Bit Rot oder?

     

    unraid selber kann BitRot nicht erkennen oder gar beheben. Es gibt ein FileIntegrity Plugin, welches ich aber nach Tests nicht mehr einsetze. Ich setze auf halbautomatisch (über ein Windowssystem) erzeugte Checksummen um in späteren Prüfläufen zu erkennen ob da etwas nicht mehr stimmt.

     

    4 hours ago, Cramp4600 said:

    Deswegen gehe ich monatlich alle Platten mit File Integrity durch ich hoffe das ist sinnvoll.

     

    Wenn es Dir das bringt, was Du willst: okay.

     

    4 hours ago, Cramp4600 said:

    Sorry für die ganzen Fragen aber ich will um jeden Preis eine Datenverlust durch falsch Konfiguration vermeiden.

     

    Naja, "um jeden Preis" ist eine vielleicht doch sehr teure Sache.

    Aber dann wird es wohl Zeit für diverse gespiegelte Systeme auf der Welt.

  14. 22 minutes ago, Tremendous said:

    Aktuell habe ich eingestellt, dass mind. 100 GB frei bleiben pro Disk:

    grafik.png.c019a196a573e08e2038da54e52c5c13.png

     

    Ist zwar eine Share Einstellung, aber ja, die wirkt sich auch auf die zugeordneten (bzw. nicht ausgeschlossenen) Disks aus.

     

     

    22 minutes ago, Tremendous said:

    Bleibt dies bei diesen EInstellungen ebenfalls der Fall oder gelten die 100 GB nun für min. free auf dem Cache?

     

    Ich gebe zu, ich verstehe die Frage nicht so ganz, aber die oben gemachte EInstellung betrifft nur das Array.

    Für Pools (SSDs) kannst (und solltest) Du extra nochmal einen Minimum free Space einstellen.

     

     

    22 minutes ago, Tremendous said:

    Wenn ich nun zB 300 GB an Daten hochlade, erkennen die Docker dann dass sie im Array landen werden und ihnen ist es egal dass der Mover nocht nicht gelaufen ist? Oder muss ich vorher zwingend die Dateien verschieben lassen?

     

    Wenn Du Daten von außen beispielsweise per SMB hoch lädst hat ein Docker damit nichts zu tun.

    Wenn Du eine 300GB große Datei hoch lädst bekommst Du bei der Einstellung ein Problem.

    Der Minimun Free Space sollte immer größer sein, als die jemand zu schreibende Datei.

     

    Wenn Du hingegen viele kleinere Dateien hoch lädst, die in Summe 300GB haben, dann wird unraid so lange den Pool/SSD beschreiben, bis eben die 100GB unterschritten werden. die nächsten ganzen Dateien werden dann (wenn man de nicht irgendetwas falsch eingestellt hat) nicht mehr in den Pool, sondern in das Array direkt geschrieben.

     

    22 minutes ago, Tremendous said:

    Daneben würde ich gerne eine weitere Datenquelle für Plex als nur das Array verwenden.

     

    Plexeinstellungen sind nicht so mein Ding. Ich plexe nicht.

     

    22 minutes ago, Tremendous said:

    Eigentlich will ich eine SSD dazu haben wo nur mp3s drauf sind damit Abends nicht die Disks dafür anspringen. Ist es überhaupt möglich mehr als eine Datenquelle oder Share für Docker zu konfigurieren?

     

    Was Du in einem Plex Container einstellen kannst, weiß ich nicht.

    Das Docker Image ist immer nur auf einem Laufwerk.

    Man kann Docker auch nicht im Image, sondern in einem Verzeichnis laufen lassen, aber auch das liegt eigentlich auf einem Laufwerk (das aber vielleicht auch zum Teil von dem Pool in das Array rüber schwappen kann).

     

    Aber eigentlich ist es ja so, daß die Container für Docker sehr klein/schlank sind und somit der Dockerkrempel kaum Platz bedarf.

    Aber Du kannst den Containern (mit vielleicht 2 GB Platzbedarf) ja Zugriff auf diverse Shares geben, doe dann einige hundert TB groß sind. Und diese müssen ja auch nicht unbedingt Shares sein, die auf physikalische festplatten verweisen, sondern können auch auf physikalischen SSD liegen, die vielleicht permanent auf einem extra Pool liegen.

     

  15. 3 hours ago, Mofarocker33 said:

    Nun ist mir aufgefallen, das der Mover überhaupt nichts mehr tut.
     

    Apr 26 09:35:48 Mofa-NAS emhttpd: shcmd (98): /usr/local/sbin/mover |& logger -t move &

    Zudem kann ich direkt wieder unter Main erneut auf Move klicken.

     

    Was ist denn auf den SSDs/Pool drauf, was Du gemoved haben willst?

    Nutzdaten oder Systemshares?

  16. 2 hours ago, hm28 said:

    Angenommen, mein NAS läuft 24/7 und die Platten sind gerade im Spindown. Ich nutze Infuse als Mediaplayer. Dieser sendet, sobald die App auf den Share zugreift (zum indexen), ein WOL Paket an meinen aktuellen NAS um diesen zu starten. 

    Würde so ein Paket die Platten im Unraid System aktivieren? Kann man das pauschal beantworten?

     

    Ich verstehe nicht, was das bewirken soll.

    Dein NAS läuft 24/7. Die Platten schlafen.

    Dein Mediaplayer will eine Datei abrufen die im Array auf den schlafenden Platten liegt.

    unraid erkennt das und weckt die notwendige Platte(n) selbstständig auf (Spinup Time 20-30 Sekunden).

     

    Was soll da noch zusätzlich ein WOL  oder sonst etwas machen? Selbst wenn ein beliebiger PC/NAS mit schlafenden Festplatten da wäre und der komplett per WOL geweckst wird würde das auch nicht schneller sein, weil auch da die Festplatten hochdrehen müssen.

     

    Was ist der gedankliche Hintergrund, wenn ein Player auf einen 24/7 laufenden NAS mit Spindown Festplatten zugreift?

     

    Das NAS erkennt das ja sowieso (weil es ja läuft) und spinnt die Platten hoch.

    Der Player muß nur eben damit klar kommen, daß er mal ab und zu 20-30 Sekunden Wartezeit hat.

  17. 6 hours ago, d1ck13 said:

    ich nutze seit mehreren Jahren einen Swissbit SFU3016GC2AE2TO-I-GE-1AP-STD. Dabei handelt es sich um pSLC Speicher.

    Der Jetflash 600 macht aber auch kein schlechten Eindruck für das Geld. 

     

    Naja, ich erwähnte mit Absicht auch den Preis, weil mir ca. 80 Euro für einen 16GB USB Stick dann doch zu teuer ist.  💸 💰

    https://www.mouser.de/ProductDetail/Swissbit/SFU3016GC2AE2TO-I-GE-1AP-STD?qs=vmHwEFxEFR95u3MYVVd1Ag%3D%3D

  18. 1 hour ago, EL-Diablo said:

    Ich nutze Transcend JetFlash 280T 3D NAND an USB 2.0 Port

     

    Heute üblicher Flashspeicher in USB Sticks ist eigentlich immer NAND.  (Es gibt zar auch USB Sticks, die sich der Techniken von SSD bedienen, aber der Speicher selber ist eigentlich gleich, nur schneller oder wird verschachtelt (mehrere Module) angesprochen.

     

    https://de.transcend-info.com/embedded/product/embedded-flash-solutions/jetflash-280t

    "3k P/E"

      damit ist das wohl TLC Speicher (3Bit pro Zelle) den die mit "3D NAND" soweit verklausulieren, daß wohl nicht auffallen soll, wenn es eben doch einfach TLC sein dürfte. Da hat die Marketingabteilung und nicht die Techniker formuliert.

    Das ist nicht abwertend gemeint. Bei (nicht gerade den Billigsten Exemplaren von) USB Sticks sehe ich Transcend eigentlich als einen guten Hersteller an und das ist bestimmt ein guter USB Stick.

     

    https://www.kingston.com/de/blog/pc-performance/difference-between-slc-mlc-tlc-3d-nand

    MLC wird eigentlich mit ca. 3fach so hoher Lebensdauer als TLC angesehen (10k P/E).

     

    3D NAND hat da nun wieder eine Verbesserung der Lebensdauer von einfachem TLC geschaffen, aber ob das dann wieder bei ca. 10k P/E ist kann ich nirgendwo sehen.

    Und ich befürchte (ohne es eben zu finden) daß es dann irgendwo zwischen TLC und MLC liegt. Selbst Transcend schreibt ja eben von 3k P/E.

     

    Leider gibt es auf dem Markt in den Preis-/Kapazitätsregionen (meines Wissens) keine SLC USB Sticks (mehr).

  19. 3 hours ago, Letztfetz1 said:

    Empfehle mit einen sicheren Stick und ich versuche es noch einmal. Das Image zu kopieren ist nicht das Problem. 

     

    Transcend Jetflash 600 sollten wegen des verbauten MLCspeichers allgemein länger halten.

    Die Transcend JetFlash 780 sollen ebenfalls MLC haben, sind aber USB 3.0. Die kann man aber mit Kabelpeitsche, Y-Adapter oder eben an einem USB2.0 Port auch zu USB 2.0 überreden (was stromsparender ist).

     

  20. 3 hours ago, Letztfetz1 said:

    Der 2te ist ein USB2 , hatte das mit dem USB3 zu spät gelesen. Der erste ist ein Intenso, der zweite ein noName.

     

    Intenso - da muß man nicht mehr viel sagen.

    Hast wenigstens Glück, daß unraid sich darauf installieren läßt und Du nicht eine der Serien erwischt hast, die alle mit der selben Nummer versehen sind.

    Wenn dann ein Kunde damit unraid nutzt, werden alle anderen Sticks geblacklistet.

  21. 55 minutes ago, Cramp4600 said:

    Als Festplatten benutze ich 5-mal die Seagate Exos X20 20 TB

    1 als Parität, die anderen 4 als Datenträger mit ZFS verschlüsselt.

    Für den Cache benutze ich 2-mal Samsung SSD 980 PRO 2 TB im Modus Spiegeln und auch mit ZFS verschlüsselt.

    Ich verschiebe die Dateien aus Freigabe A mit Cache auf Freigabe B ohne Cache-Unterstützung.

    Zum Anfang habe ich auch noch die volle Übertragungsgeschwindigkeit, aber nach kurzer Zeit bricht diese deutlich ein. Ich habe bereits TurboWrite installiert und das hat auch etwas Verbesserung gebracht. Aber irgendwas scheint die Übertragung auszubremsen.

     

     

    Interpretiere ich Deien Aussage richtig:

    Du liest ein großes Videofile vom Array und schreibst es gleichzeitid in einen Share des selben Array ohne, daß dieses Zielshare einen SSD Cache hat?

     

    Mit Turbowrite hast Du es zwar etwas beschleunigt, aber dennoch muß nun (schlimmstenfalls von der gleichen Festplatte) lesen und pufferst dann den Schreibvorgang nicht mit einem Pool/SSD ab.

    Das bremst eben.

    Mir erscheienn die unter 30MByte/s zwar auch eher gering, aber falls die festplatten schon gut gefüllt sind erreichen die selbst alleinig lesend nicht unbedingtt ihre Spitzenwerte von 280MByte/s, sondern eher 130 MByte/s (im langsamen Innenbereich). Dazu dann eben noch lesen und schreiben gleichzeitig mit ständiger Kopfneupositionierung.

     

    Ich würde an deiner Stelle schreibend einen flotten SSD cache zwischenschalten.

×
×
  • Create New...