Jump to content

Ford Prefect

Members
  • Posts

    4,314
  • Joined

  • Last visited

  • Days Won

    10

Everything posted by Ford Prefect

  1. Keine Sorge, das wird so gut laufen dass Du diese Dinge bis zum nächsten Mal, wo Du sie wieder brauchst, schon wieder vergessen hast 🤣 Weiterhin viel Erfolg!
  2. ...unter welchem OS? Realtek-NICs und Linux sind schon immer keine besten Freunde gewesen. Da gab es viel Frust, zumal Realtek wohl auch an OEMs (MB- und NIC-Hersteller) verschiedene Chip-Varianten mit gleichem Label/Namen/Modell/Typ liefert (wenn ich das mal laienhaft ausdrücke, hoffe ihr versteht was ich meine). 2.5G ist mMn eine Brückentechnologie....10G sind heute auch zuhause machbar....selbst über cat5e Kabel.
  3. ...with introduction of native ZFS support and HDD /SSD sizes (cost/TB) still decreasing, the concept of using the array as "cold" data store and pools as "hot+fast" data store gets more and more appealing. Using shares on a pool is only possible with setting the named pool as a cache pool for these particular shares. However, with the concept of a "hot+fast" data store in mind, the actual caching concept is not applicable to pools themselves. Proposition: introduce a concept to distinguish pools into type "data" and type "cache" types of pools. add a feature to allow shares to be defined on pools of type "data" allow pools of type "cache" as cache for shares, regardless of where these are declared for (array or type "data" pools) ...hence allowing cascading pools (a data type pool can have a cache pool, similar to the array).
  4. ...Review vom Januar...hört sich aber nicht besonders an...kein DRAM Cache usw: https://www.tomshardware.com/reviews/kingston-nv2-ssd ...da war die 4TB Version wohl noch nicht verfügbar, aber ich denke die NV2 Modelle sind von der Bauart ident. Edit: Oh, es scheint Chargen mit QLC- und TLC-NANDs im selben Modell zu geben, ebenso mit variierenden Controllern verbaut. -> man weiss nie was man kriegt 😞 ...berichte doch mal wie die so laufen, zB wenn mit dem Mover mal ein Terrabytechen Dateien hin- und hergeschoben wird
  5. ...kein Wunder das HDDs im Absatz einbrechen und Toshiba vor dem Aus steht, was man so hört.
  6. @Lucascoco Als Ergänzung: das gilt *nicht* für "Clients", die ein unraid-Docker auf der custom.bridge (zB br0.10 für VLN-10) mit eigener IP sind. Grundsätzlich können/sollen Docker nicht auf den unraid Host per IP zugreifen (können). Das gilt dann auch im (V)LAN. Ist kein VLAN "Problem", sondern ein grundsätzliches "Feature" von Unraid/Dockern. Wobei Zugriff auf Shares mit Dockern ja sowieso nicht über SMB gebaut wird . Das Thema ist also generell, was IP-Traffic betrifft relevant. Ich vermute Deine Router/Firewall hat für Inter-VLAN Routing zu wenig "Bumms", oder was ist Dein Use-Case ? Mit dem "richtigen" Switch geht das auch im Switch, vor dem Router/Firewall mit Wire-Speed....der braucht halt L3-Hardware-Beschleunigung und die richtige Konfiguration.
  7. Wieso nicht? Was genau hast Du gemacht...oder was nicht? Nach dem "installieren" von Disks taucht ein zpool da drauf ja nicht automagisch im System auf. Das ist kein unraid spezfisches Problem, sondern man muss schon - in v6.12(rcX) sowieso (noch) - für vieles das CLI verwenden. ...der Befehl "zpool import" ist Dir bekannt -> https://openzfs.github.io/openzfs-docs/man/8/zpool-import.8.html ??
  8. Nein, diese direkte Möglichkeit besteht nicht. Andersherum, weiss Ich nicht, was der SAMBA/SMBd macht, wenn Du dem unraid-Host im VLANx keine eigene iP gibst...dann sollte der Service auch nicht in dem Segment erreichbar sein - habe ich aber noch nicht probiert. Das ist genau das Gegenteil zu Deiner Einstiegsfrage. Gib dem unraid Host auch eine IP im VLAN, dann sind Clients aus dem VLAN direkt, ohne inter-VLAN Routing und Firewall in der Lage drauf zuzugreifen
  9. Wenn Du die Daten alle eh auf dem Array hast, kann Dir ja nicht viel passieren. Du kannst dann in der v6.12 den unrad-pool (als zpool) einfach ganz neu mit Bordmitteln erstellen. Danach machst Du einfach "normal" weiter. Ich habe unter unraid auch shares, die nur auf einen unraid-pool (der ein zpool ist) Daten halten (und nicht auf dem Array)..das macht man eben mit den Cache Einstellungen im Share.
  10. Wieso bist Du auf die Fritz angewiesen? Bei Glasfaser brauchst Du ja kein DSL- oder Kabel-Modem. Auch bei Glasfaser sollte kein Router-Zwang bestehen...also auf eine Fritz oder einen "richtigen" Router umsteigen, der Wireguard unterstützt (da gibt es keine Probleme mit NAT) Dann kannst Du eben über/zu einen VPS (der ne öffentliche ipv4 hat) einen Tunnel aufbauen. Alle verbinden sich dann auf den VPS (zum Wireguard-"Server", wobei das irreführend ist...Wireguard ist ein Mesh). Der Tunnel wird von Deinem Glasfaser-Anschluss aus initiiert, da spielt es keine Rolle ob die IP öffentlich ist, oder nicht. Sobald der Tunnel steht, ist die Verbindung bidirektional.
  11. Nö, eigentlich nicht...es sei denn Du hast die Disks einfach physisch ausgetauscht und unraid will jetzt einen Rebuild der alten Disk auf die neue Disk machen. Es gibt keinen "Downgrade" in einem Schritt Das musst Du in zwei Schrittfolgen, nacheinander machen. die alte DIsk aus dem Array entfernen: https://wiki.unraid.net/Manual/Storage_Management#Removing_data_disk.28s.29 Das Array wird also erstmal verkleinert die neue Disk ins Array aufnehmen: https://wiki.unraid.net/Manual/Storage_Management#Data_Disks Das Array wird wieder vergössert ...bei beiden Schritten wird ein Parity Rebuild gemacht....den ersten kannst Du vermeiden, indem Du als erstes (Schritt 0) die Parity aus dem Array entfernst und dann (Schritt 3) wieder hinzufügst....hast Du Backups?
  12. ...ist was für Weicheier, selbst ChatGPT weiss das nicht <vorsicht Ironie> 🙃
  13. Plan B -> schallgedämmtes Gehäuse und die HDDs im Käfig schön entkoppeln. Edit: Plan C -> Renderer im WoZi und unraid mit HDDs für medien woanders...wofür hat man denn schliesslich Ethernet?
  14. ...da hast Du Glück, dass dieser Docker eine Shell drin hat und auch einen vi. Aber beim nächsten Mal frag einfach ChatGPT sofort
  15. ...ich kenne diesen konkreten Docker nicht, aber die Daten/Dateien, welche einen Container-Restart überleben, liegen auf dem unraid Host alle unterhalb /mnt/user/appdata/<dein Docker>/ Also ein CLI-Terminal (oben rechts im UI das ">_" icon) öffnen...ins Docker Verzeichnis "/mnt/user/appdata/nextcloud-aio-nextcloud" (falls der so lautet, steht im Tempkate) wechseln und mal schauen, welche Ordner und Dateien da zu rumfliegen. Dann kannst Du den Editor auf die Datei(en) loslassen
  16. ..viel braucht es nicht...einen VLAN fähigen Router/Firewall und Switch....damit zB kann alles anfangen...nach oben kaum Grenzen ... beide Router haben das gleiche OS, nur unterschiedlich "Bumms" und Ports...natürlich gibt es auch Switche wenn es mehr Ports im Haus zu verteilen gilt....alles VLAN fähig.
  17. ...diese Art von Problem ist letztlich immer ein Routingeintrag, "irgendwo"...oder eben NAT als Ursache. Aber Glaskugeln sind halt leider auch keine grosse Hilfe ...aber gut, dass Du das jetzt gelöst hast.
  18. Also ja, das geht., Aber... Bitte gedanklich mal unraid-pool Konzept und ZFS-Pool Konzept (zpool) trennen. In unraid gibt es Pools, die als "Cache" für Shares im Array dienen können..die sitzen quasi vor dem Array. Mit den Cache EInstellungen des Shares, kann man beeinflussen wie Daten zwischen Array und Pool "wandern" können. Das auf dem unraid-pool verwendete Datei-System ist für dieses Konzept egal und frei wählbar. Je nach Unterstützung des Dateisystems für den unraid-pool sind eben auch "normale" Software-Raid Level möglich....mit ZFS auch ZFS-Raid-Level. In ZFS heisst die oberste Ebene einer Storage-Struktur auf "pool" (zpool)....aber das ist nicht dasselbe wie ein unRaid-Pool...wenn Du also "nur" von eienm pool sprichst ist nict immer klar welche "Sorte" Du meinst...zpool oder unraud-pool. Ein zpool kann eben auch ein unraid-pool sein, nicht umgekehrt. Ja...wenn aber Datenzugriff ist, laufen immer alle vdevs im zpool hoch. Der unraid-Pool kann Cache für das Array sein, nicht für einen anderen unraid-Pool. Ja, letzteres. Das pool Konzept dient dem (write-)Cache des Array...das ist das Konzept...es ist kein generelles Caching-Konzept. Also kannst Du keine unraid-pools kaskadieren...egal welches Dateisystem/raid-Level dabei unterliegend zum Einsatz kommt.
  19. Wofür brauchst Du das Plugin...ich habe mit USB Geräten leider keine Erfahrung, aber das Plugiin, welches ich finde, ist für VMs...Du willst Docker. Wie schleifst Du die CAM #1 denn durch?...analog zum 3D-Drucker? Da sind doch alle USB-Geräte am gleichen, einen USB-Controller, oder sehe ich das falsch? Hast Du nur diesen einen Controller im System? Kannst Du einen anderen nachrüsten/ausprobieren?
  20. Naja, genau genommen nicht...ZFS im Array ist wie BTRFS iim Array...jede Daten-Dsk ist ein eigner zfs-pool mit je einer vdev. Du willst die HDDs, die vorher am Raid-Contrller waren als zfs-pool nutzen und für raidzX geht das nur in einem unraid-pool. Da die HDDs am Controller nie schliefen ist das Thema Energiesparen bisher egal gewesen... Ja, kannst Du so machen. Allerdings die SSD als Cache für diesen raidzX zpool verwenden geht nicht, da der zpool in unraid ein unraid-pool ist....genau wie die SSD...kaskadierende (unraid-/cache-)Pools gehen nicht.
  21. Wie genau machst Du das? Ein Laptop aus dem I-Net auf Dein Heimnetz...wo sitzt da der Wireguard Peer im lokalen Netz (unraid, 172.17.225,xxx) - auf dem unraid Server oder dem Router? Wieso soll das denn kein Problem sein? Der Server (die Server 2019 VM) ist doch wohl im lokalen unraid Netz...also wieso glaubst Du, dass der das Netz auf der anderen Seite erreichen kann? Du sagst ja nichts dazu, wie die Netzkopplung zwischen den Standorten aufgebaut ist 😉 Was genau willst Du damit sagen? Verzeihung, aber es ist nicht klar welches Szenario Du da beschreibst....meinst Du während Du über wireguard mit dem unraid Netz verbunden bist kannst Du von diesem Client aus das entfernte Netz erreichen? Siehe oben...wie ist der Aufbau?...wireguard ist ein mesh Netzwerk. Ursachen/Gründe des Phänomens können zahlreiche sein. Du musst bitte etwas genauer sein, wie das bei Dir aufgebaut ist.
  22. Ja, genau sowas hatte ich gedacht. Mit v612(rc*) kannst Du den pool ja importieren. Also...Lass das Array wie es ist, nimm den zpool als unraid-pool....definiere die shares, die Du auf dem Performance zpool willst in unraid, nun stelle den unraid-pool=zpool als Cache für diese Shares ein (Modus prefer oder only, damit Daten nur auf dem zpool landen/genutzt werden und nicht im Array). Fertsch.
  23. Naja, also eigentlich ja...aber da solltest Du nochmal rekapitulieren, warum unraid eben unraid heisst -> Jede Daten Disk im Array ist einzeln mit einem Dateisystem (XFS, BTRFS, ZFS, ...) formatiert, es gibt kein klassisches Raid, kein striping, Jede Datei ist daher immer vollständig, nur auf einer Disk zu finden. Es gibt 1x oder 2x Parity im Array. Wenn Du nun 1x Parity- und 5x Daten-Disks fürs Array nimmst und für die Daten-DIsks ZFS, ist das trotzdem kein raidz1, selbst wenn alle Disks gleich gross sind (was sie in unraid ja nicht sein müssen)...und Du kannst eben bis zu 28 Daten-Disks ins Array nehmen (Pro-Lizenz). Bei Verwendung von einem copy-on-write FS kann dieser Mechanismus bei nur einer DIsks so aber nicht ganz funktionieren....ein Fehler wird detektiert, aber nicht im FS geheilt, wie in einem raidz1....der Fehler sorgt dafür, dass Du weisst in welcher Disks der Fehler eingetreten ist und die Parity springt dann auch ein....aber copy-on-write ist das nicht mehr. Anders ist/wäre es in einem unraid-Pool, wofür Du einen "echten" zpool nutzen kannst (die Disks können da auch schlafen, aber anders als im Array schlafen/laufen immer alle zum Zeitpunkt X). Dafür hat Du keine Performance-Penalty und bei einem zpool auch potentiell höhere Performance.....im Array ist das eben anders, dafür energiesparender. Da muss man ein wenig überlegen, welcher UseCase wie angegangen werden soll.
×
×
  • Create New...