Ford Prefect

Members
  • Posts

    4143
  • Joined

  • Last visited

  • Days Won

    10

Ford Prefect last won the day on May 20

Ford Prefect had the most liked content!

Converted

  • Gender
    Undisclosed
  • Personal Text
    Don't Panic!

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

Ford Prefect's Achievements

Experienced

Experienced (11/14)

593

Reputation

31

Community Answers

  1. Nein. Es ist komplizierter. Parity Disk(s) sind nicht formatiert. Daten da drauf sind auf Block-Level gespeichert. Die 1. Parity (P) enthält den XOR Wert der Daten-Disks im Array....die 2. Parity (Q) enthält einen Reed-Solomon-Code Dual-Parity entspricht, was das angeht also einem Raid6 (ohne striping in den Daten-Disks). Mit Dual-Parity kannst Du die Daten-Disks nicht neu "mischen" ohne Parity neu bauen zu müssen... Das ist aber nicht Dein Problem - wenn Dich das weiter interessiert, muss man hier ein bisschen suchen, die Info ist verstreut - Dein Problem, so habe ich verstanden, ist das eine Daten-Disk aktuell defekt ist und also durch Parity emuliert wird ...und Du kein Backup der Daten von der Disk hast. siehe oben...eine Daten DIsk des TE ist defekt...Parity-Konfig zu verändern würde die Daten "vernichten".
  2. Macht ja keinen Sinn, da eine Parity eine und zwei Parity zwei Ausfälle von Datendisks verkraften muss...die zwei Parities sind also nie identisch
  3. Nimm die zweite 8TB als unassigend device und kopiere die Daten der defekten DIsk da drauf (wird ja noch über Parity emuliert). Damit hast Du ein Backup und kannst das Array umbauen (defekte Datendisk raus, 4TB Parity raus, ...)
  4. Nein, eine der 8TB hat evtl. einen/zwei Block/Blöcke mehr...kann an der Firmware liegen oder evtl. war eine schonmal vorher irgendwo eingebaut und wurde verändert, oder die beiden 8TB hängen an unterschiedlichen Controllern (zB eine an USB, die andere an SATA)? Edit: Sorry, falsch gelesen...du hast mit der ersten 8TB nicht die Parity ersetzt, sondern diese hinzugefügt. Ja, dann ist die 4TB Parity das "Problem".
  5. ...man soll halt ein NAS nicht zum Router / Edge im Netz machen.
  6. Wiregurad an sich braucht davon (icmp) nix um zu funktionieren/einen Tunnel aufzubauen, aber ich kenne die Implementierung im unraid Plugin/Docker nicht. Steht der Tunnel einmal braucht man auch kein icmp/ping zum Endpoint (Fritz, Router)...das keep-alive der peers untereinander hat damit auch nix zu tun. Ja, zwei Peers können jeweils die andere Seite als Endpoint konfiguriert haben, ohne Konflikte. Aber es reicht, wenn eine Seite die Verbindung aufbaut (den Endpoint konfiguriert hat)...der Tunnel selbst ist dann bidirektional.
  7. unraid spezifisch kann ich nicht helfen, da ich WG im externen Router nutze....klar geht Site 2 Site mit WG, aber das Routing muss stimmen, Bedenke/beachte: Der Endpoint auf der anderen Seite des Peers ist die externe IP WG ist ein Mesh....alle WG-Peers nutzen am WG-Interface ein Transfer-Netz, zb 10.10.10.0/24 Die IPs aus diesem Netz werden auf den jeweils lokalen Seiten im Routing als Gateways genutzt. Aber, sobald der Tunnel steht, können zwei Systeme auf der jeweils anderen Seite/Site nur kommunizieren/Services aufrufen (wie zB das unraid UI), wenn das jeweils lokale IP-Netz unterschiedlich ist. beide Sites brauchen eine Route zum Netz auf der anderen Seite. Also zB: Server1 / Site1: 192.168.1.99 in 192.168.1.0/24 und Server2 / Site2: 192.168.2.99 in 192.168.2.0/24 WG1/Site1-IP: 10.10.10.11 und WG2/Site2-IP: 10.10.10.12 damit Route Site1 -> Site2: 192.168.2.0/24 GW 10.10.10.11 und Route Site2 -> Site1: 192.168.1.0/24 GW 10.10.10.12 ....hope it helps.
  8. ...naja, pauschal eigentlich nicht....ich denke den Knopf gibt es nur, wenn das S3-sleep Plugin installiert/aktiviert ist. Ja, Du sagtest ja, dass es bei Dir funktioniert. Wollte nur sicher sein, weil mache (W)LAN -Setups sowas auch verhindern könnten. Das sieht für mich jetzt nicht falsch aus...ausser evtl die erste Option: "Herunterfahren" ist eigentllich "OFF/S5" ... damit kann WoL auch funktionieren, aber evtl. je nach Mainboard nicht. Da gibt es doch auch andere Optionen ... probier mal S3/standby (weiss es nicht mehr auswendig). ....und ich nutze das Plugin schon eine Weile selbst nicht mehr. Evtl läuft es (noch) nicht richtig mit der neuesten unraid version?!?
  9. Wie machst Du das genau? Aus unraid OS oder einem anderen OS? ...ist das Handy dabei im lokalen Netz per WLAN oder meinst Du damit, dass es im I-Net ist und Dur von extern, zB über eine App und Helferlein am Router das WoL-Paket generierst? In beiden Szenarien kann es problematisch sein, je nach Setup (unabhängig von unraid)....daher frage ich, auch wenn Du sagst, dass es bei Dir funktioniert. Ja, nun...siehe meine erste Frage. Ich bin nicht überascht, dass es dann nicht (mehr) funktioniert. In der Netzwerkkarte muss das OS einen Flag setzen, bevor der System schlafen geschickt wird. Ob dieses Flag "gespeichert" bleibt hängt auich von der Hardware ab...bei einem on-board NIC würde ich schätzen, das dies nach einem kompletten Shutdown gelöscht ist. Wenn Du in kein OS bootest, dass dies macht muss es eben nicht funktionieren. Welche Einstellungen hast Du denn da verwendet? Bei manchen (zB Realtek) Karten ist es notwendig das Flag nochmal kurz vor dem sleep setzen zu lassen (dafür gibt es eine Konfig-Einstellung im Plugin, soweit ich mich erinnere). Normalerweise sieht man im Router, das eine Karte im WoL-Zustand auf 10M "verbunden" ist....manchmal sieht man es auch am Port der Karte selbst...muss aber nicht. Nehme aber mal an, da es bei Dir schonmal funktioniert hat, dass es dann sonst so der Fall wäre. Also dann ja, wenn aus, kein WoL aktiv.
  10. SATA-angebundene SSDs sind (im Array und auch mit "Rekonstruct Wrire / Turbo-Write") viel langsamer als eine PCIe-angebundene NVMe. Wenn Du ne Datenbank, zB für IOT/SmartHome nutzt und auch Docker würde ich trotzdem einen Pool (aus zwei, wg. Redundanz) NVMe machen...wer es einmal "genossen" hat, will es behalten. Alternativ NVMe auch ins Array, aber dann wird es noch teurer. Man kann ja damit starten....was Du da wohl investieren musst, ist eine Parity-HDD (wenn Du Parity willst). Zur Info: die bestehenden Disks bekommst Du ohne neu formatieren nicht ins Array/einen Pool eingebunden....just sayin' Setze Dir eine Budget-Grenze und schau dann, was reinpasst....mögliche Varianten findest Du ja genug
  11. Wireguard ist eigentlich ein Mesh....die Verbindung wird von der Seite ("Peer") aufgebaut, welche einen "Endpoint" konfiguriert hat. In der Sense kenne ich mich nicht aus. Evtl. gibt es zwei unterschiedliche "Module" oder Konfigs, eines als "Server" für RoadWarrior-Clients und eines für Client-Peers zu einem Server. Aber es muss bestimmt was geben, sonst könnte es ja nie eine s2s-Verbindung via WG zwischen zwei Sense-Sites geben
  12. Wenn ich das richtig gesehen habe, hast Du WG auf dem unraid installiert? Warum, wenn Du eine Sense hast...das würde die ganze Sache weniger kompliziert machen, oder?
  13. Ja, genau. Bei Deinem Bedarf an "Storage" kann man das gut mit 1xParity und 2xData zu je 4TB erfüllen und hätte noch 100% "Luft" (4TB) zu Deinem prognostizierten Bedarf....insofern - wenn die Anhame zutrifft - kommt man lange mit den 3 Disks aus, bevor man erweitern muss und bei 3 Disks wäre es quasi egal, ob diese Menge Storage im Array oder in einem Pool abgebildet wird (aber: den gleichen Pool erweitern geht nicht so leicht...im Array geht das eben ganz einfach). ...das ist dann genau der Punkt...wenn Du mal schnell eine Disk dazuschieben musst, brauchst Du mehr Ports und Platz zum Einbau und Dein "storage" sollte im Array sein., Damit finde ich Deine Analyse auch korrekt...keine SSDs und kein Tiny-PC. ...wollte nur sichergehen, dass Du die Optionen verstehst, damit die Investition in die von Dir gewünschte Richtung geht.
  14. Ja, das würde es im Prinzip bedeuten. Aber: im "klassichen/normalen unraid Array" liegt die maximale Performance bei der einer Disk, egal wie viele da drin sind...das gilt auch bei SSD only (kein striping). Im Prinzip ja, aber auch hier ein Aber: Im "unraid Array" gibt es kein Trim...daher wäre Plan B, bei "SSD-Only", als das "Storage" im Bereich des "Cache" bzw. Pool(s) ("Primary Storage") aufzubauen und das "klassische unraid array" ("secondary storage") nur mit einem kleinen USB-Stick (damit alle Dienste starten können, muss es ein unraid Array aus mindestens einer "Disk" - hier nur ein USB-Stick, weil das "Storage" sonst nicht dafür gebraucht wird) aufzubauen. P.S.: einen USB-Stick für das unraid-OS selbst brauchst Du ja auch noch Ja. Aber siehe meinen Post oben...ein Pool mit SATA-SSDs und ein Pool/Cache für "Laufzeitdaten" aus NMVe (oder auch mehr Pools) ist möglich. Ob man jetzt noch den NVMe-basioerten Pool auch als Cache für den SSD-basierten Pool einsetzt ist Geschmachsache (Edit oups, das geht ja - noch - garnicht, kaskadierende Pools). Yep...unraid ist sehr vielseitig und flexibel einsetzbar....vom Sockel-Typ hängt es aber nicht ab