Jump to content

mgutt

Moderators
  • Posts

    11,355
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. mgutt

    Welche Cache SSD?

    Ich sage nicht, dass sie schlecht ist, aber eine Evo ist wegen der Garantie der eindeutig bessere Deal, da ich bezweifle, dass hier jemand die TBW überhaupt knackt. Bedenke, dass der Cache bei Unraid deutlich weniger belastet wird als bei Qnap oder Syno. Da musst du schon den ganzen Tag dein NAS neu befüllen um eine Enterprise SSD zu rechtfertigen.
  2. Wenn der Tunnel steht, würde ich danach auf eine DDNS Domain umstellen, die IPv6 unterstützt und vom Unraid Server aktuell gehalten wird. Danach hinterlegt man bei 6tunnel diese Domain und fertig.
  3. mgutt

    Kaufberatung

    Ist die der Stromverbrauch wichtig? Bei 3 GPUs, AMD CPU, etc musst du mit >50W im Leerlauf rechnen. HDDs kämen noch dazu. Brauchst du 2.5G oder 10G LAN? Für Videoschnitt á la Davinci nicht zu gebrauchen. Das ist dir klar? Ein Hardware RAID ist nichts für Unraid. Unraid macht das per Software. Welcher Verwendungszweck schwebt dir hier vor? Das kannst du mit einer Consumer CPU vergessen. Das sind: 3x PCIe x4 für GPUs (stärkere GPUs sogar x8) 2x PCIe x4 für M.2 1 bis 2x PCIe x4 für SATA Karten So viele Lanes gibt es nur bei Server CPUs. Die einzige Lösung wäre ein Board mit 8x SATA, 2x M.2 und 3x PCIe x4. Das günstigste Board mit dieser Ausstattung ist denke ich das ASUS ROG Strix X570-F Gaming. Laut Anleitung hat das 2x x8, 1x x4 und 2x M.2 plus 8x SATA: Bedenke, dass du dann nichts mehr installieren kannst. 8x SATA ist dann für immer das Maximum. Und vom Prinzip geht das schon nicht, weil du ja auch rippen willst. Außer du schließt das Laufwerk über USB an. Bei Problemen hast du übrigens keine grafische Ausgabe vom Unraid Terminal. Dafür bräuchte Unraid auch noch eine GPU. Ein Threadripper, Epyc, Intel 2066 etc würde dir mehr Lanes bieten. Ist aber natürlich auch eine Budgetfrage.
  4. Jo Nein. Die Einstellung hat vom Prinzip nur Vorteile und keine Nachteile: https://wiki.archlinux.org/index.php/PCI_passthrough_via_OVMF
  5. Kannst du das näher erläutern? Ich hätte jetzt in NPM das Lets Encrypt Zertifikat ohne Cloudflare bestellt. Und danach auf Cloudflare umgestellt. Also warum genau willst du ein Zertifikat von Cloudflare verwenden? Und wie hast du das eingerichtet? Für mich sehen diese Fehler nach Login-Versuchen mit dem falschen Passwort aus. Also Bruteforce-Attacken (was normal ist, wenn man eine Seite öffentlich hostet). Die IP des eigentlichen Users siehst du nicht wegen dem Cloudflare Proxy. Bearbeite mal die nextcloud config.php und füge nach <?php das ein: var_dump($_SERVER); Beim Aufruf von Nextcloud während Cloudflare aktiv ist, solltest du nun alle HTTP Variablen sehen. Auch die "HTTP_CF_CONNECTING_IP", falls das überhaupt stimmt. Ich kann mir übgrigens vorstellen, dass NPM der Proxy ist, den Nextcloud sieht und der die Variable "verschluckt". Dh Nextcloud sieht alls REMOT_ADDR gar nicht die von Cloudflare, sondern die lokale von NPM. Aber das wirst du durch die Ausgabe von $_SERVER sehen.
  6. mgutt

    SSD im Array

    Warum sollte man eine SSD nicht im Array nutzen dürfen? Klar geht das. Nur als Parität sollte man sie nicht verwenden, da eine Parität nicht getrimmt werden kann, weshalb eine SSD-Parität mit der Zeit sehr langsam werden würde (außer man nimmt eine Enterprise SSD mit viel Over-Provisioning). Um eine Disk aus dem Array entfernen zu können: - Foto/Screenshot von der Disk-Übersicht machen - Tools -> New Config -> Parity + Cache Preserve (behalten) - Danach kannst du alle Platten neu zuordnen und die SSD weglassen Bitte beachte, dass in dem Moment die Parität kaputt ist und mit einem Check korrigiert werden muss. Es gibt auch noch eine Methode, wo die Parität ganz bleibt: https://wiki.unraid.net/Shrink_array#The_.22Clear_Drive_Then_Remove_Drive.22_Method
  7. Naja, wenn die Platten nicht angezeigt werden, dann läuft der Treiber nicht. Evtl könntest du es mal mit einer älteren Unraid Version und einem anderen Stick probieren? Viellleicht geht es ja dann?! Oder mit der aktuellen 6.9 RC?!
  8. Only for information. I found four different layouts with the ASM1166. All sold under different "brands": PCE6SAT-A0 Manufacturer: perhaps BJD Shenzhen Bojiada Technology Co., Ltd ?! PCIe To SATA 6G Expansion Card RU 94V-0 E467745 ZLHML005 (Red SATA Ports) Manufacturer: ZyDAS (Source, ZyDAS has been aquired by Qualcomm Atheros) 156-00A PE-156 Manufacturer: Lycom from Taiwan No identification marks Manufacturer: Unknown
  9. In dem Thread berichten auch manche von eher zufälligen Ereignissen. Ich denke mal du hast noch ungenutzte PCIe Slots? Dann los, kauf dir eine SATA Karte https://de.aliexpress.com/item/32986459789.html (IOCrest ist ein guter Hersteller) https://de.aliexpress.com/item/4001263060833.html (Hersteller unbekannt, aber günstig)
  10. Wenn du auf das Disk-Symbol klickst, erhältst du die Fehlermeldungen auch zu einzelnen Disks: Ansonsten kannst du die System Logs auch über Tools -> Diagnostics herunterladen. Der hat einen Bug, der hier beschrieben ist: https://forums.unraid.net/topic/39003-marvell-disk-controller-chipsets-and-virtualization/ Lösung: - Config Editor installieren - /boot/syslinux/syslinux.cfg bearbeiten - Nach "label Unraid OS" die erste "append" Zeile suchen und am Ende dieser Zeile " iommu=pt" hinzufügen (also per Leertaste trennen) - Server neu starten Hier ein Screenshot: Bessere Lösung: Ersetz die Karte gegen eine mit einem JMB585 oder ASM1166 Controller
  11. There are several users complaining the wrong size of their SSD cache. Example: 189GB is displayed, should be 128GB I'm not able to test it as I'm not having a RAID, but btrbk solved this issue by using the "Data ratio" value. They use "Device size" and "Used" returned by the "btrfs filesystem usage" command and devide those values through "Data ratio". Isn't that a solution for Unraid, too?
  12. Normalerweise hast du bei einem RAID1 nur den Speicherplatz des kleinsten Laufwerks. Dank BTRFS ist es also schon mehr als bei anderen Dateisystemen. Für noch mehr müsstest du ein RAID0 ohne Ausfallsicherheit konfigurieren. EDIT: Ich muss mich korrigieren. Das ist sogar ein Darstellungsfehler. Du hast in Wirklichkeit nur 128GB: https://forums.unraid.net/topic/40720-different-size-cache-drives-in-a-pool/?tab=comments#comment-849834
  13. Die Anleitung steht hier: https://hub.docker.com/r/thomx/fr24feed-piaware Mach der sollst du dich hier registrieren: https://flightaware.com/account/join/ Dann den Code über das WebTerminal ausführen: docker run -it --rm \ -e "SERVICE_ENABLE_DUMP1090=false" \ -e "SERVICE_ENABLE_HTTP=false" \ -e "SERVICE_ENABLE_FR24FEED=false" \ thomx/fr24feed-piaware /bin/bash Es kommt irgendeine ID, die man notieren soll. Dann auf die Website gehen: https://fr.flightaware.com/adsb/piaware/claim Da soll nun irgendwas auftauchen, was du vermutlich mit deinem Account anklicken musst. Soweit geschafft?
  14. @swiss01 du hast ja eine VM so laufen. Erkennst du einen Fehler in seiner Config?
  15. VFIO ist dafür da, dass Unraid bestimmte Geräte beim Booten nicht installiert. Auf die Art können die dann stattdessen von einer VM verwendet werden. Mir ist leider entgangen, dass du keine NVMe verwendest. Du kannst den SATA Controller nicht per VFIO von Unraid ausnehmen, denn sonst funktioniert das Array nicht mehr. Es gibt ja nur einen Controller, außer du installierst eine separate SATA Karte. Mach das also bitte rückgängig. Ich denke /dev/sdc ist falsch. Du musst /dev/disk/by-id/ata-... verwenden: https://forums.unraid.net/topic/53815-vm-ssd-passthrough-error/?do=findComment&comment=525475 Im WebTerminal einfach das ausführen um den Namen zu sehen: ls /dev/disk/by-id/
  16. mgutt

    XPEN auf Unraid

    Unraid weiß davon nichts. Die VM braucht das. Vermutlich entspricht diese Bezeichnung einer real existierenden Karte und Synology hat eine Blacklist mit Namen von virtuellen Adaptern und funktioniert daher nur mit anderen Adaptern. Wenn man zB physisch eine LAN-Karte an die Syno durchschleift, soll man diese Probleme auch nicht haben.
  17. Dann hast du schon Unraid 6.9. Da kann man das was VFIO kann bereits unter Tools meine ich machen.
  18. Nein, er schreibt die Datei in so einem Fall direkt auf die zugewiesene HDD. Der Cache wird nur über den Mover nach Zeitplan geleert.
  19. Mach einen richtigen Passthrough der NVMe wie in dem Video beschrieben: Zusammenfassung: - Settings > VM > PCIe ACS override > Both > neu starten - VFIO Config über die Apps installieren, NVMe Controller auswählen > neu starten - VM erstellen und NVMe Controller durchschleifen
  20. mgutt

    XPEN auf Unraid

    Vielleicht hilft ja die Anleitung: https://forums.unraid.net/topic/71316-xpenology-vm-any-one-running-this/?do=findComment&comment=779970 Und hier falls keine Disks angezeigt werden: https://forums.unraid.net/topic/71316-xpenology-vm-any-one-running-this/?do=findComment&comment=848655
  21. Ein Ping geht auf keinen Port. Die Fritz!Box Firewall wird den einfach nicht durchlassen. Eine andere Idee. Installiere dir curl auf den IONOS Server: apt install curl Wenn der Server von dir für IPv6 freigegeben wurde, kannst du nun gezielt IPv6 mit Port ansprechen. Zum Test erstmal nur Google: curl -g -6 "https://ipv6.google.com/" Wenn das klappt, kannst du deine IPv6 Adressen mal mit dem freigegeben Port durchprobieren: curl -g -6 "https://IPv6:444/" Für einen kurzen Test könntest du auch im Router Port 80 auf den Unraid Server freigeben und dann über den IONOS Server mit "http" versuchen die Unraid WebGUI zu erreichen: curl -g -6 "http://IPv6/" Da http = Port 80, brauchst du den Port hier nicht explizit angeben. Sofern das klappt, wirst du den HTML Quelltext angezeigt bekommen. Falls nicht, dann kommt eine Fehlermeldung.
  22. Ja BTRFS RAID1 ist nicht ganz ein klassisches RAID1. Bei unterschiedlich großen Platten oder auch 3 Platten sind es dann irgendwie 1.5x
  23. mgutt

    DDNS updater

    Du trägst einfach bei den anderen Domains als CNAME die Domain ein, die du über deinen Router aktuell hältst. Beispiel: ddns.example.com wird über deinen Router aktuell gehalten server.example.org soll auch immer diese IP haben Nun fügst du bei "example.org" einen neuen DNS-Eintrag hinzu mit dem Typ "CNAME", als Name "server" und als Adresse "ddns.example.com". Nun nutzt der Browser beim Auflösen der Domain "server.example.org" den A-Eintrag von "ddns.example.com".
  24. Von welcher Platte sprichst du jetzt? Du meinst die disk3, auf der der Rebuild dann erfolgte? Rausnehmen musst du die nicht. Du musst nur das Array stoppen, dann eine Platte zb über USB mounten und dann das ausführen: btrfs restore /dev/sdX /mnt/disks/usbname sdX gegen Bezeichnung von disk3 ersetzen und usbname gegen den Pfad der USB Platte. Das selbe hätte ich für die alte Disk3 vorgeschlagen. Keine Ahnung ob da auch noch was rausgezaubert werden kann. btrfs restore arbeitet nur lesend. Kann also nichts mit den Daten passieren. Danach könnte man sogar ein btrfs check --repair versuchen, aber dadurch werden die Daten auf der Platte verändert.
×
×
  • Create New...