Jump to content

mgutt

Moderators
  • Posts

    11,355
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. It looks like Unraid mounted the cache pool read-only. This would explain his problem. We suggested him to make a backup through rsync first and then try to re-assign the SSD as a single cache drive in slot 1 if he don't want to wait for the replacement SSD.
  2. Das geht erst ab der Beta/RC Version von Unraid EDIT: Ok, ich sehe gerade in den Logs, das er die nutzt ^^
  3. Da steht: Jan 20 12:02:14 Unraid-Tower root: truncate: cannot open '/mnt/cache/system/docker/docker.img' for writing: Read-only file system Kann es sein, dass du auf dem Cache keine Dateien erstellen kannst? WebTerminal (Icon >_ oben rechts) öffnen und das ausführen: touch /mnt/cache/system/test.bin Ist die SSD eigentlich sicher defekt? Vielleicht gab es auch einfach einen Fehler durch einen harten Shutdown?! EDIT: Noch was gefunden: https://forums.unraid.net/topic/70913-btrfs-cache-read-only-mounted/?tab=comments#comment-651092 Wenn also BTRFS die zwei Laufwerke nicht ordentlich balancen kann, kann es wohl sein, dass BTRFS ein Laufwerk rauswirft und es sich nur degraded und read-only mounted. Dann hilft also nur Daten sichern und den Cache Pool neu erstellen. Der Mover wird dann übrigens nicht helfen, weil der Mover ja verschiebt und nicht kopiert und von read-only kann man nicht verschieben. Wenn das so ist, dann wartest du jetzt lieber wirklich auf die SSD. Eventuell gehst du aus Sicherheitsgründen auch mal hin und sicherst die SSD auf die HDD1 (oben rechts >_ um das Webterminal zu öffnen): rsync -av --stats /mnt/cache/ /mnt/disk1/cachebackup Auf keinen Fall als Ziel /mtn/user... nehmen. Ansonsten besteht die Gefahr, dass die Daten sich selbst überschreiben! Das Backup solltest du auch machen, bevor du das mit den Slots machst, was ich777 im folgenden Beitrag vorschlägt. Sicher ist sicher ^^
  4. We have one german user with a degraded RAID because his SSD in slot 1 became defective. Now his docker service does not start anymore. Is it really needed to convert the RAID back to single and move the running SSD to slot 1 (as long his waiting for the new SSD to re-create an RAID1). I wonder because in both cases would be the path /mnt/cache/system or /mnt/user/system or is the docker.img mounted in a different way?
  5. Komisch. Dann verstehe ich nicht warum Slot 1 vorausgesetzt wird. Ich frage mal in dem Thread.
  6. Alle Container und Einstellungen sind unter Apps -> Previous Installed gesichert. Allerdings ist das mit der HDD jetzt nur ein Test gewesen. Ich würde darüber jetzt die Container nicht dauerhaft laufen lassen. Warte lieber auf den Ersatz. Wenn du keine Zeit hast, kannst du alternativ Daten der SSD auf die HDD verschieben lassen (alle Shares bei Cache auf Yes stellen, Docker und VM in den Einstellungen vollständig deaktivieren und den Mover starten). Sobald die SSD leer ist, machst du einen Screenshot von der Disk-Übersicht (zur Sicherheit) und gehst auf Tools und machst eine new Config, wobei du Parity und Array auf Preserve lässt. Nur der Cache soll weg. Danach kannst du die einzelne SSD wieder Slot 1 zuordnen und quasi mit einem "frischen" Cache starten. @ich777 Oder gibt es über die GUI eine Möglichkeit ein Degraded RAID auf Single umzustellen und dann den Slot zu wechseln?
  7. Ok, dann hat das RAID1 ja funktioniert. Die Frage ist nur warum das docker.img bzw der Docker-Dienst die Biege gemacht hat und dazu auch nicht mehr gestartet werden kann. Die Diagnose ZIP kannst du trotzdem mal hier hochladen. Dann können wir mal schauen ob uns andere Fehlermeldungen mehr sagen. EDIT: Ok, hier lese ich raus, dass es Probleme gibt, wenn Slot 1 leer ist: https://forums.unraid.net/topic/74168-docker-service-failed-to-start-solved/?tab=comments#comment-683284 Ich habe kein RAID im Cache, daher frage ich mal: Wie ist der Pfad, wenn man jetzt auf den Ordner der SSD klickt? /mnt/cache/ oder ein anderer?
  8. Ok, gilt für alle außer Exos 14TB aufwärts ^^ Sorry, aber was hat Seagate da bitte veranstaltet. Laut Hardwareluxx sogar deutlich über den technischen Daten.
  9. Idle heißt Platten im Spindown? UV wird nicht viel bringen. Was ist mit powertop und CEC2019? Warum 5 Lüfter?!
  10. Verstehe ich jetzt auch nicht. Im RAID1 ist das doch völlig egal. Dafür ist es doch da. Wenn du die docker.img Datei löschst und neu erstellen lässt, dann sollte Docker auch wieder gehen. Ansonsten teste mal, ob Docker startet, wenn du als Pfad direkt eine HDD angibst. zB so: /mnt/disk1/sharename/docker.img Ist der Cache evtl gar nicht mehr verfügbar?
  11. Du brauchst eine Domain. Egal ob mit Subdomain oder nicht. Sie muss nur eben die öffentliche IP deiner Fritz!Box haben. Ich nutze zb eine eigene Domain bei All Inkl. Die haben im Menü einen Punkt DDNS. Stell deine Share-Frage bitte in einem neuen Thread.
  12. Bitte beachte, dass ECC nicht zwangsläufig korrekt funktioniert, auch wenn es in der Spezifikation des Boards steht. Man kann es aber testen: https://www.hardwareluxx.de/community/threads/bericht-zu-ryzen-ecc-error-reporting.1278553/ Falls du es testest, kannst du ja dort dein Ergebnis posten. Der Verbrauch wird wegen dem X570 Chipsatz bei mind 15W liegen. Vermeer läuft auch auf B550. X570 nimmt man wenn wegen PCIe 4.0 oder weil man mehr Lanes braucht. Zb zwei M.2 und mehr als 4 SATA Ports gehen glaube ich sogar nur mit X570. Wenn du schon so viel Geld ausgibst, warum dann nicht gleich ein Board mit 2.5G LAN? https://geizhals.de/?cat=mbam4&xf=17256_1~317_X570&sort=p&hloc=at&hloc=de&v=e Wird in Zukunft der Standard. Auch die nächste Fritz!Box soll es haben. Das Asus TUF GAMING X570-PRO finde ich interessant.
  13. Kann gut sein, dass das br0 (Macvlan) Netzwerk nicht mit Bridge kommunizieren kann. Es müssen also entweder beide Bridge nutzen oder beide br0. ( @ich777 korrekt?) Daher sollte die Lösung sein, dass man mariadb zu br0 umstellt oder nextcloud zu Bridge. Dann muss man aber eine Port-Weiterleitung in den Dockereinstellungen von 8666 auf 80 hinzufügen und Nextcloud wäre nur über http://IP:8666 erreichbar. Wenn das optisch doof ist, könnte man wie gesagt noch mit einer (DDNS) Domain und einem Proxy über nextcloud.deinedomain.de auf IP:8666 zugreifen.
  14. Plus das Modem, plus DECT Gateway, plus neue Telefone, plus Jugendschutz Firewall... Ein bisschen was tut die Fritz!Box ja schon. Ich schaue mal ob ich damit Erfolg habe: https://github.com/docker/for-mac/issues/1390#issuecomment-284467649
  15. Tut es nicht, aber ein Server direkt am Modem bekommt alles ab. Viel zu viele mögliche Fehlerquellen. Die Fritz!Box ist auch nicht anfällig für Spectre, Meltdown etc ^^
  16. Ja, dann muss man aber die Shares ohne feste Disk-Zuordnung einrichten und muss /mnt/user syncen. Wobei ich gerade nicht weiß was der Zielserver macht, wenn der Share nicht manuell, sondern nur über das Erstellen des Ordners hinzugefügt wird. Dann gilt bei der Verteilung High Water oder?
  17. Ein ungehärterer Server als Router würde ich nie machen. Wer weiß was in dem VM Host für Sicherheitslücken stecken. Davon abgesehen wäre dann ja alles von Unraid abhängig. Also wenn dann anderen Router. Sonst gibt es keine Lösung? Ich mein wozu hat man denn das Bridging, wenn man damit nichts blocken kann.
  18. Hi, ich möchte gerne meinen Plex Container über das Internet verfügbar machen. Da ich gerne vermeiden möchte, dass nach bekanntwerden einer Sicherheitslücke, der Plex Container gehackt und damit ein Zugriff auf mein Netzwerk möglich ist, hätte ich gerne gewusst wie ich den Container von meinem restlichen Netz separiere, aber trotzdem noch lokal Plex nutzen kann. Dazu hatte ich verschiedene Ideen: 1.) VLAN mit eigener IP-Range Ein separates VLAN mit eigener IP-Range, der Plex Container bekommt davon eine. Lokal nutze ich Plex über die Domain. Problem: Ich habe zwar einen VLAN-fähigen Smart Switch, aber meine Fritz!Box kann ja keine Port-Freigabe "taggen" oder in ein anderes Netz senden. Also wie bekomme ich nun den eingehenden Traffic auf Port 32400 zu dem Container der anderen IP-Range? 2.) Ausgehenden Traffic des Containers blocken Den Container im "Bridge" Netzwerk laufen lassen und jeglichen lokalen Traffic bis auf Port 32400 sperren. Ansonsten nur Port 80/443, falls Plex überhaupt nach Hause telefonieren muss (keine Ahnung). Problem: Ich konnte einfach nicht herausfinden wie das geht. 3.) Gastnetz der Fritz!Box nutzen Wie Idee 1, aber diesmal nutze ich LAN-Buchse 4 der Fritz!Box und aktiviere dort das Gast-Netz. Dort habe ich nun einen separaten Adress-Raum. Lokal nutze ich Plex über die Domain. Problem: Die Fritz!Box mag keine Port-Freigaben für das Gastnetz erlauben. Diese werden mit "Fehlerbeschreibung: Die IP-Adresse befindet sich im Gastnetz!" abgelehnt Wie könnte ich mein Vorhaben umsetzen?
  19. Genau. Ich sehe auch gerade, dass der von knex666 der Original Container ist. Dem gibst du eine feste IP (Fixed IP address) und schon ist der über http://IP ohne Zertifikat erreichbar. Wenn du später doch eines haben willst, lässt du es so und machst noch zusätzlich das: https://forums.unraid.net/topic/101492-einrichtung-von-swag-klappt-nicht-fritzbox/?tab=comments#comment-936200
  20. Eine IP kann kein gültiges Zertifikat haben. Die einzige Lösung wäre http. Mit dem Original Nextcloud Container geht das bzw der unterstützt ausschließlich http (erwartet für https einen vorgeschalteten Proxy). Keine Ahnung ob der Container von Linuxserver das auch kann?! Oder man holt sich eine DDNS, aber hinterlegt dort keine öffentliche, sondern die lokale IP des Servers. Bricht man damit das Zertifikat... ich meine nicht. Bei einer Fritz!Box muss man dann übrigens die DDNS Domain beim DNS-Rebindschutz als Ausnahme hinterlegen. Die Fritz!Box blockiert nämlich sonst Domainauflösungen auf private IP-Adressen.
  21. Die Post schreibt doch: Vermutlich bleibt es beim Zollsatz bei der Ausnahme, aber eben nicht bei der Einfuhrumsatzsteuer und die rechnet man ja auch mit dem Zoll ab. Oder meinst du, dass man in Zukunft an der Tür mit Karte die Steuer zahlt? Das könnte natürlich sein.
  22. Vorzugsweise baut man den Stick mit ins Case. Man hat ja in der Regel onboard-USB-Anschlüsse (Adapter auf USB Buchse gibt es ja für kleines Geld). Gerade dann wenn die Gefahr besteht, dass ein Dritter ihn abzieht. Von dem Stick macht man einfach regelmäßig Backups. Das spielt man dann im Härtefall auf einen neuen Stick und bootet. Dann wird Unraid meckern, weil die ID des Sticks nicht mit der Lizenz übereinstimmt. Wenige Klicks später ist die Lizenz aber schon auf den neuen Stick übertragen. Das sollte man nicht machen, weil man dann erst mal suchen darf, auf welcher Platte das Backup liegt. Du könntest sie aber tatsächlich im Härtefall einzeln entnehmen und über einen anderen Rechner nachschauen. Oder man nimmt einen komplett frischen Stick mit Testlizenz und mountet alle Platten im Wartungsmodus ohne eine Parität zuzuweisen (da man ja nicht mehr weiß welche die Parität war). Dann kann man kurz überall drauf schauen und das Backup suchen und runterladen. Ein Backup-Ziel außerhalb des Unraid Servers erleichtert allerdings ungemein das Leben Aber selbst ohne Backup bleiben die Daten auf den Platten erhalten. Was dagegen verloren ginge: - Welche Disk wo im Array zugeordnet war und welche die Paritäts- oder Cache-Laufwerke waren (kein Beinbruch, erfordert aber mounten und nachschauen) - Netzwerk-Einstellungen - SMB-Einstellungen (User, Passwörter und Rechte) - Disk-Einstellungen (wann sollen sie schlafen etc) - Benachrichtigungs-Einstellungen (hinterlegtes E-Mail-Konto etc) - installierte Plugins und deren Einstellungen - die Datei mit der Lizenz, wobei man hoffentlich noch die E-Mail mit dem Schlüssel hat, aber selbst dann hilft sicher der Support Also im Kern verliert man eigentlich "nur" Einstellungen und müsste herausfinden welche die Paritätslaufwerke waren. Ich habe zB mal Unraid als VM installiert und einen zweiten Stick im Server gehabt. Tage spätere startete ich meinen Server neu und wunderte mich warum die WebGUI nicht öffnete. Schlussendlich stellte sich heraus, das mein Board vom anderen Stick gebootet hatte. Also wieder heruntergefahren, Stick raus und neu gestartet. Alles beim alten. Oder als ich das Mainboard, CPU, RAM usw gewechselt habe. Stick ins neue Board, gebootet und lief einfach. Ich hatte nicht mal die Reihenfolge der SATA Ports beachtet. Einfach alles wild eingesteckt. Da sich Unraid auf dem Stick die Seriennummer der HDDs merkt, ist also auch das egal. Das ist schon ziemlich genial bei Unraid. Die Definition von HA ist, dass man ohne Ausfall weiter arbeiten kann. Da du das jetzt schon nicht hast (wegen der besagten Probleme) und es für dich scheinbar kein Problem zu sein scheint, hast du auch kein HA bzw benötigst eventuell auch keines. Was vielleicht mit Unraid gehen könnte um einer HA Situation nahe zu kommen ( @ich777, was sagst du zu folgender Idee): 1.) Zwei Server mit der selben Anzahl Disks hochfahren, beide mit eigener Unraid-Lizenz, Disks der Parität und dem Array zuordnen und starten 2.) Die Shares auf dem Quellserver anlegen 3.) VMs alle X Stunden in den Ruhezustand versetzen oder herunterfahren und auf dem Quellserver sichern. Ansonsten könnten Daten verloren gehen, die aktuell im RAM der VM liegen. 4.) Den USB Stick alle X Stunden/Tage auf dem Quellserver sichern. 5.) Nun die Verzeichnisse /mnt/diskX über rsync mit dem Zielserver synchron halten. Wenn das instant passieren sein soll, dann kombiniert mit inotifywait. Die Backups aus 3+4 sind entsprechend enthalten. Nun sind Quell- und Zielserver bis auf den RAM-Inhalt aktuell laufender VMs (wäre bei Syno denke ich auch so?!) und dem Stick synchron. Fällt der Quellserver aus, bootet man den Zielserver mit dem Quellserver-Stick und den folgenden Dateien des Zielserver-Sticks: /boot/config/disk.cfg (enthält die Seriennummern der Cache-SSDs) /boot/config/machine-id (?, keine Ahnung wofür die ist) /boot/config/super.dat (enthält die Seriennummern der HDDs) /boot/config/network-rules.cfg (enthält die Mac-Adressen der verbauten LAN-Ports) Fällt dagegen nur der Quellserver-Stick aus, nimmt man einen neuen Stick, den man mit dem Backup aus dem Zielserver füttert. Ein Problem was ich bei der Idee sehe, wäre an VMs durchgeschliffene Hardware. Weil die muss ja dann auch 1:1 in der exakt selben IOMMU Gruppe / IDs des Zielservers laufen. Das muss man schlicht testen bzw man schleift möglichst keine Hardware durch. Ein Vorteil wiederum wäre, dass der Zielserver nicht die selben Plattengrößen verbaut haben muss. Hauptsache sie sind groß genug für die Daten. Eventuell, aber das muss man durchtesten, könnte man auch die Shares ohne Disk-Zuordnung anlegen und stattdessen /mnt/user/ synchron halten. Dann könnte der Zielserver sogar eine andere Anzahl von Platten besitzen. Wie gesagt ist das kein HA und Unraid hat auch keine entsprechende Funktion. Man kann sich dem also nur nähern.
  23. I dislike this, because in 1 of 100 cases the title tag of the settings icon does not appear: This is not related to your code. Instead its a general issue for all title tags on all websites and valid for all browsers. Example ("Quote" is not displayed): And as I used the buttons often, I now need to open settings on every entry. To fasten this process I open the settings links in multiple tabs, but finally its annoying. Maybe you even think about a "live update disable" or "live intervall in seconds" option. Its ok for me refreshing the page manually instead of loading the complete 40 kB HTML table every 3 seconds: I mean this is 50 MByte/s per hour. Not funny while using a VPN through my mobile data plan. Maybe its possible to load the complete table only on first request and update the cells like it is done for the rest of the page.
  24. Ich bestelle bei Amazon wegen dem Service. Wenn ich Preise vergleiche, dann ist Amazon selten der günstigste Anbieter. Bei Aliexpress bestelle ich wiederrum, wenn ein Artikel in China hergestellt wird und bei einem deutschen Anbieter das 2- bis 3-fache kostet. Natürlich verhindere ich dadurch, dass der deutsche Anbieter mitverdient, aber so läuft das eben in der Globalisierung. Falls es dagegen Produkte geben sollte, die man wegen unfairen Preisen auch in der EU herstellen könnte, dann wäre ich sofort dabei, aber das ist doch eine Illusion, dass das dadurch erreicht wird, dass man nun Warensendungen unter 22 € verzollt?! Man verringert damit nur die Differenz zwischen dem deutschen Anbieter, der diesen Zoll immer zahlen muss und dem Endkunden. Der China-Händler bleibt aber trotzdem günstiger, da der deutsche Anbieter noch seine Kosten und Gewinn draufschlägt. Ich sehe auch nicht den Zoll als Problem, sondern die Versandkosten. Der Weltpostverein stuft China immer noch als Schwellenland ein und damit zahlt die Deutsche Post für den Versand: Das gehört geändert. Wenn ich bei Ali bestelle, zahle ich auch gerne 5 statt 3 €, aber ich werde es sicher nicht gut finden, wenn der Staat Zollmitarbeiter einstellt, die er gar nicht bezahlen kann. Denn dafür wurde die 22 und 150 € Grenze ja geschaffen. Wenn ich das bestimmen würde, würde ich die Zoll-Niederlassungen abschaffen und die Einfuhrumsatzsteuer und den Zoll direkt auf das Zahlungsmittel aufschlagen. Also wenn ein EU-Bürger Geld an Aliexpress/Bangood/Wish/etc senden möchte und der Wert ist unter 150 €, dann schlägt Paypal, VISA, etc automatisch 20% Einfuhrumsatzsteuer drauf und leitet die Kohle dann direkt an den Staat weiter. Spart Millionen und schafft massig Bürokratie ab. Die nun untätigen Zollmitarbeiter macht man dann zu Kontrolleuren. Ist schließlich bitter notwendig.
  25. Aus der Anleitung von atop: When atop is installed, the script atop.daily is stored in the /etc/atop directory. This scripts takes care that atop is activated every day at midnight to write compressed binary data to the file /var/log/atop/atop_YYYYMMDD with an interval of 10 minutes. Furthermore the script removes all raw files which are older than four weeks. The script is activated via the cron daemon using the file /etc/cron.d/atop with the contents 0 0 * * * root /etc/atop/atop.daily Mich wundert, dass das bei 128MB gedeckelt wird. Wenn man es benötigt, dann könnte man /log/atop ja als tmpfs mit 16MB oder so mounten. Ansonsten eben deinstallieren, da nur das den Dienst beendet.
×
×
  • Create New...