Jump to content

mgutt

Moderators
  • Posts

    11,356
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Logs findest du unter Tools -> System Log.
  2. Ok und als Port hattest du 3306 in HeidiSQL stehen? Das ist nicht gut. Dann probiere mal was @vakilando empfahl. Und zwar gehst du hin und änderst den Repository Namen von MariaDB von: linuxserver/mariadb in: linuxserver/mariadb:amd64-110.4.18mariabionic-ls18 Das ist eine Version von vor 19 Tagen: https://hub.docker.com/r/linuxserver/mariadb/tags?page=1&ordering=last_updated&name=amd64 Der letzte amd64-latest ist von vor 12 Tagen: Die "DIGEST" ist auch die, die der "latest" entspricht und die hast du demnach aktuell drauf: Du könntest dann auch weiter zurückspringen zB die 2 Monate alte "amd64-110.4.18mariabionic-ls14". Es darf nur eben keine Version mit "alpine" im Namen sein.
  3. Aber von Nextcloud nicht oder evtl zu klein? Ich würde mich jedenfalls nicht darauf alleine verlassen. Erstell sie so, dass es auch keine Fehlermeldung gibt.
  4. Nein, du hast jetzt erst mal nur die RAW-Datenbank. Diese Dateien sind wichtig. Die kann man später auch bei einer neuen Installation wieder importieren. Aber exportiere über HeidiSQL. Da hast du sie dann auf deinem PC. Sind die .sql Dateien auch im appdata Ordner zu sehen?
  5. Geht alles. Die Frage ist ob du die M.2 SSD als solches an die VM durchschleifen möchtest oder auf der M.2 ein virtuelles Disk Image erstellen möchtest. Die externe HDD wiederum ist gar kein Problem. Einfach als USB Gerät durchschleifen. Oder aber du greifst über eine Netzwerk-Freigabe darauf zu. Ich denke dieses Video könnte dich interessieren:
  6. Was hast du für lahme Platten? Mit 18TB dauert es bei mir 24 Stunden. Mit 12TB dauerte es 18 Stunden. Ähnlich, aber nicht live. Dadurch ist bei Snapraid bei bereits einer geänderten Datei die Parität kaputt. Allerdings läuft die Parität dort dateibasiert. Also nicht alle Dateien wären dadurch direkt verloren. Ich hatte das hier mal genauer recherchiert: https://forums.unraid.net/topic/100725-solved-wie-funktioniert-snapraid/ Nein, nur 1x vorhanden: https://forums.unraid.net/topic/99393-häufig-gestellte-fragen/?tab=comments#comment-951565 Korrekt. So mache ich das zB mit diesem Script: https://forums.unraid.net/topic/97958-rsync-incremental-backup/ Oder du installierst wie bereits empfohlen wurde eine zweite SSD und betreibst den Cache im RAID1. Docker und VM Dienste deaktivieren, Appdata usw auf "yes" stellen, den mover starten, damit er die SSD auf das Array leert, noch mal prüfen ob wirklich alles runter ist und dann kannst du runterfahren und tauschen.
  7. "Oder so" 🙈 Sorry, aber einfach irgendwas machen, was man in einem Forum liest, was evtl gar nichts mit deinem Problem zu tun hat und dann auch noch bevor man ein Backup macht... mutig. Du musst schon sagen was du gemacht hast. Und vor allem erklären warum es jetzt selbst in WP nicht mehr geht. Du musst ja schließlich noch mehr gemacht haben. Einfach löschen und neu installieren würde ich nicht machen. Ich würde erst mal Backups von den Datenbank machen. Und zwar nicht nur von den Dateien in appdata/mariadb, sondern auch per Export im SQL Textformat. Auch das geht mit HeidiSQL. Damit hättest du dann schon mal die Daten gesichert. Über phpmyadmin geht das natürlich auch. HeidiSQL ist einfach nur ein PC Software, die ähnliches bietet. Da steht, dass man die Datenbank als SQL Datei exportieren soll und dann bei Null anfangen soll. Deine Beiträge klingen nicht so als hättest du das gemacht. Also was genau hast du davon umgesetzt?
  8. Das ist eine Software um auf Datenbanken zuzugreifen. Siehe Video.
  9. Installiere dir HeidiSQL und teste die Verbindung von deinem PC aus: Ich gehe davon aus, dass MariaDB funktioniert. Das wird nur ein Netz-Problem sein.
  10. mgutt

    Backuplösung

    Sind auf der Syno die Unix Extensions deaktiviert? https://www.samba.org/samba/docs/current/man-html/smb.conf.5.html#UNIXEXTENSIONS Vom Prinzip sollte das gehen. zB ist ja LUKS ein Dateisystem unterhalb von zB XFS. Dh oben liegt das ganz normale XFS (oder ext4) und kann dann entsprechend auch Hardlinks. Wenn es allerdings was anderes spezielles ist, könnte es da Probleme geben. Da hilft nur testen. Und bitte Feedback geben, damit es andere auch erfahren.
  11. Kann ja nicht sein. Da muss ja drin stehen, dass er die Datenbank nicht erreichen kann?! Dann stimmt was nicht mit der Verbindung. Denn normalerweise kommt das: Warning: Binary output can mess up your terminal. Use "--output -" to tell Warning: curl to output it to your terminal anyway, or consider "--output Warning: <FILE>" to save to a file. Folgt man dann dem Beispiel, sieht es so aus: curl 192.168.178.56:3306 --output - t 5.5.5-10.4.18-MariaDB-1:10.4.18+maria~bionic-log u`^79U"H!$zZ6;elm`x]Fmysql_native_password!#08S01Got packets out of order$ Ich kenne die Anleitung nicht, die du verwendet hast. Wurde da nicht gesagt, dass MariaDB auch in dieses proxynet muss?
  12. Was sagen die Logs von Nextcloud? Kann es sein, dass MariaDB nicht erreicht werden kann, weil es nicht Teil des "proxynet" ist? Du könntest die Erreichbarkeit wie folgt testen: Nextcloud Icon anklicken -> Console -> folgenden Befehl ausführen: curl 192.168.178.56:3306
  13. Das kommt darauf an ob du ein Backup oder Ausfallsicherheit haben möchtest. Letzteres bietet dir nur eine Parität. Dh die Platte wird bei Defekt von Unraid "simuliert". Das System kann also weiter genutzt werden. Machst du dagegen nur Backups sind die betroffenen Daten erst mal nicht verfügbar, bis du das Backup wiederhergestellt hast. Es kommt also auf deinen Anspruch an. Das kommt darauf an ob man das auch so eingestellt hat. BTRFS unterstützt auch ein RAID1 auf mehr als 2 Laufwerken. Klingt komisch, ist aber so ^^ Korrekt. XFS hat auch den kleineren Overhead, da es kein Copy on Write Dateisystem ist. Bei BTRFS werden neue Dateien immer in neue Bereiche geschrieben. Das kann zu einer stärkeren Defragmentierung führen. Auch generiert BTRFS grundsätzlich mehr Metadaten als XFS. Diese sollen bei der Selbstheilung helfen, tun sie aber im Unraid Array nicht, weil man da ja nur "Single" Partitionen hat und kein RAID. Auch sind die in Unraid integrierten Reparatur-Funktionen nur für XFS ausgelegt. In der FAQ wird bei BTRFS zB ein gänzlich anderer Weg über die Kommandozeile empfohlen, wenn man was reparieren möchte: https://wiki.unraid.net/Check_Disk_Filesystems#Drives_formatted_with_BTRFS Was ich bei BTRFS wiederum mag ist, dass man gelöschte Dateien 1:1 wiederherstellen kann. Bei XFS ist es wie bei allen anderen Dateisystemen, dass die Dateinamen von gelöschten Dateien verloren gehen. BTRFS merkt sich das dagegen alles und kann daher auch gelöschte Dateien mit dem restore Kommando wiederherstellen: https://btrfs.wiki.kernel.org/index.php/Restore Anfängern würde ich immer zu XFS raten. Wer Erfahrung mit BTRFS hat, der kann auch das nutzen, sollte aber nach jeder harten Abschaltung und jedem Stromausfall einen Scrub ausführen. So meine Erfahrung. Das geht auch, aber sobald du eine Parität verwendest, wird die SSD durch diese gebremst. Und wer will schon mit 50 bis 80 MB/s auf eine SSD schreiben. Verzichtest du dagegen auf eine Parität, könntest du natürlich diesen Weg gehen. Wir warten alle auf ein Update, wo man mehrere Arrays anlegen kann. Dann könnte man SSDs und HDDs getrennt nutzen. Bis dahin kannst du aber auch über das UD Plugin einfach die SSD außerhalb von einem Pool oder Array mounten. Das UD Plugin erlaubt auch SMB Freigaben. Ist dann aber etwas getrennt von Unraid. Vom Prinzip steht dir alles offen. Es gibt auch User, die als Array einen leeren USB Stick verwenden und ihre HDDs / SSDs nur in RAID Pools nutzen. Da ist der Phantasie keine Grenzen gesetzt
  14. German or English? Check all container logs and/or post them here.
  15. @SpaceInvaderOne Do you have a clue what's wrong? He posted a video of his problems.
  16. Ich denke du meinst @Dextoo
  17. Witzigerweise sehe ich es genau andersherum. Wozu mit einem RAID Pool alle SSDs gleichzeitig abnutzen, wenn man mit SSDs den einzigen Nachteil des Arrays, nämlich die geringe Geschwindigkeit, kompensieren kann. Ich sehe die Zukunft daher eher in einem reinen SSD Array ohne jegliche Pools. Gerade PCIe 4.0 x4 NVMe sind übrigens Stromschlucker. Für einen sparsamen Storage müssen die mal von den hohen Geschwindigkeiten abkommen. Ich hätte jedenfalls lieber 8x x1 NVMe mit 2000 MB/s statt zwei mit 8000 MB/s. Wenn ich 8000 MB/s haben wollte, könnte ich die immer noch in ein ZFS RAID packen. Allerdings bezweifle ich, dass die SSDs noch nennenswert günstiger werden. Wir sehen doch wie verzweifelt die die Kosten drücken, in dem sie immer schlechtere Konzepte umsetzen (QLC, kein DRAM, kein dedizierter SLC Cache, usw.). Im Gegensatz zu den Anfangszeiten fällt der Preis also nur noch durch Minderung der Qualität. Ich denke daher nicht, dass wir die 50 € pro TB jemals sehen werden, außer vielleicht mit OLC Zellen und entsprechend geringer Geschwindigkeit, wenn man die SSD voll macht (weil dann kein SLC Cache mehr übrig ist). Allerdings sind HDDs auch am Ende. Ich will jedenfalls keine 40TB HDD, die 3 Tage braucht um die Parität zu berechnen. Und bei der Doppelarm Technik von Seagate bin ich mal gespannt wie der Stromverbrauch aussieht. Nutzt ja nichts, wenn die 40TB zwar doppelt so schnell, aber auch doppelt so viel Strom verbraucht. Aber warten wir mal ab wie schnell die HAMR und MAMR Platten werden. Wenn es keine Verdoppelung bei der Geschwindigkeit gibt, sehe ich schwarz. Es gibt nach meiner Recherche nur ein Modell, das negativ aufgefallen ist. Seitdem ist es nicht offiziell unterstützt. Finde ich auch was albern. Ich verbaue auch SSDs (Samsung Enterprise) in den Arrays meiner Kunden und da gibt es auch keine Probleme.
  18. Verstehe ich zwar nicht, aber gut zu wissen. ^^
  19. Ok, also zu einem Login kommt es gar nicht erst. Und wenn die IP nicht geht, kann es ja eigentlich nur am SMB Dienst selbst liegen. Sofern du damit einverstanden bist, könnte ich evtl per Remote Desktop das Problem bei dir genauer analysieren (dann bitte private Nachricht an mich). Ansonsten muss ich mir mal überlegen was man sonst noch testen könnte. Aktuell vermute ich was in Richtung SMB Versionen etc. Müsste man über PowerShell dann genauer untersuchen.
  20. Ok, und ich nehme an, dass der Windows-Nutzer nicht so heißt 😁 Wirst du beim Öffnen des Servers nach Logindaten gefragt bzw wurdest du das mal? Tipp mal in die Windows-Suche "Windows-Anmeldeinformationen" ein. Dort kommst du dann zu der Seite wo die ganzen SMB Logins aufgelistet sind. Da vielleicht mal alle löschen. Dann öffne mal den Windows Explorer und gib in die Adressleiste folgendes ein: \\IP.DEINES.SERVERS Also zB so: Ändert sich dadurch etwas?
  21. @Curtis777 Hast du gelesen, was wir zuvor angemerkt haben? Also heißen bei dir die SMB User so wie die Windows Logins? Wenn ja, dann ändere einfach die Namen in Unraid ab.
  22. Ich weiß nicht wie es bei AMD ist, aber eine Intel CPU mag diesen Modus nicht so gerne. Da ruckeln dann Videos und insgesamt ist die Performance auch sehr schlecht. Wegen des C-State: Keine Ahnung. powertop wurde ja von Intel entwickelt. Es geht zwar auch mit AMD, aber vermutlich zeigt es nicht die States an, weil es eben AMD ist?! Hast du denn schon in Unraid den iGPU Treiber installiert?
  23. @TGFNAS Der Punkt ist, dass du mehrfach das böse Wort "Arrays" gesagt hast. Also die Mehrzahl. Da warten sehr viele drauf und es soll auch irgendwann kommen, aber soweit ist es eben noch nicht 😉 Du scheinst dich mehr auf VMs, statt auf Cold Storage zu konzentrieren. Da geht nichts über. Und Arrays werden auch niemals durch Pools ersetzt. Das eine ist optimal für Cold Storage (kein Totalausfall möglich, stromsparend) und das andere für Hot Storage (CoW, Performance, Snapshots).
  24. @TGFNAS Das Gehampel ist nicht das Problem. Der Witz usw ist auch alles fein. Aber die Übermittlung der Informationen... Nerd pur, dazu teilweise Infos verdreht und alles nur sehr kurz angerissen. Ich mein, für mich kein Problem, aber wie viele kommen da mit. Das ist so als würde Albert Einstein in einem TikTok Video die Relativitätstheorie erklären und am Ende einen Mic Drop machen 🤯
  25. Wie immer ziemlich wirr was er da zusammenschneidet.
×
×
  • Create New...