Jump to content

mgutt

Moderators
  • Posts

    11,355
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Nein das liegt daran, weil er nur eine SSD als Cache verwendet und Dateien aus dem Share auf der SSD liegen. Sie sind also "nicht sicher". Daher das Ausrufezeichen.
  2. Ich würde sagen so: --exclude "/mnt/user/Medien/Filme" oder so: --exclude "*/Filme/*" Wobei letzteres so eine Sache ist, wenn es auch andere Unterordner gibt, die so heißen.
  3. mgutt

    Defekte HDD?

    Weil du in Unraid den Windows-Benutzernamen des Arbeits-PC und dessen Passwort hinterlegt hast. Windows meldet sich immer automatisch mit seinen eigenen Login-Daten bei einem Server an.
  4. Ja Flachbandkabel sind so eine Sache. Ich hatte mal ein 15cm kurzes Pachtkabel nur zum Testen von zwei Switchen und ich bin fast verrückt geworden weil ich massig Paketverluste hatte und irgendwann kam ich dann darauf das Kabel zu tauschen und alles war gut ^^
  5. https://blog.linuxserver.io/2015/07/20/how-to-active-directory-on-unraid-6/ Ich binde die Shares gar nicht als Laufwerke ein, sondern habe nur Verknüpfungen in meinen Bibliotheken. Zb eine Verknüpfung in "Musik" zu //Tower/music. Oder ich klicke halt auf Netzwerk und greife so auf den Server zu. Für jeden Share ein Laufwerk einzubinden, wäre mir schlicht zu aufwendig. Bei Laufwerken sind auch immer alle PCs dauerhaft und mehrfach mit dem Server per SMB Session verbunden. Ich kann mir gut vorstellen, dass man damit Last für nichts produziert. Wenn die Shares alle auf einem Server liegen, könntest du ja einen leeren "Admin" Share anlegen und dann per Konsole die anderen Shares darin als Softlink verlinken: ln -s /mnt/user/Musik /mnt/user/Admin/Musik ln -s /mnt/user/Videos /mnt/user/Admin/Videos Es kann sein, dass man die Samba Config dafür geringfügig anpassen muss: https://unix.stackexchange.com/a/137192/101920 In wie weit dann noch die Rechte funktionieren, müsste man einfach mal testen.
  6. Dann schließ dich hier mal an ^^ https://forums.unraid.net/topic/103160-unraid-using-core-that-is-isolated/
  7. Der RAM wird vor dem RAID genutzt. Das was du in meinem Video siehst, verursacht keine HDD Aktivität. Die HDD fährt zB hoch, aber da ist die Datei schon lange im RAM des Servers. Erst 30 Sekunden später fängt die Disk und Parität an zu arbeiten. Wenn er 16GB RAM hat, nutzt Linux standardmäßig davon nur bis zu 3.2GB fürs Caching. Bei deinem ZFS RAID nur bis zu 1.6GB. Allerdings kann es auch deutlich weniger sein, wenn kein RAM frei ist. Es wird fürs Caching nämlich nur der freie RAM genutzt. Aus dem Grund habe ich extra 50% des RAM als Schreibcache über die Go File eingestellt (kann man ja auch über Tipps & Tweaks Plugin einstellen): Damit kann ich also 20 bis 32GB (je nach Auslastung des RAMs) als Cache nutzen. Könnte ich 256GB RAM verbauen, würde ich das sofort machen.
  8. mgutt

    Defekte HDD?

    Sowas gibt es nicht. Was in den SMART Werten steht, passiert HDD intern in der Firmware und die weiß nichts von einem Betriebssystem oder einer VM. Wenn mehrere Platten eine Macke haben, dann musst du die Logs checken. Vielleicht ist zusätzlich auch ein SATA Controller defekt. Denn wegen einem steigenden Reallocated Sector Count fliegt keine Platte aus dem Array. Da muss noch mehr sein. Hast du denn jemals eine volle Formatierung oder einen Parity Check durchgeführt? Vielleicht waren die Platten schon von Anfang an hinüber, nur du hast nie auf die kompletten Sektoren zugegriffen, weshalb es bisher nicht aufgefallen ist. Check deine Logs. Und was soll das bringen? Ich dachte die Disks im Array machen Probleme? Die VM hat doch gar keinen physischen Zugriff auf diese Disks. Du musst schon die Tools in Unraid nutzen. Schritt 1 wäre das Array in den Wartungsmodus zu versetzen und das Dateisystem prüfen und reparieren (klick auf eine Disk und dann "Check", danach eine Reparatur durchführen, wenn Fehler gefunden wurden. Sieht man hier im Video ab 4:32 Wenn das erledigt ist, kann man dann noch Sektor für Sektor jeder Platte prüfen. Schau in der Übersicht wie die Platten heißen. Meistens beginnen sie bei sdb, sdc usw Dann das für jede Platte ausführen: badblocks -nsv /dev/sdb Öffnest du ein zweites Webterminal, kannst du parallel auch die zweite Platte testen: badblocks -nsv /dev/sdc Mit einer Parity wird dann aber vermutlich die Schreibgeschwindigkeit massiv einbrechen. Wenn die Daten auf den HDDs nicht mehr vertrauenswürdig sind, macht es daher vielleicht Sinn die Parity eh zu entfernen und erst mal die mit badblocks alle HDDs zu checken. Hier die Beschreibung von badblocks: https://wiki.archlinux.org/index.php/badblocks#Read-write_test_(non-destructive) Sollte sich herausstellen, dass die SMART Werte von einer oder mehrere Disks steigen, dann weg damit.
  9. Das kommt drauf an was du eingestellt hast. Du kannst in den CPU Pinning Einstellungen zB auch die Isolation auswählen. Aktuell hast du vermutlich nur der VM Kerne zugewiesen (Pinning). Dh nur die VM hält sich an die Regeln, aber Unraid kennt keine und nutzt weiter alle Kerne. Einen physischen Adapter durchschleifen. Also Netzwerkkarte installieren oder falls das Board mehrere LAN Ports hat, einen davon. Eventuell gibt es auch einen LAN USB Adapter, der das kann. Weiß ich aber nicht. Denk dran, dass Netzwerktraffic auf dem virtio adapter eine sehr hohe CPU Last verursachen kann. Physisch ist also sowieso am besten.
  10. Doch, mit RAM. Beispiel: RAM-Caching ist King.mp4
  11. Installiere Appdata Clean. Du hast noch Dateien unter /mnt/user/appdata
  12. Ja, der Original Container läuft ausschließlich unverschlüsselt auf Port 80. Er ist dafür gebaut, dass man einen Proxy davor setzt, der die Verschlüsselung übernimmt. Der von Linuxserver läuft dagegen ausschließlich verschlüsselt, was doppelt gemoppelt ist, weil man den Traffic zwischen Nextcloud und Proxy verschlüsselt und den zwischen Proxy und Client ebenfalls. Auch ein Grund warum ich den Originalen bevorzuge.
  13. Davon spreche ich doch auch ^^ Das hat keinen M.2 Slot und die HDD Slots sind voll.
  14. Bei Bridge nimmst du einfach die IP vom Server. Bei br0 vergibst du einfach selbst eine feste IP. Wenn du selbst ein Netz erstellt hast und die interne IP verwenden möchtest, dann musst du dem Netz eine eigene IP-Range verpassen. Dann kannst du auch feste interne IPs vergeben. Etwas ähnliches hatte ich hier gemacht: https://forums.unraid.net/topic/101603-vlan-und-isolierung-von-docker-containern/page/2/?tab=comments#comment-938144
  15. mgutt

    Defekte HDD?

    Du sagst, du hast sie im Array. Was hat das nun mit deiner VM zu tun?! Nein. Kann lange so bleiben. Muss man beobachten. Werden es regelmäßig mehr, dann weg damit.
  16. Von wo nach wo? Welche Unraid Version?
  17. Da du den Windows Server auch in Unraid als VM laufen lassen kannst, ist das unter dem Strich doch das selbe?! Aber kommen wir mal zurück zu "ohne Windows". Active Directory löst das Problem mit den Rechten. Für Snapshots und Depulikation könntest du in Unraid 6.9 einen separaten BTRFS RAID Pool erstellen. Dieser unterstützt dann Snapshots und über "dduper" bekäme man die blockbasierte Deduplikation. Allerdings alles gesteuert über Skripte, die man selbst erst erstellen müsste. Geht auf jeden Fall nicht per GUI. Dann wärst du aber von Windows / einer VM weg. Unraid unterstützt mit einem Plugin auch ZFS RAID Pools. Aber auch das nur per Kommandozeile. Selbiges geht natürlich auch alles in TrueNAS. Ich an deiner Stelle würde mir das aber sparen und einfach größere Platten besorgen und häufiger rsync / Duplicacy anwerfen. ^^ Was du da mit DFS erreichen willst, habe ich ehrlich gesagt nicht verstanden. Wenn man es komfortabel haben will, legt man einfach in Unraid die User mit dem Namen und Passwort des Windows-Clients an. Dann muss man sich auf gar keinem Share mehr anmelden. Das macht dann Windows automatisch. Und wenn du mehrere Server in einem Ordner haben willst, wäre ein SSHFS (Fuse) Mount denkbar. Also /sharename/lokal und /sharename/remote lägen eben beide im selben Share. Wobei es denke ich performanter wäre, einfach beide Server als separate Shares anzubieten. Kommt aber natürlich drauf an was das Ziel des Ganzen ist.
  18. Er hat keinen M.2 Slot ohne die komische 10G Karte.
  19. Ok, das wollte ich wissen. Ich dachte das geht automatisch. Also du musst das anstoßen. OK. Danke für die Info. Naja da hast du doch das selbe Problem?!
  20. Sicher, dass keine 32GB gehen? Dann könnte man zB 75% als Schreibcache nutzen und nur eine 10G Karte verbauen: https://forum.qnapclub.de/thread/50920-qnap-ts-453bmini-mit-32-gb-ram/ Aber wie gesagt bei der CPU weiß ich nicht was das Limit ist.
  21. Du meinst die QM2-2P10G1TA? Leider ist diese Karte ziemlicher Müll. Die teilt die Bandbreite auf zwischen 10G, und 2x M.2: PCIe 2.0 x4 hat nur 2 GB/s Bandbreite. x2 entsprechend die Hälfte. Während also 1GB/s beim 10G Port anliegen, müssen sich die restlichen x2 auf die zwei M.2 aufteilen. Also nur 0,5 GB/s, was bei einer M.2 natürlich völliger Unsinn ist. Was ich bisher nicht herausgefunden habe, ob es mit nur einer M.2 die vollen 1GB/s sind. Allerdings hat man dann meine ich nur einen Lese-Cache und keinen Schreibcache. Das selbe bei einem RAID0 aus zwei M.2. Echt dämlich diese Karte. Allerdings dürfte das mit der schwachen CPU vom QNAP eh so eine Sache sein. 10G lastet auf meinem PC einen vollen Kern eines i5-7600K aus. Laut Passmark hat der 2575 Punkte. Der im QNAP verbaute J3455 hat nur 816 Single Passmarks. Der wird gewaltig mit 10G zu tun haben.
  22. Mach mal bitte einen anderen USB Stick mit dem Creator fertig und danach kopierst du alle Dateien vom Stick auf diesen neuen Stick. Für mich sieht dass so aus als sei dein Stick kaputt.
  23. Ja, das heißt aber nur, dass der Kern schläft. Es gibt aber noch das "Paket", also komplette Teile des "Die" können auch noch schlafen gehen. Die ziehen auch ein paar Watt.
  24. Installiere auch den maximal möglichen RAM (QNAP). Das wird auch die 10G Performance verbessern.
×
×
  • Create New...