Jump to content

mgutt

Moderators
  • Posts

    11,366
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Die sieht man mobil nicht 😉 Also Dank für die "Wiederholung". Es geht dabei um ein Gesetz aus Kalifornien: https://www.heise.de/ct/artikel/Kalifornien-verlangt-sparsamere-Computer-ab-2019-4030060.html Kurz gesagt aktiviert die Option alle nur denkbaren Stromsparmechanismen des BIOS.
  2. mgutt

    Bräuchte Rat

    Prefer ist für system die Grundeinstellung in Unraid. Beginnt man nun einen Server ohne Cache, werden alle Dateien auf dem Array erstellt. Erstellt man dann den Cache Pool und wechselt die Shares auf Cache Only, so fehlen die Dateien und werden neu erstellt. Aus dem Grund habe ich auch mal diesen Verbesserungsvorschlag eingereicht: https://forums.unraid.net/topic/102826-add-warning-to-use-cache-share-settings-and-disallow-change-for-appdata-share/ Obwohl ich das auch jedesmal schreibe, gibt es immer wieder den Fall, wo Nutzer nur die Container und VMs gestoppt haben. Schau dir den Quelltext vom Mover an. Das ist mehr als nur rsync. Und cp -R erstellt im Gegensatz zu cp -a kein 1:1 Abbild der Dateien. Durch den abschließenden mv wären übrigens auch die Timestamps verloren gegangen, aber die waren meine ich ohne -a oder -p bei cp eh schon weg. Wie empfindlich die Container auf fehlende/geänderte Attribute reagieren, weiß ja keiner. Also ja, cp -a wäre vermutlich auch ok gewesen (in beide Richtungen), würde ich aber trotzdem niemandem raten, eben weil nicht jedem klar ist, dass Docker Container stoppen und Docker Dienst ausschalten unterschiedliche Dinge sind.
  3. Da hatte doch schon mal jemand einen relativ hohen Eigenverbrauch bei diesen Cages ermittelt. Gold oder Platinum? Das Platinum "verschwendet" bereits 3W bei Niedriglast.
  4. Welches? Das Full ATX? CEC2019 im BIOS aktiviert? USB Ports abschalten, bringt meiner Ansicht nach nichts, wenn eh ASPM funktioniert.
  5. Gute 1TB NVMe im Angebot: https://www.mydealz.de/deals/crucial-p5-1tb-m2-nvme-ssd-bis-r3400w3000-3d-tlc-1gb-dram-aes-5-jahre-garantie-1840569
  6. mgutt

    Bräuchte Rat

    Keine Ahnung was dich daran so aufregt, aber Du hast nicht begründet was an cache only besser sein soll. Gerade in seiner Situation wo er genau deswegen ja erst die Dublette hat. Ich empfehle cache only zB nur für Szenarien wie zb separate Pools, die größer sind als das Array oder wo nicht die Gefahr besteht, dass sie volllaufen können wie zb bei einem separaten VM Pool.
  7. Is it possible to unlink and relink with a different forum account?
  8. mgutt

    Bräuchte Rat

    Prefer ist zu cache only identisch, nur dass bei cache only kein Mover aktiv ist und das "ausweichen, wenn voll" auch nicht geht.
  9. mgutt

    Unraid sinnvoll?

    Im Vergleich zum Mikrotrik CRS305-1G-4S+IN "geht so". Aber der bräuchte noch zusätzliche SFP+ auf RJ45 Module.
  10. I think the main problem is that the release notes only describe what happens if a user likes to try out Unraid and buys the license afterwards. For me as a license owner it's still unclear what I need to do. Do I need to login if I update to Unraid 6.10 and if yes, why? Does it change something to the license key file?!
  11. Seit Unraid 6.9 bindet man Geräte über die System Devices an VFIO. Es ist also mittlerweile Bestandteil von Unraid.
  12. Die Fritz!Box merkt sich das relativ zuverlässig, aber besser wäre meiner Ansicht nach dem Server eine feste IP außerhalb des DHCP Bereichs zu vergeben (also meist .2 bis .19). Erspart auch einfach Stress, wenn man die Fritz!Box zurücksetzt oder austauscht. Nein ... geht nicht mehr in C7 Pkg, sondern bleibt bei C3 hängen. Ok, zwei LAN-Ports und beide mit eigener IP. Und wenn nicht beide aktiv sind, gibt es Probleme. Klingt ein bisschen nach diesem Problem: https://forums.unraid.net/topic/109990-kein-spindown-nach-hardwareaustausch-mit-aktiviertem-powertop/page/2/?tab=comments#comment-1005004 In dem Fall hatten wir den Bug, dass wenn die CPU in C10 wechselte, dass die Zeit zu langsam lief und etliche weitere Probleme resultierten. Außerdem erinnert mich das stark an @Smolo's Problem mit einem Asrock Board, wo sein 1G stark drosselte, wenn er 10G deaktivierte: https://forums.unraid.net/topic/101773-neuer-ryzen-server-komponenten-diskussionrückfrage/page/2/?tab=comments#comment-943099 Aber auch wenn es das ist. Es sollte dann ja auch auftreten, wenn du über den Switch verbunden bist. Oder hattest du bei dem Test auch beide LAN-Ports verbunden?
  13. mgutt

    Backuplösung

    Doch, aber nur die Daten mit der höchsten Priorität und diese auch nur verschlüsselt als 1:1 Sync, da die Cloud selbst ja über eine Versionierung verfügt, so dass gelöschte Dateien über den Papierkorb wiederherstellbar wären. Allerdings könnte ein Angreifer, der Unraid kontrolliert, dann immer noch hingehen und die Cloud x-mal überschreiben, um eine Wiederherstellung zu verhindern. Da kommt es darauf an welche Schutzmechanismen die Cloud besitzt oder ob die Cloud über eine Backup-Funktion verfügt, die über einen anderen Account oder nur über 2FA erreichbar ist. Hier meinte zB jemand, dass er versucht hat eine ZIP-Datei auf seinem Google Drive 201x zu überschreiben und das schlug dann fehl. Wenn das generell so ist, wäre das Backup in der Cloud ja sicher, außer man hat die Cloud über User + Passwort eingebunden und diese hat kein 2FA. Bei Nextcloud wäre es zB so, dass User + Passwort bekannt wäre. Aber das wäre vom Prinzip sogar egal, denn dort werden die Versionen bei Überschreitung von 50% des freien Speicherplatzes einfach automatisch gelöscht. Ein Angreifer muss also hier nur dauerhaft die Cloud überschreiben und irgendwann sind die Original-Dateien dann weg. Da hilft dann ja kein 2FA, weil die Cloud über deren Schnittstelle/App ja ohne 2FA erreichbar ist. Ich weiß auch gar nicht, ob man bei Nextcloud über die Schnittstelle nicht sogar den Papierkorb und die Versionen löschen könnte: https://docs.nextcloud.com/server/latest/developer_manual/client_apis/WebDAV/trashbin.html https://docs.nextcloud.com/server/latest/developer_manual/client_apis/WebDAV/versions.html Vermutlich wäre die beste Variante, wenn man zwei Accounts hat und die Ordner in die man sichert von einem anderen Account sind, der einem ausschließlich Erstellrechte einräumt: Ohne Bearbeitung und Löschen, könnte der Angreifer die Dateien dann nicht löschen oder überschreiben. Allerdings muss man dann überlegen wie man mit aktualisierten oder gelöschten Dateien umgeht. Die einfachste Methode wäre mehrere 1:1 Backups zu erstellen und das Löschen veralteter Backups nur manuell auszuführen (2FA). Oder man geht hin und lässt geänderte Dateien in ein separates Verzeichnis kopieren. Das geht mit rsync zB mit compare-dest. Ich weiß allerdings nicht ob das auch gelöschte Dateien abdeckt. Müsste man mal testen. Oder man nutzt dafür einen separaten Befehl mit backup-dir?! Eine Cloud ist jeden Fall nichts, was "einfach so" sicher für Backups ist.
  14. 👍 I don't understand this part. Is it still possible to use a paid license without internet access or not? And why is it needed to have an account for security-related notifications? Why don't you simply use the e-mail address which was used to buy the license (or the newsletter)?! So I'm forced to use My Servers if I want to receive security notifications?! And how is it possible to pull data from my server if I did not open any ports? You explained it through a reverse-proxy relay. This means a registered server has a 24/7 connection to the relay?! Qnap and Ubiquiti proved that it is a bad idea to use such services and having a random DDNS url with a random port is only security through obscurity. This is why I don't plan to use My Servers.
  15. If you want to add Lets Encrypt Certificates, then yes, but if you want to use a wildcard certificate, then no: https://www.the-digital-life.com/nginx-proxy-manager-ssl/ It depends. If you want to use IPv6, then yes, as IPv6 has no port forwarding. If you only want to use IPv4, then no, as you can forward any port. Where do you found this file?! So you open https://webmin4.dns/ and you see the login page. Then you login and you are forwarded to https://webmin4.dns:10000/ which fails? Then this is a "bug" of webmin. Ironically it is present since a decade: https://serverfault.com/questions/98987/webmin-doesnt-work-fine-behind-reverse-proxy I think you have the following solutions to solve this: a) add this to the advanced config tab of your proxy host: proxy_redirect http://192.168.x.x:10000 https://webmin4.dns; proxy_redirect is an nginx option to overwrite the redirect. It's explained here: http://nginx.org/en/docs/http/ngx_http_proxy_module.html#proxy_redirect You need to test it. Maybe webmin4 does not forward to an IP. Then use this instead: proxy_redirect http://webmin4.dns:10000 https://webmin4.dns; b) allow NPM and your proxy host, to listen to port 10000 by adding this to the advanced config: listen 10000; Now, NPM does not listen only to the ports 80 and 443. It listens to 10000 as well. But beware, this does not work if your webmin container and your nging proxy manager container both use the same network like bridge (as only one can listen to the same port). So it could be necessary to change the webmin container host port to for example 10001 while its still listening internally to 10000: Of course you need to change the NPM proxy host accordingly, so it forwards the traffic from 10000 (and 443) to 10001: And if NPM is running as bridge, you need to add this port in the containers config: c) Change webmin to port 443 and change your NPM proxy host accordingly: I'm not sure if this works as 443 is usually only for https and not http traffic. So test first if you can reach webmin by http://192.168.x.x:443 (http not https!) before going further. If it works, c) should be the easiest option to solve this.
  16. Dann könnte es ein Kernel Prozess sein, aber top zeigt die eigentlich an. In htop muss man Shift+K drücken, damit diese angezeigt werden. Falls du sonst den Load im Dashboard meinst: Der enthält iowait, weshalb der nicht nur die CPU abbildet. Könnte vielleicht eine fehlende Hardware-Beschleuningung von luks:btrfs sein. Sollte man dann aber wie gesagt durch eine hohe Prozesslast in htop sehen können. Am besten mal mit einer einzelnen NVMe alle drei Varianten testen: - xfs - luks:xfs - luks:btrfs Ansonsten vielleicht auch mal das versuchen: https://serverfault.com/questions/1012566/luks-high-transfer-rates-followed-by-high-io-wait
  17. Verstehe ich nicht. Wenn du doch alles offline verfügbar gemacht hast, dann ist es doch "lokal" verfügbar oder nicht?
  18. Du leidest vermutlich unter dem SHFS Overhead. Dieser entsteht, wenn man über den Pfad /mnt/user Daten transferiert. Entweder hat man eine sehr starke CPU (welche hast du?) oder man nutzt Disk Shares / Disk Pfade wie zb /mnt/cache oder /mnt/disk3. Mehr dazu auch in meinem Guide: Mbit oder MB? 1G oder 10G LAN?
  19. mgutt

    Unraid sinnvoll?

    Jo 10G RJ45 Karten werden alle sehr heiß. Den Kühlkörper meiner LR-Link kann ich auch nicht anfassen. Auch nicht im Leerlauf. Aber stimmt schon, die Qnap hat das bessere Konzept mit den Schrauben + Federn am Kühlkörper. Bei der Asus ist der Kühlkörper dagegen auf eine feste Höhe eingestellt. Also kein extra Druck durch Federn. Kannst du Geld scheißen ja? ^^ Sorry, aber ich halte echt gar nichts von Ubiquiti Switchen. Völlig überteuert und miese Effizienz. Reicht dir kein Switch mit 2x 10G wie der von Netgear oder Zyxel. PS Ich verwende viele Ubiquiti APs, aber eben sonst nichts von denen.
  20. mgutt

    Bräuchte Rat

    Naja du hast die docker.img auf disk1 umbenannt und danach doch die docker.img mit CP von der SSD auf disk1 kopiert. Also völlig logisch, dass jetzt beide auf der SSD sind oder nicht? Ich muss da leider auch was reingrätschen. Die Kommandozeile ist völlig unnötig, wenn man die SSD unformatieren will. Die einzig richtige Vorgehensweise wäre gewesen: - Docker und VM deaktivieren - appdata etc von Prefer auf Yes umstellen - den Mover starten (alle Dateien werden nun von SSD auf Array verschoben) - prüfen ob die SSD wirklich leer ist - SSD unformatieren - appdata etc zurück auf Prefer - Mover starten (alle Dateien werden zurück auf die SSD verschoben) - prüfen ob die Shares aus dem Array raus sind - Docker und VM aktivieren Der Mover macht extra Checks ob Dateien noch in Verwendung sind. Außerdem gibt er in den Logs Fehler aus. Wer selber mit der Kommandozeile rumfummelt, riskiert nur Fehler, die man nachher nicht mehr behoben bekommt. Zu 99% hat er mal an der Cache Einstellung herumgespielt und System auf Cache Only oder No gestellt. Und schon killst du seine Docker und er bekäme auch gleich ein drittes docker.img. Sorry, aber niemand sollte Cache Only oder No nehmen, wenn er nicht versteht was sie bewirken. Nur Yes oder Prefer. Wenn er zb jetzt auf Cache Only setzt finden die Docker keine Dateien mehr, da seine SSD leer ist und installieren sich alle neu. Damit wäre das Chaos perfekt. Außerdem hat Cache Only nichts auf einem Pool verloren, wo andere Shares über Yes draufschreiben. Es braucht nur einen großen Upload, der die SSD vollschreibt und alle Docker Container stürzen mangels Speicherplatz ab. Bei Prefer passiert das alles nicht. Prefer leitet neue Dateien auf das Array um, wenn die SSD voll ist. Und der Mover holt sie zurück, wenn die SSD wieder leer ist. Außerdem kann bei Prefer das mit den Dubletten nicht passieren. In welchem Pfad liegen jetzt die Dateien, die vorher auf der SSD waren?
  21. Du solltest in unRAID eine feste IP-Adresse zuweisen, die außerhalb des DHCP Bereichs der Fritz!Box liegt. Hast du Bonding aktiv? Das kann man ignorieren.
  22. In keinem deiner Screenshots hast du die Nvidia GPU und das Nvidia Audio Device an VFIO gebunden. Nur irgendwelche anderen PCIe Geräte, die du gar nicht in der VM verwendest?!
  23. Beim Suchen über den Windows Explorer ist das nur möglich, wenn der Share von einem Windows Server kommt und auch nur wenn auf diesem der Windows Search Service installiert wurde: https://www.cloudtec.ch/blog/tech/2015/add-search-indexed-network-share-windows-library In Linux wurde das bisher nicht realisiert und es wird aktuell scheinbar auch nicht weiter daran gearbeitet: https://lists.samba.org/archive/samba/2020-April/229273.html Statement https://github.com/noelpower/samba/tree/WSP-WIP-4.11 Project Falls es dir reicht nur Ordner- und Dateinamen und nicht Dateigröße und Inhalt durchsuchen zu können, könntest du den Share lokal über Softlinks synchronisieren:
  24. Indexed Searching on network shares works only if: The share is provided by a Windows Server which has the Windows Search Service installed A third party explorer / index tool is used The implementation of the Windows Search Protocol in Linux' Samba is still in development: https://lists.samba.org/archive/samba/2020-April/229273.html Last Statement I found https://github.com/noelpower/samba/tree/WSP-WIP-4.11 Project So I came up with this simple windows batch script, which syncs locally the target share by creating softlinks (which allows only indexed searching for filenames and not size or content): SET target="C:\Users\<your_username>\unraid\sharename" SET source="\\tower\sharename" PushD %source% &&( forfiles -s -c "cmd /c IF @isdir==TRUE mkdir ""%target%""\@relpath" forfiles -s -c "cmd /c IF @isdir==FALSE mklink ""%target%""\@relpath ""%source%""\@relpath" ) & PopD Simply paste it into a file like softsync.bat and execute it as admin. Source (network share): Target (local): Search result: Note: Its a one-way sync. This means if files are deleted on the network share the symlink still exists. You could delete the local folder content at the beginning of the script, if you like to cover deleted files as well. Sources: https://superuser.com/a/210957/129262 https://superuser.com/a/333863/129262 https://stackoverflow.com/a/8714962/318765 https://docs.microsoft.com/de-de/windows-server/administration/windows-commands/forfiles https://docs.microsoft.com/de-de/windows-server/administration/windows-commands/mklink
  25. Ich glaube @ich777 sagte mal, dass dafür der Port im dockerfile auf exposed stehen muss?! Ist also "egal".
×
×
  • Create New...