mgutt

Moderators
  • Posts

    11265
  • Joined

  • Last visited

  • Days Won

    123

Everything posted by mgutt

  1. Hoffentlich, denn mit der Arc kann man nichts anfangen: https://www.techpowerup.com/review/intel-arc-a750/38.html
  2. Das Icon wird nur aktualisiert, wenn man den systeminternen Befehl verwendet: /usr/local/sbin/emcmd cmdSpindown=disk2 Ich weiß allerdings nicht was man bei Unassigned Disks angeben muss 🤔
  3. Jeder USB SATA Controller verhält sich anders. Da hat unRAID keinen Einfluss drauf. Man schickt zb das Spindown Kommando, aber der Controller macht dann einfach gar nichts. Bzw würdest du das von Hand mit hdparm oder smartctl ausführen, würdest du vermutlich eine Fehlermeldung sehen: smartctl -s standby,now /dev/sdX
  4. Nein. Dann ist der Mover deaktiviert. Dann war deine Vorgehensweise absolut richtig. Man darf ja ruhig ein RAID1 mit nur einem Datenträger starten. Anders wäre es ja auch nicht, wenn die im Betrieb kaputt gegangen wäre. Ach war das vorher verschlüsselt? LUKS nutze ich nicht, daher kann ich dir da leider nichts zu sagen.
  5. Du meinst ohne die eine fehlende NVMe, aber schon mit dem Cache Pool? Weil ohne Cache Pool wäre böse. Dann installieren sich alle Docker auf dem Array neu, weil sie nicht mehr gefunden werden.
  6. Gar nicht. Alles was auf der SSD liegt ist nicht mehr gegen Ausfall abgesichert, wenn man kein RAID1 hat. Ist doch logisch oder nicht? Viele nehmen das in Kauf, weil sie regelmäßig Backups machen und eben wie du nur einen Slot haben. Wenn du das auch vor hast, dann solltest du das RAID1 wieder auflösen. Anders kommt man nicht auf einen Single Disk Pool. Siehe auch: https://forums.unraid.net/topic/46802-faq-for-unraid-v6/#comment-480418 Ich würde es daher so machen: - Einstellungen > Docker und VM auf No stellen - Shares > appdata, system und domain auf Cache Yes stellen - Mover starten Erst wenn die SSD wirklich leer ist: - Tools > New Condig und Array behalten auswählen - jetzt kannst du einen neuen Pool mit einer NVMe erstellen, vorzugsweise XFS - Shares wieder auf prefer - Mover starten - wenn fertig: Docker und VM wieder auf Yes Backups könnte man zb von Pool Richtung Array machen. So mache ich das und sichere sie dann zusätzlich auf ein Remote Ziel.
  7. Bald müssen Plexer, Jellyfiner und Embyianer wohl doch von der sparsamen Intel iGPU abweichen und mit einer Nvidia Grafikkarte transcodieren. Klingt jedenfalls mega interessant, wenn auch bestimmt ein Stromschlucker: https://www.golem.de/news/video-super-resolution-nvidia-grafikkarten-skalieren-youtube-videos-auf-4k-hoch-2303-172344.amp.html Nvidia hat hier eine FAQ veröffentlicht: https://nvidia.custhelp.com/app/answers/detail/a_id/5448 Von Linux ist nicht die Rede. 🤷
  8. Kurzer Hinweis: appdata kann man nicht sicher auf externe Ziele mit luckybackup sichern. Nur auf Linux Dateisysteme und nur mit root-Rechten, ansonsten gehen wichtige Dateirechte verloren. Wenn du nur von Cache auf Array sicherst natürlich ok, aber evtl hast du auch vor auf externe Ziele zu sichern.
  9. Du hast die defekte Platte gegen sich selbst ersetzt und darauf dann den Rebuild gemacht oder wie?! Als IT'ler wird dir ja bekannt sein, dass Löschen nicht gleich Löschen ist. Wenn außerdem nur die Partition durch das defekte Kabel beschädigt wurde, besteht ja sogar noch Hoffnung, dass man sie reparieren kann. Also ich würde daher erstmal mit Reparaturbefehlen starten. Wenn es wertvolle Daten sind, würde ich sogar erstmal einen dd von der Platte machen. Wegen der fehlenden Mediendateien kann vielleicht @hawihoney sagen wo man in Plex herausfindet, was gerade als "verloren" markiert ist. Bzw ich vermute ein Rescan würde die dich jetzt als fehlend kennzeichnen, aber nicht gleich aus der Plex Datenbank löschen.
  10. Ja und Microsoft rechnet in Gibibyte und nutzt aber Gigabyte als Bezeichnung weil sie ihre User für zu dumm halten (steht so in der Begründung): https://devblogs.microsoft.com/oldnewthing/20090611-00/?p=17933
  11. Doesn't make sense. Powertop has nothing to do with mounted disks or similar. It sets some Kernel options and this is a single execution. Nothing which runs permanently in the background.
  12. Verstehe ich nicht. Klingt so als hättest du mal mit no / only rumgespielt und hast nicht beachtet, ob appdata komplett auf Array bzw Cache lag. Vor allem sollte die klar sein, dass du keine Dateien mit dem Mover bewegen kannst, die in Verwendung sind. Docker und VM also vollständig abschalten. Dann über Shares prüfen, wo appdata alles liegt. Auch auf Disks und Cache separat prüfen, ob es Dopplungen gibt (selbe Datei auf Cache und Array). Wenn das der Fall sein sollte, hast du die A-Karte gezogen. Außer du weißt welche der doppelten Dateien du behalten willst.
  13. Vom Prinzip sollte nichts zu beachten sein. Er wird nur eben meckern, dass die zweite SSD fehlt. Dann würde ich die mit dem Mover leer machen (vorher Docker und VM auf Nein stellen) und per Tools > New Config nur die Pools neu machen. Dann eben eine einzelne XFS SSD.
  14. Probier auch noch das: admin users = deinUsername Und vielleicht das?! create mask = 0600 directory mask = 0700 Ansonsten müsste man mal das log level aktivieren und schauen was das Problem ist.
  15. Verstehe ich nicht. Da sind doch nur 4 Löcher in dem Board. Warum sind dann die Schrauben zu kurz?!
  16. Stopp den Container für ein paar Stunden. Diesen Fehler solltest du auch dem Entwickler melden. Es ist nicht richtig, dass so viele Requests abgesetzt werden.
  17. Das ist korrekt und bleibt auch so. Die Zeile force user = root macht den SMB User ja zum User root. Eventuell mal den Windows Client neu starten. Jo, weil FAT32 sowas wie Linux Dateirechte nicht kennt. Beim Mounten wird ein User festgelegt und dann tut Linux so als hätte FAT32 Dateirechte. Wirklich geben tut es die aber nicht. Daher kann man sie auch nicht ändern.
  18. Ich habe mir einen Share über SMB extra gemacht und bearbeite die Skripte über Visual Studio Code. Dank Shellcheck Plugin sieht man auch schnell mal kleine Fehler. [unraid-scripts] path = /boot/config/plugins/user.scripts/scripts valid users = marc read list = write list = marc force user = root
  19. Du musst manuell einen scrub machen, wenn du auf den Pool klickst. Oder eben über die Konsole. Verstehe ich auch nicht. Aus dem Grund habe ich selbst was geschrieben: Das lasse ich stündlich laufen und bekomme dann per E-Mail die Info, wenn was ist.
  20. Ich bin auch noch bei 6.9.2. Habe zu viel angepasst, was ich erst mal ausgiebig testen müsste ^^
  21. Nein. Man gibt der Domain dann die lokale IP vom Proxy. Das geht, aber wie gesagt nur wenn man die DNS basierte Authentifizierung zum Laufen bringt.
  22. Kannst du es mal ohne den HBA probieren? Ich tippe aktuell auf den. Ansonsten auch gerne mal den entsprechenden Auszug aus den Logs Posten. Also falls etwas zum selben Zeitpunkt auch noch geloggt wird, was uns den Zusammenhang evtl besser klar macht.
  23. Ich habe noch keine VM gestartet, die die C-States nicht gekillt hätte. Gibt es so schlanke VMs, die das nicht tun?!
  24. Im ersten Schritt benötigst du eine Domain. Ohne Domain kein Zertifikat. Und im zweiten Schritt müsste man eine DNS-basierte Validierung des Zertifikats hinbekommen, da Lets Encrypt deinen Server nicht erreichen kann. Bei NPM geht das zB nur mit wenigen Providern. Ich habe das über DNS bei NPM ehrlich gesagt noch nie gemacht. Denkbar wäre auch den Container zu nutzen: https://github.com/acmesh-official/acme.sh/wiki/Run-acme.sh-in-docker Die acme.sh unterstützt sehr viele Hoster wie zB auch Hetzner, All-Inkl (dns_kas), ionos, usw: https://github.com/acmesh-official/acme.sh/tree/master/dnsapi Nach der Validierung schreibt der Container dann in den Pfad X die validierten Zertifikate. Das könnte dann direkt der Pfad von dem Nextcloud-Container sein oder besser der Pfad von dem genutzten Proxy wie SWAG oder NPM.