Jump to content

mgutt

Moderators
  • Posts

    11,370
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Damit bekommst du nur Stress. Also wenn die ins Array sollen.
  2. Dann musst du aber glaube ich den Pfad mit den Dateien in Appdata packen
  3. This is correct, but you aren't forced to have a GPU in your VM. This is only optional, but it's recommend if your VM is used as a client (and not only a server application) as without GPU video playback can be a problem.
  4. You problem is different. Nobody in this topic suffers from reconnects.
  5. Mein Vorschlag: Alten Container umbenennen in "ioBroker Stabil" und keine Updates installieren. Vorzugsweise die Version mit einem Container tag fixieren. Nun den Container neu installieren und "ioBroker Spielwiese" oder so nennen. Die Pfade natürlich auch auf neue Ordner verweisen lassen, also zb /mnt/user/appdata/iobrokertest und jetzt testest du mit einem komplett neuen Container herum wie du willst. Also Export und Import eines Backups zb. Oder du kopierst den anderen Container 1:1 und spielst damit herum. Kein Grund sich ein laufendes System zu zerlegen. Deine eher panische Ausdrucksweise lässt außerdem vermuten, dass du keine Backups hast. Ist das so? Kümmer dich darum.
  6. Irgendein Intel Setup mit Pentium Gold oder i3 und möglichst klein, also wenn möglich ITX. Optimum ist 8te bis 10te Generation. Die sind sparsam und du kannst die iGPU in der VM nutzen. Auch mal hier lesen: https://forums.unraid.net/topic/99393-häufig-gestellte-fragen/?do=findComment&comment=1021228 Es gibt auch ITX Boards, die das J5005 beim Verbrauch locker unterbieten. Zb das C246N-WU2.
  7. Wer braucht heute noch Link Aggregation? Entweder nimmst du 10G oder 2.5G oder aktivierst SMB Multichannel. Ich würde die Dosen zwar bis zum Patchfeld verkabeln, aber nicht extra dafür Switche betreiben. Wenn du doch mal zwei Buchsen benötigst, dann patchest du eben. Das ist eine Sache von 2 Minuten. Wobei ich überall Doppeldosen eh für fragwürdig halte. Bei meinem TV brauche ich 5x 100 MBit, wenn es hoch kommt. 5 Buchsen habe ich nicht, sondern einen Unifi InWall Pro (AP+Switch). Im Schlafzimmer habe ich eine und da hängt jetzt ein Unifi InWall Pro dran. Also so gesehen bräuchte ich gar keine. Die Kids brauchen eine... allerdings 2.5G und ich im Büro 10G. Der Rest hat Dosen für Sonos (dadurch kann ich die ohne WLAN betreiben) oder Kameras. Die bräuchten eigentlich auch nur 100 MBit. Was ich damit sagen will: Viel LAN Kabel kostet Geld, vielleicht ist Multigigabit günstiger? Ich mein klar, den Bedarf sollte man decken. Zb habe ich beim TV fehlgeplant, weil ich dort einen Switch brauche, aber ob ich mir da 3 Doppeldosen hätte setzen lassen? Ich weiß nicht. Und in Zukunft spielt WIFI6 eine viel größere Rolle als zig Doppeldosen. Daher lieber möglichst flexibel Anschlüsse für APs planen. Auch draußen im Garten und für PKW Ladepunkte. Was ist das eigentlich für ein Stromverbrauch der Switche? Das kann doch nicht stimmen. Sind das Werte bei Volllast? Kann doch nicht sein. Findest du die WLAN Produkte von AVM so toll oder warum das? Gerade beim Neubau kann man doch schicke Sachen verbauen. Unifi hat nicht umsonst so eine gute Reputation und sind optisch unauffällig. Ach ja, denk an verkabelte Rauchmelder.
  8. Sounds like an error page from Home Assistant or similar. Please show a screenshot of the error page. Does your domain have a public or local ip? If it's local, then you need to put your domain in the allow list of the DNS rebind protection of your router.
  9. Du kannst unRAID auch nur mit SSDs betreiben. Ob das sinnvoll ist, entscheidet dein Geldbeutel 😉
  10. Jetzt ist für den den selben Preis die WD Ultrastar drin.
  11. Optional kann es notwendig sein, dass du im Router den DNS rebind Schutz für deine Domain aufheben musst. Das ist z.b. bei einer Fritzbox der Fall. Lassen sich custom DNS-Einträge bei pihole nicht über die GUI erstellen? Wer das nachbauen will sollte übrigens eine separate Hardware für pi-hole haben. Ansonsten kommt man nicht mehr ins Internet wenn der unRAID Server aus ist und Pihole darauf läuft.
  12. Das Script wird ausgeführt, bevor Apache überhaupt gestartet ist (denke ich zumindest) und Regeln in der .htaccess sind sofort aktiv. Dh du brauchst keinen Restart.
  13. Du kannst die RAM Module einzeln testen und das fehlerhafte Modul erst mal weg lassen. Solange der defekte RAM drin ist, würde ich gar nichts machen. Weder Reparaturen, noch Dateien hinzufügen, Docker laufen lassen, VMs oder Paritäten erstellen. Ansonsten korrumpiert der nur weiter deine Daten. Ob die Platten neu müssen, kann ich nicht sagen. Reallocated Sector Count heißt, dass es defekte Sektoren auf der Platte gibt und er auf Ersatzsektoren ausgewichen ist und Reported Uncorrect heißt, dass Daten in Sektoren kaputt sind und nicht mehr repariert werden konnten. In wie weit hier nun der RAM dran schuld ist, kann ich nicht sagen. Ich meine nicht. Ich meine das passiert direkt im HDD Controller, aber genau weiß ich es nicht. Wenn sehr viele Dateien in einem Ordner sind, dann kommt diese Meldung, ja. Aber ich glaube eher, dass es hier Fehler gibt. Wie gesagt. Fang erst mal mit dem RAM an.
  14. Deine Domain hat eine lokale IP. Ist das NPM mit einer statischen IP aus dem br0 Netzwerk oder die von Unraid und NPM läuft im Bridge Modus? Weil der Fehler sagt ja klar aus, dass auf Port 443 keine Antwort kommt. Lauscht NPM auf Port 443? Bei mir läuft NPM als Host und Unraid lauscht auf Port 5000/5001. Dh NPM lauscht über die Unraid IP auf Port 80, 81 und 443.
  15. Je nach Exit Status eines Kommandos kann man es auch so machen: if ! grep -w "BEGIN CUSTOM-SETTINGS" /mnt/user/appdata/nextcloud/nextcloud/.htaccess; then Hinweis: Habe nur ein N bei BEGIN, weil Englisch 😉
  16. Did you restart the container? PS there is an easier method available. Add this to the post arguments: --skip-innodb-read-only-compressed Or add :10.5 to the repo name like this: mariadb:10.5 By that the container does not update to an incompatible version.
  17. Ok, ich bin maximal verwirrt. Über "Konto erstellen" konnte ich mir einen User anlegen und auch ein beliebiges Master-Passwort setzen und mich dann auch anmelden. Aber da können sich dann ja unendlich viele Leute Accounts anlegen oder wie?! Wozu kann man dann überhaupt die Variablen beim Container ausfüllen?! EDIT: OK, macht Sinn. Ich habe ja SIGNUPS_ALLOWED auf true gesetzt. Aber warum ignoriert der SERVER_ADMIN_EMAIL und ADMIN_TOKEN? Und vor allem warum habe ich eine SQLite Datenbank und du eine json Datei als Speicherort? EDIT2: Ich habe mir jetzt die sqlite Datenbank heruntergeladen und mal reingeschaut. Es gibt gar keine User, also SERVER_ADMIN_EMAIL scheint gar nichts zu machen: Erst wenn man ein Konto über die GUI erstellt, wird dieser User der Tabelle hinzugefügt. EDIT3: OK. Das erstellt keinen User, sondern der User, der sich registriert und die selbe E-Mail-Adresse hat wie in SERVER_ADMIN_EMAIL, der hat in der GUI mehr Rechte. Diese Info wurde zwischenzeitlich aus der Read Me gelöscht. Findet man nur noch in der alten Version: https://github.com/thelittlefireman/bitwarden_rs/tree/6d4786d379ea6503ebdc8457754b90eb61a6b130#configure-server-administrator Wobei die Frage ist ob das bei Vaultwarden auch so existiert?! EDIT4: Nein, die Variable gibt es gar nicht mehr: https://github.com/dani-garcia/vaultwarden/search?q=SERVER_ADMIN_EMAIL&type=code EDIT5: Hier stehen alle Variablen, die es noch gibt inkl Beschreibung: https://github.com/dani-garcia/vaultwarden/blob/ead2f02cbd8a6fe29da0d0b09e68569920d3a4d2/src/config.rs#L371 Und wenn ich das richtig verstehe, kann quasi jeder User auf einen Admin-Link klicken, aber diesen nicht öffnen, wenn er nicht den ADMIN_TOKEN kennt: https://github.com/dani-garcia/vaultwarden/blob/ead2f02cbd8a6fe29da0d0b09e68569920d3a4d2/src/api/admin.rs#L72 EDIT6: Ahaaaa. Man kann https://passwords.example.com/admin öffnen um das Admin-Panel zu erreichen. Da braucht es keinen User für. Nur den Token: EDIT7: Ich habe einen Pull Request für das Template gestartet, damit das etwas klarer wird: https://github.com/selfhosters/unRAID-CA-templates/pull/299 @Roxedus
  18. Bei mir nicht. Bei mir geht das, außer eben die Fehlermeldung beim Login: Bei NPM: Wie man sieht habe ich nicht mal https erzwungen. Ich kann daher bitwarden sowohl über http als auch über https öffnen. Ok, die hab ich gar nicht ^^
  19. Jo, dann wäre es sogar etwas flexibler und die entsprechende Zeile ist Wurst. Macht denke ich sogar mehr Sinn.
  20. Ich kenne LuckyBackup jetzt nicht, aber bei Aufgabe stehte "Test1". Bezieht sich der Cronjob auch auf diese Aufgabe? Also es sind jetzt nicht zufällig zwei verschiedene oder so?
  21. Jo, Appdata enthält aber eigentlich keine Logs, sondern die Nutzerdaten eines Containers. Die Logs liegen nichts sichbar im docker.img in einem kryptischen Pfad. Wenn es um "Dockerdaten" geht, wird aber Cache Only nicht helfen. Denn wenn er No eingestellt hat, ist der Mover ja für diesen Share bereits deaktiviert und mit Cache Only bleibt er das ja. Er müsste erstmal Docker deaktivieren, Dockerdaten auf Prefer stellen und dann den Mover anschmeißen. Wobei eh die Frage ist warum der Share überhaupt erstellt wurde. @megabait Erkläre mal bitte warum du "Dockerdaten" erstellt hast? Exakt für diesen Zweck ist der Standard-Share "appdata" gedacht. Wenn es darum geht einen deutschen Namen zu haben, dann weißt du hoffentlich, dass du nicht nur einfach einen zusätzlichen Share erstellen musst, sondern auch in den Docker-Einstellungen den Pfad anpassen musst: Machst du das nicht, werden neue Container nach wie vor überall /mnt/user/appdata voreingestellt haben. Und dass Disk 1 ständig läuft, wenn du Disk 1 bei Dockerdaten als Speicherplatz wählst während du den Cache auf "No" gestellt hast, ist ja denke ich logisch 😉
  22. Ich beantworte hier ja schon seit einiger Zeit Anfragen und ich kann dir sagen, dass das zu 99% passiert, weil der Nutzer erst das Array eingerichtet hat und nach dessen Start den Cache Pool. Dh Docker wurde auf dem Array installiert, die Dateien sind in Nutzung und können vom Mover nicht vollständig auf den Cache Pool verschoben werden. Ein Klassiker im Forum und ja auch simpel lösbar, wie bereits beschrieben. Allerdings lesen manche Nutzer im Forum "Cache-Only", verstehen den Kontext nicht, stellen darauf um, ohne den Mover erst alles bewegen zu lassen und schon sind alle Container zerschossen, weil sie sich zum großen Teil neu installieren. Diesen Fall haben wir hier immer wieder zu beklagen, weshalb ich ja schon mal vorgeschlagen habe, dass der Nutzer eine Warnung erhalten soll: https://forums.unraid.net/topic/102826-add-warning-to-use-cache-share-settings-and-disallow-change-for-appdata-share/ Bei den restlichen 1% hatte der Nutzer einen voll gelaufenen Cache und dank Prefer, wurde auf das Array ausgewichen. Auch hier wäre die Umstellung auf Cache-Only tödlich für die Container. Das war's. Andere Fälle hatten wir noch nie. Ich mein wie soll das auch gehen. Der Nutzer stellt einen Pfad auf /mnt/disk5/appdata/dockername und vergisst dann, dass er das gemacht hat und wundert sich im Anschluss, dass Disk 5 dauerhaft läuft?! Und was genau ändert Cache-Only an dieser Vergesslichkeit? Er muss doch nur auf den Shares > appdata > Ordner-Icon klicken und sich die Spalte Location anschauen und schon sieht er, dass in diesem Beispiel bei bitwarden was nicht stimmt: Dafür muss man doch nicht irgendwelche Cache-Einstellungen ändern?!
  23. @Conrad AllanThis statement is simply wrong. Cache-Only has absolutely no impact on performance. It only limits the size of the share to the size of the used pool and disables the mover. You can simply test it. Transfer a file to a share which uses Prefer and check your CPU load with htop (130 - 200 % load): Now do the same with a share which uses Cache-Only (130 - 200% load): There is only one method available to boost performance and this is enabling direct disk / pool access. Either by enabling Global Disk Shares or by adding a custom Share through the smb-extra.conf. Example: [Music-Cache] path = /mnt/cache/Music comment = browseable = yes # Private writeable = no read list = write list = marc valid users = marc case sensitive = auto preserve case = yes short preserve case = yes After restarting the array (or changing something of a shares settings, which restarts the SMB service), you will see a new share in your network: And if you now copy a file to this new share, it directly points to the cache pool and bypasses the FUSE overhead (90 - 130% load):
  24. a) es gibt AFAIK keinen Container, der als Pfad /mnt/diskX voreingestellt hat b) wenn es so wäre, würde Cache Only nichts daran ändern. Die Cache Einstellung hat keinen Einfluss auf Disk Pfade c) lässt man es auf Prefer und schaut in den Appdata Ordner, dann sieht man doch an Hand der Location welcher Container auf das Array schreibt. Dafür muss man nicht extra auf Cache Only wechseln.
  25. Das meine ich ja. Ich lese ja die letzte Zeile mit tail aus. Dann wäre die ja leer. Also doch mit -n. Oder man muss "| tail -n2 | head -n1" machen um die vorletzte Zeile auszulesen. Naja @Anym001 bekommt das schon raus 😁
×
×
  • Create New...