alturismo

Moderators
  • Posts

    6104
  • Joined

  • Last visited

  • Days Won

    47

Everything posted by alturismo

  1. du nutzt USB Platten wenn ich das richtig sehe ... es wird immer darauf hingewiesen dies zu vermeiden ... unter anderem genau aus diesen Gründen ... die Daten sind nach wie vor da, mach new config, weise deine Platten zu (du nutzt keine Parity) und es läuft wieder, ggf. nur bis zum nächsten Neustart bzw. nächstem sleep / wake ... mehr gibt es bei USB nicht zu sagen.
  2. gibt es nicht aber hier ebenso, ich nutze den official plexinc
  3. wenn der steht, dann kann er ja auch einfach per smb verschieben ... die Sinnhaftigkeit sei mal dahin gestellt, 50 G vorwärts / rückwärts ... anstelle remote dort direkt zu schneiden ? oder ist es "spezielle" Software welche nur bei Dir läuft ?
  4. Samsung sind gut, passt, ob es ne 990 pro sein muss sei dahin gestellt, bei 10G wirst du max 1000 MB/s schaffen ... dir überlassen. nur nimm auf jeden Fall ne vernünftige Größe ... oder auch 2 1. nvme für vm, docker, appdata, system data, download cache, ... 2. nvme als "Arbeitscache" für deinen persönlich wichtigen Part, Bild / Video Bearbeitung. dazu gibt es ja bereits xyz Threads hier ... entweder nachlesen oder andere sollen sich da austoben
  5. embyserver beta is updated and all good again
  6. moin, bitte ein wenig an die Forumsregeln halten und einfach etwas anders formulieren, Danke. aber nicht für Multimedia ausgelegt ist aber ja, eine VM für den Office Kram kannst du zusätzlich easy laufen lassen bei halbwegs vernünftiger Hardware, für Multimedia ist die Richtung wie @EliteGroup angemerkt hat schon der einfache und dafür sicher bessere Weg.
  7. 1/ Platte einbauen 2/ entweder - 1/ Disk ins Array ergänzen - dann die Daten von disk1, disk2 auf disk3 verschieben, Beispiel mit dem plugin unbalanced, von Hand im Terminal, mit Docker Krusader, dem File Manager, ... - 2/ Disk als UAD mounten - dann die Daten von den disks kopieren (hast auch ein Backup im Notfall ...) 3/ Array stop 4/ tools, new config 5/ disk zuweisen, die "alten" nicht mehr zuweisen 6/ ausbauen bei Bedarf fertig ps. ich lösche jetzt den doppelten ... unglaublich
  8. vorne angefangen, NICHT Doppel posten ... meine Antwort steht bereits in deinem anderen Post ... Mann Mann
  9. Nachtrag, deine 2 anderen Posts (Triple Postings ...) hab ich gelöscht, nur zur Info.
  10. Settings, Docker, Stop, Image löschen, Start (neues Image wird installiert), Docker wieder aus add container installieren Docker Start settings bleiben so erhalten, Docker persistent data liegen auf /appdata und bleiben erhalten, das war es schon ...
  11. das ist auch nicht elementar, aber die bridge und das setup drumherum ...
  12. naja ... dann hast du das Thema in den Anleitungen mit macvlan nicht beachtet (war auch in den changelogs) und ganz neu ist das nicht ...
  13. normal ist das nicht nötig und wenn es nur die paar Meldungen waren dann wird es auch das nicht gewesen sein ... ich frag jetzt nicht warum, wirst deine Gründe haben ok, dann sollten da die aktuellen logs alle drauf sein, Hinweis ... das ist ein USB Flash Killer ...
  14. mal grundsätzlich einlesen wie docker mounts funktionieren ... das Problem sitzt ja in der Regel 60 cm vor dem ... du gibst in immich den Host Pfad ein und nicht den "Docker Point of view" ... aus Docker Sicht ist der Pfad /import und nicht /mnt/user/.... solange du nicht /mnt/user/... auch innerhalb des Dockers so mountest wird das nichts, also, Basics einlesen oder einfach mal ableiten anhand der genutzten Docker/s ...
  15. ich hab die Frage erstmal realistisch aus der Kaufberatung hier verschoben. dazu solltest du in einem RPi Forum anfragen auch dafür bist du normal im falschen Forum unterwegs aber um es kurz zu machen ... ein Beispiel. RPi 4, Kodi installieren, Plex Kodi Connect installieren oder Standard Plex Addon, und jetzt alles abspielen was der kleine RPi4 so kann ... und wenn es wlan ist, entsprechend so gut wie deine WLAN Infrastruktut ist und der kleine RPi4 damit klar kommt, hat aber nichts mit dem NAS zu tun, egal jetzt ob das Unraid oder was auch immer ist oder ich hab die Frage komplett missverstanden und du meinst ernsthaft RPI als VM auf Unraid laufen zu lassen währen der Server inkl. VM in einem anderen Raum steht und per WLAN auf einen anderen Server zugreift um die Medien zu lesen ? Nein, das kann ich mir nicht vorstellen
  16. dann ist es auch etwas anderes, 50-100 wären egal unter "geflutet" verstehe ich etwas anderes da bin ich sogar teilweise bei Dir, Hintergrund 1/ Unraid läuft komplett im RAM 2/ für logs wird eine separate Ramdisk erstellt mit 128 MB 3/ wenn die voll läuft ... root@AlsServerII:~# df -h /var/log/ Filesystem Size Used Avail Use% Mounted on tmpfs 128M 1.5M 127M 2% /var/log root@AlsServerII:~# ist halt die Frage, wie groß soll / darf es sein ... ? daher diese Lösung um nicht perm auf ne disk ein logfile zu schreiben ... so, Unraid läuft noch meinst du, was macht das Terminal ? SSH in den Server und gib mal den gezeigten Befehl ein. Dann, erstell mal ne diagnostics << klick und poste die hier, dann kann man eher etwas dazu sagen.
  17. naja ... tools, new config, ja ich will ... Datenträger neu zuweisen, fertig. steht auch in der Dokumentation ... und wenn schnelle Hilfe erwartet wird, im englischsprachigen Teil posten und ggf. Service buchen wenn es "Arbeits relevant ist" ... was ich mir bei dem setup nicht vorstellen kann, dann hätte man sich mal damit auseinander gesetzt und sicherlich keine USB disk im Einsatz was grundsätzlich kritisch ist ...
  18. wenn der log voll läuft ... geht 1/ nginx nicht mehr, dein web interface 2/ demnächst der Server in die Knie (wahrscheinlich) in Zukunft, Fehler beheben und nicht warten bis zum "Point of no return" und wenn dies bedeutet den Fehler "auszublenden" dass das log nicht voll geschrieben wird wenn du meinst es hätte nichts zu bedeuten. enhanced syslog ... plugin ...
  19. angefangen damit die Umsetzung nochmals sauber zu erledigen wie in dem post angemerkt und die Docker auch entsprechend zu korrigieren, ansonsten fängst du später wieder an ... einmal richtig machen und dann ist gut, vorwärts, rückwaärts ... Ergebnis siehe deine Fehler ... und da niemand weiß was du jetzt alles gemacht hast (und revidiert hast) ... kann man dir so nicht helfen. ps. ich nutze WOL hier schon immer um meine VM's zu starten, auch mit der 6.12.8
  20. ist es auch nict, nur NC is a bit... wenn es ums setup geht. im Anleitungsteil findest du einen Thread um viele dieser Fehler zu beseitigen, denen fällt auch mit gefühlt jedem Release was neues ein was man korrigieren dard, Datenbank Updates der Tables machen muss, usw usw usw ... google wird dir auch zu all den Fehlern etwas auswerfen und wie diese zu beseitigen sind ... Wenn du dich auch mal etwas einliest wirst du sehen das die Office Pakete welche innerhalb NC angeboten werden mit keiner alpine base gehen, weder mit der LSIO Variante, noch mit der offiziellen von NC selbst (alpine based), geht nur wie von @swiss01 angemerkt mit dem separaten Docker (Onlyoffice oder Collabora) und dem Office Connector, der entsprechenden Reverse Proxy Config und dann klappt das auch.
  21. in der Kombi, ja, alle Docker haben die gleiche mac ... Fritz nutzt die mac als führendes routing Element ... die Docker "hüpfen" im Router von IP zu IP ...
  22. ja, SAS kann im Verbund schneller sein, macht aber in der Unraid Welt keinen echten Sinn. wenn dir Foto/Videobearbeitung wichtig ist, große nvme cache Platte, 10G Netzwerk, alles gut. wenn die fertig editirten Dateien dann im Datengrab liegen und nur noch zum Lesen geöffnet werden, braucht es kein SAS und du hast 1/ die beste performance bei dem workflow 2/ die Kosten im Rahmen gehalten 3/ keine Baustellen im NAS Betrieb geöffnet 4/ keine Heizung und Dauerbrenner laufen ... wenn du jedoch die Dateien immer bearbeitungsfähig haben willst (auch auf den disks), dann ... sieht das anders aus, aber dann wirst du mit den Nachteilen leben müssen die entstehen können, Hochleistung mit mechanischen Platten wird nie so effizient sein wie nvme (oder SSD wenn es günstiger sein soll). Ich schätze jedoch, der normale workflow ist, neues Material kommt rein, wird bearbeitet ... wenn fertig, ab ins Datengrab und bei Bedarf abgespielt. Sollte dann doch mal was nachgearbeitet werden müssen, kann man auch gerne die Datei retour auf den schnellen nvme cache spielen ... nur als Hinweis.
  23. das wird auch nichts wenn du die "Verdächtigen" bereits getestet hast im Notfall, hol dir nen externen Controller ... ich nutze beispielsweise für die Desktop / VM Maschine einen Aqua Quadro Controller, allerdings war hier der Auslöser Steuerung über Wassertemp ... aber die kannst du auch dann ansprechen.
  24. auch mal hier da sich das langsam einbürgert NGINX ist die effektive Webserver app ... wahrscheinlich nicht der verwendete Reverse proxy Docker ... läuft beispielsweise nativ auf Unraid läuft im NPM läuft in swag (ehemals letsencrypt) läuft als frontend in dem NC Container läuft ... wenn du zu mir Nginx sagst, meine ich Nginx nativ, nicht den NPM, nicht swag, nicht Unraid, sondern es gibt auch den simplen Nginx Docker ...