alturismo

Moderators
  • Posts

    6101
  • Joined

  • Last visited

  • Days Won

    47

Everything posted by alturismo

  1. es gibt keinen "Standard" bei Dockers ... kommt ja drauf an welchen du genommen hast ... aber kurz, ja, ist falsch ... kurz, /usr/src/... landet im Ram, nach einem Neustart ist das weg ... das anpassen auf "echte" Pfade ... da ich einen anderen Docker nutze ... aber vom Grundsatz ... /mnt/user/DEIN_SHARE_HIER ... dann klappt das auch ... und mein Unterton, naja, ich lass jetzt meinen Kommentar hierzu ...
  2. ist ein Weg ... aber dafür braucht es sicher kein Video ... und schon gar nicht das angegebene ... 1/ mal mit \\1.2.3.4 >> IP deines Unraid anstelle Hostname versucht ? 2/ netbios mal aktiviert 3/ sind die clients als privat oder öffentlich im Netz (privat wäre richtig) ... weil, neu aufsetzen ... was wirst du anders machen ? da bleibt ja nicht viel ... zum Start, Unraid starten, Festplatten zuweisen, Array Start, Share anlegen, freigeben, fertig ....
  3. außer viel Text ohne effektiven Inhalt ... keine effektiven Angaben gemacht. Unraid aufgehangen, Neustart, paperless Dokumente sind weg ... wie @cz13 anmerkte, Infos auch geben und zeigen ... docker run oder screenshots von paperless ... dann könnte dir (vielleicht) auch geholfen werden ...
  4. yep, erledigt und Danke für den Hinweis
  5. when i remember correctly, nothing special besides installing the one really working intel gpu driver ... nope ... i tested with a Monitor setup in the beginning when nothing was working properly, but in the end its been the driver ... so it works without any attached monitors, meanwhile i have a kvm attached which also emulates a moni on the hdmi port, but worked before too ... so thats not the showrunner.
  6. da geht es sicher um Ausfall ... vor allem bei btrfs Platten, xfs single drive sind in Summe "rock solid". wenn dir die Datenverfügbarkeit in Echtzeit wichtig ist, dann ist ein pool (raid) Pflicht, wenn dir beispielsweise daily backups reichen (wie hier beispielsweise) dann reicht auch single drive mit Backup Strategie ... Bit-Rot ist das fehlerhafte Schreiben (meist durch defekten Ram) ... da hilft der beste Pool nichts ... was kaputt ankommt ... ist kaputt dafür ist die Diskussion bzgl. ECC Ram gefragt ... daher sage ich ja, einlesen ... ECC Ram wird genutzt um dem Bit Rot vorzubeugen ... zfs noch dazu um entstehende Fehler ggf. zu korrigieren welche durch das Dateisystem entstehen, wobei hier halt Raid Modi (egal ob btrfs, zfs, ...) anfälliger sind ... aber egal, das ist eine "Glaubensfrage" ... zfs ist für mich persönlich eher ein Datacenter Thema und kein Homeserver Thema, aber auch da ... jeder für sich und wie er sich wohl fühlt in Summe, mit ECC Ram und zfs hast du 99,9 erschlagen zum Thema Bit Rot, also, bleib dabei zfs raidX werden halt nie das Unraid Array erreichen da dies sich widerspricht, ein Raid Pool ins UNRaid ... aber das Schöne ist, du hast die Wahl passt.
  7. zeig doch mal eher was passiert beim docker run von deinem calibre ... als "orphan" werden die markiert wenn etwas nicht passt , Beispiel, leere Pfade ... es kommt ja immer auch eine Fehlermeldung ... dann kann man entscheiden wie es weiter geht ...
  8. das hängt vom Docker ab ... aber geh mal nicht davon aus ... daher lass es besser für dich sonst hast du immer ein ungutes Gefühl dabei ... Nein, heißt es nicht und hab ich nicht geschrieben, es ist nur eine GUI ... aber ja, ich nutze die seit ein paar Jahren ... ob das was für dich ist, wenn ich die Fragen sehe, Nein, setze etwas ein was aktiv developed wird für dein "Wohlbefinden" du hast X Docker zur Auswahl, X plugins zur Auswahl ... nur auch hier merkt man, du brauchst die "Sicherheit" und die scheinst du nur zu bekommen als "festen" Bestandteil ... dann bist du jedoch in der Linux Welt nicht unbedingt gut aufgehoben ... hier wird schon "Eigenverantwortung" gefördert sprich, deine Argumente verstehe ich persönlich gar nicht ... du hast ne große Auswahl wo zur Verfügung steht und findest es schade das nichts zur Verfügung steht ... ich schätze du meinst etwas "Fertiges" von Limetech in Unraid integriert ... da sind wir dann bei meiner Argumentation oben. zum Beispiel eins der "angebotenen" Lösungen ... und das ist der wo bereits seit 2022 im Appstore ist ... und jetzt ab 6.13 dann halt einfach fix installiert wird ... Zusammengefasst, überleg Dir ob das wirklich das richtige für dich ist und nicht doch ein fertiges System mit den fixen Dingen die bessere Wahl ist ... hier wirst du immer mal auf eine Idee kommen, und wirst nach etwas schauen und testen ... ist die Frage ob das "deins" ist ... Im Gegenzug, dafür hast du halt hier alle Möglichkeiten ... nur die Frage ob man das will,
  9. vorab, mal in den passenden Bereich geschoben ... wo steht das ? auch zfs pools können dafür genutzt werden ... auch das ... wo steht denn sowas ... hier vermischst du eher was ... cache sollte im Pool sein wegen Ausfall Sicherheit ... oder (wie ich) eine Backup Strategie verfolgen .... Bit Rot ist etwas ganz anderes ... bitte mal einlesen, nachdenken, dann nochmals fragen ... siehe den Punkt darüber ... einlesen ... kurze Info vorweg, du hast ECC Ram ... Bit Rot ... einlesen ! ja, Unraid basiert auf einem Array und nicht auf pool/s ... daher braucht es ein Array, und sei es ein USB Dummy ... Fragen dazu lauten ? reicht der Server dafür ... ja, ist es Unraid egal aus welcher Charge die Platten kommen, ja ...
  10. naja, einfach mal die Pfade anpassen in dem Docker war keine Option ?
  11. ist ja auch nur eine GUI für rsync ... sprich, ist ja keine native app, sondern nur eine GUI dazu wo den Befehl "baut" Ich nutze dafür luckybackup > "lokal" zur aktiven Sicherung rsync "von Hand" > "externe" backups ... mit den paar Befehlen ... es gibt ja in der Konstellation "Unraid" und mit den Variablen was ich sichern will ... 1/ reine Daten > ist ein "Einzeiler" ... 2/ appdata > da sollte man wissen ob ich die Dockers vorher stoppe oder nicht .... danach "Einzeiler" 3/ LXC > buildin snapshots, einfach per Einzeiler wegzusichern 4/ VM's > da sollte man VM's vorher stoppen .... danach "Einzeiler" ... Duplicati, ganz nett gemacht, ich bevorzuge aber "Rohdaten" Backup das ich "einfach" wieder darauf einzeln zugreifen kann (Bsp. rsync) der ganze Rest ... hab ich mir nicht im Detail angeschaut naja, irgendwann stellt sich die Frage was man lieber will, schnell und flexibel, aufgebläht und starr ... naja, ist und bleibt ein schmales script ... dafür braucht es jetzt nicht wirklich was ... Beispiel, 2. Unraid WOL senden, mounten, backuppen, unmounten, fertig ... #!/bin/bash wol -h 192.168.1.255 a8:a1:59:6e:8c:ca sleep 10 ### mount UAD smb Share /usr/local/sbin/rc.unassigned mount //ALSSERVER/Media rsync -avz --delete --exclude 'Temp' --exclude '.keep' /mnt/user/Media/ /mnt/remotes/ALSSERVER_Media/ sleep 10 ### unmount UAD smb Share /usr/local/sbin/rc.unassigned umount //ALSSERVER/Media und Nein ... Unraid wird jetzt schon immer größer und umfangreicher "von Haus aus ...", sehe ich etwas anders ... den gibt es schon länger, File Manager im Store ... Zusammengefasst, es kommt auf den Anwendungszweck an ... stumpfe Backups der Daten sind ja per se "pille palle" ... viel wichtiger ist es eine Struktur zu haben was ich wie machen sollte für welche backups ... Beispiel nochmals, mariadb appdata backup im laufenden Betrieb ist nicht unbedingt empfehlenswert ... daher sollte man hier den Docker vorher stoppen, bei anderen Dockers ist es egal ... Buildin wäre dann ja um sicher zu sein, immer stoppen ... während ich lieber die Entscheidung für mich treffe ... Hoffe es ist halbwegs verständlich rüber gekommen
  12. zeig mal einen screenshot bitte ... habe gerade den official mal neu gemacht, geht wunderbar ... vielleicht liegt es auch daran ... da viele dieser Videos (leider) nicht zielführend sind ...
  13. kommt auf die VM an, am Besten laufen da halt Windows VM's ... ohne GPU passthrough, RDP als Mittel der Wahl (und da hilft CPU Power ne Menge ....), ist ok und man kann arbeiten, nicht mehr, nicht weniger mit GPU passthrough, RDP (ok) zum arbeiten sowie TV, Chrome remote, ... > wenn remote, Streaming Setup für "natives" bare metal Feeling (Parsec, Moonlight, ...) und alles ist gut > am Monitor / TV ... alles gut, bare metal feeling ... ich hab unter anderem ne Gaming VM, GPU performance ist fast wie nativ ... (lass es mal 3 % Differenz sein hier), ich hab mit meiner RTX3080ti 20300 GPU score ... passt da ich persönlich absolut kein Gigabyte Freund bin ... enthalte ich mich hier da dies ja "Glaubenskriege" sind und mein usecase ist ein ganz anderer ... daher, lasse ich da meinen Kommentar und andere können das "objektiver" bewerten
  14. sicher das paperless überhaupt läuft und nicht in einer Dauerschleife intern abschmiert ? geht denn das webui ?
  15. naja, das ist halt individuell ... ohne VM's bzw. größere VM's ... reicht für das bisher angegebene Szenario ja alles aus ... auch der besagte n100 ... und natürlich auch der 12100er ... mit VM's sehe ich das so, das braucht einfach Ressourcen ... dann wäre mit ein i3 ... einfach zu schwach, da nicht sonderlich performant ... am Ende stellt sich die Frage "was für VM's" und wie intensiv ... das kann dir so keiner beantworten außer du dir selbst ich persönlich greife immer min zu i7 oder i9 ... aber ich nutze auch VM's mit GPU pass und am Monitor (Desktop), TV (Gaming), Monitor (Homeoffice), ... wenn die VM nur als technische Spielerei dient ... dann reciht auch deutlich weniger. da habe ich mich wohl falsch ausgedrückt, natürlich ist der deutlich stärker als der n100 ... aber ist trotzdem ein "Spielzeug" wenn es um "mehr" geht ... daher die Empfehlung, wenn core CPU ... dann würde "ich persönlich" etwas größeres nehmen ... um dann wirklich Ressourcen zu haben bei Bedarf.
  16. nicht falsch verstehen, aber Power ist was anderes und mal zur Veranschaulichung ... was auf nem n100 alles so laufen kann aktuell 32 Docker am Start ... abgesehen von Plex oder Emby (Live transcoding) übernimmt der auch nebenbei das library encoding in hevc und stellt auch das ein oder andere MB an Daten bereit ... das auf jeden Fall machen ... hier mal ein "stumpfes" Beispiel wie ich Media > Media spiegel ... wol um den 2. Unraid zu wecken, mount des externen Shares, syncen ... danach unmount ... der Spiegelserver geht von alleine wieder in den sleep .. nicht falsch verstehen, will nur sagen, Basic ... packt der n100 er alles bequem ... für "Power" ... ist ein 14100 er ... nicht wirklich vorne dabei soll heißen, wenn schon ne vollwertige CPU ... dann überlegen gleich was mit etwas mehr Dampf bei Bedarf zu holen ... im Idle geben die sich eh nicht viel, sei es ein 14100 oder 14900 er ... auch wieder nur als Anmerkung meinerseits und meine Meinung
  17. ok, und klar ... Beispiel ein USB Gerät an einen Docker zu geben add, Device ... Beispiel docker eigene IP für Docker ... Beispiel LXC, zieht eh ne eigene IP ... VM's ebenso ... nur als Anhaltspunkt ... Proxmox wenn man NUR VM's betreibt ... ja, dann verstehe ich das, aber auch nur wenn die VM's nicht dafür da sind einen Docker Dienst oder LXC Dienst oder noch besser, NAS Dienst bereitzustellen ... dann schafft man sich Layer für Layer an ... als purer VM Host, ja, dazu braucht es kein Unraid, im Mix ... siehe oben viel Spaß damit und sammel deine Erfahrungen
  18. yep und um es deutlich zu machen, sowohl der n100 als auch diese iGPU werden für 4+ 4k hevc > 1080p transcodes ausreichen ... ich weiß jetzt nicht wieviel streams du extern bereitstellen möchtest ... aber normal reicht das ganz bequem aus ... 1080p streams noch weitaus mehr ...
  19. als NAS und für die angegebenen Anwendungen, ja, ganz bequem ... VM Thematik ... ich hab "zum Spaß" auf dem n100m hier auch ne VM mal laufen, mehr zum Test der SR IOV Kompatibilität ... läuft ordentlich, aber natürlich nicht ganz extrem flott ... nicht zu vergleichen mit VM's auf meinem großen Unraid mit Desktop und Gaming VM du wirst es merken, der boxed reicht für fast alles aus ... und da du eh nur nen schwachen Proz ausgesucht hast ... sollte das keine Hürde sein. naja, hast du jetzt bereits 2.5G anliegen ? wenn ja ... macht es Sinn, wenn Nein ... wäre es was für die Zukunft um ggf. dann die anderen Komponenten aufzurüsten ... deine Entscheidung ... zu deiner Liste, einen F Prozessor zu nehmen ist "sinnfrei", ohne iGPU ... die ggf. - transcoding für Dockers übernehmen könnte bei Bedarf - sr iov vgpus für win VM's bereitstellen könnte ... RAM, sei nicht so sparsam ... mehr hilft mehr bei Servern ... 64G machen schon mehr Sinn als 32 ... nvme, nimm mind. ne 2 TB wenn du auch mal VM's laufen / testen möchtest ... zu deinem Proxmox Thema, nur mal gefragt, du weißt schon das Unraid VM Host ist mit der gleichen Basis KVM ... sprich, außer du willst 2 Systeme getrennt laufen lassen ist auch dies ... sinnfrei ... meiner persönlichen Meinung nach
  20. wird sich zeigen, kann ja heute niemand beantworten ... wird es ein Unraid Thema, eher Nein für das NAS, Docker, VM Enviromant ... kann es ein Applikations Thema sein, ganz sicher wenn man darauf aus ist .. bist du es ? will ich das mein NAS KI betreibt ... auf keinen Fall, will ich das eine isolierte App ggf. KI betreibt, kann gut sein ... willst du es ? wenn ja, dann ja, wenn Nein, dann ... eher Nein
  21. normal keine 15 Minuten log dich mal von einem anderen Browser ein und schau was Stand ist
  22. einen bug report inkl. diagnostics aufmachen, es gibt dafür extra eine section im Forum Danke vorab.
  23. es ist behoben, man muss nur das setup ändern und eher Nein, das ist ein grundsätzliches Thema da es eine "Brücke" ist wo an sich nicht vorgesehen war ... da wird keiner wenn er nicht muss dran schrauben zum Rest, ja ja ja ... halte dich an die Anleitung, alles geht wie es soll
  24. und was ist der Fehler ? bzw. wo hängts ? Tipp, da der Docker ja nur ne kleine Änderung zum Original hat, installier das Original, ändere danach einfach die repo (Quelle)
  25. was sicher nicht stimmt ... war der Bereich wo du deine Anfrage postest ... daher hierher verschoben. zu deiner Frage teste mal im unraid terminal wie folgt docker exec -it paperless-ngx bash oder docker exec -it paperless-ngx sh