Jump to content

SBH

Members
  • Posts

    29
  • Joined

  • Last visited

Posts posted by SBH

  1. 3 hours ago, SBH said:

    I need folders

     

    For the case that someone need to do the same.

     

    With following command you will get an order for each .epub element.

    Please make Sure that the folder is correct.

    When you have other Elements, you have to change .epub to your element type 

     

    find /mnt/user/ebooks/Books -name "*.epub" -exec sh -c 'mkdir "${1%.*}" && mv "$1" "${1%.*}"' _ {} \;
     

  2. 3 hours ago, SBH said:

    scanning don't found anything.

    I think, I got it.

     

    I need folders. Currently all data in one folder.

     

    No action required from your side.

    I have to check this first 

    Screenshot_20230128_144451.thumb.jpg.4fa5a51f9f0850477d41be5df0289864.jpg

     

     

    It works now. Minimum one folder is required in the root

  3. On 8/3/2021 at 7:34 PM, Kizaing said:

     

    If you have any questions or concerns, feel free to either comment in this support thread

    Good day to you.

    I'm new with unraid and installed the docker. 

     

    I understood anything wrong.

    Is the script also required when the docker will installed via App Center?

     

    I installed it via App Center and set the folders via edit Docker. WebGui works fine and I see my Folder Library in the Web. I created a Library but scanning don't found anything.

     

    Could you please try to help

     

    Thanks a lot

     

     

    Screenshot_20230128_130037.thumb.jpg.fab9a984e35ef22825c37fe2847fdcf3.jpg

  4. On 1/22/2023 at 11:35 AM, Lestad980 said:

    Danke. Hab ich gemacht scheint aber nicht zu gehen. Zumindest bekomme ich keine Anzeige das die GPU arbeitet in der Übersicht.

    Mir hatte dieser Post extrem geholfen, um zu verstehen, was überhaupt alles gemacht werden muss. Kannst ja mal als Selbstkontrolle durchgehen und dann Feedback an alturismo und ich777 senden

     

     

  5. 1 minute ago, ich777 said:

    If you want to use this card for a VM then please uninstall this plugin, this plugin is only meant if you want to use your Nvidia card in a Docker, or even multiple, Docker contianer(s)

    Thanks again for info

    • Like 1
  6. 9 minutes ago, ich777 said:

    What is wrong with driver version: 470.141.03?

    I thought, that it should be equal with recommendation of NVIDIA.

     

    9 minutes ago, ich777 said:

    BTW if you want to use this card for hardware transcoding that's a pretty bad choice because it even doesn't support h265 (HEVC).

    Thanks for this input, I was really thought about to using GPU for HW Transcoding and the iGPU for a small VM. In this case, I will switch.

    My iGPU is performing well for the HW Transcoding.

     

    Thanks for the support

  7. 2 minutes ago, ich777 said:

    Ist übrigens Unraid, ja ja, ich weiß ist Linux basierend, aber in der GUI hab ich gemeint (siehe Screenshot)... :)

    Ja habe ich schon gehört :)

     

    Hat der Name irgeneine Auswirkung?

     

    3 minutes ago, ich777 said:

    Ist schon heftig, was hast du da drauf? Ist aber auch ein 12900k der wird warm...

    Du meinst sicher mit Software transcoding oder? Dir würde hier vermutlich keiner zu Software transcdoing raten da es wenig effizient ist und die iGPU nur ein paar Watt braucht hingegen die CPU bei Software transcoding gönnt sich da sicher 50 bis 100 Watt in deinem Fall.

    Ja ist eine 12900k und ja war mit Software- Transcoding, daher wollte ich auch das HW Transkoding nutzen.

     

    Ich habe einen Arctic Feezer i35 A-RGB drauf, für die meisten Anwendungen sicher auch ausreichend. Die Tests dazu die ich gelesen habe, waren nicht so schlecht. Gibt sicher eine ganze Latte von Kühlern die besser sind.

  8. 3 minutes ago, ich777 said:

    Also nur um ganz penibel zu sein, oben kommt der name rein also „Quick Sync“ oder „Intel“ oder „iGPU“

    Sorry kann nicht ganz folgen.

    Bei Name?

    Sorry habe Erfahrung von einer Woche mit Unraid oder Linux

     

    5 minutes ago, ich777 said:

    Was versuchst du eigentlich zu transcoden? Ich mein 12th gen kann sowieso fast alles aber wenn du irgendwas exotisches hast dann kann es sein das es nicht funktioniert, is aber eher unwahrscheinlich.

    Ich lasse konvertieren über alle Filme laufen, für mobile Devices.

    Die CPU ist alleine echt schnell und schafft das auch.

    Ich wollte die aber nicht dauerhaft auf hoher Temperatur laufen lassen. Die steigt auf knapp unter 80°C.

    Müsste vllt. mal einen anderen Kühler drauf bauen.

     

    Mit iGPU ist der bei knapp über 40 °C

     

    Danke und Gruß 

     

  9. 9 minutes ago, ich777 said:

    Auf welcher Unraid version bist du denn @SBH?

    6.11.5

     

    9 minutes ago, ich777 said:

    Gib bitte nochmals als Gerät /dev/dri im template an und dann mach mal eine Console vom Plex Container auf und mach dort drin dann mal:

    ls -la /dev/dri

    Was bekommst dann für eine Ausgabe?

    Screenshot_20230120_213943.thumb.jpg.97565da5c7e1027dce971268d7a751f4.jpg

     

     

     

    Als Vergleich:

    So sieht es, wenn ich den Pfad /dev/dri/ auswähle

    Screenshot_20230120_213416.thumb.jpg.ddcff77117f1e5bc37614d034b1f5af0.jpg

    Screenshot_20230120_214318.thumb.jpg.e41b43e4b575fce024c5c95cdd6f2885.jpg

     

  10. Wenn ich "/dev/" eingeben, und dann aus dem Dropdown dri auswähle, dann gibt er mir "/dev/dri/" an und das funktioniert.

     

    Habe es eben mal zurückgestellt auf "/dev/dri" und es funktioniert wieder nicht.

     

    Ich kann dir nicht sagen warum, bei mir funktioniert es nur mit mit dem Front- Slash am Ende

     

    Naja es funktioniert

     

    Danke und Gruß 

  11. Hallo zusammen,

     

    Ich glaube es nicht.

    Ich habe den Fehler gefunden und könnte mich dafür Schlagen.

     

    Ich habe im Plex Docker das Device eingebunden und habe folgendes reingeschrieben:

     

    Name: /dev/dri

    Value: /dev/dri

     

    Es fehlte bei Value ein Front Slash.

     

    Korrekt ist bei Value: /dev/dri/

    Der Name konnte so bleiben, ist nicht so wichtig.

     

    Jetzt sehe ich auch im Daschboard Aktivität.

     

    @mgutt, sorry das ich dir deine Zeit geklaut habe

     

    Danke und Gruß 

  12. 2 minutes ago, mgutt said:

    Braucht man alles nicht machen. Im BIOS habe ich auch noch nie was eingestellt.

     

    Hast du denn den Plex Pass?

     

    Und wie sieht es hier aus (WebGUI)?

     

    Screenshot_20230120_160918.thumb.png.1bc3a8d26df20969c13d4f2e7b09d5ae.png

     

    Sorry, hatte ich vergessen zu erwähnen.

     

    Plex Unlimeted Pass habe ich. 

     

    Die Haken für Hardwarebeschleunigung sind auch drin. 

     

     

    image.thumb.png.58e0abeb759ec0e1b066b55a01f231c8.png

  13. Hallo zusammen,

     

    ich hoffe dass jemand bereits eine Lösung parat hat.

    Ich habe jetzt unzählige Foren, Videos und Berichte angeschaut, inklusive der Communities auf Docker und GitHub.
     

    Ich würde gerne Hardware Transcoding über die iGPU für Plex verwenden

    Ich komme einfach nicht weiter.

     

    Hardware Setup:

    ASUSTeK COMPUTER INC. PRIME Z690-P WIFI D4 , Version Rev 1.xx (Intel Z690 Chipsatz)

    12th Gen Intel® Core™ i9-12900K @ 4900 MHz

    Es ist keine extra GPU verbaut (Nur die iGPU des Prozessors)

     

    Ich habe den offizielen "Plex MediaServer" Docker und habe "/dev/dri" eingebunden als device

    image.png.62d581c44099d7b24fa6a0fe7ae26927.png

     

     

    Ich bin mir nicht ganz sicher wegen Blacklisten, ob es jetzt benötigt wird oder nicht, da gibt es irgendwie mehrere Meinungen, manche setzen auch die Dateigröße auf "0 Byte". Bei mir siehts so aus.

    image.thumb.png.ebb86728994e1b88c0bb4a3a5d1f0392.png

     

    image.thumb.png.eb95b77e6f754ca0c6825fd9721883b7.png

     

    Ich habe im Bios den IGPU Multi-Monitor auf Enabled gestellt, habe gelesen, dass dies manchen geholfen hat.

    image.thumb.png.bbd2cad19dca1c3f112c953b233a2a59.png

     

     

    Den Server habe ich natürlich schon ein paar mal neu gestartet

    Es ist auch das Intel GPU TOP Plugin und GPU Statistics installiert.

    Hardware Transcoding ist natürlich in Plex auch markiert.

     

    Bei Plex selbst, kann ich zwar Transkodieren, allerdings steht bei keiner Auswahlmöglichkeit "HW" oder "Hardware" dran.

    Wenn ich etwas auswähle, springt die IGPU auch nicht an.

     

    Siehe Terminal

    image.thumb.png.bf271e76cb1fb74bd95773aed49203bc.png

     

    Siehe Dashboard GPU Statistics

    image.thumb.png.5a659839f3776846cf0bf9fa4df43472.png

     

     

    Anbei mal noch ein Ausschnitt vom GPU Statistics

    Ich bin echt noch Anfänger und versuche noch mir irgendwie ein Überblick zu verschaffen, aber dass sind für mich irgendwie zu viele Nuller.

    Kann jemand bestätigen, dass die Nuller so korrekt sind?

    image.thumb.png.fe3bb4e526e6f4f42f908079dc16c7e3.png

     

     

    Weitere Infos:

    image.thumb.png.8d1821a3944f2113381c4c978d831b52.png

     

    Unraid OS 6.11.5

     

    PlexMediaserver wurde gestern nochmals installiert, ist also auch Up-to-Date

     

     

    Danke vielmals an alle, ist echt ein super Forum

  14. 2 minutes ago, ich777 said:

    Kein Problem, aller Anfang ist schwer, deshalb hab ich es nochmal erklärt. ;)

     

    Solange du den Post der deine Frage gelöst hast als "Solved" markiert hast ist alles gut, dann ist bei der Übersicht ein kleines Häckchen zu sehen.

    Danke nochmals

    • Like 1
  15. 2 minutes ago, ich777 said:

    Wo erstellt er die? Warum wählst du auch einen Synchronisierungs Task, du willst doch "Sichere Quelle innerhalb des Ziels" oder liege ich da falsch?

     

    Du willst Sichern nicht Syncen soweit ich das verstehe.

    Dank dir vielmals.

    Ich hatte da ein Denkfehler.

    Ich dachte, dass die Backup Funktion, stumpf alle Daten kopiert, ohne Abgleich, ob die Daten bereits im Ziel vorhanden sind. Ich gebe dir 100% Recht, die Backup Funktion reicht dann aus. 

     

    Sorry hatte die Funktion falsch verstanden.

     

     

    Bezüglich der Kommando Option, die hatte ich nicht berücksichtigt.

     

    Hat sich aber somit sowieso erledigt, ich stelle auf Backup Task um.

     

    Ich bin hier neu, ist vermutlich aufgefallen:)

     

     

    Muss ich diese Topic im Forum noch irgendwo schließen?

  16. 1 hour ago, ich777 said:

    Brauchst du nicht, luckyBackup sollte by default nichts vom Ziel zurück in die Quelle kopieren, es hält nur das Ziel aktuell und löscht bzw. fügt Dateien im Ziel hinzu bzw. ändert sie.

    Wenn ich die Backup Funktion benutze gebe ich dir Recht.

    Mit einem Task für Synchronisation geht es aber in beide Richtungen, das will ich eigentlich auch. 

    Ich bin da vielleicht etwas paranoid, ich Synchroniere einmal die Woche meine externe Festplatte mit den Wichtigsten Verzeichnissen. Und einmal im Monat ein Backup auf eine andere externe Festplatte.

     

    Die Synchronisation Festplatte, ist damit ich immer die neustem Dateien habe.

    Mit dem Synchronisations Task im Lucky Backup erstellt der aber eine Datei neu, wenn die im Ziel oder Quelle gelöscht wurde.

    Noch witziger ist es beim Verschieben einer Datei. Verschiebe ich eine Datei in der Quelle. Dann erstellt er mir die Datei wieder am Ursprünglichen Ort, da es im Ziel noch so ist. Und im Ziel kopiert er die Datei im neuen Verzeichnis, weil die dort fehlt.

  17. Danke vielmals für den Input.

    Ich werde mich dann mal mit den Parametern von rsync beschäftigen. Mal schauen ob ich da auch etwas wegen dem Synchronisieren finde, bezüglich Master. 

    Ich hätte halt schon gerne, dass Dateien die ich auf dem Server lösche, dann mit dem nächsten Synchronisationslauf auf dem Backup System verschwinden 

     

    Danke vielmals und Gruß 

  18. Vielen Dank für den Input.

    Ich habe die einzelnen Verzeichnisse auch über den Docker Lucky Backup einstellen können.

    Ich frage mich nur wie die Logik ist.

    Ich hatte irgendwo mal gelesen, dass er standardmäßig die neuste Version einer Datei als Master nimmt und diese dann synchronisiert. Egal ob die Datei auf der Quelle oder Ziel liegt, dass wäre soweit auch in Ordnung für mich.

    Kann das jemand bestätigen?

     

    Lässt sich im Lucky Backup bei der Syncro ein Master definieren, wenn ich eine Datei verschieben will, würde es sonst, die vom Backup System auf den Ursprünglichen Verzeichnis wieder herstellen und auf dem Backup System nochmal das gleiche auf dem neuen Verzeichnis, wäre ja irgendwie nicht so ganz Synchronisierung.

     

    Ggf. müsste ich doch auf rsync umsteigen, da müsste das ja gehen, oder?

     

    Danke und Gruß 

  19. Hallo zusammen,

     

    ich bin neu hier. Ich habe einen neuen Unraid Server gebaut und meine ganzen Daten noch auf einer externen Festplatte.

    Ich hatte angefangen die Daten von der externen Festplatte auf mein Array zu kopieren.

    Die externe Festplatte ist aber schon etwas älter und wurde irgendwann 47°C, daher hatte ich eine Pause eingelegt.

    Der Kopiervorgang wurde dabei leider abgebrochen.

     

    Nun möchte ich den Kopiervorgang nicht nochmal anstoßen, weil ja schon viele Daten da sind.

    Es ist noch ungefähr 2,5TB von 6TB offen.

     

    Die Idee wäre nun mit dem Lucky Backup per Sync- Funktion die restlichen Daten zu holen.

    Wenn ich es richtig verstanden habe, holt der ja dann nur die Differenz (also was noch fehlt)

     

    Ich habe es noch nicht ausprobiert, weil ich bedenken habe.

    Woher weiß das System wer der Master ist.

    Es könnte ja theoretisch sein, dass Lucky Backup mein Array als Master sieht und denkt, dass auf der externen Festplatte zu viele Daten da sind und dann anfängt Daten zu löschen, oder bin ich nur Paranoid? :)

     

  20. Hello, it's my first post.

    I build up a completely new unraid server and use dynamics file server to copy all data of my backup system ( external hdd. I know it needs time.

     

    However, I have a question.

    I'm currently copying 13 folders bit sometimes I cannot see the remaining time or status.

     

    At the beginning, it was possible to the the progress status of the document which the program is copying. But not the remaining time of complete 13 folders.

    If I check now, I see nothing, no remaining time of document nor of 13 folders. Is this a bug of my system or of the software. Maybe its too much data, approx 3 TB :)Screenshot_20230116_154001.thumb.jpg.334f6b30dfa0587c52449c43be7b5437.jpg

     

    Thanks a lot 

     

     

     

    Issue is solved.

     

    It`s up to the parity check.
    I paused it and it was fixed.

     

    As long as parity check is not running I could see the information incl. speed and remaing time.

    When parity check is running and reading data from the same disk, it will hide the information of copy window 

×
×
  • Create New...