Jump to content

ich777

Community Developer
  • Posts

    15,743
  • Joined

  • Days Won

    202

Everything posted by ich777

  1. Sorry that it took so long, here is the script for Sonarr: themepark and here for Radarr: themepark (also updated it on my Github) Basically it works as follows: Place the script somewhere on your server (in this example in /mnt/user/appdata/scripts) Add a variable with the Key: 'TP_ICH777' and the Value: 'true' to the template Add a path with the Host Path /mnt/user/appdata/scripts/themeparksonarr.sh and the Container Path /opt/scripts/user.sh (Optional) Add a variable with the Key: 'TP_THEME' and the Value: 'aquamarine' to the template to activate the aqamarine template Hope that helps.
  2. What is checked at this option: From what I know it should work just fine because I've implemented sendmail after a user request because I don't use it.
  3. Yes. The DVB plugin has so called "packages" for all unRAID versions back to 6.9.0-beta35 and up to the latest release. Simply install the plugin (you have to be on a recent vercen from unRAID to see it in the CA App) and it will grab the appropriate version and also update itself to a newer version if you uprade unRAID itself.
  4. That's not possible because the GTX470 (Fermi based I think) doesn't have NVENC. The first card with NVENC was Kepler based 600 and 700 series... That's also not possible because that's a legacy driver and won't work for Docker so you would have basically no benefit of adding the card to Plex if it would be even possible. If I can recommend you a card currently that is reasonably priced look out for a Nvidia T400, you can get them brand new for about $135,-
  5. You can go with whatever version you want. Currently the build process is fully automated, if everything goes how it should, without compilation errors, the build of all plugins should be finished after an hour after a new version from unRAID is released. But I would recommend that you wait for two hours to be on the safe side (I also have to say that I'm from middle Europe and new unRAID builds are released when I'm sleeping). I also build the plugins for every version since 6.9.0-beta35 for every stable, next and test branch. If a plugin build fails the worst thing that can happen is that the plugin errors out and the containers won't start. I think that you have to install the FireWire plugin in addtion to the DVB plugin and you should be good to go. Hope that answers all your questions.
  6. Sadly enough I can't help with the server manager but maybe you can ask on their Github or at least create an Issue: Click Maybe ask on Github?
  7. Genau, damit kannst du eigentlich viele Kameras abdecken... Die Temperatur ist noch mehr als in Ordnung. Ich hab die Temperaturen für Trottling usw ein wenig gesenkt eben genau aus diesem Grund und da die meisten vergessen das sie ausreichende Kühlung montieren...
  8. Exakt. Nur rein interessehalber wieviele bilder schickst du dort hin 5FPS pro Kamera sollten doch reichen und die TPU kann 100+ FPS im Normalfall. Wenn du da wechselst gibt es Adapter dafür, sogar für den A+E Key gibt es SATA Adapter, hab ich schon erfolgreich getestet: Klick oder Klick oder Klick (je nach dem Key und natürlich auch für richtige M Key Solts) Wieviel Grad bekommt die TPU denn bei dir, ich hab jetzt in der Plugin page eingebaut das du die Temperatur siehst der ersten 4 TPUs im System. Jein, die Antwort ist womöglich, kann aber bei so SATA Controllern auch passieren, aber normalerweise hilft dann: Nicht in Panik geraten unRAID rebooten Dann kann man noch immer hier posten falls unRAID was nicht passt Wechsel ist nicht möglich nein.
  9. Du könntest dir zB einen PCIe zu M2 Riser Karte kaufen damit du auch PCIe M2 Karten verwenden kannst im Server zB für den x1 slot (vergiss aber bitte nicht PCIe 3.0 x1 unterstützt nur 1GB/s duplex, also keine zu schnelle M2 Kaufen... ) : Klick Oder du baust dir hier eine x4 Karte in den x16 slot ein, die würde die volle Bandbreite von einer M2 unterstützen aber verschwendet dann die restlichen Lanes des x16 slots: Klick Es gibt zB auch solche Karten: Klick Diese Unterstützen aber nur SATA M2 SSD's keine PCIe basierten. Entweder würd ich dir so einen Controller empfehlen: Klick Ich würd dir generell so einen HBA empfehlen, China ist aber dafür bekannt das die Klone verkaufen: Klick (an dem HBA kannst 8 SATA Platten anschließen und ist PCIe 2.0 x8 basiert also solltest du mit normalen HDDs keine Probleme haben aber mit SSDs wird es dann mit der Bandbreite wieder Knapp) Jein, du könntest zB das Plugin von @SimonF für Snapshot installieren, ist derzeit noch in Entwicklung aber sollte für BTRFS und auch für ZFS funktionieren, hier der link zum installieren über den Plugins tab in unRAID: https://raw.githubusercontent.com/SimonFair/Snapshots/main/snapshots.plg
  10. I'm already aware of that, just add a Path to your Docker template with the Container Path '/tmp' and your prefered host path, I would recommend something like '/mnt/user/appdata/pavlovvrmaps'.
  11. Soweit ich weiß wird bei MacVLAN ein zweiter Virtueller Adapter angelegt damit der Host Zugriff überhaupt erst möglich wird, also könnte ich mir schon vorstellen das er dann seinen Server zwei mal sieht. Müsste ich mir aber genau ansehen.
  12. Ich würd mir vorher die integrierten Lösungen ansehen die unRAID bietet und nicht unbedingt mit ZFS hantieren. Du kannst dir auf jeden fall eine Menge Resourcen ersparen wenn du jetzt Proxmox verwendest da Docker die Resourcen teilt. Sieh dir nur mal die Apps an die es bereits für unRAID gibt (1.200+) und man kann wirklich schon fast alles in Docker machen. Ich, beispielsweise, hab alles von verschiedenen VMs umgestellt auf Docker, sogar den Bau der Plugins, Treiber usw. für unRAID nur eine VM läuft als build VM für die Container. Spart Strom und auch System Resourcen. Hab auch hier beschrieben was ich alles mit meinem Server mache: Klick
  13. That was the main issue why it wasn't installing. How quick was the download? It should be 200MB in terms of size. The checksum error means that something went wrong with the download. That has nothing to do with the card itself since the download fails. Also your card is supported, go to this page and click on "Supported Products" and you will see that the GTX750ti is supported. How long does it sit there after you get the error message? Do you have enough space left on your USB boot device? Have you also checked if the DNS servers are correct on your unRAID box? Do you have AdGuard, PiHole or something similar installed somewhere on your network? EDIT: I have tested it now on my other server (that is on 6.9.2 and even has no Nvidia card installed) and it works just fine, must be some kind of network issue in your case: (made two screenshots because it won't fit on one...)
  14. Please see this post: You can also copy your serverconfig.xml that lives in your 7dtd folder and renamet it to, like in this example, 'somethingelse.xml' and change it in the template to the same name so that the server loads your custom 'somethingelse.xml'. That would also be a way of avoiding the overwriting of serverconfig.xml if validation is set to 'true'. Hope that helps.
  15. Have you changed anything else to your server than adding a disk? Do you run any AdBlocker like AdGuard or PiHole somewhere in your network? Please go to your Plugins page within unRAID and see if you got a Plugins Error tab and uninstall the Nvidia Driver plugin from there, after that try to install the Nvidia Driver again from the CA App, if you got an AdBlock installed try to disabling before you pull it from the CA App. Something really strange is going on on your system... My best bet is that the plugin is in the Plugins-Error tab. Just for testing, can you donwload this file: Click (this is the file that the plugin tries to download and is failing for you, tried it now and it downloads just fine)
  16. Sicher auch das du UDP Port weitergeleitet hast und nicht den TCP? Kannst evtl auch mal einen screenshot von der Portweiterleitung machen? Hast du irgendwas an den adressen geändert?
  17. Glad to hear that it is working now... If you got an issue again please alsways pull the Diagnostigs and post them here so that I can go through the syslog...
  18. So is it now working? Your syslog looks goot to me and also the Nvidia driver page looks correct.
  19. Please post your Diagnostics. Where does it show the card? That has nothing to do with the driver itself and only shows if the card is recognized by your system on the PCI bus. Have you bound the card to VFIO?
  20. Keep in mind even if you have a container that is affected by log4j, as long as it is not exposed to the Internet you should be safe.
  21. @SimonF Maybe you could integrate a short tutorial how to create a FileIO or Block Device iSCSI Target like it was in the old plugin? For example: Step 1, Step 2, Step 3, Step 4, Step 5
  22. I think you are talking about the Intel GPU TOP plugin or am I wrong? Should also work with 11th Gen CPUs fine. Can you please send me your Diagnostics? It would be nice if you can do the following: Remove the file /boot/config/modprobe.d/i915.conf with the command 'rm -rf /boot/config/modprobe.d/i915.conf' Install the Intel GPU TOP plugin Reboot your server Pull the Diagnostics and post them here Please remember if you are on 6.10.0-rc2 you have to blacklist the i915 module with the command, otherwise Intel GPU TOP won't be able to fix the wrong initialization from the module: mkdir -p /boot/config/modprobe.d echo "blacklist i915" > /boot/config/modprobe.d/i915.conf
  23. Sure thing, you can either log in as admin with the admin password or you can connect to the game console by opening up a unRAID terminal and enter: 'docker exec -u steam -ti NAMEOFYOURCONTAINER screen -xS PZ' (without quotes and of course replace NAMEOFYOURCONTAINER with the container name, should be ProjectZomboid). This is also mentioned in the description from the container itself: Hope that helps.
  24. Wenn du wie oben beschrieben Proxmox verwendest, verschwendest du womöglich irgendwo Resourcen da Proxmox ein reiner Virtualizing Host ist (nicht mehr ganz aber früher zumindest, müssen auch auf den Zug der Container usw. aufspringen). Ja genau, das musst du über die Konsole machen, ist zwar am Horizont aber meines Wissens wird das noch ein paar Jahre dauern bis das alle Funktionen in unRAID integriert sind. Aber der Hauptgrund warum man eigentlich zu unRAID wechselt ist das Parity geschützte Array, damit kann man Diverse Festplatten beliebiger Größe und Geschwindigkeiten einfach mischen (die Parity(s) müssen dabei aber immer die größten sein oder zumindest gleich groß wie die größte Festplatte im Array). Jedoch verlierst du im Array aber auch Geschwindigkeit beim Schreiben da die Parität immer errechnet werden muss, lesen funktioniert jedoch wie gewohnt. Noch dazu Falls mal alles schief laufen sollte und die Parity(s) und 1 Festplatte schmiert vollständig ab kannst du die Daten der bestehenden noch lauffähigen Festplatten einfach auslesen (XFS Dateisystem). Bei unRAID gibt es dann auch noch die Cache Pools, die laufen üblicherweise in einem BTRFS RAID1, somit kannst du dort auch verschiedene Platten verschiedener größe kombinieren, jedoch kannst du dann womöglich nicht den vollen Speicherplat nutzen, aber du bist wirklich Flexibel. Bei unRAID ist jedoch ein Cache kein konventioneller RAID Cache wie du ihn vielleicht kennst sondern funktioniert ein wenig anders. Sieh dir dazu das mal an, hier werden so im groben die Storage konzepte erklärt: Klick Du kannst das ganze auf einem ausrangierten Laptop oder PC testen, unRAID läuft auf fast allem (x86_64), die 30 Tage Testlinzenz ist immer an den Stick gebunden und läuft mit jedem USB Stick der eine gültige UUID hat. Könntest du auf unRAID per Docker laufen lassen, bzw. ist Wireguard sogar mit 6.10.0 (beta) eine Grundfunktion und direkt in die GUI integriert, bei 6.9.2 (stable) kannst du das mit einem Plugin nachinstallieren.
  25. What kind of 960 is this? Keep in mind not every version from the 960 is capable of transcoding HEVC (h.265). Have you also added the variable with the Key "NVIDIA_DRIVER_CAPABILITIES" and value "all" as described here: Can you open up a terminal from the container and type in 'nvidia-smi' and see if you get a output from this command?
×
×
  • Create New...