Jump to content

ich777

Community Developer
  • Posts

    15,755
  • Joined

  • Days Won

    202

Everything posted by ich777

  1. Was wie? Wenn du innerhalb von luckyBackup die Aufgabe editierst, dann klickst du unter auf Erweitert und dann auf Kommando-Optionen dort kannst du doch alles einstellen was du willst, wenn du nicht willst das die Datei innerhalb des Ziels gelöscht wird dann entferne den Haken bei "Löscht Dateien im Ziel", dann werden die nicht gelöscht: Wo erstellt er die? Warum wählst du auch einen Synchronisierungs Task, du willst doch "Sichere Quelle innerhalb des Ziels" oder liege ich da falsch? Du willst Sichern nicht Syncen soweit ich das verstehe.
  2. Ich selbst hab ein wenig ein Komplexeres Setup am laufen, ich hab den SWAG Container mit Nextcloud direkt dort drin installiert, als Datenbank nutz ich den MariaDB von linuxsserver.io und dem offiziellem Redis Container. Ich würd dir den Nextcloud von linuxcontainer.io empfehlen, dazu die MariaDB ebenfalls von linuxserver.io und ebenfalls dem Offiziellen Redis Container <- wenn du letzteren denn verwenden willst. In Kombination dazu würd ich dir noch einen Reverse Proxy empfehlen, entweder SWAG oder den NginxProxyManager <- den Reverse Proxy kannst dann auch für alles andere verwenden das du von draußen erreichbar machen willst.
  3. Das passt dann schon, das mit den Uploads wird dann noch gecheckt warum das nicht funktioniert... EDIT: Hab einen OFFICIAL gefunden in der CA App, heißt Plex-Media-Server und das ist das Repository: plexinc/pms-docker Bitte, würde ich auf jeden Fall empfehlen. Kannst dann auch nochmal deine alten WDs verwenden bzw. versuchen.
  4. Brauchst du nicht, luckyBackup sollte by default nichts vom Ziel zurück in die Quelle kopieren, es hält nur das Ziel aktuell und löscht bzw. fügt Dateien im Ziel hinzu bzw. ändert sie. Genau das mach luckyBackup, vergiss aber nicht wenn du auf ein NTFS Volumen sicherst das du evtl. einige Attribute der Datei verlierst. Wie gesagt ich benutze luckyBackup um mein Hauptsystem auf einen Backup Server zu sichern ohne irgendwelche speziellen Parameter für rsync.
  5. Ich würd dir das gleich mal ans Herz legen, trag das ein und reboote, das ist wie gesagt ein gängiger Workaround. Der offizielle funktioniert immer bzw. sollte immer funktionieren, welches Repository ist eingetragen? Ich bin BTW kein Plex Fan, benutze hauptsächlich Emby bzw. als Notfallplan hab ich Jellyfin.
  6. Ist aber by default nicht an und wird auch in Zukunft mal gänzlich verschwinden... Deshalb kommt Unraid auch relativ "leightweight" ohne irgendwelche Sachen installiert, selbst die CA App musst du dir installieren und müsstest du auch nicht. Also hast du vermutlich noch nicht viel damit gemacht vermute ich oder? Ich habe auf meinem Server ~40Docker und davon laufen 32 dauernd. Ich habe einen Development Container, Jenkins, Nextcloud, SWAG, ein eigenes Git environment und ich baue sogar die Plugin Pakete in einem Docker container und das läuft alles super ohne das du dir das Hauptsystem komplett zu müllst. Wenn du vorher noch nichts damit zu tun gehabt hast, ich war davor auch immer sehr vorsichtig und hab dem ganzen auch nicht vertraut bzw. hab lange noch auf VMs gesetzt. So im Nachhinein gesehen war das sehr dumm von mir und ich hätte viel früher umsteigen sollen. Ist nicht geplant soweit ich weiß. TrueNAS hat meiner Meinung nach auch einen anderen Anwendungszweck da du mit TrueNAS ein Unraid Array in dem Sinn nicht nachbauen kannst und gerade jetzt bei den Energiepreisen für mich noch mehr klar ist das ich bei Unraid bleiben werde weil ich eben die Platten im Array schlafen lassen kann und nur die aufwecken muss die wirklich gerade benötigt werden -> das ist beispielsweise bei TrueNAS nicht möglich meines Wissens nach. TrueNAS hat sicherlich auch seine Anwendungszwecke genau so wie Proxmox aber diese beiden Systeme bauen stark auf ZFS auf was auch gut ist aber ich würde nicht wechseln wollen. Selbst für mich als (ich traue mich das fast nicht schreiben) Poweruser reicht Unraid alle mal und selbst wenn du meine Server Konfiguration ansiehst komme ich momentan mit 55W im Leerlauf aus (sieh dir nur mal andere an die sind bei 10W und drunter wenn ich mich nicht irre): Ich hätte den Satz zuerst lesen sollen bevor ich den letzten Absatz geschrieben hab... Wie gesagt ich würd dir mal Docker und evtl. Nextcloud mit dem External Shares Plugin ans Herz legen und dort kannst einfach deine Shares einbinden und dann über Web und auch WebDAVs einsehen usw.
  7. Willst du das denn? Ich würde meine Kompletten Shares nicht nach draußen frei geben wollen, aber wie du schon richtig gesagt hast, mit SFTP oder SSH sicher möglich, du könntest auch wenn du gerne gefährlich lebst SMB nach draußen frei geben <- das würde ich aber NICHT empfehlen!!! Bitte nicht vergessen, Unraid ist kein General Purpose Server und ist stattdessen eigentlich dafür gedacht das du alles mittels Docker bzw. VMs nach draußen frei gibst, Unraid so ins Netz zu stellen ist generell eine schlechte Idee und wir dir auch jeder abraten davon. Eine alternative für WebDAV wäre Nextcloud mit den external Shares plugin, so könntest du auch auf deine Dateien von außen zugreifen, bearbeiten,... (auch mittels WebDAV). Es gibt auch auch ein paar andere WebDAV Container falls dir WebDAV bzw. WebDAVs genügt.
  8. Aber das ist nicht das gleiche wie AER, und du musst auch ASPM nicht ausschalten. Nein, wie gesagt das ist ein Bug im Kernel. Wenn ich bei mir AER nicht ausschalte funktionierten meine TV Karten wie gesagt nicht richtig und du kannst unmöglich vom Server TV sehen. Das ist nur Reporting, vergiss das ganze drum herum mal, Error Correction wird trotzdem im Hintergrund gemacht sollte es nötig sein.
  9. Ich werd das mal melden. Gestern war DoS Tag (und heute teilweise euch) fürs Forum und es wurde Cloudflare vor geschaltet, möglicherweise müssen da noch Kleinigkeiten konfiguriert werden. Hast du denn mein Kommentar von oben gelesen? Bitte schalt doch AER aus wie oben von mir beschrieben und schau mal ob es dann funktioniert, wie gesagt, bei manchen Hardwarekonfigurationen kann es zu diesem Bug im Kernel kommen und du solltest AER ausschalten. Außerdem hast du hier ein Problem mit Plex, aber das ist eben Plex, das seh ich öfter mal in den logs: Jan 18 02:02:19 Unraid kernel: Plex Transcoder[16934]: segfault at 148ee0fc0000 ip 0000148ee53f2204 sp 0000148ee1a53948 error 4 in ld-musl-x86_64.so.1[148ee53ad000+53000] Jan 18 02:02:19 Unraid kernel: Code: 75 f4 c3 cc cc cc 48 89 f8 48 83 fa 08 72 14 f7 c7 07 00 00 00 74 0c a4 48 ff ca f7 c7 07 00 00 00 75 f4 48 89 d1 48 c1 e9 03 <f3> 48 a5 83 e2 07 74 05 a4 ff ca 75 fb c3 cc cc 48 89 f8 48 29 f0 Welchen Container verwendest du denn? Ich würde dir dazu raten das du den offiziellen verwendest, das sieht mir nach einem nicht offiziellen aus oder? Die Container sollten übrigens untereinander kompatibel sein, egal von welchem Maintainer.
  10. Kannst du deine Diagnostics mal neu hochladen, die kann man nicht öffnen. Hast du denn AER schon mal abgeschaltet? Ich hab das auch aus weil sonst meine DigitalDevices Karten nicht richtig funktionieren in Kombination mit meinem Motherboard. AER ist übrigens Advanced Error Reporting Du kannst das wenn du das deiner syslinux.conf hinzufügst deaktivieren: pci=noaer (damit deaktivierst du es vollständig, selbst wenn ich im BIOS AER Deaktiviere und ASPM auf AUTO stellt bekomme ich die Meldung im log) Meistens wird die Meldung wegen eines Bugs im Kernel ausgelöst. EDIT: Das ist übrigens ein gültiger Workaround für das Problem und so sollten auch die WD von oben funktionieren.
  11. luckyBackup benutzt rsync als Backend nur zur Info. Du kannst jeden zusätzlichen Parameter für rsync auch in luckyBackup einfügen und das wird dann so ausgeführt wie du willst. luckyBackup sollte eigentlich nur die Dateien von der Source in die Destination kopieren, nur neue und geänderte Dateien, du kannst doch auch mal einen kleinen Test machen mit nur einem Verzeichnis in dem du dir Dateien anlegst und dann mal probierst was es macht, nur für dein Verständnis. Ich nutze luckyBackup selbst um meinen ganzen Server auf einen Backup Server zu Spiegeln (Monatlich).
  12. Please remove the plugin and install it again from the CA App.
  13. You have to forward the ports 7777, 15777 and 15000 as in the documentation, you always have to forward the ports which are specified in my templates. Some game server use one port some use, two or three and some use a ton (eg. Project Zomboid 32+ ports, depending on how much players you want to let on your server). Why would you do that? This adds another layer of complexity and you have to use streaming ports because these are not default http ports. You should never reverse proxy a game server. Most game servers are using a proprietary protocol (which by the way wont answer the most http requests because it's a proprietary protocol) and this is not a "normal" web service or web server where a website ist hosted. A reverse proxy is good for a service that runs locally which you want to make publicly available but a game server is a whole different story. Please also note that in my container no game server is run with root privileges so they are safe to use, as said above please forward the ports without a proxy, you will cause only issues for yourself and I can't support proxying game servers because this makes no sense.
  14. Does it work when you try to connect via your local IP? Are you sure that you have the correct ports with the appropriate protocol forwarded? Have you yet tried to connect from a external source to your server maybe hair pin NAT is not working properly?
  15. It's just me... In theory it should work but I've never tired it because I have to use WINE, no native Linux version for this game available AFAIK. The next thing is that I don't own the game and I have stopped creating container for games that I don't own, btw. I really don't like how they (Giant Software) handle licenses for the game since you need a dedicated copy with a key from the game for the dedicated server too. So if you are willing the game twice to me I can look into this but I really can't tell if I can get it to work because of WINE.
  16. You should be able to change them by adding this to the GAME_PARAMS: -serversteamport 8766 -servergameport 27015 -serverqueryport 27016 (of course change the ports to your liking, also don't forget to delete the old port mappings in the template and create new ones with the host and container port set to the same as the ones you have chosen with the appropriate protocol <- applies only if you are using the default bridge network).
  17. I don‘t understand, what doesn‘t load anymore? The savegame or does the wrong world load? Sorry but it seems more and more lika a misconfiguration than anything else and since I don‘t know much about your configuration I can‘t help…
  18. Then there seems something wrong with your installation. I‘ve never experienced anything like that and I‘m using the container from LSIO. Do you maybe have the paths set up wrong or use cache set to Yes for your appdata?
  19. And you think that is caused by the Unraid update when it‘s installed in a container? 😅 ? Do you mean SMB? Then there seems something wrong with the server itself when it behaves like that… Do you have by any chance a log from when it does not work?
  20. How do you copy it over? Did you stop the server first? That's not how the Unreal Engine works, I can't remember which one it uses first but they are bot loaded but in a specific order. Why are you on such old Unraid versions? I would first recommend to upgrade to 6.11.5 and then we can leek further, maybe also post your Diagnostics from the server where you want to install the server that is currently not working.
  21. Yes, because they share the same IP, the containers are now running as if they are independent applications on one machine. Simply use 127.0.0.1 or localhost and the appropriate port and they can communicate with each other. If you share the network the containers have all the IP from the parrent and non of them will have it‘s own IP, they cann communicate with each other like mentioned above, through the port and localhost or 127.0.0.1
  22. Stop the container and delete the WINE64 folder in the main directory please. After that start the server again and see if it‘s the same.
  23. Most likely this is the issue. Why are you on such an old version, this is a security risk too… Please upgrade to 6.11.5
  24. Findest du ihn im Steam Server Browser denn auch nicht wenn du SERVERIP:QUERYPORT eingibst, wenn eben das der Fall ist dann stimmt mit dem Query port was nicht, bist du dir sicher das du lokal auf deinem Computer keine Firewall regel hast die den traffic sperrt? Was passiert wenn du DEINEÖFFENTLICHEIP:QUERYPORT im Steam Server Browser hinzufügst? Die Protokolle der einzelnennPorts passen auch sicher? Ich kann dir nur sagen wenn du die Ports alle dementsprechend weitergeleitet hast sollte es funktionieren, da ich Ark eigentlich nicht spiele kann ich dir hier nicht wirklich weiter helfen aber ist das ein Cluster den du dir gemacht hast oder sind es einfach zwei verschiedene server? Btw ich würde dir wirklich empfehlen statt /mnt/user/appdata/… (FUSE Pfad) du den richtigen Pfad /mnt/cache/appdata/… verwendest da manche spiele server mit dem FUSE Pfad nicht starten bzw. nicht richtig funktionieren, wird in deinem Fall nicht der Auslöser sein aber trotzdem… Du musst aber sicher stellen wenn du das machst das dein Share auf dem das Spieleverzeichnis liegt dann auf Use Cache Only oder Prefer steht.
×
×
  • Create New...