Jump to content

mgutt

Moderators
  • Posts

    11,292
  • Joined

  • Last visited

  • Days Won

    123

Everything posted by mgutt

  1. Unter dem Strich spielt es keine Rolle ob mit oder ohne UID. Genauso gut könnte es ein deutsches Unternehmen sein und man zahlt dem Unternehmen den Nettopreis, weil das ja die Umsatzsteuer vom Finanzamt zurückbekommt. Aber egal wie man das macht, am Ende ist es schlicht Steuerhinterziehung, da das "PC Ersatzteil" gar nicht im Betrieb verwendet wurde, es aber den Gewinn (= weniger Steuern) des Unternehmens gesenkt hat. Tatsächlich wurde es ja schwarz weiterverkauft (ohne Gewinn an einen Verwandten, was evtl in Richtung Geldwerter Vorteil gegenüber deinem Vater ausgelegt werden könnte). Wenn es eine Kapitalgesellschaft ist, dann käme auch noch Diebstahl dazu, weil man ja faktisch das Unternehmen bestiehlt, das Geld aber bar einem Geschäftsführer gibt. Hinweis: Falls du das direkt über dein Konto bezahlst und nicht des Unternehmens, wird das sowieso in deren nächsten Steuerprüfung auffallen, da es zu der Rechnung keinen Geldausgang gibt. Ohne jetzt den Moralapostel zu spielen, aber man könnte genauso gut behaupten, dass das Paket nie angekommen ist und hat 100% Rabatt. Ist genauso illegal.
  2. Which has nothing to do with the rsync container. The management access is ssh access to unraid itself. You don't want to use this login as this is the root login to the complete server.
  3. So, the answer is simple: Your server is not reachable under port 5533. Did you start the rsync server with the bridge network?
  4. Try the following first: ssh -p 5533 root@heimkino More output: ssh -vp 5533 root@heimkino And maybe check if the port is open: echo "quit" | telnet heimkino 5533
  5. Da interpretierst du was falsch. Bwlimit begrenzt die Bandbreite, also die Geschwindigkeit der Übertragung auf 10.000 KByte/s und partial lässt den bereits übertragenden Teil bei einem Verbindungsabbruch liegen, wenn die Verbindung abbricht. Das macht dann bei einer SSH Verbindung dir rsync Applikation auf der Serverseite. Das bringt bei meinem Skript aber nichts, weil das kein Fortsetzen unterstützt, da es bei jedem Start mit einem komplett neuen Ordner beginnt, wäre aber tatsächlich mal eine Idee für eine Optimierung.
  6. Wenn die SSH Verbindung unterbrochen wird, dann bricht auch rsync sofort ab. Also ziehst du den Stecker und steckst ihn sofort wieder rein. Pech. Die Verbindung bleibt weg und es gibt keinen Wiederholungsversuch. Das müsste man dann in das Skript einbauen, dass der immer wieder rsync startet, was ich aber aktuell nicht eingebaut habe. Ansonsten würde ich es mal damit bei dem rsync Befehl bzw den ssh Optionen versuchen: -o ServerAliveInterval=15,ServerAliveCountMax=3 Zur Erklärung: Manche Übertragungen brauchen länger zb weil rsync evtl erst lokal komprimiert und je nachdem welche SSH Einstellungen der Zielserver verwendet, trennt der die Verbindung. Hier hilft server alive interval, welcher alle 15 Sekunden ein Keep Alive Paket sendet. Außerdem darf mit server Alice Connect bis zu 3x die Verbindung komplett abbrechen. Allerdings weiß ich nicht, ob rsync dann auch einen retry macht oder die betroffene Datei, wo das gerade passiert, dann überspringt.
  7. I never heard about something similar. Would you pm me the domain, so I can try it out from my location? And did it solve your issue?
  8. Which you aren't using, as you have "::" in your destination path : = ssh, port 22, encrypted :: = rsyncd, port 873, unencrypted Regarding my research the module paths of the rsyncd configuration must be setup in a specific way to use --link-dest. But as I said, I never tested this scenario and have no experience. I'm using only local path and ssh.
  9. Double colon means you are using the rsync protocol. I never tested my script with the rsync daemon as it does not support encryption (= insecure transfers).
  10. What are your source and destination paths? Local paths or SMB or SSH?!
  11. From outside like mobile connection If yes: Check your logs.
  12. Kann es sein, dass er gar nicht ssh, sondern den rsync daemon ansprechen möchte? Also ist rsync;// wirklich richtig? Dein rsync server spricht aktuell nur ssh.
  13. In deinem Screenshot ist der Port in einem separaten Feld oder passt sich dieser String dadurch an? Ansonsten würde ich erstmal über die Kommandozeile von OMV probieren. Also: ssh -p 5533 root@tower Wobei Host key denke ich der Fingerprint ist. Soll heißen OMV kennt "Tower" bereits, aber mit einem anderen Fingerprint. Erlaubt OMV nicht das akzeptieren eines neuen Fingerprint?!
  14. Keine Ahnung warum ich da nicht schon vorher drauf gekommen bin: - M920x - PCIe Adapter - M.2 Adapter - M.2 ASM1166 - 5V irgendwo abgreifen Ergebnis: 7x SATA 3x M.2 Mein erster Versuch erfolgte über die USB Buchse: Eigentlich ist die USB Buchse dafür gar nicht geeignet, da deren Limit eigentlich 0.9A sind und die SATA SSD laut Typenschild bis zu 1.5A ziehen kann, aber hey, sie lebt noch ^^ Ich habe auch schon ein bisschen gemessen und auf dem Board gibt es diese Buchse: Das dort genannte Stromkabel 01YW371 konnte ich in einem Shop für knapp 20 € finden (war leider nur eins auf Lager). Man bekommt es auch manchmal im Set mit der Sunnix Serial RS-232 SER6456LV Karte: https://www.ebay.com/itm/325747510407 Die Idee wäre es die zwei 5V Adern dieses Kabels auf Molex zu adaptieren und da dann 6x SATA SSDs dran zu packen. Das wären dann allerdings bis zu 60W. Eventuell sollte man also noch eine Stelle suchen, wo man 5V abgreifen kann. Jedenfalls erreicht das Setup (2x SATA SSD, 2x 16GB RAM) aktuell C7 und verbraucht 7.3W. Kein Bestwert verglichen mit anderen ITX/mATX Boards, aber doch schon ein guter Verbrauch.
  15. Did you enable caching for this host? Another reason could be proxy_request_buffering, which is by default on: https://nginx.org/en/docs/http/ngx_http_proxy_module.html#proxy_request_buffering That's why I'm using this advanced setting for my nextcloud (which even solved timeouts while moving huge files and timeouts while uploading huge files): location / { add_header Strict-Transport-Security "max-age=15552000; includeSubdomains; preload;"; client_body_buffer_size 512k; client_max_body_size 32G; proxy_request_buffering off; proxy_read_timeout 600s; proxy_set_header Upgrade $http_upgrade; proxy_set_header Connection $http_connection; proxy_http_version 1.1; # Proxy! include conf.d/include/proxy.conf; }
  16. It's not an error. Only a warning. I don't know why this message is returned recently. It is only confusing for the user. It has nothing to do with Debian containers. It's returned if the container uses the setting "--memory xGB" (which limits the ram usage if the container = warning it could be cause crashing the container as no swap exists = which is perfectly ok I think as the container should crash if it is going crazy in RAM usage).
  17. Only after update? Any other containers or unRAID itself listening to Port 80? Check output of: ss -tulpn | grep ":80"
  18. Nothing can write to swap except the Linux Kernel which calculates how important the used memory is and then moves really rare used blocks to the swap partition. This article is "pro" swap (which I'm not as an unRAID server usually has more than enough ram installed or do you have 4GB installed?), but describes how it works: https://chrisdown.name/2018/01/02/in-defence-of-swap.html PS: I tested swap under Unraid in the past and it is rarely/not used. In contrast all files written to /dev/shm are alreadx written to the ram as this is by default in Linux a ram disk (tmpfs = ram): tmpfs 32G 0 32G 0% /dev/shm As you can see my unraid server uses 0% of it after month of uptime. And there is no need to mount /dev/shm to /dev/shm in the container configuration as /dev/shm is by default a RAM disk in ALL containers: https://docs.docker.com/engine/reference/run/ Example: adguard - sh /opt/adguardhome/work # df -h Filesystem Size Used Available Use% Mounted on overlay 3.6T 2.4T 1.3T 65% / tmpfs 64.0M 0 64.0M 0% /dev shm 64.0M 0 64.0M 0% /dev/shm More details about the "shm" filesystem: https://unix.stackexchange.com/a/124788/101920 Regarding the Kingston page: Windows bullshit. Not comparable with Linux. There is no special "support" needed as it replaces a default docker path against a ram disk as explained in my first post: https://forums.unraid.net/topic/136087-ram-disk-for-docker-statuslog-files/#comments Means: It is used by ALL containers. If you want to check if it is running: Check your logs as mentioned in my first post. It depends if limetech changes the files which are manipulated by the script. Sometimes yes, sometimes not. If not: it returns an error message in the logs. If you like to receive notifications in this case I can recommend this script:
  19. Did you paste it maybe twice or similar? So it changes the file and then it tries to do it again which causes the error message?
  20. My script moves files which are NOT in /dev/shm and/or in the swap partition, into a ram disk. All of them are doing completely different things. You COULD in addition use shm-size for your containers, but I think 99% of the containers won't benefit, as I never faced a container, which permanently writes to /dev/shm. Does anyone know some? And you should NOT think about a swap partition if you have enough ram. The main reason for a swap partition is to avoid going out of ram. You won't gain any benefits from a swap disk, instead it produces more wear on your SSD (which is the opposite of the target if this thread).
  21. Open the command line of Plex and compare the paths of a movie media info: to the one you see inside the container. Example: Try with ls -l or stat "/path/to/movie.mkv" To obtain file details: So you can be sure the movie file is accessible through the container.
  22. Open the movie library view and use the not assigned filter. Are they maybe found, but not assigned? Or try to rename one of the movie folders to ".movie name" and back to "movie name". Does Plex then find the movie?
  23. Disconnect all Ethernet ports and test with a display. Test even with Ubuntu and without any USB devices.
  24. Your database file is corrupt. Repair it or restore a backup.
×
×
  • Create New...