undone

Members
  • Posts

    28
  • Joined

  • Last visited

Everything posted by undone

  1. Hi guys, I just tried to create a virtual machine running Windows 11 for some offline testing e.g. of different software, but I had to chose a network source while creating it. Is it somehow possible to not give the VM any network connection? (like with Virtual Box where I just remove the network card) Or is a local connection necessary to connect via VNC? - If so, please let me know if it is possible just in my own network? To transfer files, I would like to copy and past it over VNC, or to allocate a dedicated storage with access for the VM and my PC.
  2. mach natürlich sinn Werde das mal in einer ruhigen Minute testen, danke dir. EDIT Es hat wie bei der Lösung beschrieben funktioniert, selbst tausende Dateien waren so binnen weniger Sekunden umbenannt. Danke nochmal.
  3. Genau, die Daten sind auf drei HDDs verstreut samt einer Parity. Gibt es dazu eine gute Anleitung für Anfänger? Auch wenn die Daten verstreut liegen, könnte ich doch einfach zum Beispiel disk1/media/ zu disk1/data/media/ "verschieben"? Gibt es hinsichtlich der Partiy was zu beachten? Das war mir bekannt. Hatte ja gehofft das Linux so schlau ist und einfach das Verzeichnis der Datei anpassen kann. _______________ Ich habe mir das gerade nochmal genauer angeschaut, die Daten sind wie folgt verteilt: /mnt/disk1/media/ /mnt/disk2/media/ /mnt/disk3/media/ Ich würde also auf allen Disks folgende Verzeichnisse erstellen: /mnt/disk1/data/media/ /mnt/disk2/data/media/ /mnt/disk3/data/media/ Wenn ich nun über das webterminal den mv Befehl ausführe sollte das instant klappen (Alle Docker die darauf zugreifen beendet)? mv /mnt/disk1/media/ /mnt/disk1/data/media/
  4. Hallo, ich habe eine große Menge an Dateien in einem Pfad (1) liegen, welche auf ein anderes Pfad (2) verschieben möchte. Mit dem "move" command dauert das bis zu zwei Wochen, weshalb ich nach einer schnelleren Lösung suche. Die Daten welche liegen aktuell hier (1): /mnt/user/media/... verschoben werden sollen die Daten hier her (2): /mnt/user/data/media/... In den "Shares" sind beide Verzeichnisse ohne Cache eingestellt, dieser hätte ca 500GB zur Verfügung. Beim RAM könnte ich gute 32GB zur Verfügung stellen, sollte das etwas helfen. Mit dem "Dynamix File Manager" habe ich in den Shares den zu verschiebenden Ordner ausgewählt und via move angefangen die Daten zu verschieben. Anfänglich erreichten die Platten Geschwindigkeiten von >200MB/s, doch zeigte sich nach wenigen Minuten schon das es auch mal bis in den KB/s Bereich abrutschen kann, was die anfänglichen ~8h um ein vielfaches erhöht. Es würde mich freuen wenn jemand einen Tipp hat wodurch ich die Dauer verringern kann.
  5. @mgutt Danke dir für die Erläuterung. Das System läuft jetzt seit 3 Tagen wie anfangs gewünscht, mit Plex gab es durch das Kopieren von mir etwas Probleme, welche aber wieder gelöst sind.
  6. Danke. Da ich davon ausging ich könnte schonmal die Ordner Kopieren ("Copy") damit diese auf einer HDD gesichert sind, das Original sollte das ja nicht beeinflussen. Beim Cache hatte ich auf "No" gestellt, da bevor der dieser eingebaut wurde, auch alles auf "No" war - leider hat Unraid dadurch wohl das Problem, die Docker nicht mehr zuordnen zu können, selbst nach umstellen auf "Prefer:Cache" und dem Neustart des Array sind die Docker für Unraid verschollen (Wird nicht mehr angezeigt/ Nicht installiert) - die VM ist davon nicht betroffen. *da alles auf der HDD gesichert war, konnte Unraid die Docker wiederfinden nachdem die SSD1 aus dem Array entfernt war. Das mit den Dockern ist jetzt nicht zu tragisch, da bis auf Plex alles schnell eingerichtet ist - für Plex wiederum sollte es genügen die gesicherten Ordner nach einer erneuten Installation passend zu verschieben. Okay, dann wird es das RAID1. Nein, ich hatte nichts speziell eingestellt, nur die Cache SSD2 und die HDDs eingebaut, zugeordnet und eine Nacht laufen lassen. Als nächstes werde ich einfach deine Anleitung von oben befolgen.
  7. @mgutt danke dir für die Erklärung, leider kann ich dieser nicht ganz folgen und würde mich freuen wenn du folgendes näher erläutern würdest: Ich habe das Plugin installiert. Appdata, domains und system sind auf der SSD1 im Array. Mit den Einstellungen auf "Nein" stellen meinst du bei "Select cache pool"? Wo stelle ich das bei der VM ein? Die ganzen Shares habe ich auf die HDDs kopiert, den Cache auf "No" gesetzt Wird ein RAID1 hier empfohlen? Wie sieht es mit zwei Pools aus, einer als Cache und eine SSD für die Docker und VM? Aktuell sieht es bei mir so aus wie angehängt.
  8. Hallo, auf meinem Homeserver lief bisher nur eine SSD als Array Device, alle genutzten Daten waren auf einem Cloudspeicher, welchen ich über rclone eingebunden habe. Auf der SSD1 wurden die Docker, VM und der Cache gespeichert. Seit kurzer Zeit habe ich als Datengrab HDDs erworben und in das Unraid Array samt Parity eingebunden. Da die SSD1 noch in dem Array ist, dort aber keinen Leistungsvorteile bringt, würde ich diese gerne in den Pool verschieben und dort für Docker und VM nutzen. Weiter konnte ich aus einem Rechner eine zweite SSD2 entwenden, und habe diese als Cache Pool eingebunden - RAM Cache kommt in der Zukunft irgendwann. Die Frage ist nun wie ich das ganze umziehen kann - wie bekomme ich die SSD1 aus dem Array in einen Pool, ohne das die Daten verloren gehen? HDDs: SATA 3,5" 18TB = 3x "Disk" + 1x "Parity" SSD1: M2 PCIe Seagate IronWolf510 1TB = Docker + VM SSD2: M2 PCIe Corsair Force MP510 1TB = Cache Danke vorab.
  9. Das ist ja bescheiden, überrascht mich etwas das es hierfür scheinbar keine einfache Software Lösung gibt. Jaein, ich habe eine 250 Mbps Leitung von der Telekom, bis zu 270 Mbps kommen an, welche der Server auch komplett Auslastet solange wie nötig. Wenn ich nebenher einen Livestream auf FullHD laufen lasse, stockt dieser alle paar Minuten für ein paar Sekunden, auf HD geht es ohne Probleme - lässt sich für die Zeit auch aushalten. Ich sehe das Problem aber mehr beim remote Arbeiten, hier wäre es schlecht wenn die Verbindung abbricht, nur weil der Server gerade am rödeln ist. Bei dem Speedport Smart 4 kann man leider kaum Einstellungen vornehmen, zumindest aber das Signal an einen anderen Router durchschleifen und somit nur als Modem fungieren. Es wird dann wohl darauf rauslaufen einen gesonderten Router zu schalten (ein Modem gab es von der Telekom leider nicht und kostet ähnlich zu dem Router). Ich bin gerne noch für andere Vorschläge offen.
  10. Wenn mein Router das könnte müsste ich hier nicht fragen . Habe aber leider einen Speedport (not so-) Smart 4, bei welchem ich schon froh war eine feste IP für den Server vergeben zu können, selbst im "hidden-Menü" kann man nicht mehr einstellen. Extra Hardware wäre natürlich eine Option, diese möchte ich aber - wenn anders machbar - vermeiden.
  11. Hallo, wenn ich bei diversen Dockern (zb. Plex mit ua. Cloud Speicher) bestimmte Aktionen auslöse, kann es sein das mein komplett verfügbares Internet überlastet ist. Gewisse Docker bieten interne Limitierungen, aber eben nicht alle, bzw. nicht für Download und Upload. Daher meine Frage, wie kann ich Unraid/ einzelne Docker in der Internet/ Netzwerk Geschwindigkeit limitieren/ drosseln? Nach einer Limitierung für Docker hatte ich schon gesucht, doch nichts zufriedenstellendes gefunden. Somit würde es mir auch genügen den gesamten Server für Internet (und wenn nötig Intranet) zu drosseln. Gerne auch als User Script zum aus/ einschalten.
  12. I am already aware of this, but I took the risk knowing that no single employee looks at which files are stored and that this runs automatically via the hash value - this should be changed by encrypting the file. Even if an employee then looks manually, he sees a ".bin" file without a password to decrypt it, and Google doesn't really have to care how I name my Linux Isos and holiday videos. But an offline solution is already being created, which is why I switched to Unraid. Sorry for the off-topic, back to the topic.
  13. Well, after a few initial difficulties a couple of years ago, it has been running without any problems so far. gsuite:/crypt/media works /cache leads to /mnt/cache and also works the "&" is included, it just was not copied I added it because of a failure running the script. After a reboot I seems to work without it. What do you mean with "anything"? The file is encrypted with the password in the crypt config and the naming can be anything, nothing to hide behind my 'Merval Endgames 37 8K Premium 20.4 THEx.mp3.bin'. That was obviously the problem. If it runs in the background, there is also a connection in the appropriate folder. With the background process as predefined, it can simply be found at /mnt/user/mount_rclone/gcrypt/ . With the path from 2. the following also works (fusermount -uz /mnt/user/mount_rclone/gcrypt && fusermount -uz /mnt/user/mount_mergerfs/gcrypt/) and the array can be stopped. Thank you very much, I hope that is it for now with my problems.
  14. I finally found the right lines where I needed to insert it, thank you. The mount script now also runs without error messages, but I cannot use rclone as I did with my old server (A). There (A) I can enter the following line and have direct access to the files in the cloud, but this does not work on the new server (B). ls /mnt/gsuite/ >List of all connected cloud files< In the new server (B), I cannot find the appropriate /mnt/ to access the data. Here is the comparison of the old- (A) und new- (B) server: Old-Server (A) | 1. Start server (ssd mounted) → 2. cmd → 3. past mount line → 4. rclone is mounted CONFIG: [gsuite] type = drive client_id = ########## client_secret = ########## scope = drive team_drive = token = ########## [gcrypt] type = crypt remote = gsuite:/crypt/media filename_encryption = off directory_name_encryption = false password = ########## password2 = ########## MOUNT: rclone mount --allow-other --no-check-certificate --cache-dir=/cache --dir-cache-time 168h --vfs-cache-mode full --vfs-cache-max-size 50G --vfs-cache-max-age 72h gcrypt: /mnt/gsuite -------------------------------------------------- New-Server (B) | 1. Start server → 2. mount array → 3. run "rclone mount script" → 4. ... is rclone mounted? CONFIG: [gsuite] type = drive client_id = ##########new client_secret = ##########new scope = drive team_drive = token = ##########new [gcrypt] type = crypt remote = gsuite:/crypt/media filename_encryption = off directory_name_encryption = false password = ########## password2 = ########## MOUNT_SCRIPT (only the changes i have made): ###################### #### Mount Script #### ###################### ## Version 0.96.9.3 ## ###################### # REQUIRED SETTINGS RcloneRemoteName="gcrypt" # Name of rclone remote mount WITHOUT ':'. NOTE: Choose your encrypted remote for sensitive data RcloneMountShare="/mnt/user/mount_rclone" # where your rclone remote will be located without trailing slash e.g. /mnt/user/mount_rclone RcloneMountDirCacheTime="168h" # rclone dir cache time LocalFilesShare="/mnt/user/local" # location of the local files and MountFolders you want to upload without trailing slash to rclone e.g. /mnt/user/local. Enter 'ignore' to disable RcloneCacheShare="/mnt/user0/mount_rclone_cache" # location of rclone cache files without trailing slash e.g. /mnt/user0/mount_rclone RcloneCacheMaxSize="100G" # Maximum size of rclone cache RcloneCacheMaxAge="168h" # Maximum age of cache files MergerfsMountShare="/mnt/user/mount_mergerfs" # location without trailing slash e.g. /mnt/user/mount_mergerfs. Enter 'ignore' to disable DockerStart="plex tautulli tinymedia manager sabnzbd nzbget sonarr radarr ombi overseerr" # list of dockers, separated by space, to start once mergerfs mount verified. Remember to disable AUTOSTART for dockers added in docker settings page MountFolders=\{"load/nzb,load/complete,temp,movies,tv,anime,docu,concert"\} # comma separated list of folders to create within the mount # Add extra paths to mergerfs mount in addition to LocalFilesShare LocalFilesShare2="ignore" # without trailing slash e.g. /mnt/user/other__remote_mount/or_other_local_folder. Enter 'ignore' to disable LocalFilesShare3="ignore" LocalFilesShare4="ignore" # Add extra commands or filters Command1="--rc" Command2="--config=/mnt/disk1/rclone/rclone.conf" Command3="--allow-non-empty" CreateBindMount="N" # Y/N. Choose whether to bind traffic to a particular network adapter RCloneMountIP="192.168.2.200" # My unraid IP is 172.30.12.2 so I create another similar IP address NetworkAdapter="eth0" # choose your network adapter. eth0 recommended VirtualIPNumber="2" # creates eth0:x e.g. eth0:1. I create a unique virtual IP addresses for each mount & upload so I can monitor and traffic shape for each of them ####### END SETTINGS ####### ####### Create Rclone Mount ####### # Check If Rclone Mount Already Created if [[ -f "$RcloneMountLocation/mountcheck" ]]; then echo "$(date "+%d.%m.%Y %T") INFO: Success ${RcloneRemoteName} remote is already mounted." else echo "$(date "+%d.%m.%Y %T") INFO: Mount not running. Will now mount ${RcloneRemoteName} remote." # Creating mountcheck file in case it doesn't already exist echo "$(date "+%d.%m.%Y %T") INFO: Recreating mountcheck file for ${RcloneRemoteName} remote." touch mountcheck rclone copy mountcheck $RcloneRemoteName: -vv --no-traverse --config=/mnt/disk1/rclone/rclone.conf 1. does the script work as described above if I do not get any errors when I click on "run script" and it shows "script complete" at the end? 2. How can I access my cloud mount from the command line? 3. how can I stop the mount again (my array cannot be stopped (stop-loop) when the array is still running/ after I started the script)? I don't have any other scripts running. The mount is not visible in the array.
  15. Well, that is what i've done, and it works by hand if I run rclone without script:
  16. Hi, i have the rclone.config life in a different direction, is it somehow possible to tell the script where the new config file is located? e.g. the new path is "/mnt/disk1/rclone/rclone.conf"
  17. Thank you, after a few tries I got it with the following line: rcloneorig config --config=/mnt/disk1/rclone/rclone.conf If I understood right, there is now way to replace the standard path "/root/...", so I have to use the line above every time instead of just "rcloneorig config"?
  18. Is it somehow possible to move the config file to another location (e.g. the encrypted array SSD)? If I currently restart Unraid without starting the array, the configuration file can be accessed with all sensitive information - I would like to change that. Sorry if the question has already been asked in the earlier pages.
  19. Ich hätte noch eine ergänzende Frage, nachdem ich etwas mit Unraid rumgespielt habe. Da ich einige Daten via rClone in der Cloud gesichert habe, würde ich mit dem Unraird-Server auch auf diese zugreifen. Die Installation von rClone ist soweit kein Problem, doch wird zb. das Passwort des zum Ver- und Entschlüsseln unter /boot/config/plugins/rclone/ hinterlegt - hier kann man auch ohne laufendem Array zugreifen und alles auslesen (das verschleierte Passwort ist auch einfach zu ermitteln). Gibt es also eine Möglichkeit die 'config' Datei auf das verschlüsselte Array zu verschieben, so das rClone diese auch wiederfindet? (Unraid starten → Array starten und entschlüsseln → rClone plugin kann Datei abrufen) rClone ist hier nur ein Beispiel, letztlich zielt die Frage auf alle Dateien/ Apps/ Plugins/ ... welche nicht direkt im verschlüsselten Array liegen und wichtige Informationen enthalten.
  20. Ich habe gerade geschaut, bei mir wäre WireGuard oder L2TP/IPSec im Router verfügbar, mit Wireguard und Mobilfunk am Smartphone hat es auch funktioniert. Welche Lösung hierbei besser ist müsste ich noch schauen. MyServers in Unraid schalte ich dann am besten auch wieder ab, auch wenn mir das vom offiziellen Support vorgeschlagen wurde. Danke an alle. ___ Das freut mich für dich. Bisher wohnte ich etwa in einem halben dutzend Wohnungen, wo etwa die hälfte das Problem mindestens einmal hatte. War ja aber nur als Beispiel gedacht, in 99% der Fälle ist man vermutlich schnell am Server, doch hatte ich den 1% Fall, wo ich über viele Monate mehrere Flugstunden entfernt vom Server war und Familienmitglieder via Telefon anleiten musste diesen zu starten und Passwörter einzugeben, das möchte ich so nicht mehr. So in etwa habe ich das letztlich beim aktuellen Server gelöst, jedoch ohne verschlüsselte Boot-SSD, wodurch sich meine Frage ja erübrigen würde. Danke nochmals.
  21. Da ich aktuell nur eine verbaut habe war mir das nicht klar, danke für den Hinweis. Vielleicht habe ich den verlinkten Beitrag samt Video falsch verstanden, aber dabei geht es doch um das automatische entschlüsseln der Datenträger beim Systemstart (?). In meinem Fall würde ich das nicht benötigen, da ich das Array selber entsperren könnte nachdem ich auf dem Unraid-Server bin. Oder übersehe ich hier was? Okay. Dann habe ich da wohl ein falsches Verständnis zu. Wie geht Ihr das dann bei euch an, sofern überhaupt eingeplant? Ihr habt einen Unraid-Server zuhause stehen, die Datenträger sind verschlüsselt, Ihr entschlüsselt diese nach einem Start des Server über die Passworteingabe Ihr fahrt in den Urlaub/ zu entfernten Freunden/ seid auf Montage, der Server läuft in der Zeit, da Ihr diverse Dienste nutzen möchtet (z.b. Nextcloud) Zuhause gibt es einen langen Stromausfall welchen die USV nicht überbrücken kann/ eine VM schmiert ab/ Unraid startet neu und der Server ist so eingerichtet das dieser anschließend von alleine wieder hochfährt, Ihr wollt also auf Unraid zugreifen um das Array zu entschlüsseln/ die VM neu zu starten, wie macht Ihr das? Die ganzen Erklärung und Videos welche ich mir zum Verbinden über das Internet gelesen/ angeschaut habe, gehen von einzelnen Dockern/ VMs aus, welche in meinem Fall noch nicht gestartet wären (da die Datenträger noch verschlüsselt sind). Klar könnte man nun das automatische entsperren einrichten, wie von @mgutt verlinkt, doch möchte ich genau das vermeiden. Gewünschter Ablauf nochmal zusammengefasst: Server via Smartsteckdose starten → PC mit Unraid startet automatisch → Zugriff über das Internet zum entsperren der Datenträger und starten der VM/ Docker Ich lese mich da auch gerne ein, doch sollte ich erstmal wissen nach was ich genau schauen soll. Danke
  22. Das der Zugriff von extern nicht leichtfertig eingerichtet werden sollte ist soweit klar, daher hatte ich auf entsprechende Links mit spezifischen Anleitungen für Unraid gehofft - gerade von jemandem der es selber nutzt. Ein starkes PW, RP und andere Maßnahmen sind dabei selbstverständlich.
  23. Hmm, hört sich irgendwie schlüssig an, da der Unterbau über den USB-Stick in den RAM geladen wird und dann erst die Datenträger entschlüsselt werden. Zum Verständnis würde ich das gerne nochmal mein Vorhaben durchgehen, damit es später zu keinen Problemen kommt. Zuhause: 1. Server starten, USB bootet → 2. Unraid ist in den RAM geladen, Oberfläche ist via Intranet abrufbar → 3. Datenträger im Array werden alle über ein Passwort (*) entschlüsselt und gestartet. Entfernt: 1. PC via Smarter Steckdose starten, USB bootet → 2. Unraid ist in den RAM geladen, Oberfläche ist über ein Remote-Tool (**) aus dem Internet abrufbar → 3. Datenträger im Array werden alle über ein PW entschlüsselt und gestartet. Das Passwort würde ich dann von Hand eintippen. Nach dem dritten Punkt sollte das normale tun weitergehen, VMs und Docker starten etc.. * wie kann man in Unraid alle Festplatten mit einem Passwort entschlüsseln (alle zuvor natürlich mit demselben PW verschlüsselt)? ** wie richte ich das am besten in Unraid ein, und wie verbinde ich mich da am besten (Windows-Client)?
  24. Hallo, ich habe mir nun einen Unraid Server zugelegt und möchte zu beginn alles verschlüsseln. Das verschlüsselte System sollte dabei auch aus der ferne zu entsperren sein, hier benötige ich eure Hilfe. Auf meinem alten System hatte ich das System auf der SSD installiert, welche nicht verschlüsselt war. Für die Daten gab es mehrere Festplatten welche ich mit LUKS verschlüsselt hatte. Dieses vorgehen hatte ich gewählt, um den Server nach einem Neustart über remote Login zu erreichen. Das Problem dabei war, dass alle Daten auf der SSD offen lagen und somit nach einem Neustart nicht geschützt waren. Den kompletten Server zu verschlüsseln sollte ja möglich sein, doch müsste ich diesen vor Ort entsperren um anschließend das System zu starten und über Fernzugriff (Internet) zu erreichen. Diese Seite hatte ich gefunden, welche erklärt das man die Verschlüsselung auch via remote Zugriff entsperren kann, doch weiß ich nicht ob und wie ich das mit Unraid umsetzen kann. Zudem hatte ich gesehen, dass sich bei Unraid die Datenträger auf der Oberfläche alle einzeln verschlüsseln lassen, dieser Punkt würde ja wegfallen, da die Festplatten schon vor dem Systemstart entschlüsselt wurden. Mir stellt sich also die Frage wie man das am besten umsetzten könnte? 1. Fernzugriff zum entsperren aller Festplatten > 2. (separater) Fernzugriff auf Unraid. Oder gibt es da einen ganz anderen Weg welchen ich nicht kenne? Hardware ist ohne IPMI oder der gleichen, ist auch nicht geplant.
  25. @mgutt Danke für den Tipp mit den MBs, schaue ich mir noch an. Wahrscheinlich muss ich mir das ganze Thema nochmal genauer anschauen, gerade wegen Plex dachte ich bisher viele Kerne wären von Nöten, was den Preis neben dem MB wieder hoch treibt. Jetzt lese ich immer wieder das durch die iGPU weniger ausreicht (atm gleichzeitig max. 4 Transcodes von 1080p h265 zu 720p / 480p). Das selbe trifft auf die SATA Ports zu, eigentlich dachte ich bis zu 8 Stk. sollten es schon sein, doch wird mit den angebotenen Kapazitäten zusammen mit den M.2 Steckplätzen auch 6 Stk. SATA genügen. Ich lese mich da nochmal rein und gehe euch anschließen nochmal auf die Nerven. Merci euch .