X-E-Qt-R

Members
  • Posts

    15
  • Joined

  • Last visited

Converted

  • Gender
    Male
  • Location
    Germany

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

X-E-Qt-R's Achievements

Noob

Noob (1/14)

0

Reputation

  1. I was using OperaGX that time when I first set up my Unraid Systemn (2021 or something) and I had no trouble. I just changed to Firefox 6 months ago because I had enough of some OperaGX issues on daily Browsing. Firefox is an better option for me. So now I wanted to set some things on my Unraid and tried to login in with Firefox and saw exactly the same UI problem like yours. Thought first it was Unraid and thats why I landed just here But I just remembered that I used OperaGX before and reinstalled that again and logged in to my Unraid and BOOM everything is normal.... (I also tried Edge = same issue) So that means it has to be an Browser problem somehow. I don´t know what makes the difference between them but I am not motivated enough to troubleshoot the issue while I have found an workarround with OperaGX I would be thankfull anyways if someone finds a solution because I still prefer to use only Firefox for myself, don´t want to use tons of different browsers for every other issue EDIT: Hmm just tried today again and got the issue also on OperaGX now.... I logged in over Domainname, if I login over local IP the view is normal again.... very strange It works also on Firefox etc over Local IP. I guess yesterday I was in my Server also over Local IP. Browser says "not safe", it can be an SSL problem because over Domain it says "safe" and SSL is valid but I have UI bug. I don´t get it... on Unraid I use "accept only https" also...
  2. 🤦‍♂️ Vielen lieben Dank das war das Problem tatsächlich endlich hab ich meine Ruhe Ich bin ganze Zeit auf das Zahnrädchen drauf anstatt auf den Laufwerk weil ich dachte dort gehts in den Ordner Infrastruktur. Jetzt läufts so wie ich es möchte. Danke nochmal
  3. Hallo zusammen, also ich habe 4 HDD´s im Array, eine M.2 SSD als Cache und noch eine M.2 SSD als unassigned Device für meine Windows VM´s. Ich habe in den Disk Settings die Temperaturen angepasst auf Warning: 60°C und Critical: 70°C. Ab da soll der mir Push Nachrichten schicken via Discord (auch eingerichtet und funktioniert gut). Nun aber DENNOCH sendet der mir Warnings raus sobald mein Unassigned Device 51°C erreicht.... Ich glaube die Settings die ich dort auf "Disk Settings" einstelle beziehen sich NUR auf die HDD´s im Array kann das sein? Wo stellt man die für Unassigned und Cache ein? ICh meine das sind SSD´s und die können mehr ab als 51°C und standard mäßig schwanken die bei mir zwischen 30°C und 55°C. Cache meist konstant auf 30 weil ich keine Daten übertrage so oft aber die VM´s sind 24/7 an weil da Services laufen und die Unassigned Device spamt mich voll mit Tempereture OK, Tempereture over 51. Vor allem wenn der zwischen 50°C und 51°C hin und her schwankt bekomme ich andauernd Meldung auf Discord, das Nervt etwas. Auf die Funktion möchte ich ungerne verzichten da es auch wichtig ist aber SSD´s haben ne andere Temperatur Niveau als HDD´s. Im Winter habe ich das Problem eher nicht da es im Keller kalt wird aber im Sommer jetzt werde ich zugespamt dadurch Die HDD´s chillen meist bei 40°C es sei denn der PArity Check startet (bei mir monatlich 1x) da gehen die auch mal auf 55°C usw. Deswegen bekomme ich von DENEN keine Meldung seit ich es auf Disk Settings auf 60-70°C eingestellt hab in der Hoffnung das der es auf die SSD´s auch übernimmt aber scheinbar zieht das nur auf die HDD´s im Array dann kann ich es ja wieder auf 50-60°C umstellen. Danke schon mal im Voraus für die Antworten LG X-E-Qt-R
  4. Richtig doof aber hab gestern mal VPN Server to Server eingestellt am Coreserver und einfach mal die Config gedownloaded und diesen dann am Backupserver hochgeladen und siehe da... es tut.... in 2min erledigt....... und ich hab da Tage recherchiert und nichts gefunden bis mir zufällig der "Download" Button aufgefallen ist an der stelle mit dem QR Code -.- Man kann sich aber auch unnötig das Leben schwer machen Wer lesen kann ist klar im Vorteil 🙄 Jetzt schau ich mir mal das genauer an und versuche das ganze so einzurichten mit euren Vorschlägen je nachdem welches mir einfacher fällt. Oder hätte ich das VPN gar nicht erst gebraucht? Weil du sagtest ich soll Portfreigabe auf rsync Container machen... Und nee dann will ich das mit den Daten verschlüsseln doch nicht haben, daran hab ich nicht gedacht das es auch korrupt gehen kann. Danke nochmal an euch.
  5. Das hört sich alles super an. Ich schaue mir die Docker und Plugins mal genauer an heute Abend Schutz gegen Angriffe an beide Seiten wäre schon von Vorteil (wenn das nicht all zu ein Großer Akt sein wird). Der Hauptserver muss auf alle Fälle sicher sein, beim Backupserver kommt es darauf an um was für eine Art Angriff es sich handelt. Wenn es ein Angriff ist welches den Server einfach nur Platt machen soll würde ich das verkraften, dann würde ich einfach den Backupserver neu Aufsetzen. Wenn es aber darum geht meine Empfindliche Daten zu klauen oder zu manipulieren dann ist das ein No-Go. Denke mal besser wäre es wenn der Hauptserver die Backup Dateien verschlüsselt oder mit PW verseht bevor er das in den Backupserver schickt? Evtl. würde ich den Backupserver auch einfach ausschalten nachdem der Job erledigt ist. Strom technisch gesehen wäre es ja auch unnötig das der ständig läuft weil er soll ja wöchentliche Backups ziehen nur z.B. jeden Sonntag oder so soll der Hauptserver da Backups rein ballern und nachdem es fertig ist kann der Backupserver wieder aus sein, entweder manuell oder eleganter wäre es wenn der Sonntags dann automatisch bootet kurz vor Backup beginn und dann automatisch herunterfahren wenn fertig. Muss nicht sein, ist nur nice 2 have. Aber bevor wir das alles einrichten, müssen die Server ja erst mal miteinander Kommunizieren können irgendwie.
  6. Also ich dachte eher so an Lucky Backup. Oder wie würdest du denn verfahren in meinem Fall? Ich bin eher so nach dem gegangen was der Youtuber Alex von "The Geek Freaks" gemacht hat (siehe oben mein Antwort zu Revan335). Was ich Backuppen möchte ist einfach nur die VM´s, Docker und deren Einstellungen plus die Unraid Einstellungen auch wenn möglich, welche aber später bei Bedarf auch einfach zu recovern wären. Und 1 Ordner in denen ich meine Absolut wichtigen Daten habe. Wenn ich wirklich 1:1 alles backuppen wollen würde müsste ich auf dem Backupserver zuhause weitere 32TB an Festplatten anlegen. So viel Budget hab ich dann doch wieder nicht, hab hier 1x1TB und 1x4TB rum fliegen gehabt welches ich ohne Parity Drive zu definieren ins Array genommen habe. Ich brauch am Backupserver keine Parity Platte, wenn da 1 HDD Kaputt gehen würde könnte ich eine neue rein stecken, der Hauptserver würde sie ja wieder neu befüllen. Das an beiden Standorten gleichzeitig die Festplatten flöten gehen würden wäre ja wie eine 6er im Lotto Außerdem hat der Hauptserver eine Parity Platte da darf einer kaputt gehen. Aber zurück zum Thema: In den Settings bei Unraid ist mir auch noch die Option aufgefallen die "VM Backup" heißt und habe da etwas durchgelesen und das Teil bietet einige coole features.. Ich würde damit z.B. von jeder VM wöchentliche Backups ziehen wollen 4 Stück pro VM so das 1 Monat gedeckt ist und danach soll er die älteste dann einfach überschreiben und so weiter machen im loop. Somit hätte ich immer 1 Monat safe und würde am Backupserver an Speicher sparen. Dann kenne ich noch den USB Flash Drive Backup (da sichert der glaub ich nur den Unraid OS mit Einstellungen und die Lizenz und mehr nicht?) Docker sind im Array da reicht es aus die System Files denk ich mal zu sichern die von Anfang an schon dabei waren wie appdata, isos ... usw.. Zu guter letzt eben mein File Ordner indem alle Daten gespeichert sind, sowohl unwichtige als auch wichtige. Die nehmen halt gut 16TB ein momentan. Davon sind grob geschätzt ca. 3-4 TB mir besonders wichtige Dateien... Die restlichen wären verzichtbar. Die unverzichtbaren würde ich in einen anderen Ordner schieben welches dann auch zum Backup Server gehen soll. Dann sollte der Backupserver gut befüllt sein. So der Wunsch von mir. Das Umsetzen ist die andere Sache
  7. Habe ich mir auch schon überlegt aber wäre für mich eher die letzte Lösung wenn gar keine alternativen gibt, so wie ich Windows kenne wird der nur Probleme verursachen wie "Pfad zu lang kann nicht kopiert werden" und dann wartet der auf meine Reaktion gemütlich, kann ja nicht Stunden davor sitzen und warten das der brav kopiert, und all so Gedöhns Kennt man ja Vielleicht aber zu Lösen mit Robocopy? Außerdem wenn ich VPN Tunnel aufbaue mit dem Client steigt der ins Netz der Gegenstelle und das Lokale Netzwerk ist nicht mehr erreichbar, erst nachdem ich VPN aus mache dann ist Gegenstelle offline und Lokaler Netz wieder da.... Wenn ich beide Standorte die selbe IP range verwenden würde würde es evtl. funktionieren?! Ich hab Videos von TheGeekFreaks angeguckt und der macht was ähnliches wie ich oben beschrieben hab mit LuckyBackup und schickt die Daten an Standort B durch VPN Tunnel. Nur hat der in dem Video leider nicht beschrieben wie er beide Server Tunnelt. Aber ich glaube die Gegenstelle war auch ein Synology oder so? Weil der nen Modelnamen erwähnt was mich an Synology erinnert. Hier das Video den ich meine: https://www.youtube.com/watch?v=gk--X3TRUx0&list=PLk4WsoMYr8AKWBhabC6VihHcBwLwNY3SN&index=30 EDIT: Anscheinend machts Sinn Videos mehrmals anzuschauen xDD Ich sehe da gerade auch das der im VPN Manager "Remote access to LAN" verwendet hat.... nun ist die Frage was hat der an der Gegenstelle eingerichtet. Im Video erwähnte andere Video was mit Wireguard zu tun hat geht der nur die Basics durch aber nicht im Detail.
  8. Hallo zusammen, hab nun viel rum gesucht und komme leider zu keinem Ergebnis und finde auch keine Lösung. Also folgendermaßen siehts aus: Hab mir einen 2. Unraid Server gebaut als Backup zuhause. In der Firma steht auch ein Unraid Server die etwas besser bestückt ist und quasi alles macht und ist somit mein Hauptserver. Der bei mir zuhause soll einfach nur rein als Backup Server dienen. Ich will im Backupserver ein SMB Share freigeben auf dem mein Hauptserver Vollzugriff hat. Und der Hauptserver soll eben alles was ich brauche da rein schieben. Wie mache ich das am besten? Mir fällt nichts besseres ein als VPN aber Unraid to Unraid wie geht das? Mir kommt es vor als könnte es nur VPN Server Hosten aber nicht als Client agieren. Wenn ich mein iPhone oder Windows Rechner mit Wireguard verbinde geht das instant ohne Probleme mit den selben Settings an BEIDEN Servern. Nur die Server unter sich wollen ums verrecken nicht miteinander kommunizieren. Gestern habe ich mir den VPN Manager genauer unter die Lupe genommen und da gibt es verschiedene Funktionen, "Server to Server" z.B. klang für mich interessant, hab mich an beide Server verbunden und damit dann rum gespielt 6h lang aber komme zu kein Erfolg xDD Der Hauptserver in der Firma hat eine Statische IP und eine richtige Domain <-- funzt auch tadellos Der Backupserver bei mir zuhause hat Provider bedingt eine Dynamische IP und das habe ich dann mit DuckDNS gelöst, über den Link komme ich auch auf den interface Problemlos drauf. Nun gebe ich die Daten an beiden Servern ein und mache Apply und teste dann die Ping Funktion dann bekommt der Backupserver vom Hauptserver request aber umgekehrt bekommt der Hauptserver vom Backupserver KEIN request.... Auch sehe ich keine reaktion wie Handshake oder so obwohl aktiv, senden tun sie aber Empfangen nichts. Mit mein iPhone komme ich aber auf den Backupserver via VPN und Mobiler Netz drauf wie oben schon erwähnt.... an beide sogar... ich blick da nich mehr durch Brauch ich irgend nen Docker der mir nicht bekannt ist oder gibts Sichere alternativen zu mein vorhaben? Router zu Router VPN wird wohl nicht gehen währe das einfachste sogar, in der Firma steht ein Unify Dream Machine hinter einer FritzBox. Durch Portforwardings usw. gebe ich ihm gewisse Ports frei die ich verwende damit der Unraid Server freie Bahn hat. Bei mir zuhause ist jedoch dummerweise ein Speedport Hybrid mit dem man leider nicht viel machen kann (Portforwarding geht aber zum Glück, nur VPN technisch nichts xD), aber um bessere Bandbreite zu bekommen hier wo ich wohne bin ich gezwungen diesen zu verwenden weil ich keine andere Hybrid Router kenne bisher. Danke schon mal im Voraus
  9. Danke für den Tipp. War bei mir anscheinend auf "täglich" eingestellt, habe mal auf "stündlich" gestellt. Daran hatte ich nichts geändert gehabt und war Standard mäßig auf "täglich". Besser als nichts Jetzt weiß ich wie der Mover funktioniert und kann entsprechend anpassen und zur Not manuell starten wenns schnell gehen muss und 500GB nicht überschreiten in Ordnern die gechached sind.
  10. Danke alle 3 Ideen sind gut, das merke ich mir für das nächste mal. Wusste nur nicht wo der "mover" getriggert werden kann, dank dir hab ich es jetzt gerafft. Habe sie nun im Main Tab aktiviert, jetzt schreibt der die Daten darin in die Festplatten rein und wird leer . Und der Windows Server heult auch nicht mehr das der Speicher voll ist :D Hätte das nicht geklappt dann hätte ich das mit der "Minimum free Space" probiert (welches ich jetzt auch einstellen werde damit das nicht nochmal passiert bei größeren mengen an Daten), wenn das auch nicht geklappt hätte dann über Krusader (den hab ich komplett vergessen xD). Danke nochmal. Sorry an alle wenn ich es so bescheuert Formuliert hatte, es war schon spät am Morgen und der Kopf war nur noch im schlaf Modus war deshalb zu Faul es genauer zu erklären damit die Logik dahinter verständlicher wird, weil es bei mir doch etwas zu speziell ist. Ich bin Selbstständig und betreibe mein Unraid Server in einer angemieteten Bürogebäude weil ich da auch ein Gigabit Anbindung habe. In mein Privat zuhause bearbeite ich die Videos und packe sie dann in eine externe Festplatte rein um sie dann am nächsten Tag wenn ich wieder im Büro bin in den Server zu kopieren. Da ich wenn ich im Büro bin meistens keine Zeit habe für so Sachen, starte ich einfach nur den Kopiervorgang der Daten in den Server und fertig. Im Server ist eine Art "Marktplatz" Ordner in der alle Geräte in mein Büro zugriff haben (die auch gecached wird). Dieser liegt NICHT im VM Speicher des Windows Server sondern ist ein Share in Unraid. Erst wenn ich wieder zuhause bin habe ich Freizeit und da verbinde ich mich dann in den Windows Server via VPN und Remote Desktop und sehe mir die Sachen genauer an und Benenne sie um und Sortiere alles und verschiebe es erst dann in den Plex Media Ordner rein (welcher auch gecached wird). Und auch von zuhause, verbinde ich mich mit mein Apple TV auf den Plex und kann meine Videos dann auf dem TV anschauen wenn ich bock drauf habe. Funktioniert auch problemlos. Zuhause hab ich leider eine etwas schlechtere Internet Anbindung in der das Uploaden länger dauern würde, darum pack ich alles in eine Externe platte rein und verschiebe sie dann Lokal im Büro in den Server rein damit es schneller geht. Das hat alles nur rein Organisatorische Gründe. Der Server steht nur im Mittelpunkt als eine Art Terminal Server, damit es kein unterschied macht ob ich zuhause bin oder im Büro so das ich eben egal wo ich bin weiter machen kann wenn ich etwas vergessen habe einzustellen. Nur diesmal waren es das erste mal um die 450GB an Daten weswegen die Cache Vollgelaufen ist. Wahrscheinlich weil beide Ordner gecached werden hat der dann beim ersten Kopiervorgang (Client PC nach Marktplatz) schon 450GB voll gemacht und der 2. Kopiervorgang (Marktplatz nach Plex Media) hat dann den Rahmen gesprengt nach 50GB weil der noch mal 450GB bewegen musste und ich somit eigentlich 900GB Cache hätte haben müssen. Ich dachte immer das die Cache sofort startet in die Platten zu schreiben sobald Daten da rein fließen... Kann man das so einstellen das der auch direkt startet und nicht nach Schedule geht? 736GB kam zustande denk ich weil im Plex Ordner bereits schon Daten vorhanden waren von früher. Naja wie gesagt es ist speziell Aber die Ursache war doch wieder was banales Danke nochmal an Alle
  11. Hallo zusammen, ich nutze einen Unraid Server mit einem Array von 4x8TB Platten davon 1x Parity Platte... Ansonsten gibts eine M.2 SSD 500GB als Cache und eine weitere 500GB M.2 als Unassigned für die VMs (kA ob diese Daten auch relevant sind aber hier: 64GB RAM, AMD Ryzen 7 5800U). Soweit so gut.... Nun hab ich mir einen Plex Docker installiert und es funktioniert auch, hab eine Windows Server 2019 DC darin als VM laufen und die Ordner Freigegeben die ich für Plex brauche und pumpe meine Videos so da rein und sehe es auch auf dem Apple TV Plex App wenn ich das Mediathek synchronisieren lasse. Jetzt aber ab 736GB meint der Windows Server das wohl die Festplatte angeblich voll wäre und lässt nicht mehr zu... Wenn ich in Unraid schaue hat mein Array noch 9,14 TB Frei und Cache ist auch schon leer 500GB Frei (hab schon darauf geachtet das die Cache nicht voll geballert wird...). Ist da irgend ein Limit bei Plex die man noch anpassen muss oder was ist da los? Danke schon mal im Voraus X-E-Qt-R EDIT: Moment hab eben nochmal geprüft und gemerkt das ich die Cache falsch ausgelesen habe vorhin die ist tatsächlich voll, 0B frei @,@ Aber der arbeitet auch nicht mehr, muss der nicht normalerweise arbeiten und automatisch auf die HDD´s verschieben? Oder sollte ich mich gedulden und abwarten? Ich muss sagen das der Upload irgendwann von 2GB´s runter gesackt ist auf 50MB/s und ich dachte da ist was faul und habe den Kopiervorgang abgebrochen. Und seit dem sind auch in den Shares die gelben Dreiecke da das die Daten wohl noch nicht sicher sind weil ich denke das die in der Cache sind... Wie trigger ich die das es weiter geht? Sonst wäre eine 3h Arbeit die in dem Video steckt umsonst wenn ich die Cache Manuell leere
  12. Mega, hat funktioniert , hab einfach mal --all genommen, hat bisschen gerödelt und zack alles da endlich Ich danke dir
  13. Hallo zusammen, ich habe folgendes Problem: Auf meinem Unraid Server läuft Nextcloud und funktioniert auch soweit ganz gut. Jetzt möchte ich aber eine externe Festplatte (1TB) in den Nextcloud reinkopieren und da es über die Nextcloud App oder Webinterface ewig lange dauert habe ich die Festplatte direkt an mein Unraid Server via USB angeschlossen und gemounted. Über Krusader sehe ich die Festplatte auch und auf der rechten Seite habe ich auch den Pfad anvisiert in dem exakt dieselben Ordner abgebildet sind, die ich auf Nextcloud Webinterface auch sehe und auf der Webinterface auch angelegt hatte. Jetzt starte ich über Krusader den Kopiervorgang und der hat es auch fehlerfrei rüber kopiert (auch wenn ich zurück gehe und wieder rein gehe, sehe ich das alles da ist plus die Ordner die ich in Nextcloud erstellt hatte). Jetzt gehe ich aber in Nextcloud rein aber sehe die neuen Daten nicht. Woran liegt das? Oder was kann ich tun? Danke im Voraus X-E-Qt-R
  14. Nah never mind. I just opened another Tab with Krusader and saw the same window so I closed every Krusader Tab and opened again and the progress is still running. All good I see the same window also in another PC, that means I can shutdown and do what ever I want with my client PC´s and the Server keeps it going in background.
  15. Hi there, I connected my Synology as SMB share in my Unraid Server and started the Krusader Docker. I want to copy the entire Synology to my Unraid Server and already started the copy progress in my Browser. Now it says it needs to copy about 2 days for 4TB 😧 (Well it´s an old school Synology NAS thats why I created an Unraid Server). If I close the browser or reboot my PC, does the Unraid Server continue the copy progress or does it cancel it? best regards