High-Tower

Members
  • Posts

    66
  • Joined

  • Last visited

Everything posted by High-Tower

  1. Hi, i have installed the plugin and have installed a new virtual machine for prtg. The auto discovery search have a many result of datas over snmp. For me, the important thing is the temperature from the hdd´s and nvme´s. Unraid shows me that, but i want it in prtg. Does anyone know, how i add this information? Is the temperature a information from the snmp plugin?
  2. Da hat @BiNiCKNiCHrecht. Hatte das selbe vor wie du @TraumG. Das einzige was da machen kannst, 2 disks (Virtuell, oder Physisch z.B. usb Sticks) als Parity und Disk1 benutzen und die SSDs als Pool deklarieren z.B. als RaidZ1. Danach kannst alles (System usw..) rüber schieben auf den Pool, dann ist die Disk und die Parity nur da, wird aber nicht benutzt. Hier sollte evtl. von UNRAID für die Zukunft mal drüber nachgedacht werden, evtl. eine Auswahl treffen zu können, wenn man gar keine HDDs mehr einsetzen möchte als UNRAID Disk Station sondern nurnoch SSDs einsetzen möchtest... ODER wenn du das nicht willst, bräuchtest am besten ne Enterprise SSD als Parity... ODER du erstellst dein Array so wie du es beschrieben hast und behälst die SMART Werte im Auge, gerade bei der Parity 🙂
  3. Hi zusammen, ich weis, Thema Backup gibt es zu genug, nicht noch ein Backup Thema🤦‍♂️ Suche schon länger ein Programm, wo meine Daten aus Ordner X über z.B. SMB Share zieht und das komprimiert in der eigenen Dateiendung mit PW auf eine HDD oder einen anderen Share legt (sei es intern oder extern auf Cloud). Möchte keinen „copy“ Job, sondern ein Backup wo komprimiert in der eigenen Dateiendung. Wenn es noch DeDup könnte wäre das hammergeil. Wenns das dann noch als Docker gibt 🤪🥰😍 Kenne zwar ein Windoof Programm, wo das machen könnte, aber alleine für die Lizenz müsste ich nen Kredit aufnehmen und das was ich damit machen würde, ist leider nur ein Bruchteil, was das Programm leisten kann. Theoretisch wäre es geil, wenn es in Lucky Backup eine Funktion geben würde mit Komprimierung und PW, sowie DeDup Funktion. Kennt evtl. Jemand ein „einfaches“ Programm/Docker (im allerschlimmsten Fall über eine Windoof VM) wo die Kriterien erfüllt und wenn es was kostet, wenigstens bezahlbar ist für einen privat?! Danke schon mal im Voraus. Grüße 🖖 ✌️👍
  4. zpool import -f nvme_storage neustart tadaa... lässt sich wieder starten 🙂 JIPPI... ✌️
  5. Hi, hab nun über ein Datenrettungsprogramm meine Daten direkt zum Backup geschickt (dann sind die mal sicher). D.h. ich könnte nun probieren, wie ich den vorhandenen pool "nvme_storage" wieder online bekomme. Anscheinend würde sich der pool wieder integrieren lassen.. Nur werde ich aus der Doku nicht schlau...
  6. Hi zusammen, hab einen 2.ten Pool aufgebaut namens "Nvme_storage" mit 4 NVME´s und raidz. Hab da dann meine Daten drauf gehaut und wollte davon diese Woche noch ein Backup ziehen. Auf meinem Backup System hab ich die NVME Adapter Karte benötigt (vom 1.ten Pool namens "Cache" (u.a. auch ein ZFS raidz System) und habe deshalb den pool in den Tools gelöscht und das System runtergefahren. Nachdem ich nun auf meinem Backup System nun mehr oder weniger erfolgreich die Test durchgeführt habe, wollte ich nun wieder im Unraid das Array starten und habe exakt wie zuvor alles wieder eingestellt und eingesteckt (NVME Reihenfolge). Der "Cache" Pool wurde wieder gestartet in Unraid aber der "NVME_storage" Pool zeigt nun "Unmountable: Unsupported or no file system". Die Bezeichnung sowie die Einstellungen sind exakt wie zuvor eingestellt (Screenshots natürlich vorher gemacht). Problem ist nun, da dort meine Daten drauf liegen, benötige ich diese. Danach kann man ruhig den Pool neu erstellen. Frage ist nun, wie bekomme ich den Pool wieder so zum laufen, dass ich an die Daten hinkomme, kurz n Backup ziehen kann? Danke schon mal im Voraus. Grüße
  7. Hi zusammen, da ich einen Stromsparenden Server gebaut habe, sind in diesem auch 5x 1TB Crucial BX500 1TB 3D NAND SSD´s verbaut worden. Eine ist als Parity und die anderen als Datenspeicher. Unraid läuft in einer VM unter Proxmox und der VM wurden 2 Cores gegeben und 8GB Ram. (I7-8700T und 32GB DDR4 Ram insgesamt). Sinn oder Unsinn, sei mal dahingestellt. Die SSD´s sind per PT direkt an Unraid durchgegeben. Dateiformat ist XFS. Kein Cache. Aktuell läuft Unraid im IDLE (kein Docker, Plugin oder sonstiges) und es wurde die Parity erstellt (was 4Std. und 48min. gedauert hat). Bevor die SSD´s in den Server kamen, hab ich einen Test unterzogen mit jeweils einer 50GB Datei an einem Win Rechner. Hier wurden im Durchschnitt ca. 286Mbit erreicht ("minimal" Schwankend) Wenn ich mir nun einen share anlege und kleinere Dateien übertrage (max. ~5GB) (aktuell noch am 1GB Ethernet LAN) hab ich von einem Client aus konstant 113MB/s. Sobald ich aber eine größere Datei übertragen möchte, (24GB) bricht andauern die Übertragungsgeschwindigkeit zusammen. Im Dashboard von Unraid sieht man, dass die Writes von 200MB/s auf einmal auf ~8MB/s einbricht. Im Dashboard von Proxmox sieht man, dass andauernd der RAM voll läuft und es danach zu diesem Einbruch kommt. Jetzt natürlich die Frage, wie bekomm ich es am besten hin, dass die Geschwindigkeit nicht andauernd einbricht?! Eine NVME als Cache ist ja auch iwi Sinnbefreit, da die SSD´s ja die Geschwindigkeit könnten... Wenn dies aber nötig ist bzw. wäre, verbaue ich noch eine (einen Platz hab ich noch). PS: Tests wie "High-Water", Fill-up, Most-free und "Turbowrite" (md_write_method), hab ich schon getestet, ergab keine Besserung. Kleiner Test noch, hab 16GB Ram Unraid gegeben und die Einbrüche waren nicht mehr so häufig, aber genauso abfallend von der Geschwindigkeit her. Danke schon mal im Voraus. Grüße
  8. Danke für die Antworten. Da es für mich auch "nur" ein Datengrab ist, geh ich nun mal den Weg und schau mir die Sache an. Wenn ich in ein paar Jahren noch dran denke und die Parity wird langsamer / oder hat einen defekt, teile ich es mit 🙂
  9. Hi, hab einiges gelesen, ob man UNRAID im Array einzig mit SSDs betreiben kann/soll. Hab einen neuen Server aufgesetzt, wo getrimmt ist auf Strom sparen. Für das Array hab ich 5x 1TB SSD´s gekauft und möchte die nun im Array einbinden (was ich auch aktuell nebenher laufen lasse als xfs). 1x Parity und 4x Disks. Hab gelesen, dass TRIM für das Array nicht aktiviert werden kann und wenn dann sollte man eine Enterprise SSD dafür nehmen, zumindest für die Parity, oder eine HDD. Ist das korrekt so? Was würde mit der SSD (nicht Enterprise) passieren, wenn diese trotzdem als Parity eingesetzt werden würde? System soll als Datenspeicher genutzt werden, mit einigen Docker (privates Umfeld, wenig I/O benutzung, mehr im IDLE, deswegen Stromsparend). Danke schon mal im Voraus. VIele Grüße ✌️✌️
  10. Gaaaanz locker bleiben…. warum Unraid Unraid heißt, weis ich schon von Anfang an 😉 Da aktuell nichts auf dem Backup Server liegt und ich gerne das vorher ausprobier, ob es für mein Prod. Server n Sinn macht und wie es funktioniert, teste ich es auf dem. Danke für den Hinweis mit dem USB Stick als Laufwerk im Array 👍
  11. Hi zusammen, hoffe das ich das Thema hier eröffnen darf... Auf meinem 2.ten Unraid Server (neuer Backup Server), hab ich das neuste Unraid installiert, da es zfs mit einbindet. Hab nun versucht, mein aktuelles BRTFS Array (aktuell keine Daten drauf) dementsprechend als RAID-Z(1) (4 Platten, 1 davon Parity), zu erstellen. Leider bin ich zu doof dafür. Array gestoppt. Unter Settings -> Disk Settings -> "Default file system" zfs ausgewählt. Dann unter Tools->New Config-> All -> Yes, I want to do this -> Apply So, nun im Main die Disk im Array auf "unassigned" gesetzt und auf Add Pool. Name: zfs Slots 4 Nun alle HDDs zugeordnet. Auf die erste HDD geklickt, damit ich in die Settings komme und dort unter "File system type" zfs ausgewählt, dahinter raidz und dahinter "1 group of 4 devices" -> APPLY -> DONE Und nun? Ein "START" kann ich nicht auswählen, da dahinter steht: "No array data disks have been assigned" Ist korrekt, möchte ich auch gar nicht mehr, möchte "nur noch" ein ZFS Array als Raid-Z haben... Was mach ich hier falsch?! Hab danach den Pool wieder gelöscht und "oben" im Array die HDDS wieder alle schön hinzugefügt (inkl. 1 Parity) und in den Settings jeder HDD das ZFS ausgewählt. Wenn ich nun auf Array Start klicke, formatiert er alle HDDS brav auf das Dateisystem zfs, aber ich kann nirgends auswählen, dass das System bitte ein RAID-Z erstellen soll als Data Array.... Sry... bin glaub echt zu blöd dafür zu kapieren, wie man das korrekt nun anwendet... 🤣🤦‍♂️ Danke schon mal im Voraus auf eure Hilfe ✌️
  12. Hi zusammen, da mich der Papierkram echt so langsam erschlägt, hab ich mich nun dazu entschlossen, Paperless-ngx zu installieren (mit Redis) und hab das alles soweit am laufen. Funktioniert bisher echt gut, nur hätte ich 2 Fragen... 1. Habe mir Dokumententypen angelegt (wie eine Art Ordner Struktur mit "Rechnungen 2023", "Versicherungen" usw.. ) Wenn ich nun egal was für ein Dokument einscanne, landet es immer zuerst im Dokumententyp "Rechnungen 2023". Wenn das System sich nicht sicher ist (die Dokumente enthalten keine Schlagwörter für den Bezug zu "Rechnungen 2023", außer evtl. das Datum), wäre es besser, wenn das System das Dokument als "Nicht zugewiesen" deklariert. Wie kann man das einstellen, oder benötigt das Programm noch weitere ~50 Dokumente um das "selbst" zu lernen? Speicherpfad ist: {document_type}/{created_year}-{created_month}-{created_day}_{tag_list}_{title} 2. Lernt das Programm auch mit den zugewiesenen Tags dazu? Wie habt ihr das Programm soweit eingestellt? Hab mir von Anfang an den Kopf zerbrochen, wie ich das "richtig" einstelle, bzw. auch ein wenig sortiere... Grüße ✌️
  13. Hi zusammen, suche ein Programm/Docker wo es ermöglicht die Bilder zu verwalten in einer Art Ordnerstruktur entweder über eine Web Page oder einer App. Hatte eine Zeitlang Piwigo am laufen inkl. der IOS App. Hatte dann einen Fehler in Piwigo und es ging nichts mehr. Nach ca 6std. Intensiver Recherche lief er wieder, aber ich konnte jedes der ~13000Bilder von Hand runterladen und sortieren, da das Plugin zum downloaden nicht mehr ging. Brauche keine AI oder sonstiges. Am liebsten wie Piwigo, aber ohne DB sondern mit richtiger Ordnerstruktur auf SMB Basis (mit App oder mit Web Zugriff und upload). Leider finde ich nichts dergleichen. Kennt ihr eine Alternative wo ich mir mal anschauen könnte? Evtl. Wäre auch ein Filebrowser eine Alternative?! Danke schon mal im Voraus. Grüße
  14. Hi zusammen, sitze seit einigen Tagen vor dem Problem, dass ich es einfach nicht gerafft bekomme, wie ich z.B. in ddclient einfach nur eine Web Page alle ~5 Minuten aufrufen kann. Bei meinem Domain Hoster kann ich eine DynDns Adresse erstellen und bekomme dafür eine https Adresse zu Verfügung gestellt. (schätze mal, dass in der Adresse auch das API Token steckt). Jetzt ist es sehr einfach, eigentlich, kopiere ich die Adresse und öffne diese in einem neuen Tab, wird mir direkt meine Internet IP Adresse angezeigt und sofort an die DynDns Adresse gehängt. Also ohne Benutzername, Passwort oder ähnliches. Eigentlich ziemlich geil, aber leider bekomme ich hier keinen "Automatismus" hin, wo mir alle 5 Minuten die Adresse einfach nur aufruft. Alles andere wird ja automatisch eingetragen in die DynDns Adresse. Bekomme ich das iwi "einfach" mit ddclient hin? Wenn ja, wie wäre hier der "Code"? Danke schon mal auf eure Hilfe. Grüße ✌️
  15. Das mit der eigenen Domain wäre eine Idee. Würde das aber eigentlich gerne über Wireguard regeln (Zugriff über das Internet). Im eigenen Lan spielt das ja keine Rolle, wenn ein Gerät verbunden ist. Einzig Vaultwarden benötigt https, die anderen Geräte sind auch ohne SSL erreichbar, bzw. Funktionieren. Das ob, warum, usw.. ist das eine Glaubensfrage. Ob man es braucht oder nicht, darf man sich als IT verrückter nicht stellen 😂 eher, wie bekommt man das hin… Auch in dem Hinblick, wenn das Internet ausfällt und ich aber auf Vaultwarden Zugreifen muss, dann spätestens hab ich ein Problem.
  16. Hi zusammen, beschäftige mich aktuell auch mit dem Thema. Hab einige Subdomains aktuell über NGINX Proxy Manager und meinem Hoster übers Inet veröffentlicht, vorallem auch wegen Bitwarden (Vaultwarden) https. Da ich zukünftig auf meiner Domain eine Homepage erstellen möchte, könnte man über nen Subdomain Scanner die Subdomains ausfindig machen und hat durch nen Ping meine IP Adresse (dadurch evtl. DDOS Attacken oder weiteren Blödsinn anstellen). Das was ich mir nun vorstelle ist: - Wireguard einrichten auf der PFSense - Alle Clients wo drauf sollen, Wireguard einrichten - Einen lokalen DNS einrichten (könnte ja NPM dafür nehmen) - Eigene Zertifikate erstellen und diese im NPM auf den Host als SSL eintragen So könnte man sich dann von außerhalb mit dem Wireguard einloggen und via DNS auf die Web Pages der verschiedenen Docker zugreifen (Jellyfin, piwigo usw....) vor allem aber auch via https auf den Vaultwarden. Hab leider keine Lösung gefunden, via http bei Vaultwarden zugreifen zu können.... Hoffe ich bin nicht ganz auf dem falschen Dampfer 🙂
  17. Servus zusammen, hab mir schon einiges durchgelesen, komme aber nicht wirklich auf den richtigen Weg. Was ich bisher habe: z.B. Vaultwarden dieser ist über nen A Record und einem weiteren CNAME (Hetzner) im Nginx Proxy Manager hinterlegt inkl. einem Let´s Encrypt Zertifikat, da Vaultwarden nur über https richtig funktioniert. Funktioniert einwandfrei. Was mir nicht mehr so gefällt ist, das man über verschiedene Subdomain Suchmaschinen (wenn man die Haupt-Domain weis), rausfinden kann, ob irgendwelche Subdomains (A Record und CNAME) vorhanden sind. Dadurch hat man direkt die IP von meinem Anschluss und kann wenn man will, Blödsinn anstellen. Was ich mir gedacht habe: Ich erstelle einen eigenen Wireguard Server (hab noch ne PFSense am laufen) und installiere an den Geräten, wo zugreifen müssen, den Wireguard und ermögliche dadurch den Zugriff ins Netzwerk. Die Subdomain (-s) wird still gelegt. Über den Nginx Proxy Manager hab ich als Test schon eine lokale IP mit einem Namen versehen (z.B. unraid.local) und dieser wird auch im Netzwerk einwandfrei aufgelöst. Nur jetzt kommt das Problem, ich bekomme kein Zertifikat für die unraid.local Adresse (logisch, da Let´s Encrypt nur Domains (inkl. Subdomains) ein Zertifikat ausstellt. Frage nun, gerade für Vaultwarden, wo nur über https richtig funktioniert, wie bekomme ich ein Zertifikat für die lokale DNS (dann einfachhalber "vaultwarden.local") in Nginx Proxy Manager hinterlegt bzw. erstellt? Danke schon mal im Voraus. Grüße
  18. Hi, 😄 PT => Pass Through Die Onboard Grafik ist und bleibt Onboard 🙂 (super geschickt für BMC HTTP) Die eine Graka (Nvidia) macht Transcoding (Jellyfin). Die andere RX550 benötige ich eigentlich für die GPU Unterstützung für ne VM wo GPU Unterstützung benötigt (Hardwarebeschleunigt) für z.B. SketchUp. Die eine VM verwendet für die Grafikbeschleunigung die GPU (so sagt es wenigstens der Task Manager). Hab kurz auf dem 2.ten Server (Dual Xeon) n Proxmox installiert und erstelle gerade ne VM drauf. Schauen wir mal, ob die Performance dort "besser" ist. Wenn ja, erstelle ich nochma n neuen Unraid USB Stick und mach dann auf dem Xeon Server ne VM und probier es nochmals (um den Vergleich zu haben, Proxmox <-> Unraid und Unraid AMD <-> Unraid Xeon). Bin gespannt.. PS: In der Arbeit haben wir natürlich n Mega Cluster über VMWare und das vSphere Center inkl. VDI (4x Nvidia Ampere A40)... Da komm ich aus dem Sabbern nimmer raus... Danke für die tolle Unterstützung 👍✌️
  19. 😂 Alles gut, bin kein VNC Nutzer. Only RPD (RemoteDesktop). Hab auch schon mRemote ausprobiert, aber das NoMachine noch nicht.. Hol ich nach 🙂 @saber1 kannst du n Screenhot von deiner vm Config einstellen?
  20. Moin zusammen, vorab, ich weis, dass Unraid nicht als Virtualisierung Hypervisor, Platz 1 ist, wollte euch aber trotzdem mal fragen, wie bei euch erstellte VM´s (als Vdisk) über remote so taugen? Hab nun (meine ich zumindest), alle Einstellungen bzw. Setups getestet und hab es nicht hinbekommen, wie bei VMWare, dass die VM´s "flüssig" laufen. Mit flüssig meine ich, das wenn man ein Fenster öffnet, das nicht "stotternd" aufgeht, wenn man ein Fenster verschiebt, das nicht hinterherzieht usw... Leider bin ich in dem Punkt echt pingelig, bin auch aktuell kurz davor mir nen weiteren Server aufzubauen mit ESXI drauf. Getestet hab ich das ganze auch mit einer AMD RX550 GPU (PT auf die VM), damit die VM die GPU als Unterstützung hat, leider identische Ergebnisse. Die vdisk lagen bzw. liegen alle einzeln auf jeweils einer NVME wo über Unassigned Devices "gemounted" sind (um einfach sicher zu stellen, dass nicht weitere VM´s oder anderes auf die NVMEs zugreifen). Genauso wurden auch einige Cores isoliert und nur den VM´s zugeteilt (8Cores - 16Threads) mit jeweils 16 oder 32GB Ram. Ein PT der NVMe ist nicht möglich, da ich die Vdisk auf n zweites Unraid System sichere (im Fall der Fälle, direkt wiederherstellbar). Setup: Supermicro H11SSL-i AMD EPYC 7551P (32Core - 64 Threads) 128GB DDR4 ECC Ram Nvidia Quadro P400 AMD RX550 GPU Intel X520-DA2 (über 10Gig angebunden) 6x NVMe (4über ne Hypercard von Asus und 2 über ne Dual PCIe Card) Würde hier Unraid "Theoretisch" noch "mehr" der Augenmerk drauf legen (u.a. auch mal Snapshot Funktionalität ala VMWare), wäre Unraid wirklich ne Eierliegende Wollmilchsau 😂 Hättet ihr noch ne Idee (oder Einstellungssetup), was ich noch testen könnte? Danke schon mal im Voraus. Grüße ✌️ PS: Hab noch nen weiteren Server hier mit folgenden Specs: 2x Intel(R) Xeon(R) CPU E5-2630 v4 128GB DDR4 ECC Ram 2x NVME direct über PCIe Test Unraid auf diesem System mit vdisk und verschiedenen Einstellungen, kommt leider auf das selbe Ergebnis... Bin Ratlos....
  21. Hi zusammen, ich finde die Einstellung im Docker NGINX Proxy Manager nicht, alle anfragen nur noch auf die https umzuleiten. D.h. aus dem www komme ich auf eine Seite was ich eingestellt habe vie http und https (beides möglich). Möchte aber, das die http nicht mehr erreichbar ist, sondern nur noch die https, bzw. wenn jemand versucht auf die http Seite zu gelangen, er automatisch umgeleitet wird auf https. Das Ziel ist eine http Seite (z.B. Bitwarden), aber über NGINX möchte ich nur noch den https Zugriff zulassen. Welchen haken muss ich hierfür aktivieren? Danke schon mal im Voraus. ✌️
  22. Hi, short replay ore information about is it running or not... 😕 Factory Reset => nope https config via reverse proxy (nginx) => nope new config with Jellyfin app and with/without "Prefer" option... (Beta player is not working) => nope any other browser (Chrome, Safari, Edge, Firefox) => nope.... on the fire hd 10 no problems... hmm... i think i must say goodby to my good old ipad.. 😪
  23. Hi zusammen, hab auf nem R330 mein Unraid Backup System am laufen. Das Backup bekommt das System vom Hauptsystem rübergeschoben (direkt 10GB Glas, im eigenen Netz). Das funktioniert mit luckyBackup bestens (SSH). Da aber das System nicht dauerhaft "laufen" bzw. an sein muss, hab ich mir folgendes Szenario vorgestellt...: 1. Unraid Backup Server per PXE booten lassen 2. Nachdem Unraid (Backup) läuft (wie auch immer man das kontrollieren kann), luckyBackup aktivieren und die Jobs laufen lassen 3. Alle Jobs erfolgreich abgeschlossen, Unraid Backup Server wieder runter fahren Das ganze Szenario z.B. 1x die Woche wiederholen lassen ("Time Scheduler") und am besten mir per Email nen "all Joby OK" senden (oder iwi ne Nachricht, das alles funktioniert hat). Hättet ihr ne Idee wie man das machen könnte, oder gibt es sogar hierfür schon "schöne" klick klick Lösungen 🙂 Danke schon mal im Voraus... ✌️
  24. Hi, in Safari the same issue... Is not working... The server and the other clients works fine.... maybe i must order a new ipad.. 😕 Thanks for your great support 👍👍✌️
  25. Sry... i don´t wont a double post, but i have found a solution in another forum, for the iphone.... "Try pressing person icon in top right corner for settings. The select playback from nav menu and enable "Prefer fMP4-HLS Media Container"" This works for the iphone, but not for the "old" ipad 2018