High-Tower

Members
  • Posts

    66
  • Joined

  • Last visited

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

High-Tower's Achievements

Rookie

Rookie (2/14)

13

Reputation

1

Community Answers

  1. Hi, i have installed the plugin and have installed a new virtual machine for prtg. The auto discovery search have a many result of datas over snmp. For me, the important thing is the temperature from the hdd´s and nvme´s. Unraid shows me that, but i want it in prtg. Does anyone know, how i add this information? Is the temperature a information from the snmp plugin?
  2. Da hat @BiNiCKNiCHrecht. Hatte das selbe vor wie du @TraumG. Das einzige was da machen kannst, 2 disks (Virtuell, oder Physisch z.B. usb Sticks) als Parity und Disk1 benutzen und die SSDs als Pool deklarieren z.B. als RaidZ1. Danach kannst alles (System usw..) rüber schieben auf den Pool, dann ist die Disk und die Parity nur da, wird aber nicht benutzt. Hier sollte evtl. von UNRAID für die Zukunft mal drüber nachgedacht werden, evtl. eine Auswahl treffen zu können, wenn man gar keine HDDs mehr einsetzen möchte als UNRAID Disk Station sondern nurnoch SSDs einsetzen möchtest... ODER wenn du das nicht willst, bräuchtest am besten ne Enterprise SSD als Parity... ODER du erstellst dein Array so wie du es beschrieben hast und behälst die SMART Werte im Auge, gerade bei der Parity 🙂
  3. Hi zusammen, ich weis, Thema Backup gibt es zu genug, nicht noch ein Backup Thema🤦‍♂️ Suche schon länger ein Programm, wo meine Daten aus Ordner X über z.B. SMB Share zieht und das komprimiert in der eigenen Dateiendung mit PW auf eine HDD oder einen anderen Share legt (sei es intern oder extern auf Cloud). Möchte keinen „copy“ Job, sondern ein Backup wo komprimiert in der eigenen Dateiendung. Wenn es noch DeDup könnte wäre das hammergeil. Wenns das dann noch als Docker gibt 🤪🥰😍 Kenne zwar ein Windoof Programm, wo das machen könnte, aber alleine für die Lizenz müsste ich nen Kredit aufnehmen und das was ich damit machen würde, ist leider nur ein Bruchteil, was das Programm leisten kann. Theoretisch wäre es geil, wenn es in Lucky Backup eine Funktion geben würde mit Komprimierung und PW, sowie DeDup Funktion. Kennt evtl. Jemand ein „einfaches“ Programm/Docker (im allerschlimmsten Fall über eine Windoof VM) wo die Kriterien erfüllt und wenn es was kostet, wenigstens bezahlbar ist für einen privat?! Danke schon mal im Voraus. Grüße 🖖 ✌️👍
  4. zpool import -f nvme_storage neustart tadaa... lässt sich wieder starten 🙂 JIPPI... ✌️
  5. Hi, hab nun über ein Datenrettungsprogramm meine Daten direkt zum Backup geschickt (dann sind die mal sicher). D.h. ich könnte nun probieren, wie ich den vorhandenen pool "nvme_storage" wieder online bekomme. Anscheinend würde sich der pool wieder integrieren lassen.. Nur werde ich aus der Doku nicht schlau...
  6. Hi zusammen, hab einen 2.ten Pool aufgebaut namens "Nvme_storage" mit 4 NVME´s und raidz. Hab da dann meine Daten drauf gehaut und wollte davon diese Woche noch ein Backup ziehen. Auf meinem Backup System hab ich die NVME Adapter Karte benötigt (vom 1.ten Pool namens "Cache" (u.a. auch ein ZFS raidz System) und habe deshalb den pool in den Tools gelöscht und das System runtergefahren. Nachdem ich nun auf meinem Backup System nun mehr oder weniger erfolgreich die Test durchgeführt habe, wollte ich nun wieder im Unraid das Array starten und habe exakt wie zuvor alles wieder eingestellt und eingesteckt (NVME Reihenfolge). Der "Cache" Pool wurde wieder gestartet in Unraid aber der "NVME_storage" Pool zeigt nun "Unmountable: Unsupported or no file system". Die Bezeichnung sowie die Einstellungen sind exakt wie zuvor eingestellt (Screenshots natürlich vorher gemacht). Problem ist nun, da dort meine Daten drauf liegen, benötige ich diese. Danach kann man ruhig den Pool neu erstellen. Frage ist nun, wie bekomme ich den Pool wieder so zum laufen, dass ich an die Daten hinkomme, kurz n Backup ziehen kann? Danke schon mal im Voraus. Grüße
  7. Hi zusammen, da ich einen Stromsparenden Server gebaut habe, sind in diesem auch 5x 1TB Crucial BX500 1TB 3D NAND SSD´s verbaut worden. Eine ist als Parity und die anderen als Datenspeicher. Unraid läuft in einer VM unter Proxmox und der VM wurden 2 Cores gegeben und 8GB Ram. (I7-8700T und 32GB DDR4 Ram insgesamt). Sinn oder Unsinn, sei mal dahingestellt. Die SSD´s sind per PT direkt an Unraid durchgegeben. Dateiformat ist XFS. Kein Cache. Aktuell läuft Unraid im IDLE (kein Docker, Plugin oder sonstiges) und es wurde die Parity erstellt (was 4Std. und 48min. gedauert hat). Bevor die SSD´s in den Server kamen, hab ich einen Test unterzogen mit jeweils einer 50GB Datei an einem Win Rechner. Hier wurden im Durchschnitt ca. 286Mbit erreicht ("minimal" Schwankend) Wenn ich mir nun einen share anlege und kleinere Dateien übertrage (max. ~5GB) (aktuell noch am 1GB Ethernet LAN) hab ich von einem Client aus konstant 113MB/s. Sobald ich aber eine größere Datei übertragen möchte, (24GB) bricht andauern die Übertragungsgeschwindigkeit zusammen. Im Dashboard von Unraid sieht man, dass die Writes von 200MB/s auf einmal auf ~8MB/s einbricht. Im Dashboard von Proxmox sieht man, dass andauernd der RAM voll läuft und es danach zu diesem Einbruch kommt. Jetzt natürlich die Frage, wie bekomm ich es am besten hin, dass die Geschwindigkeit nicht andauernd einbricht?! Eine NVME als Cache ist ja auch iwi Sinnbefreit, da die SSD´s ja die Geschwindigkeit könnten... Wenn dies aber nötig ist bzw. wäre, verbaue ich noch eine (einen Platz hab ich noch). PS: Tests wie "High-Water", Fill-up, Most-free und "Turbowrite" (md_write_method), hab ich schon getestet, ergab keine Besserung. Kleiner Test noch, hab 16GB Ram Unraid gegeben und die Einbrüche waren nicht mehr so häufig, aber genauso abfallend von der Geschwindigkeit her. Danke schon mal im Voraus. Grüße
  8. Danke für die Antworten. Da es für mich auch "nur" ein Datengrab ist, geh ich nun mal den Weg und schau mir die Sache an. Wenn ich in ein paar Jahren noch dran denke und die Parity wird langsamer / oder hat einen defekt, teile ich es mit 🙂
  9. Hi, hab einiges gelesen, ob man UNRAID im Array einzig mit SSDs betreiben kann/soll. Hab einen neuen Server aufgesetzt, wo getrimmt ist auf Strom sparen. Für das Array hab ich 5x 1TB SSD´s gekauft und möchte die nun im Array einbinden (was ich auch aktuell nebenher laufen lasse als xfs). 1x Parity und 4x Disks. Hab gelesen, dass TRIM für das Array nicht aktiviert werden kann und wenn dann sollte man eine Enterprise SSD dafür nehmen, zumindest für die Parity, oder eine HDD. Ist das korrekt so? Was würde mit der SSD (nicht Enterprise) passieren, wenn diese trotzdem als Parity eingesetzt werden würde? System soll als Datenspeicher genutzt werden, mit einigen Docker (privates Umfeld, wenig I/O benutzung, mehr im IDLE, deswegen Stromsparend). Danke schon mal im Voraus. VIele Grüße ✌️✌️
  10. Gaaaanz locker bleiben…. warum Unraid Unraid heißt, weis ich schon von Anfang an 😉 Da aktuell nichts auf dem Backup Server liegt und ich gerne das vorher ausprobier, ob es für mein Prod. Server n Sinn macht und wie es funktioniert, teste ich es auf dem. Danke für den Hinweis mit dem USB Stick als Laufwerk im Array 👍
  11. Hi zusammen, hoffe das ich das Thema hier eröffnen darf... Auf meinem 2.ten Unraid Server (neuer Backup Server), hab ich das neuste Unraid installiert, da es zfs mit einbindet. Hab nun versucht, mein aktuelles BRTFS Array (aktuell keine Daten drauf) dementsprechend als RAID-Z(1) (4 Platten, 1 davon Parity), zu erstellen. Leider bin ich zu doof dafür. Array gestoppt. Unter Settings -> Disk Settings -> "Default file system" zfs ausgewählt. Dann unter Tools->New Config-> All -> Yes, I want to do this -> Apply So, nun im Main die Disk im Array auf "unassigned" gesetzt und auf Add Pool. Name: zfs Slots 4 Nun alle HDDs zugeordnet. Auf die erste HDD geklickt, damit ich in die Settings komme und dort unter "File system type" zfs ausgewählt, dahinter raidz und dahinter "1 group of 4 devices" -> APPLY -> DONE Und nun? Ein "START" kann ich nicht auswählen, da dahinter steht: "No array data disks have been assigned" Ist korrekt, möchte ich auch gar nicht mehr, möchte "nur noch" ein ZFS Array als Raid-Z haben... Was mach ich hier falsch?! Hab danach den Pool wieder gelöscht und "oben" im Array die HDDS wieder alle schön hinzugefügt (inkl. 1 Parity) und in den Settings jeder HDD das ZFS ausgewählt. Wenn ich nun auf Array Start klicke, formatiert er alle HDDS brav auf das Dateisystem zfs, aber ich kann nirgends auswählen, dass das System bitte ein RAID-Z erstellen soll als Data Array.... Sry... bin glaub echt zu blöd dafür zu kapieren, wie man das korrekt nun anwendet... 🤣🤦‍♂️ Danke schon mal im Voraus auf eure Hilfe ✌️
  12. Hi zusammen, da mich der Papierkram echt so langsam erschlägt, hab ich mich nun dazu entschlossen, Paperless-ngx zu installieren (mit Redis) und hab das alles soweit am laufen. Funktioniert bisher echt gut, nur hätte ich 2 Fragen... 1. Habe mir Dokumententypen angelegt (wie eine Art Ordner Struktur mit "Rechnungen 2023", "Versicherungen" usw.. ) Wenn ich nun egal was für ein Dokument einscanne, landet es immer zuerst im Dokumententyp "Rechnungen 2023". Wenn das System sich nicht sicher ist (die Dokumente enthalten keine Schlagwörter für den Bezug zu "Rechnungen 2023", außer evtl. das Datum), wäre es besser, wenn das System das Dokument als "Nicht zugewiesen" deklariert. Wie kann man das einstellen, oder benötigt das Programm noch weitere ~50 Dokumente um das "selbst" zu lernen? Speicherpfad ist: {document_type}/{created_year}-{created_month}-{created_day}_{tag_list}_{title} 2. Lernt das Programm auch mit den zugewiesenen Tags dazu? Wie habt ihr das Programm soweit eingestellt? Hab mir von Anfang an den Kopf zerbrochen, wie ich das "richtig" einstelle, bzw. auch ein wenig sortiere... Grüße ✌️
  13. Hi zusammen, suche ein Programm/Docker wo es ermöglicht die Bilder zu verwalten in einer Art Ordnerstruktur entweder über eine Web Page oder einer App. Hatte eine Zeitlang Piwigo am laufen inkl. der IOS App. Hatte dann einen Fehler in Piwigo und es ging nichts mehr. Nach ca 6std. Intensiver Recherche lief er wieder, aber ich konnte jedes der ~13000Bilder von Hand runterladen und sortieren, da das Plugin zum downloaden nicht mehr ging. Brauche keine AI oder sonstiges. Am liebsten wie Piwigo, aber ohne DB sondern mit richtiger Ordnerstruktur auf SMB Basis (mit App oder mit Web Zugriff und upload). Leider finde ich nichts dergleichen. Kennt ihr eine Alternative wo ich mir mal anschauen könnte? Evtl. Wäre auch ein Filebrowser eine Alternative?! Danke schon mal im Voraus. Grüße
  14. Hi zusammen, sitze seit einigen Tagen vor dem Problem, dass ich es einfach nicht gerafft bekomme, wie ich z.B. in ddclient einfach nur eine Web Page alle ~5 Minuten aufrufen kann. Bei meinem Domain Hoster kann ich eine DynDns Adresse erstellen und bekomme dafür eine https Adresse zu Verfügung gestellt. (schätze mal, dass in der Adresse auch das API Token steckt). Jetzt ist es sehr einfach, eigentlich, kopiere ich die Adresse und öffne diese in einem neuen Tab, wird mir direkt meine Internet IP Adresse angezeigt und sofort an die DynDns Adresse gehängt. Also ohne Benutzername, Passwort oder ähnliches. Eigentlich ziemlich geil, aber leider bekomme ich hier keinen "Automatismus" hin, wo mir alle 5 Minuten die Adresse einfach nur aufruft. Alles andere wird ja automatisch eingetragen in die DynDns Adresse. Bekomme ich das iwi "einfach" mit ddclient hin? Wenn ja, wie wäre hier der "Code"? Danke schon mal auf eure Hilfe. Grüße ✌️
  15. Das mit der eigenen Domain wäre eine Idee. Würde das aber eigentlich gerne über Wireguard regeln (Zugriff über das Internet). Im eigenen Lan spielt das ja keine Rolle, wenn ein Gerät verbunden ist. Einzig Vaultwarden benötigt https, die anderen Geräte sind auch ohne SSL erreichbar, bzw. Funktionieren. Das ob, warum, usw.. ist das eine Glaubensfrage. Ob man es braucht oder nicht, darf man sich als IT verrückter nicht stellen 😂 eher, wie bekommt man das hin… Auch in dem Hinblick, wenn das Internet ausfällt und ich aber auf Vaultwarden Zugreifen muss, dann spätestens hab ich ein Problem.