Peter0815

Members
  • Posts

    24
  • Joined

  • Last visited

Everything posted by Peter0815

  1. Not yet. To be honest I did not get what you were supposing. I guess I do now but for me this is not intuitive. And I still want to understand why changing the capacity via the GUI does not work. I also wonder if it might not be „easier“ to create a new Home Assistant VM with larger vdisk and restore the old settings from a Home Assistant backup.
  2. It is getting more confusing to me. I have triggered a manual backup via vm-backup plug in. The file size of todays backup has grown from 34 to 44GB. This seems to correspond with the "Image resized" prompt that I got from the CLI yesterday when entering: qemu-img resize -f raw /mnt/user/domains/HOMEASSISTANT/haos_ova-9.2.vmdk +10G but still the VM shows CAPACITY and ALLOCATION 32GB and I cannot change it in the VM tab
  3. If I stop the VM and type for example 42 instead of 32 and hit enter, then the number is 32 again. Can‘t increase it that way.
  4. This is what I have tried but changing the capacity value did not work.
  5. Hi folks, I am running home assistant on a FreeBSD vm. While setting it up I followed a tutorial to use the "official" home assistant vmdk. I cannot remember having entered a value for the vdisk size but it is actually 32 GB. Now I got the message that home assistant i running out of memory and I have tried to increase the vdisk size without success. It doesn't work via the gui and after some search I came to CLI using: qemu-img resize -f raw /mnt/user/domains/HOMEASSISTANT/haos_ova-9.2.vmdk +10G the prompt was something like that this should have worked but obviously it did not. VM ist still showing 32 GB and I don't see an option to increase the size. How do I get this done? Thanks in advance. Peter
  6. Hi, aus meinem "Test-Server" wird langsam ein "ausgewachsenes" Gerät. Bisher lief er eher mit "Rest"-HDDs, gestern habe ich jedoch zwei 18Tb Toshibas eingesetzt - eine für das Array um perspektivisch die alten Platten zu ersetzen. Die andere wird Parity 1 - im bisherigen Testbetrieb hatte ich noch keine Parität. Also gestern beide Disks montiert, zugeordnet und Array gestartet. Kurz nach dem Beginn des Paritiy Sync zeigt mir FixCommonProblems einen Read-Error auf der ältesten Disk 2 an. Ich bin nun am grübeln, was ich machen muss. Ich hätte jetzt den Parity Sync abgewartet und dann die Daten von den älteren Disks 1 und 2 auf die neue Toshiba Disk 3 umgezogen. Die älteren würden dann rausfliegen - die fehlerhafte Disk 2 wahrscheinlich zur Entsorgung und die unauffällige Disk 1. Alternativ hätte ich auch noch eine 4Tb-Disk rumliegen, die ich als Ersatz der fehlerhaften Disk 3 einsetzen könnte und dann über die Parität wieder herstellen lasse. Was mach in welcher Reihenfolge Sinn? Bezgl. des angezeigten Lesefehlers kann ich nicht einschätzen, wie kritisch der ist. Die auf der Platte liegenden Shares sind erreichbar und die Meldung von FixCommonProblems liest sich so, als hätte das Problem gelöst werden können. Will jetzt aber auch während der Parity Sync keinen SMART Test anstoßen oder Daten verschieben... Vorab Danke für eure Ratschläge
  7. Mailstore habe ich schonmal gesehen, aber so wie ich es verstanden habe, läuft es unter Windows und legt die Mails nicht einzeln, sondern in einer eigenen Datei / Datenbank…?
  8. Peter0815

    Mail-Archiv

    Hi, wie wahrscheinlich jeder Durchschnitts-User habe ich mehrere Mailkonten. Einige Pop3 und einige Imap. Bisher greife ich am Smartphone quasi lesend zu, der Download der Mails erfolgt auf dem PC via Outlook. Gibt es eine Möglichkeit, die Mails aus den Outlook-pst-Dateien in einem „offenen“ Format zu sichern - als Backup/Archiv? Ich komme beim Suchen nicht so recht weiter, weil man schnell bei kostenpflichtigen, rechtssicheren Business-Lösungen landet oder zig Für- und Wider-Topics zum Betrieb eines eigenen Mailservers findet… da muss es doch was geben?
  9. Also erstmal danke für eure Ratschläge. Grundproblem war, dass ich beim Verschieben via Mover versäumt habe, die Docker und VMs zu stoppen. Damit konnte das Verschieben nicht klappen - logisch, wenn man kurz drüber nachdenkt. Jetzt habe ich immer brav alles gestoppt und damit war das verschieben auch kein Problem. Mittlerweile habe ich noch etwas umkonzipiert und es läuft soweit. Das Array aktuell mit nur einer HDD wird später noch erweitert. Die NVME macht alleine den Cache. Da muss ich mir noch eine Backup-Lösung bauen. Zusätzlich gibt es einen zweiten Cache mit 2 x 500Gb-SSDs.
  10. Ist es ein Problem die Sata-SSD und die NVME-SSD gemeinsam als Cache laufen zu lassen? Wahrscheinlich wird die NVME ausgebremst, aber zwecks Ausfallsicherheit besser so, als den Cache nur auf der NVME zu haben?
  11. Okay, danke. Den isos share genauso? Gleichzeitig oder besser einzeln? Wenn ja, Reihenfolge?
  12. hi there, I made first unraid steps on a thin client, which only had one NVME installed which was used as array. no parity, no cache. Now I was switching to new hardware and plugged the flash stick and the nvme into the new server. That worked nearly seamless, docker and VM where running as good as before. In preparation of copying the files from an older synology NAS I added new drives: - 1 x 4TB HDD, meant to become first disk in the array (the synology HDDs will later be added as array and paritiy disks) - 1 x 500GB older mSATA SSD in a 2,5" sata adapter case, meant to become 1 of 2 cache disks - the existing "array"-NVME should leave the array and become cache disk 2 of 2 I changed all the system shares (system, appdata, domains and isos) to be stored in cache and started the mover. This did not work, because - as I learned the hard way - it seems simply not possible to "move" all system shares. I ended up ruining my dockers, but was at least able to repare this by deleting the docker image according @SpaceInvaderOne's Video. So I remain in the unwanted situation of still having shares "system" and "isos" on the array instead of cache and not knowing how to transfer them. Therefore I can't take the NVME out of the array as planned and ad it to the cache. I was suggested to create a new config but in lack of experience / knowledge I fear I might loose my precious HomeAssitant VM. Is there really no somehow noob-proof way to solve this situation? Thank you for advice. Peter
  13. okay, verstanden. Danke. Ich bin gefühlt einen halben Schritt weitergekommen. Ich habe durch das Löschen Neuanlegen des gesamten Docker-Images meine 2 Docker wieder zum laufen gebracht. Siehe auch: jetzt laufen HomeAssistant-VM und die Docker augenscheinlich problemlos - das ursprüngliche Problem habe ich aber immernoch: wie kriege ich die system shares vom array rüber in den cache, damit ich die NVME aus dem Array lösen kann? Aktueller Stand:
  14. Okay, ich fürchte das übersteigt meine Fähigkeiten 😂 Ich kopiere den Ordner Homeassistant aus dem domains-Share auf nen USB-Stick, mache die neue Config, lege eine neue Homeassitant-VM an und dann? Sorry für die Anfänger-Fragen.
  15. puh also ich habe es mit dem Mover dann wohl "zerschossen"... Grund für diese eigentümliche (eigentlich temporäre) Konfiguration ist der Umstand das die NVME im vorhergehenden "Bastelserver" (ThinClient) die einzige Disk war. Ich habe neue (gebrauchte) Hardware angeschafft und die NVME und den Unraid-Stick in den neuen Server gesteckt. Das hat soweit funktioniert. Nun wollte ich durch hinzufügen der SSD und der HDD erstmal Ordnung reinbringen. SSD und NVME sollten gemeinsam Cache werden und die HDD erste Disk im Array. Weitere Array- und Paritiy-HDDs sollten im Zuge des Umzugs meines Nas auf den Server folgen. Ich hatte hier in einem anderen Thread nach dem richtigen Vorgehen gefragt, aber leider keine Antwort erhalten. Okay, den Unifiy-Docker neu aufzusetzen ist kein Problem, die anderen Docker waren Spielerei. Insofern wäre die neue Config noch verschmerzbar. Kann ich meine Home-Assistant-VM retten? Die läuft aktuell noch und da steckt etwas mehr Arbeit drin.
  16. ja habe ich. Ziel war, die bisher allein genutzte NVME im Array leer zu kriegen, damit ich sie auch für den cache verwenden kann.
  17. Hallo, ich habe in einem „neuen“ Unraid erstmalig einen Cache angelegt und dann den Mover über Setting, Schedule manuell gestartet. Alles, was zuvor im Array war, sollte in den Cache. Nach ca. 30GB von 100GB tat sich beim Mover nichts mehr und meine docker waren nicht verfügbar. Ich habe ihn dann mit mover stop über die console angehalten und nochmal gestartet. Keine Änderung. Gleiches vorgehen nochmal kombiniert mit einem Reboot keine Änderung, außer dass die Docker jetzt komplett weg sind - yeah. Die Systemauslastung ist insgesamt nahe an Idle. Was mache ich falsch?
  18. Hi, Bisher lief mein Unraid-Server auf einem ThinClient mit nur einer NVME als Array. Ich habe die NVME und den Unraid-Stick in den neuen Server umgezogen und das hat soweit problemlos alles funktioniert. Nun werden aber HDDs ergänzt und die NVME soll als Cache dienen. Kann man das im laufenden Betrieb „umziehen“ oder wie gehe ich das an? Bisher laufen nur HomeAssistant und ein UnifyController. Keine großen Datenmengen. Und zweite Frage: kann ich den Cache mit einer NVME und einer SSD aufbauen? Oder müssen es identische Datenträger sein? Danke vorab.
  19. Hi, nach längerem rumspielen und testen komme ich in die Verlegenheit, einen "echten" Unraid-Server aufzubauen, da mein in die Jahre gekommenes Syno-NAS nicht nur alt, sondern auch voll ist und die Ansprüche gewachsen sind. Bisherige erste Gehversuche erfolgten auf einem ThinClient Lenovo M910q Tiny mit einem i5-6500T, 32Gb RAM und einer Samsung 980 NVME. Darauf laufen im Wesentlichen eine VM mit HomeAssistant, ein UnifyController im Docker und je nach Tagesform die eine oder andere Spielerei. Leistungsaufnahme im Idle um 9W. Gerne hätte ich das kleine Teil bezüglich einer NAS-Funktion aufgebohrt. Anschlüsse sind aber nicht in ausreichendem Maße vorhanden und mit externen Platten habe ich keine kostengünstige Lösung gefunden. Ich habe daher versucht in der Intel 8er- oder 9er-CPU-Generation ein günstiges System zusammenzustellen, aber der Gebrauchtkauf von Einzelteilen erwies sich als vergleichsweise teuer. Daher bin ich letztlich bei einem Terra-Fertig-PC von Kleinanzeigen gelandet. Darin steckt ein Gigabyte B360M-D3P µATX-Board mit einem NVME-Slot und 6 x SATA. CPU ist ein i5-9500 mit iGPU. Das System lag mit 8Gb RAM und 256Gb NVME bei 130€. Den RAM habe ich ausgetauscht und auf 32Gb erweitert. 50€. Die alten Riegel liegen noch hier und könnten ergänzt werden, aber wegen des Stromverbrauchs wollte ich erstmal nur mit 2 Stück starten. Das Netzteil habe ich gegen ein Corsair RM650x getauscht, welches ich in neuwertigem Zustand für 40€ auf ebay gefunden hab. Ein 550er wäre mir natürlich lieber gewesen, aber das ist scheinbar so gehyped, dass man es kaum bekommt oder es preislich nicht interessant ist. Für rund 25€ kamen noch ein neuer CPU-Kühler, zwei Gehäuselüfter und Kleinkram dazu - damit steht für insgesamt 245€ schonmal die Basis. Gestern habe ich mal ein Test-Unraid angeworfen und kam meist auf 18Watt, teilweise auf 15Watt und erreiche schon C9. 1-2 Watt sind da vielleicht noch drin – es sind aber auch noch keine SSDs/HDDs am laufen. Wenn der Server dann den bestehenden ThinClient und das Nas ablöst, dürfte es bezüglich des Stromverbrauchs in Richtung Nullsummenspiel gehen. Jetzt brauche ich noch einen Rat bei der Datenträgerbestückung. Ich würde gern die 500Gb-NVME aus dem ThinClient im neuen Server als Cache einsetzen. Perspektivisch soll eine zweite 500Gb-Sata-SSD als zweite Cache-Platte dienen, damit eine der beiden schadlos ausfallen kann. Es soll möglichst viel im Cache laufen damit die HDDs schlafen können. Die dienen hauptsächlich als wenig dynamisches Datengrab. Bei den HDDs bin ich gänzlich unschlüssig. Ich habe eine 4TB im PC, eine 3TB als externe Backup-Platte, und noch zwei x 4TB aus dem Syno-Nas, die aktuell die Daten beherbergen. Ich würde gern auf 8-12TB nutzbare Kapazität kommen, könnte also 1 x 4TB als Parity und den Rest als insgesamt 11 TB Array laufen lassen. Alternative wäre eine neue, große Paritiy-Platte und eine zweite gleichgroße neue als Array. Zwecks geringen Stromverbrauchs wäre es ja sicher besser nicht zig kleine sondern z.B. eine zweite große, neue Platte einzusetzen. Aber die Anschaffungskosten wären dann weniger im LowBudget-Bereich. Mir fehlt auch noch eine Backup-Strategie... noch ne dritte große Platte als externe Backup-Platte? Wie würdet ihr das lösen? Gruß Peter
  20. Konkret ging es um ein Angebot auf Kleinanzeigen und in der Kiste war wie gesagt auch eine einfache GPU dabei. Hatte nur überlegt ob die zum stromsparenden Betrieb rausfliegen könnte. Dass es prinzipiell ohne geht habe ich nun verstanden. Ich habe nun aber für nur wenig Aufpreis einen anderen PC gefunden mit nem i5-9500 der eine iGPU mitbringt. Insofern hat sich die Frage quasi erstmal erledigt. Ist so ein Test-Projekt mit möglichst kleinen Budget - da wollte ich nicht gleich anfangen und noch nen zweiten Prozessor zum Austausch kaufen… jetzt mit der i5-Kiste passt das Paket aber besser.
  21. Ich habe die Sonoff-Stick einfach in den VM-Einstellungen ausgewählt, dann ging das…
  22. Puh, wo finde ich die Info? Oder geht nur ausprobieren? wäre ein ASUS B360M-K
  23. Hi, ich könnte günstig an einen „alten“ PC mit nem i3-9100F (keine iGPU) mit ner ebenfalls alten GPU kommen. Überlege ihn als Basis für ein NAS und Smarthome-Server zu verwenden. Brauche ich überhaupt eine GPU wenn nur via LAN zugegriffen wird? Dann könnte ich mit dem i3-9100F leben und zum Stromsparen die GPU ausbauen…? Plex oder sowas ist nicht geplant… eine VM für HomeAssistant ist schon fast das höchste der Gefühle…
  24. @MPC561 gibt es denn vergleichbar sparsame Alternativen zum Asrock B560m Pro4 oder gibt es eine Übersicht dazu? Edit: Ideal wäre 6xSata und 2xNVME Gruß Peter