jj1987

Members
  • Posts

    1391
  • Joined

  • Last visited

  • Days Won

    2

Everything posted by jj1987

  1. Das nackte system, also nur eine NVME, RAM, und das war's dürfte irgendwo zwischen 5-7 Watt im idle liegen. Jede weitere Ergänzung kann kleine oder auch große Ausschläge an der Steckdose bewirken.
  2. Wobei IPVLAN und Fritz nicht zu abstürzen führt, sondern nur dafür sorgt dass Docker, VMs und im dümmsten Fall UNRAID selbst aufgrund der "springenden" IP Zuordnung nicht erreichbar sind
  3. Wieso, shares gehen doch auch Pool only?!
  4. Stand heute geht das nicht und ich glaube nicht, dass das für das Array jemals kommen wird. Du kannst aber ja mehrere Pools anlegen. Also dann zb einen weiteren Pool für deine SATA SSDs. Und auf den schreibst du dann direkt?!
  5. Appdata, Domain und System sollten schon idealerweise dauerhaft auf dem Cache liegen, andernfalls sind die Docker und VMs äußerst träge. Wenn der Cache jetzt vollläuft liegt das eher an einer falschen Konfiguration eines Dockers. Normalerweise sollte unter appdata nur der "nackte" Container liegen. Alles weiteren Daten sollten per zusätzlichem mount auf dem Array liegen
  6. Wenn du mehr als eine Disk in dem pool hast wird Standardmäßig ein BTRFS RAID1 erstellt. Bei nur einer Disk ist das Standard Dateisystem meine ich XFS. Lässt sich aber wenn ich das noch richtig im Kopf habe beides während der Erstellung des Pools abändern
  7. Nur um das hier nochmal kurz zu erläutern: das ist auch genau so "gewollt". Diese Einstellung betrifft nur Daten die neu aufs Array kommen, weder werden alte Daten angefasst, noch werden geänderte (und somit ja bereits vorhandene) Daten dann angefasst. Die bleiben wo sie sind. Da hilft dann nur mc, File Browser, unbalanced etc..
  8. Pi = arm UNRAID = x86 Das geht soweit ich weiß nicht. Dazu kommt, das ist eine kommerzielle Software. Da wird also auch niemand "externes" dran rumbasteln oder riskiert ggfs Copyrightklagen. Also wenn, dann den Hersteller ansprechen. Alternativ, homeassistant?!
  9. Schau dir mal nginxproxymanager (kurz npm) an. Gibt's in den Apps. Viel leichter wird es kaum gehen
  10. Du kannst pro Parity HDD und zusammen mit den restlichen Datendisks nur eine Datendisk wiederherstellen, das ist dir bewusst? Bestand das alte Array aus mehr als einer Datendisk? Dann brauchst du es gar nicht weiter versuchen
  11. Dieses Forum ist mMn sehr Anfängerfreundlich und niemand auch ich nicht will dir irgendwie blöd kommen. Aber ein wenig mehr "Fleisch am Knochen" wird schon benötigt. Daher mein "nö" bitte nicht zu persönlich nehmen, aber ja ein wenig triggern wollte ich dich schon. Denn du bist ja auch immer noch der Meinung dass du alle relevanten Informationen zur Verfügung gestellt hast um dir bei deinem Problem zu helfen. Anhand der diversen Nachfragen sowohl schon von mir als auch @saber1zeigen hoffentlich dass es eben doch nicht so ganz vollständig ist. Wie genau war die Disk gemountet? Wo wurde sie angezeigt? Meine Vermutung zur Ursache habe ich geschildert. Grundsätzlich auch schon einmal der Hinweis, USB HDDs im Array (und auch im Pool) sind ausdrücklich NICHT empfohlen! Wenn ich deine Aussagen richtig deute ist ja jetzt sogar die Parity eine USB HDD?! Kann klappen, Erfahrungsgemäß kommt es aber irgendwann zu (größeren) Problemen
  12. Ne im Windows Explorer anstatt "\\NAS-UNRAID" "\\IP-ADRESSE" eingeben
  13. Und was genau sind das für USB HDDs? "Fertige" oder interne die in ein separat gekauftes Gehäuse gesteckt wurden? Bei letzterem (oder billigen fertig HDDs) kommt es durchaus vor das die UUID entgegen ihrem Namen eben nicht einzigartig ist und somit zwei Datenträger die gleiche UUID haben. Das würde das Fehlerbild nämlich sehr gut erklären. UNRAID sieht sozusagen doppelt und schmeißt deshalb eine HDD raus
  14. Nö Wo/Wie genau ist die HDD denn eigentlich in UNRAID "verbaut"? Doch wohl nicht im Array? Und ansonsten Diagnostics können nie schaden
  15. Naja die threads die ich verfolgt habe, sagten idr dass der Zugriff via IP dann klappte (so auch bei mir). Geht das bei dir? Falls ja: es wurde dann auch von jemandem geschrieben, dass ein lokaler DNS Eintrag helfen würde. Bei mir hat tatsächlich ein Eintrag in der Hosts Datei in Windows geholfen, was ja im Prinzip dasselbe macht
  16. Kurze Richtigstellung: reg ECC wird von Consumer Plattformen NICHT unterstützt. Es müsste wenn dann UDIMM ECC sein
  17. OK, das ist nicht dramatisch, das zeigt ein physisches Verbindungsproblem an. Ist aber leider auch ein Lebenszeitzähler, insofern kann das auch schon "alt" und behoben sein. Den Wert im Auge behalten. Falls es ansteigt, die Verkabelung überprüfen
  18. System ist auf Disk 1, das sollte auch auf den Cache. Da ist das Docker system selbst drin.
  19. Ich meine sogar irgendwo gelesen zu haben, dass Meteor Lake wohl nur für Notebooks kommen soll🤔
  20. Der "invalid" Hinweis sollte nur vorübergehend sein, da die Parity aktuell ja noch erstellt wird. Sobald das durch ist verschwindet die Meldung. Die smart Fehler bei Parity und Disk 1 müsstest du Mal genauer ergründen, dazu auf die jeweilige Disk klicken und dort den smart Report anachauen. Bei smart reicht die Bandbreite von trivial bis katastrophal...
  21. Mach doch mal einen Screenshot vom webui, konkret der shares Seite, nachdem du auf "compute all" geklickt hast. -> Ich vermute irgendwelche Docker Daten sind auf der HDD und nicht auf dem Cache
  22. Jap, das ist so "by Design" Ist jetzt aber auch alles andere als ein Geheimnis. Mit dem Cache kann man die Schreibzugriffe beschleunigen, lesen geht maximal mit der Geschwindigkeit der jeweils angesprochen HDD. Willst du mehr musst du Pools nutzen
  23. Wie soll denn sonst die Parität erstellt werden?! Deshalb wird eigentlich auch empfohlen, bei der "Erstbetankung" ohne Paritätsfestplatte zu starten (dann aber Daten auch nur kopieren und nicht verschieben, damit man immer noch eine Sicherheit hat) und erst wenn alles drauf ist eine Parity dem Array hinzuzufügen.
  24. Theoretisch sollte da sogar so ein USB Hub mit Display Port/ HDMI ausreichen. Den könntest du für Tastatur/ Maus ggfs sowieso benötigen. Zumindest "damals" als man die alten Intel IGPUs via gvtg in die VMs einsetzen konnte lief das Denke mit den neuen IGPUs und via sriov Plugin sollte das dann auch gehen