Jump to content

mgutt

Moderators
  • Posts

    11,366
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Eventuell hatten die betroffenen Dateien in dem Ordner falsche Rechte?
  2. Dann sind alle Daten auf der M.2 weg. Daher ist die Empfehlung zwei M.2 im RAID1 als Cache zu verwenden oder zeitnahe Backups zu erstellen. Das ist auch ein Billig-Modell. Von Computerbase zum 1TB Modell: Bei der 500GB wird das noch schlechter sein.
  3. Du startest im Array mit der einen Platte. Wenn du sie befüllt hast, hast du ja bereits 50% der Daten von der Syno gezogen. Nachdem das durch ist, baust du die anderen Platten ein, gehst auf Tools > New Config und weist die bisherige Array Platte wieder dem Slot zu, wo sie vorher war (nicht als Parität, sonst Daten weg!). Von den neuen nimmst du eine als Parität und eine für als Disk2. Jetzt hat dein Array eine Ausfallschutz. Bedenke, dass die größte Disk als Parität gewählt werden muss. Übrigens verstehe ich nicht, warum du erst eine Disk aus der Syno rausnehmen willst, kopierst und dann eine Sicherung auf die USB Platte machen willst. Die Größe des SHR ändert sich nicht, wenn du eine Platte entfernst. Das ist dir klar?
  4. Wichtig ist vom Prinzip die Gruppe und UMASK. Soll heißen, nobody ist in der Gruppe users. Deine restlichen unRAID User auch. Und wenn das Gruppenrecht Lesen und Schreiben erlaubt, ist der User egal. Allerdings sehe ich jetzt erst in deinem Screenshot, dass ja nobody:users bereits bestand. Und rwxrwx sollte dann eigentlich für benny:users reichen. Oder sehe ich das falsch @ich777?
  5. Den? https://hub.docker.com/r/jlesage/jdownloader-2 Laut Dokumentation kann man die Variablen für User und Group angeben. Dann sollten die Rechte auch passen.
  6. Zwei Sticks kaufen und regelmäßig Backups machen 😉 Ich verwende zb einen pSLC Stick von Swissbit. Aber solche Industriesticks sind teuer.
  7. Wenn Lautstärke keine Rolle spielt, kannst du auch den 08/15 Kühler nehmen, der der CPU beiliegt. Statt der P1 hol lieber was ordentliches im Angebot: https://www.mydealz.de/search?q=500gb%2Bnvme Die Tage gab es die EVO Plus für 60 €.
  8. Jo. Es wacht dann die Platte auf, wo der Film draufliegt. Der Rest schläft weiter. Dem kommt denke ich Nextcloud am nächsten. WebUI über den Browser Das siehst du nur eine Kommandozeile. Nein. Die WebUI ist eher mit einer Fritz!Box Oberfläche zu vergleichen. Drag & Drop oder ähnliches gibt es nicht bei Unraid. Wenn du dir ein Bild von der WebUI machen willst, solltest du dir ein paar YouTube Videos anschauen.
  9. Ja Ich würde mindestens 256, wenn nicht sogar 500GB nehmen, damit du sowohl Docker Container als auch Uploads möglichst lange, möglichst schnell hast. Alleine Docker belegt direkt 20GB und die Container Nutzerdaten können auch viel belegen. Bei mir wird durch Plex massig belegt (Vorschaubilder usw) und der Rest ist dann eben für Uploads, die du so aufs NAS jeden Tag machst. Vom Prinzip geht es auch komplett ohne SSDs, aber es ist kein so tolles Nutzererlebnis, weil das Unraid Array durchaus langsam sein kann (40 bis 80 MB/s je nach Platten) und Container sich nicht so flüssig bedienen lassen. Daher empfehle ich auch möglichst viel RAM, weil der auch viel zwischenspeichern kann. Ist aber natürlich alles eine Budgetfrage. Die Zeiten sind mit Unraid vorbei, außer die Platten wurden in der Vergangenheit alle paar Minuten schlafen gelegt. Bei unRAID wachen sie quasi nie auf. Liegt denke ich eher daran. Die meisten verbauen irgendwann eine 2.5G oder 10G Netzwerkkarte. Aber nicht wegen Videostreams, sondern weil es einfach mehr Laune macht schneller Dateien aufs NAS zu schieben 😉
  10. Müsstest du nur überwachen ob das bei einem Update verloren geht.
  11. Bei 10 Zoll sind die Böden stabiler, weil nicht so breit. Bei 19 Zoll braucht man auf jeden Fall ziemlich stabile Böden, wenn man da (schwere) HDDs drauf platzieren möchte.
  12. Nein, genauso wie du es schon übernommen hast. Egal wo.
  13. Es ist immer wieder Thema im internationalen Unraid Forum und es war auch mal Thema in einem Podcast wo man sich über die Ignoranz von AMD ausließ, da diese keine passenden Treiber liefern. Um es simpel zu sagen. Es führt zu Mikrorucklern. Sei es grafisch oder Audio. Willst du nicht. Wenn du eh lang verkabelst, sehe ich da eigentlich keinen Bedarf für. Legst du eben noch ein Kabel für die Unraid GPU. Alternativ würde sich Pi-KVM anbieten oder die ASRock Paul: https://www.asrockrack.com/general/productdetail.asp?Model=PAUL#Specifications Da Gaming keine Rolle spielt (das hatte ich missverstanden), könntest du natürlich auch einen anderen Xeon nehmen, der für dich eine ausreichende Anzahl Kerne bietet: https://en.wikipedia.org/wiki/List_of_Intel_Cascade_Lake-based_Xeon_microprocessors#Xeon_W-22xx_(uniprocessor) Falls dir 10 Kerne ausreichen, könntest du auch über einen W-1290P nachdenken. 2 Kerne für Unraid und jeweils 4 für die VMs. Außerdem eine iGPU für Unraid / Docker. Wenn du nicht zocken willst, könnte man auch mit dem GVT-g Plugin jeder VM eine vGPU zuweisen und gänzlich ohne dGPUs arbeiten. Monitoranschlüsse bekäme man dann über Dockingstationen.
  14. Threadripper macht Probleme bei der Virtualisierung durch Latenzen. In dem Bereich bliebe eigentlich nur der Xeon W-2295. Als Board dann zb das: https://www.asus.com/de/Motherboards-Components/Motherboards/Workstation/WS-C422-SAGE-10G/
  15. Ja, aber das Satz ist auch komisch formuliert. Der zweite Satz müsste heißen "If you use php-fpm". Der Docker basiert aber auf Apachen (wenn man kein :fpm angibt), daher nutzt du kein php-fpm. Die Anpassungen müssen also in die .htaccess.
  16. mgutt

    Hardware Empfehlung

    Ich habe das C246N-WU2. Das W480M habe ich bestellt, aber keine Ahnung wann das kommt
  17. Ja musst du. SHR ist kein RAID5, sondern proprietär und selbst wenn, hättest du ja nach wie vor ein RAID und Unraid ist ja zumindest im Array kein RAID. Ja, aber verschwendet einen Port und erhöht natürlich auch den Verbrauch. Was willst du überhaupt mit dem 2. Port? Wäre 2.5G nicht die besser Option? Das Gigabyte W480M ist ein schönes Board. Aber hat auch 8x SATA. Wenn dir weniger reicht und du keinen Wert auf ECC legst, kannst du im Grunde jedes Board nehmen. Wir empfehlen aber eines mit 2x M.2. Siehe auch: https://forums.unraid.net/topic/99393-häufig-gestellte-fragen/?tab=comments#comment-1021228 Das geht deutlich sparsamer. Wobei es natürlich darauf ankommt ob die Platten drehen oder nicht.
  18. Das kann nur mit Apache / PHP zusammen hängen. Nextcloud kann nicht prüfen was der Proxy erlaubt. Gehört das da hin? Solche Einstellungen stehen normalerweise in der .htaccess oder im PHP Code (dann aber im PHP Format geschrieben).
  19. mgutt

    Hardware Empfehlung

    Noch keinen mit dem großen W480 hier gesehen. Aber ich denke mal irgendwas unter 20W, wenn man powertop & Co umsetzt.
  20. This is not possible. The SSL certificate is located on the server. If you would buy an SSL certificate you would need to store it on the nginx server, so you would use it instead of the let's encrypt certificate.
  21. Ich hatte vor einiger Zeit das passende Kommando gepostet, wie man aus einer bestehenden Datei eine Sparsefile macht. Meinst du das?
  22. Ich würde den Parity Check wiederholen oder gleich die Platten mit den SMART Fehlern ersetzen
  23. Bei 15 Bays wird das ein bisschen schwierig. Ich mein klar, wenn die Platten stehen, ist halbwegs Ruhe, aber sobald du damit arbeitest, nervt die Kiste. Wirklich keine andere Stelle möglich? Das wird nicht einfach. Hier kommt es auf den Workflow und die Geschwindigkeit der HDDs an. Wenn das Array zb nur als Langzeitarchiv dienen soll, kannst du da mit schnellen Platten schon mit 70 bis 80 MB/s drauf schreiben. Aber nur Single User. Bei Multi User keine Chance. Da bricht das noch weiter ein. Daher wäre die Frage ob du lieber mit Pools (RAIDs) arbeitest oder mit einem sehr großen SSD Cache Pool, der alle Inhalte deines wöchentlichen Workflows enthält. Evtl sogar als separater Pool von dem du nur manuell ins Archiv (Array) schiebst. Noch eine Alternative wäre auf das Array zu verzichten und nur mit einem großen HDD Pool zu arbeiten. Also erstmal die Frage ob die 80TB deine aktuellen Projektdaten sind oder nur dein Langzeitarchiv und wie groß das wöchentliche Projektvolumen ist.
  24. mgutt

    imagemagick

    Korrekt. Daher mal recherchieren ob es für den Container spezielle Vorgehensweisen gibt um bestimmte Pakete dauerhaft zu installieren. Oder ist es eher unüblich, dass man das bei Node Red braucht?
×
×
  • Create New...