Jump to content

mgutt

Moderators
  • Posts

    11,355
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Dann lege los. USB Stick mit Unraid rein und rumspielen. Beim Hardware-Wechsel musst du nur die Platten mitnehmen. Andere Hürden gibt es nicht.
  2. Du musst deine Logs auf den Stick schreiben lassen, damit wir herausfinden können was überhaupt für Fehler kommen. Nenn bitte das genauso Modell deiner Karte. Vielleicht finden wir da ja Inkompatibilitäten.
  3. Läuft nicht out of the box mit Unraid. Im Forum finde ich Hinweise, dass man die 310 zum Beispiel erstmal flashen muss. Es gibt auch beim ersten Booten unterschiedlichste Berichte zu Problemen. Manche brauchten zb eine andere Netzwerkkarte. Vom Prinzip kannst du es einfach testen. Unraid Stick rein und neu starten. Mal sehen was passiert Die CPU ist zwar nicht die stärkste, sollte aber alles problemlos gehen.
  4. Du arbeitest in einer VM. Eine VM kennt deine Hardware nicht. Wichtig sind nur Dinge wie HVM (VT-x) und IOMMU Support (VT-d), damit man überhaupt virtualisieren und Hardware durchschleifen kann. Korrekt. Änderungen des BIOS gehen häufug in die Hose. Lieber neu erstellen.
  5. Unraid bzw das darunter liegende Linux unterstützt die 10te Intel Generation erst seit kurzem. Unraid hat den neuesten Linux Kernel in der RC/Beta implementiert. Aktuellste Hardware wird bei Linux nie empfohlen. Selbst Ubuntu läuft damit nur ab Version 21, welcher kein Current, sondern ein Future Release ist. Weiter mit der Unraid Stable herumprobieren, solltest du sein lassen. Das kann nur in die Hose gehen.
  6. https://geizhals.de/?cat=ramddr3&xf=1454_32768~5828_DDR4~5830_DIMM+mit+ECC&sort=p&hloc=at&hloc=de&v=e
  7. Nein. Du hast RDIMM bestellt. Ich hatte dir doch geschrieben, dass der nicht kompatibel ist. RDIMM ist für Server Xeon CPUs. Du brauchst normalen ECC RAM.
  8. mgutt

    Kaufberatung

    Es gäbe noch andere Boards mit der Ausstattung, aber das Asus war schon das günstigste: https://geizhals.de/?cat=mbam4&xf=11924_2~1244_8~16548_3~17256_1&sort=p&hloc=at&hloc=de&v=e Und hier die Karte (PCIe 2.0) würde auch in einen x1 Slot passen: https://www.zotac.com/de/product/graphics_card/geforce®-gt-710-1gb-pcie-x-1 Wenn man mutig ist, kann man auch den x1 Slot so öffnen wie hier zu sehen: Dadurch kann man auch längere Karten verbauen, die dann aber auf x1 gedrosselt werden. Auf die Art kann man aber eine PCIe 3.0 Karte wie die GT1030 verbauen, die dann gleich doppelt so viel Bandbreite zur Verfügung hätte, als die GT710. Zb diese x4 Karte sollte dann gehen: https://www.palit.com/palit/vgapro.php?id=2956&lang=en&pn=NEC103000646-1082F&tab=ov
  9. mgutt

    Kaufberatung

    😄 Du musst den Satz schon zu Ende lesen. Das bezog sich nur auf die Stromverbrauchskosten. 😉 Jein. Dann hast du evtl andere Probleme. Zb einen RAID Controller, obwohl Unraid einen HBA benötigt. Und vor allem sind alte günstige Server zum Teil sehr schwach. Da nutzen dir auch 50 Kerne nichts. Das Board ginge, aber das Board hat kein 2.5G LAN. Das hätte das X570-E Gaming: https://geizhals.de/asus-rog-strix-x570-e-gaming-90mb1150-m0eay0-a2079032.html?hloc=at&hloc=de&v=e Eventuell nimmt man einfach das und installiert in den zwei freien x1 Slots diese Karte: https://www.amazon.de/IO-Crest-ASMedia-Non-Raid-Low-Profile-Halterung/dp/B08J2PK1HF Dann hättest du 16 SATA Ports und Platz für bis zu drei GPUs. In Zukunft kommen bestimmt auch PCIe 4.0 x1 Karten mit 6 Ports. Dann hättest du die Möglichkeit auf 20 Ports aufzurüsten. Und dank X570 und AM4 könntest du auch irgendwann auf einen 5000er Ryzen aufrüsten. Das Board unterstützt übrigens 4x x4 Bifurcation im 2. Slot. Da kann man dann so eine Karte installieren: https://geizhals.de/asus-hyper-m-2-x16-card-v2-90mc06p0-m0eay0-a2267663.html Natürlich auf Kosten einer GPU. Aber vielleicht haut man sich auch einfach eine GPU in einen x1 Slot. Bis Full HD sollte das denke ich noch gehen. Also für mich klingt das ganz gut. Was sagen die anderen?
  10. mgutt

    Kaufberatung

    Für das Board oder für alles? Ich gebe mal ein Beispiel: 1500 € Threadripper https://geizhals.de/amd-ryzen-threadripper-3960x-100-100000010wof-a2173562.html 500 € Mainboard https://geizhals.de/asrock-trx40-creator-90-mxbb70-a0uayz-a2181913.html?hloc=at&hloc=de&v=e PCIe 2x x16 und 2x8 2x M.2 1x 10G und 1x 2.5G 8x SATA Du könntest hier nun 4 GPUs installieren. Aber mehr SATA nachrüsten könnte man nicht. Eventuell könnte man (weiß ich gerade nicht ob das Board das unterstützt) in den letzten Slot einen Bifurcation Adapter packen und da dann zwei GT710 abgewinkelt montieren. Aber bekommst du die auch irgendwie fest? Und natürlich die Budgetfrage: Mit RAM, Gehäuse und Netzteil, kommt der Threadripper Build auf 2500 bis 3000 €. Passt das? Alternativ dazu ginge es auch mit einem 600 € Intel 10900x: https://geizhals.de/intel-core-i9-10900x-bx8069510900x-a2157291.html Und einem 600 € X299 Board: https://geizhals.de/asus-ws-x299-sage-10g-90sw00h0-m0eay0-a1856871.html?hloc=at&hloc=de&v=e Preislich attraktiver, aber auch weniger Leistung. Wie viel Leistung man braucht, hängt hier klar von der Rendering VM und der Software ab. Kommt drauf an aus welchem Land du kommst. In Deutschland wäre es grob mal 2. Also 50W x 2 = 100 € Stromkosten pro Jahr. Ein Server mit einem Threadripper und 4 GPUs würde natürlich noch mehr verbrauchen. Hast du den Tipp von @saber1 gelesen? Man könnte MakeMKV auch im Container laufen lassen. Du sparst also eine VM und damit auch eine GPU. Bzw für die Linux VMs für Mail und Banking brauchst du auch keine GPUs. Das bisschen Desktop und Browser kann auch eine CPU emulieren. Übrigens kannst du auch Browser und komplette Linux Desktops als Docker Container laufen lassen. Also vielleicht brauchst du fürs Banking nicht mal VMs. Wenn man genug GPUs einspart, geht es vielleicht doch mit einem Consumerboard.
  11. mgutt

    SSD im Array

    So mache ich das auch. Bei Musik ist das ja absolut ausreichend. Die ändert sich ja nicht alle paar Minuten. Hier noch die letzte offizielle Antwort vom Support zu SSDs im Array: https://forums.unraid.net/topic/53433-ssds-as-array-drives-question/?tab=comments#comment-522482 Wie du siehst ist es sicher, solange man kein TRIM nutzt oder eben eine SSD mit passenden TRIM Fähigkeiten besitzt.
  12. We had this discussion here and you can see it's relevant for TRIM and not GC. GC only combines pages of multiple blocks. The data itself stays the same as the LBA is redirected to a page in a new block and the old blocks are marked as unused. Without TRIM the pages of deleted files will stay intact and will be moved by the GC, too. Of course this is inefficient and will slow down the SSD over the time, but it does not influence data consistency. Conclusion: The warning should refer to TRIM and not GC. Maybe something like:
  13. Vielleicht unterstützt die USV keine Verbrauchsmessung?! Bei mir sieht es so aus:
  14. Für den Rack-Einbau wäre das R5 optimal: https://forums.unraid.net/topic/101154-meine-19-spar-serverkonfiguration/ Von wo kommst du denn? Laut Geizhals gibt es die in DE und AT und laut Toppreise auch in CH.
  15. Was auch völlig normal ist. Die Fehlermeldungen sagen ja nur aus, dass jemand beim Login das falsche Passwort eingegeben hat. Eine Brute-Force-Attacke macht das, nur eben sehr schnell. Ein Schutz, reduziert dabei die Angriffsgeschwindigkeit. Im Falle von Nextcloud wird die IP für 24 Stunden gesperrt: In deinem Fall verursacht das nur das zusätzliche Problem, dass auch reguläre Nutzer keinen Login mehr tätigen können, wenn sie über die selbe Proxy IP von Cloudflare reinkommen. Aber das ist ein anderes Thema. Und ich frage noch mal. Warum willst du ein Zertifikat von Cloudflare nehmen und keines von Let's Encrypt? Hast du es mal mit Lets Encrypt versucht? Dafür muss Port 80 auf NPM geleitet werden, ansonsten kann er das Zertifikat nicht validieren. Ansonsten lies mal hier: https://github.com/jc21/nginx-proxy-manager/issues/680
  16. Der Container hat laut Beschreibung den Pfad /var/www/html. Du hast nun keinen solchen Pfad hinterlegt, sondern /var/www/html/smafin/public. Der Container sucht nun vermutlich im Pfad /var/www/html nach Dateien, aber findet nichts. Richtig wäre es also /var/www/html mit /mnt/user/appdata/www/smafin/public zu verlinken. Nun kann der Container im Pfad /var/www/html die Dateien finden. Wobei ich natürlich nicht weiß ob "/var/www/html" überhaupt der gewollte Pfad von dem Container ist. Das ergibt sich erst durch die Doku des Containers.
  17. Der P556 ist übrigens sparsam. Mit einem i7 7700 gibt Fujitsu einen Verbrauch von 15W an: https://sp.ts.fujitsu.com/dmsp/Publications/public/wp-energy-ESPRIMO-P556-2-E85.pdf Interessant ist dabei auch der Verbrauch vom D956. Der käme nicht als NAS in Frage, aber bei der Messung zwischen HDD und SSD liegen 4W: https://sp.ts.fujitsu.com/dmsp/Publications/public/wp-energy6-ESPRIMO-D956-E94.pdf Demnach misst Fujitsu die Rechner mit laufender Platte. Daher gehe ich beim P556 mit Unraid und stehender Platte sowie ausgeführtem "powertop --auto-tune" von einem Verbrauch von unter 10W aus. Der neuere P557/P558 hat übrigens nur noch 1x 5,25 Zoll und 2x 3,5 Zoll. Da ist das alte Modell für ein NAS sogar im Vorteil. Mit dem G4400, der auch für Unraid reicht, ist der P556 sogar manchmal noch deutlich günstiger zu bekommen: https://www.ebay.de/sch/i.html?_from=R40&_nkw=p556+g4400&_sacat=0&rt=nc&LH_Sold=1&LH_Complete=1 Auch interessant ist ein Terra PC, da die normale Boards verwenden. Den hier finde ich für 150 € zB günstig, da 8GB RAM, 1TB HDD, 120GB HDD, M.2 Slot und sogar 6x oder 8x SATA (je nachdem ob SATA Express abwärtskompatibel ist): https://www.ebay-kleinanzeigen.de/s-anzeige/terra-pc-i3-7100-3-9-ghz-ssd-hdd-8gb-ram-ddr4/1663705609-228-7656
  18. mgutt

    SSD im Array

    Dann spricht meiner Ansicht nach nichts dagegen. Was du mal testen kannst ist ein Parity Check, danach einen Trim dieser SSD (per Terminal) und zuletzt noch mal ein Parity Check. Sollte es beim 2. Check zu Fehlern kommen, darf man in Zukunft niemals einen Trim ausführen, da dieser die Parity verändert.
  19. @saber1 Was sagst du zu meinem Vorschlag mit dem Fujitsu PC?
  20. Ich würde einen DDNS Container im Bridge oder Host betreiben, damit die IPv6 vom Server genutzt wird. Und als Port würde ich zb 8080 nehmen, der vom Nextcloud Container im Bridge Network verwendet wird. Damit ist Nextcloud über IPv6:8080 bzw DDNS:8080 erreichbar. Und die DDNS nutzt man dann bei 6tunnel. Der Traffic kommt dann auf 8080 bei der Fritz!Box an und sie leitet es an 8080 durch. Was ich dagegen als Problem sehe ist der Nextcloud Container von Linuxserver. Dieser versteht ausschließlich SSL. Ich weiß nämlich nicht ob 6tunnel mit einer SSL Verbindung ohne gültiges Zertifikat klar kommt. Ich würde es daher erstmal mit dem Original Nextcloud Container von knex666 versuchen. Dieser kann nur http. Wenn das dann geht, kann man immer noch versuchen NPM davor zu schalten um SSL zu realisieren.
  21. mgutt

    SSD im Array

    Für mich macht dieser Satz keinen Sinn. Ja, ein Rebuild kann auf eine SSD langsam sein, aber die "Ability", also die Fähigkeit dazu, kann man meiner Ansicht nach nicht verlieren. Das es langsamer werden kann, liegt übrigens an der Art wie SSDs Daten schreiben. Bei einer HDD kann man an beliebigen Positionen Sektoren direkt beschreiben. Bei einer SSD liegt ein Sektor aber in einer Page und die wiederum in einem Block. Und SSDs können nur Blöcke schreiben. Die SSD verteilt die neuen Daten dann ständig in neue Blöcke und lässt in Ruhephasen über die Garbage Collection die Blöcke zusammenfassen, so dass wieder Blöcke frei werden. Deswegen soll man auf SSDs immer etwas Platz lassen. Sind keine Blöcke mehr freie, dann muss die SSD den Blick erst auslesen, die neuen Sektoren / Pages ergänzen und den ganzen Block neu schreiben. Dieser Vorgang dauert dann deutlich länger als das Schreiben in freie Blöcke. Wie langsam sowas sein kann hängt auch vom Typ ab. QLC SSDs können ja schon auf 80 MB/s fallen, wenn der SLC Cache voll ist. Wenn die dann noch Blöcke überschreiben müssten, wäre das entsprechend noch langsamer. Aber vollständig die Fähigkeit zum Rebuild verlieren auch die nicht. Vom Prinzip müsste man auch nur den Rebuild pausieren. Dann könnte die Garbage Collection ihren Job machen und danach geht es wieder schneller. Eine SSD mit SLC Cache wird übrigens nicht so stark darunter leiden, da beim Leeren des SLC Caches die Daten zusammengefasst in einen Block geschrieben werden. Allerdings müsste man auch hier der SSD erstmal die Zeit geben den SLC Cache zu leeren. Denn wenn der voll ist, hat man das selbe Problem, dass es sonst langsamer wird. Also lange Rede, kurzer Sinn. Meiner Ansicht nach kann man das ignorieren. Allerdings bleibt die Frage welchen Grund man dafür hat eine SSD ins Array zu packen. Für Lese-Operationen ist es in Ordnung, aber schreiben wird natürlich voll durch die HDD Parity gebremst.
  22. @Squid With "impact the ability" you mean the rebuild speed can be slow? It sounds like it could fail completely.
  23. Mit einem AMD Turion™ II Neo N40L? Nur mal so als Vergleich was ein Pentium G4560 oder G5400 oder i3-6100 leistet: https://www.cpubenchmark.net/compare/AMD-Turion-II-Neo-N40L-Dual-Core-vs-Intel-Pentium-G4560-vs-Intel-Pentium-Gold-G5400-vs-Intel-i3-6100/476vs2925vs3248vs2617 Hier den fänd ich interessant (den P556 gibt es immer wieder für kleines Geld, auch bei Kleinanzeigen): https://www.ebay.de/itm/Fujitsu-Esprimo-P556-E85-Intel-Core-i3-6100-3-7GHz-4-GB-RAM-500GB-HDD-Win10/154311237362?hash=item23edaa9ef2:g:HMcAAOSwJiJgFE2V 100 € sind denke ich nicht teuer und man hat Leistung wie ein aktueller Pentium Gold. Laut Datenblatt hat das Board 3x SATA und man kann intern 3x 3,5 Zoll und extern 2x 5,25 Zoll + 1x 3,5 Zoll verbauen. Es fehlt also nur an mehr SATA Anschlüssen, was man ja leicht mit einer PCIe SATA Karte aufrüsten kann. Entweder nimmt man da zwei x1 Karten mit jeweils 2 SATA Ports und hat so den x16 Slot noch übrig (zB für eine 2.5G Karte) oder man baut in den x16 Slot eine 5-fach (JMB585) oder 6-fach (ASM1166) x4 SATA Karte. Ich würde mir das jedenfalls mit dem HP nicht antun.
  24. Meine Google Suche "M.2 keeps disconnecting" ergab: Defektes Mainboard. Zumindest war das das einzige Feedback, was die User geschrieben haben, wenn das Problem gelöst wurde. Also RMA bei Gigabyte aufmachen. Beispiel: https://forum.gigabyte.us/thread/10019/nvme-ssds-constantly-disconnecting
×
×
  • Create New...