Jump to content

mgutt

Moderators
  • Posts

    11,373
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Dann sollte die Nextcloud auch lokal laden. Weil curl macht ja nichts anderes als dein Browser.
  2. No, but the stream host section in NPM is what you need. But this works domain independent. So every traffic on port X is forwarded to IP+Port Y.
  3. Yeah but it's not valid for Corsair. Nearly every model uses the same SATA power cables (red dots): https://www.corsair.com/de/de/psu-cable-compatibility And those that are not compatible, even won't fit at all. There wasn't even a relevant change in Type 3 to Type 4: https://forum.corsair.com/forums/topic/156672-corsair-cables-4-gen-vs-3-gen/?do=findComment&comment=921020 So I was wrong. HX SATA cables can be used with an RMx power supply.
  4. This warning is fine, but finally you won't be able to connect a wrong one as Corsair has different layouts of the square and round connectors in the plugs. And doing a little research: RMi, RMx and SF are using the same cables. So his HX cables won't fit.
  5. The correct card has 6 SATA ports. ^^ And you should buy it with PCIe X4. There are some X1 available which would slow down the card. Not enough? You were talking about 11 HDDs and your board has 6 onboard SATA ports. So onboard + ASM1166 = 12. If you think about adding more HDDs: buy bigger ones. It's extremely inefficient using a huge amount of small HDDs as every HDD consumes up to 1.5W while in spindown. The internet says that the total maximum of a Molex cable is 120W. A HDD drains up to 30W at startup, but only for a very short time, which should not add in any heat to the cable. So the maximum per cable are 4 to 5 HDDs. So you should only use only a single y-adapter if you want to power an additional HDD. PS I like these, because you never face the 3.3V DevSlp with Enterprise drives and you have a single plug to connect your HDD: https://www.ebay.com/itm/352210844323
  6. Which one? Disable Array auto start and remove the NVMes and check again. 2018? This would an inefficient power supply. Why both?
  7. Naja, ist aber auch nichts besonderes. 1x M.2 Slot, 1x Wifi Slot, kein PCIe Slot, nur 1x RAM Modul und eine ziemlich schwache CPU. Da kann man ja gleich ein ASRock ITX Board holen. Da hat man neben dem PCIe Slot dann auch gleich SATA Buchsen. 🤷
  8. Ja geht wenn nur basteln. Da die Boards beidseitig bestückt sind, müsste man auch schauen wie man das in ein anderes Gehäuse bekäme. Man könnte ja mit M.2 Verlängerungskabeln die Slots "nach vorne" holen, um da dann die ASM1166 Karten installieren zu können. Das dann mit Klettband an der Rückwand vom Gehäuse festmachen. Das sollte schon gehen. Wegen dem Strom hätte man dann zwei Netzteile. Eins für das Board und das andere für die Platten.
  9. 5 to 10W. This is extremely different. Bad card. The ASM1166 supports only 6 SATA ports. Simply buy more cables. You can even adapt molex to power SATA. Maybe you can reuse those from the old one as it is the same brand.
  10. Das ist korrekt, aber bei 8GB RAM hast du ja kaum RAM fürs Caching. Und Videos sind ja in der Regel sehr groß. Wenn dir klar ist was RAM Caching ist, warum erwähnst du explizit diese Ironwolf HDD. Das hat ja schlussendlich gar nichts mir dem verwendeten Modell zu tun. Niemals. Mit keinem NAS möglich. SMB nutzt nur einen Transferkanal für Lesen UND Schreiben. Die Latenzen sind auch grausam. Schau dir mal ein paar Videos von Linus Tech an, wo er sein Equipment zeigt. Die haben zb extra RDMA Karten angeschafft, damit der Durchsatz hoch und der CPU Overhead niedrig genug ist und sie verwenden ausschließlich Windows Server, weil nur Windows client- und serverseitig über mehrere CPU-Kerne skaliert. Gruselig. Das ist ja das Gegenteil von sparsam. Quäl dich durch unsere FAQ und einige Threads der letzten Tage und du wirst deutlich sparsamere Komponenten finden.
  11. That's your problem. Buy the Corsair RM550x (2021) and swap the HBA card against a SATA card with ASM1166. But it will still kill your C-States. That's the downside of a pcie card. But with the changes you should safe 15 to 20W. No. Sadly sold out worldwide for a very long time. And there is no alternative. The next board I will try this one: https://forums.unraid.net/topic/131537-asrock-rack-w680-w680d4id-2t-mit-i7-13700/
  12. Übersicht M90q [Fotos] 2x NVMe 1x SATA 1x PCIe 1x Wifi M920x [Fotos] 2x NVMe 1x SATA 1x PCIe (NVMe Adapter funktioniert oder Nvidia T400 funktioniert) 1x Wifi M910x [Fotos] 2x NVMe 1x SATA 1x PCIe (NVMe Adapter funktioniert, aber Nvidia T400 funktioniert nicht) 1x Wifi M920q [Fotos] 1x NVMe 1x SATA 1x PCIe (NVMe Adapter funktioniert) 1x Wifi M910q 1x NVMe 1x SATA 1x Wifi Mit entsprechenden PCIe und Wifi Adaptern können zB in einem M920x fünf SSDs verbaut werden. Wer kleine Bauteile löten kann (auf eigene Gefahr), kann sogar sechs SSDs verbauen, wenn er den PCIe Slot auf Bifurcation umbaut. Zubehör Hier gibt es diverse Netzwerkkarten direkt mit PCIe Adapter und Slotblende: https://iocrest.de.aliexpress.com/store/900661/pages/all-items.html?spm=a2g0o.store_pc_home.pcShopHead_6286344.1&sortType=bestmatch_sort&productGroupId=505764250&SearchText=&filterType= So fing der Beitrag mal mal an Der Lenovo M90q Gen 3 hat ein paar sehr interessante Features: - sparsam, der M80q Gen 3 soll zb nur 3W verbrauchen: https://www.reddit.com/r/homelab/comments/zpxp2t/m70q_idle_power_consumption/ - 2x M.2 für zb zwei ASM1166 6-fach SATA Karten (natürlich nur ohne Gehäuse und mit separatem Netzteil für die HDDs): - 1x PCIe Buchse für noch mehr, 10G?! (Hat nur der M90q, aber ich weiß nicht ob jedes Modell): Müsste man natürlich klären, ob da keine Hardwarelimits durch Lenovo gesetzt sind. Lenovo hat zb mal die CPUs mit dem Board verdongelt.
  13. Jo deswegen sagte ich ja auf stündlich stellen. Also nur zum Test.
  14. Die falsche Uhrzeit spielt bei einer daily Regel keine Rolle. Startet der Mover eben zum falschen Zeitpunkt. Stell den Mover mal auf stündlich und aktiviere die Mover Logs. Dann nach einer Stunde in die Logs schauen. Ist er wirklich nicht gestartet? Kann ich mir nicht vorstellen. Wenn alles läuft wie gewünscht die Mover Logs wieder deaktivieren!
  15. Ich würde die Disk Shares aktivieren und diese Shares alle einzeln mounten. Das reduziert den Overhead und umgeht den Cache, der ja eh nicht bei lesenden Zugriff durch Plex relevant ist. Ich würde dann auch direkt den Sharezugriff nur lesend erlauben. Auch sollte man über NFS statt SMB nachdenken.
  16. It depends. If you use cloudflare only as DNS without proxy, you don't have any advantages as it is the same as using the DNS functionality of any other domain registrar. If you instead use the proxy feature, the complete traffic hits the Cloudflare servers, before it is forwarded to your server. This has pros and cons: + Cloudflare checks all visitors (captcha etc) + Cloudflare filters attacks + Cloduflare modifies the content, so it's more compressed or minified as the original content + Cloudflare hosts some of the static files in their own servers, so for example website icons are only loaded once from your server + Your public IP is hidden, so theoretically nobody can attack your server directly - The security depends fully in hiding your public IP, but nearly nobody has a firewall which allows only cloudflare IPs to access your server, so finally an attacker will reach your server by simply testing every available IPv4 in the world (thousands of bots are doing this 24/7) - If Cloudflare is down, your website is down, too. And it happens: https://www.zdnet.com/article/cloudflare-service-hit-by-widespread-issues/ - If you route all your visitors through Cloudflare, this means Cloudflare has full control of your visitors activities. That's why I think it's not legal to use it the EU (GDPR), although Cloudflare claims the opposite - Cloudflare blocks every account that proxifies non-html content. That's why it is not allowed to host Plex / Jellyfin through Cloudflare AND I think this covers Nextcloud, too, as uploading and downloading non-html files is the main purpose of Nextcloud All cons are the reason why I don't use Cloudflare. But if you only want to use Clodflare as a domain registrar and use it as a simply DNS server for your domain without any proxy feature, there should be no reason against it.
  17. How do you measure and how do the C-States page look like?
  18. Rein qualitativ gibt keine schlechten Platten mehr. Also völlig egal was du kaufst. Nur würde ich darauf achten, dass es CMR und keine SMR sind. Und bei Toshiba solltest du darauf achten, dass der Händler die Garantie abwickelt.
  19. VM erstellen Ubuntu ISO über die Ubuntu Website auf den Server in den Share "isos" herunterladen (/mnt/user/isos) Optional: Wer eine Grafikkarte durchschleifen möchte (nicht iGPU!): Tools > System Devices > Alle Einträge (VGA, Audio, USB, etc) der Grafikkarte anklicken und an VFIO binden > Unraid Server neu starten Optional: Wer nicht der CPU die Last-Verteilung überlassen möchte, der isoliert über Settings > CPU Pinning > CPU Isolation die Kerne der VM VMS > Add VM > Ubuntu Entweder: Alle Kerne auswählen und der CPU die Last-Verteilung überlassen, Oder: Die isolierten Kerne zuweisen 4096MB RAM, min und max Werte gleich, da unterschiedliche Werte zu Problemen führen können (4GB ist das Minimum bei Ubuntu Desktop und 1GB bei Ubuntu Server) aktuellste Q35 als Machine ausgewählt lassen über "OS Install ISO" die ISO-Datei auswählen 25G vdisk oder größer (25G ist das offizielle Minimum für Ubuntu Desktop, Ubuntu Server kann auch deutlich kleiner sein). Hinweis: vdisk.img sind Sparse-Dateien und belegen daher auf dem Datenträger weniger als angezeigt. Bitte nutze NICHT "Unraid Share Mode" mit dem "Unraid Source Path". Das ist super langsam. Stattdessen greift später über klassisches NFS/SMB auf die Unraid Shares zu, so wie ihr es auch mit einem PC machen würdet. VNC Graphics Card auf German stellen Optional: Grafikkarte über das Plus-Symbol hinzufügen Optional: Sound Card auswählen, wer lokal am Server Lautsprecher / Kopfhörer anschließen möchte, bei Grafikkarten den Audio Controller der Grafikkarte auswählen Network Model: Wer keine Docker im "br0" Netzwerk verwendet, sollte für die bessere Performance "virtio" wählen, da "virtio-net" deutlich langsamer ist Optional: Haken bei "Start VM after creation" raus, damit die VNC Verbindung nicht über den Browser erfolgt, sondern über einen VNC Viewer / Client eures PCs aufgebaut werden kann (zB Real VNC Viewer, dazu einfach den Namen des Servers eingeben, wenn man nur eine VM hat, denn dann nutzt die den Standardport 5900). Nach Erstellung der VM dann einfach auf das Icon der VM gehen und Starten auswählen VM erstellen Installation Entweder verbindet man sich über einen VNC Client seines PCs oder klickt auf das Logo und öffnet die VNC Remote Session über den Browser Bei der Ubuntu Installation die Sprache auf Deutsch wechseln, das Löschen der Festplatte bestätigen, Zeitzone und Computernamen, Usernamen und Passwort vergeben. Bei den Installationsoptionen wähle ich meistens minimale Installation und nehme die anderen Haken raus Nach dem Reboot wird Ubuntu darum bitten das Bootmedium zu entfernen. Das wäre beim Bearbeiten der VM der Eintrag mit der ISO-Datei. Das kann man aber problemlos ignorieren. Also mit ENTER bestätigen und die Maschine startet neu. Nach dem ersten Start wird Ubuntu Updates installieren wollen. Hier mit "Jetzt installieren" bestätigen und den Vorgang abwarten (Icon zeigt einen Fortschrittsbalken). Sollte ein Neustart notwendig sein, dann diesen durchführen. Nun die Apps öffnen (Punkte Symbol) und nach "Terminal" suchen. Folgenden Befehl eingeben, damit die Guest Tools installiert werden (dadurch kann die VM über das Unraid Menü heruntergefahren werden) sudo apt install qemu-guest-agent Ich empfehle den Zugriff über SSH zu aktivieren, damit man jederzeit auf die VM kommt, auch wenn die Grafik/VNC mal nicht geht. Dazu folgendes ausführen: sudo apt install openssh-server Dadurch kann nun von einem beliebigen PC oder auch dem Unraid Terminal eine Verbindung aufgebaut werden: ssh ubuntu_username@ubuntu_computername Nach der Installation Wer seine VM aus der Ferne steuern möchte, dem empfehle ich Real VNC Connect. Die Website innerhalb der VM über Firefox öffnen, runterladen, entpacken, die deb-Applikation mit "Software-Installation" öffnen und dann über das Apps-Icon (Punkte) die "VNC Server" App öffnen und sich einloggen. Es braucht dann einen Account. Die Home Version ist bei bis zu 5 Clients kostenlos (registriere Computer löschen geht übrigens über die Website). Im Falle einer durchgeschliffenen Nvidia Grafikkarte kann der Treiber über Apps (Punkte Icon) > Suchen nach "Aktualisierungsverwaltung" > Einstellungen > zusätzliche Treiber ausgewählt werden (nicht "open kernel" wählen) Alles grundlegende installiert? Wie wäre es mit einem Snapshot? Dazu die VM herunterfahren und folgenden Befehle ausführen (Pfade entsprechend eurer vdisk anpassen): cp -v --reflink=always /mnt/disk1/domains/Ubuntu/vdisk1.img /mnt/disk1/domains/Ubuntu/vanilla-vdisk1.img Die Pfade und auch IP (sofern Guest Agent installiert wurde) können übrigens per Klick auf den VM-Namen ermittelt werden: Wie man sieht kann man hier auch sehen auf welchem VNC Port die VM gerade läuft und ob Autostart aktiv ist (startet automatisch, wenn Unraid neu gestartet wird). Wenn man die VM stoppt, kann man übrigens per Klick auf die Festplattengröße, diese vergrößern. Außerdem zeigt er bei ALLOCATION die reale Belegung auf dem Datenträger an (wie gesagt sind vdisks "sparse"-Dateien und belegen nur das was real genutzt wird. In dem Beispiel also zB nur 16 von 32GB: Wer den VNC Zugriff zB über Real eingerichtet hat und nun nur noch die Nvidia GPU nutzen möchte, der könnte nun die sekundäre Nvidia Grafikkarte entfernen und die primäre auf Nvidia ändern. Ich empfehle vorher oben genanntes Snapshot zu erstellen, damit man im Härtefall wieder zurück kann, falls was in die Hose geht. Erst so war ich in der Lage Ubuntu auf dem Monitor an der Grafikkarte zu sehen. Wer hier noch Tipps hat, darf gerne kommentieren.
  20. Der Button hat bei SSDs einfach keine Funktion. SSDs wechseln nach wenigen Millisekunden von alleine in den Standby und da verbrauchen sie dann nur noch wenige Milliwatt. Hier hatte ich mal eine Tabelle gepostet: https://forums.unraid.net/topic/121146-nvme-aer-corrected-error-und-pcie-bus-error/#comment-1108543
  21. Nein, die stehen wirklich still, wenn Unraid sie in den Spindown versetzt. Wäre vom Namen her sonst auch unlogisch ^^ HGST/WD Festplatten dürfen im Garantiezeitraum maximal 50.000 mal gestoppt/gestartet werden. Würde durch einen Fehler die HDD immer wieder alle 15 Minuten stoppen/starten, wären das entsprechend nur 520 Tage. Das wäre natürlich wenig, aber wir gehen mal davon aus, dass die HDD pro Tag nur sehr selten hochfahren müssen. Auch sind 50.000 ja keine feste Grenze. Die können durchaus viel länger halten. Mein aktuell höchster Wert sind knapp 4000 Start/Stopp Zyklen seit März 2021. Also das ist gar nichts aus Sicht der "Abnutzung".
  22. Auf dem erscheint nichts bei einem Crash? Manchmal schaffen es die kritischen Kernelfehler nicht ins Syslog und werden einfach nur auf dem Monitor rausgeworfen. Ich würde auch mal eine neue VM erstellen und diese abspecken so weit es geht. Dh nur eine vdisk, keine USB und PCI Devices außer der dGPU und vielleicht auch mal eine andere Version als Q35-7.1 testen. Aus Spaß auch mal nur ein RAM-Modul verbauen. Hast du die selbe Hardware mal direkt in Windows gebootet und da auch Stresstests gemacht? Von deinen Erzählungen her, tendiert ja eigentlich alles Richtung Grafikkarte. Hast du zufällig noch eine andere rumfliegen, mit der man testen könnte?
  23. Hier habe ich noch eine Hürde gefunden: https://www.linuxquestions.org/questions/linux-kernel-70/kernel-5-18-doesn't-detect-u-2-hot-swapping-4175714221/#post6365623 Es scheint als könnte nur eine PCI Bridge bei mir HotPlug: root@Tower:~# lspci -vv | awk '/HotPlug/{print $0}' RS= | grep --color -P '(^[a-z0-9:.]+|HotPlug)' ... 00:1d.0 PCI bridge: Intel Corporation Cannon Lake PCH PCI Express Root Port #9 (rev f0) (prog-if 00 [Normal decode]) SltCap: AttnBtn- PwrCtrl- MRL- AttnInd- PwrInd- HotPlug+ Surprise+ Da ich wissen wollte welcher Slot das ist, habe ich mal überall was verbaut und es ist scheinbar der zweite NVMe Slot und komischerweise kann er jetzt kein HotPlug mehr 🤪 root@Tower:~# lspci -tv -[0000:00]-+-00.0 Intel Corporation 8th Gen Core Processor Host Bridge/DRAM Registers ... +-1d.0-[07]----00.0 Sandisk Corp Device 501d root@Tower:~# lspci -vv | awk '/HotPlug/{print $0}' RS= | grep --color -P '(^[a-z0-9:.]+|HotPlug)' ... 00:1d.0 PCI bridge: Intel Corporation Cannon Lake PCH PCI Express Root Port #9 (rev f0) (prog-if 00 [Normal decode]) SltCap: AttnBtn- PwrCtrl- MRL- AttnInd- PwrInd- HotPlug- Surprise- Also ich gebe auf. Ich messe jetzt noch eine GTX 1660 Ti, einfach aus Interesse und danach gehen die beiden Karten in den Verkauf. EDIT: Mit der GTX 1660 Ti sinkt der Verbrauch auf 19W, wenn der Monitor ausgeht. Demnach verbraucht die Karte 11W und damit 2W mehr als die RTX 3050. Leider habe ich keine Karte ohne 6-Pin / 8-Pin Stromkabel. Solche Karten wie zB die T400 oder T600 sollten noch eine ganze Ecke sparsamer sein.
×
×
  • Create New...