Jump to content

mgutt

Moderators
  • Posts

    11,355
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Das musst du die Händler fragen. Wie gesagt müssen sie die Boards einfach nur im Großhandel bestellen.
  2. Auch in dem Link findest du zahlreiche Leute, die die Slots einfach aufdremeln. Ich werde auch nie verstehen, warum es immer noch Boards gibt, wo die Slots zu sind. Ich habe selbst auch schon einen mit einer Pfeile geöffnet. Ja dann geht das B550 auf keinen Fall. Schade. Dann geht nur X570 oder du nimmst erstmal das B550 und wechselst dann auf den neuen Chipsatz. Der müsste ja dieses Jahr kommen. Nicht fürs Transcoding: https://www.elpamsoft.com/?p=Plex-Hardware-Transcoding Nicht alle Nvidia haben auch eine potente Video-Einheit. Ich meine eine GTX 1050 ist Minimum.
  3. Der wird sicher genug Leistung haben. Allerdings ist mir gerade ein Fehler aufgefallen. Da das Gehäuse nur 3HE ist, kann kein ATX Netzteil passen. Es gibt nun zwei Möglichkeiten. Entweder nimmt man ein 4HE Gehäuse oder holt ein anderes Netzteil. Leider verschweigt Inter-Tech die technischen Daten, verweist aber auf eigene Netzteile, die angeblich 100x70mm groß sind. Das ist insofern ungewöhnlich, also dass das a) kein Standard ist und b) gar nicht zum Ausschnitt passt, denn der geht über die kompletten 3HE, also 133.5 minus Blech = grob 130mm Platz in der Höhe: Du könntest nun also dieses offensichtlich in der Höhe zu kleine Netzteil vom Hersteller bestellen: https://geizhals.de/inter-tech-aspower-2u-single-600w-u2a-b20600-s-88887228-a1755896.html?hloc=at&hloc=de&v=e#offers Oder man versucht ein SFX Netzeil zu verbauen, welches mit 125mm so ziemlich die komplette Höhe ausfüllt, aber mit 64mm evtl nicht breit genug ist: https://geizhals.de/corsair-sf750-80-plus-platinum-750w-sfx12v-cp-9020186-eu-a1937459.html?hloc=at&hloc=de&v=e Sorry, dass mir das entgangen war.
  4. Für eine VM? Müsste dann aber denke ich mal USB-C sein, damit man die auch als primäre GPU verwenden kann?! Es gibt übrigens erste Versuche mit M.2 GPUs: https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/54882-asrock-rack-m2-vga-grafikkarte-im-ssd-steckplatz.html
  5. Du sagtest, dass dir 2x NVMe reicht. Da das Board 3x NVMe hat, ging ich davon aus, dass du 2x davon verwendest. Oder brauchst du doch 4x NVMe? Wenn die LAN Karte PCIe 3.0 unterstützt, wird sie auch mit x4 mit voller Bandbreite laufen. PCIe ist abwärtskompatibel. Und x4 hat 40 Gbit/s. Hier sind mehrere Erfahrungsberichte: https://forums.servethehome.com/index.php?threads/pcie-2-0-3-0-4x-lane-10gb-sfp-card.9925/
  6. Das ist das schöne daran, wenn man Software und Datenbank trennt. Du könntest auch 1000 Nextcloud-Installationen mit einer Datenbank nutzen. Das ist nichts anderes als hättest du 1000 Nutzer auf einer Installation. Das einzige absehbare Problem wird sein, dass UserA eine Datei auf Server1 hochlädt und UserB diese neue Datei auf Server2 sieht, weil die Datenbank von Server1 die Datei kennt. Aber da sie noch nicht auf Server2 synchronisiert wurde, kann UserB sie nicht herunterladen. Da müsste man ein wenig den Nextcloud Quellcode anpassen und UserB über eine Wartezeit informieren ("Einen Moment bitte, die Datei wird für den Download vorbereitet..."). Das andere Problem könnte sein, wenn Nextcloud die Logins nicht mit der Datenbank regelt, sondern per PHP Sessions. Dann müsste man den Login-Mechanismus anpassen. Aber das werden die ja wohl nicht gemacht haben. Ok, haben sie doch. ^^ Sollte aber einfach lösbar sein, in dem man das PHP Temp Verzeichnis, wo die Sessions drin liegen anpasst: https://stackoverflow.com/a/4927969/318765 Und das dann auf dem 2. Server als Temp-Verzeichnis mountet. Das siehst auch im Screenshot von dem User "Finalls" unter "Php Session": Sein Setup ist sogar etwas einfacher, weil er die Dateien nur auf einem einzigen Server liegen hat.
  7. Dafür ist ja das SSL-Zertifikat da. Du kannst keine verschlüsselte Verbindung zu einer Website knacken. Aus dem Grund hatte Kasachstan versucht ein eigenes Root-Zertifikat einzuschleusen.
  8. Schon klar. Aber das ist völlig egal. Wenn sich ein Nutzer einloggt, wird dessen Passwort über das SSL Zertifikat der Proxy Domain verschlüsselt und dann an den Proxy gesendet. Dieser entschlüsselt das Passwort und nutzt nun das SSL Zertifikat von der Server Domain um es erneut zu verschlüsseln und an diesen weiterzuleiten. Wenn es nicht Proxy heißen würde, könnte man es auch Man-in-the-Middle nennen
  9. Das Board wäre auch richtig lecker: https://www.asus.com/de/Commercial-Servers-Workstations/WS-C422-SAGE-10G/ 7 Slots sollten auch ohne Bifurcation reichen Oder das, das hat x4x4x4x4 Bifurcation auf den ersten drei Slots: https://www.asus.com/de/Motherboards-Components/Motherboards/All-series/WS-C422-PRO-SE/
  10. Das Konzept verteilt die Last auf mehrere Server. Ich will aber die Internetverbindung mehrerer Server nutzen. Das geht nicht, wenn alle Nutzer durch einen Proxy (eine Internetleitung) laufen. Ja das geht, nur dann laufen alle Nutzer beim Rechenzentrum eines Dritten auf, was eigentlich als Vorgabe ausgeschlossen ist und du zahlst doppelten Traffic (Upload zum Proxy + Forward zu server1 bzw auch andersherum), aber das könnte sich im überschaubaren Rahmen bewegen. Also die Option würde ich nur in Betracht ziehen, wenn es gar nicht anders lösbar ist. Der "Token" ist beim Surfen ja im Cookie und der Browser überträgt das Cookie nur auf die Subdomain, von der das Cookie kam. Bei den Clients bin ich überfragt ob die das Cookie auf die Subdomain binden, aber ich denke mal schon.
  11. Brauche ich ja nicht, wenn ich die DB nur auf server1 habe. Ich trage bei server1 in der config.php also localhost:3306 ein und auf server2 stattdessen server1.example.com:3306. Der Traffic der DB ist ja gering und sollte daher kein Loadbalancing erfordern. Die TTL muss jeder beachten. Ansonsten könnte ja niemals jemand seine Nextcloud über eine DDNS verfügbar machen. Die wäre dann für Stunden/Tage offline, sobald man eine neue IP vom Provider bekommt. Ich hatte den Fall jedenfalls noch nie und es ist auch extrem selten der Fall. Das würde ich also nicht als Problem sehen. Schon gar nicht, wenn es nur 1 von 100 Usern ist. Hängt der eben dauerhaft auf server2. Schadet ja nicht, solange nicht alle 100 auf server2 festhängen. Dann würde aber der Nutzer im Browser server1.example.com sehen. Das als Favorit gespeichert und schon war es das mit Balancing. Allerdings wäre es denkbar nur die Downloads per 307 weiterzuleiten. Bei Nextcloud werden ja Dateizugriffe immer über die "remote.php" geregelt. Ein GET auf eine URL mit "remote.php" und per Zufall kommt ein 307 auf einen anderen Server. Uploads, also POST ginge dann grundsätzlich auf server1, was aber vertretbar wäre, weil die Downloadbandbreite des Servers ja eh größer ist. Es gibt dabei aber auch ein Problem. Und zwar das Login-Cookie funktioniert nur auf nextcloud.example.com und nicht auf server2.example.com. Ein Klick auf den Download würde also die erneute Eingabe der Login-Daten erfordern. Im Browser ist das ok, aber was im Client passiert, kann ich nicht sagen. Ich vermute mal, dass das schlicht nicht geht, weil man da ja gar kein separates Login-Fenster hat. Oder der Client ist clever und überträgt den Login dann noch mal automatisch?!
  12. Dann vermute ich, dass das Backup noch nicht fertig ist. Linux kann den RAM als Zwischenspeicher nutzen. Kannst du evtl hören ob die Platte noch aktiv ist? Probier mal das: timeout 1000 bash -c -- 'while umount /mnt/disks/WD_My_Passport_260D; sleep 30;done' Die Idee ist es alle 30 Sekunden den Unmount zu versuchen und wenn es nach 1000 Sekunden immer noch nicht geklappt hat, bricht er ab (zur Sicherheit, damit es nicht unendlich lange läuft). Eine Kombination aus dem: https://unix.stackexchange.com/a/78514/101920 und dem: https://stackoverflow.com/a/27555865/318765
  13. Ich kenne sonst keine Alternative, die man selbst hosten kann (DSGVO + Datenhoheit). ? Da habe ich meine Idee wohl nicht gut erklärt. Es gibt kein "IP funktioniert nicht mehr". Ich möchte nur ständig zwischen der öffentlichen IP von server1 und server2 wechseln. Die TTL der Domain wird ja bis zum Client durchgeleitet und er muss entsprechend nach Ablauf der Zeit die Domain neu auflösen. Löst also jemand um 10:00 die Domain auf, bekommt er die IP von server1. Um 10:05 ist er gezwungen die Domain noch mal aufzulösen und bekommt die IP von server2. Das Balancing entsteht nun dadurch, dass ein anderer Nutzer um 10:09 die Domain auflöst (server2 IP) und die nächste Auflösung erst um 10:14 erfolgt (server1 IP). Man hat also ein, natürlich völlig unkontrolliertes, Balancing. Bei 100 Nutzern verspreche ich mir aber immer noch eine gute Verteilung von sagen wir mal im Worst Case von 70 zu 30. Das funktioniert nicht, weil dann die Internetleitung des Proxies der Flaschenhals ist. In dem Fall müsste also der Proxy in einem Rechenzentrum stehen, was aber wegen DSGVO/Datenhoheit unerwünscht ist.
  14. Schau das Video von Anfang an und du siehst auch das. Spoiler: Die Felder bleiben leer Ein Salt ist eine zusätzliche Zeichenkette, um die ein Passwort ergänzt wird, um desen Sicherheit zu erhöhen. Sollte mit diesem Video beantwortet werden:
  15. Ich möchte gerne für 100 Nutzer eine Nextcloud bereitstellen. Da Nextcloud von Haus aus kein Load-Balancing mitbringt, hatte ich andere Ideen: A) WebDAV Einbindung - Zwei Server an unterschiedlichen Standorten - Eine Nextcloud Oberfläche - in dieser wird Server2 zB per WebDAV (?) eingebunden - die Dateien werden auf den zwei Servern verteilt - /server1/datei1 wird von server1.example.com geladen - /webdav/server2/datei2 wird über server2.example.com geladen Ziel wäre also, dass je nach Datei, der Upload des entsprechenden Standorts genutzt wird. Allerdings weiß ich nicht ob Nextcloud bei eingebundenen Shares auch die externe Domain an den Nutzer publiziert oder das intern durch einen Proxy jagt. Weiß das jemand? B) DNS "Load"-Balancing - Nextcloud wird auf server1 und server2 installiert und beide nutzen die Datenbank auf server1 - server1 und server2 werden permanent synchron gehalten (rsync) - die Domain nextcloud.example.com bekommt eine TTL von 5 Minuten und erhält im Wechsel die öffentliche IP von server1 und server2 Es wäre also reiner Zufall wo sich der Nutzer anmeldet und man hätte eine Art Load Balancing. Logins etc muss man nicht doppelt pflegen, weil es ja nur eine Datenbank gibt. In wie weit das bei Uploads ein Problem geben könnte (da server2 die auf server1 hochgeladene Datei ja auch erst mal abholen muss), kann ich nicht sagen. Was meint Ihr?
  16. Ja die Frage ist ja eh, ob er überhaupt was bauen will. Wenn nicht, bringt das ja nichts. Im Moment fühle ich mich jedenfalls etwas ignoriert ^^
  17. Ich habe einfach nur Copy & Paste aus der RAM Liste gemacht: http://www.asrock.com/mb/AMD/TRX40 Creator/#Memory Mit ECC geht natürlich auch. Das wäre dann zB der: https://geizhals.de/kingston-server-premier-dimm-32gb-ksm26ed8-32me-a2349167.html Schnellere Module waren jetzt nicht in der Liste, aber gehen denke ich auch.
  18. Ja das verstehe ich auch nicht. 20GB oder so sollte echt Standard sein. Korrekt. Deswegen auch "Un"RAID. Hat den Nachteil, dass die Geschwindigkeit auf eine Platte limitiert ist, aber auch den Vorteil, dass nur eine Platte laufen muss und es niemals zum totalen Datenverlust kommen kann (wenn man mal von Brand oder so absieht).
  19. Da steht nicht ohne Grund ein Sternchen: Man bekommt also nur den "unbegrenzten" Speicherplatz, wenn man fünf Abos hat und dann auch nur in Form von "25TB Festplatten" und auch nur wenn man jedes mal danach fragt. Es ist also nicht ein großer Speicher wie es bei Google der Fall wäre und bei Google ist das einzelne Enterprise-Konto günstiger, allerdings auch schon ~300 € pro Jahr.
  20. Ein (!) 24 Kern Threadripper verspeist den zum Frühstück. Hier Dual: https://www.cpubenchmark.net/cpu.php?cpu=Intel+Xeon+E7-4890+v2+%40+2.80GHz&id=2685&cpuCount=2 Hier Quad: https://www.cpubenchmark.net/cpu.php?cpu=Intel+Xeon+E7-4890+v2+%40+2.80GHz&id=2685&cpuCount=4 Und hier der Threadripper 3960X: https://www.cpubenchmark.net/cpu.php?cpu=AMD+Ryzen+Threadripper+3960X&id=3617 Hier noch ein Bauvorschlag: https://geizhals.de/?cat=WL-1978090 Das Board hat bereits 3x M.2, 8X SATA und 10G LAN. Ich habe jetzt 4 GPUs für die VMs eingeplant, was alle Slots belegen würde. Ob das Board Bifurcation unterstützt, konnte ich nicht ermitteln. Eine Anfrage an Asrock ist raus. Das ASUS ROG ZENITH II EXTREME könnte es jedenfalls. Mit x8x8 Bifurcation könnte man 2 GPUs auf einem Slot betreiben. Beispielsweise in dem man in den untersten Slot eine Supermicro Riser Card RSC-S2-88 installiert. Bei den anderen Slots wäre es aus Platzgründen nur mit Riserkabeln möglich. Falls der letzte Slot 4x4x4x4 Bifurcation unterstützt, könnte man mit einem C_Payne x4x4x4x4_1Slot_v12 Adapter dort alle GPUs platzieren. Oder man nimmt ein Riserkabel und schraubt den x4x4x4x4_3Slot_v10 auf den Boden des Gehäuses. Natürlich setzt das voraus, dass du auch etwas Hand anlegst.
  21. Das ist gefährlich, weil es dazu führen kann, dass die letzte hinzugefügte Datei abgeschnitten wird. Um das zu verhindern sollte man bei jedem Share einen "Minimum free space" hinterlegen: Dieser sollte größer sein als die größte Datei, die man auf die Disks kopieren könnte.
  22. Wenn du das andersherum machst, kann der Server die Dateien von deinem Windows Rechner abholen und in einen Share kopieren, wo der Windows Nutzer keine Zugriffsrechte für besitzt. So mache ich das: und sichere meinen Rechner ebenfalls mit meinem Script: In Windows habe ich dazu einfach rechte Maustaste -> Zugriff gewähren auf -> bestimmte Person -> Unraid. Den User habe ich vorher über die Windows Benutzer-Einstellungen angelegt: Natürlich besitzt dieser nur lesende Rechte. Ein ganz simpler Schutz gegen Ransomware (sofern nicht der Windows Rechner und der Unraid Server über Sicherheitslücken verfügt).
  23. rclone enthält eine clientseitige Verschlüsselung: https://rclone.org/crypt/
  24. Korrekt. Wenn man über SMB oder per Terminal eine Datei umbenennt, dann wird die Datei natürlich nicht kopiert, sondern nur umbenannt?!
×
×
  • Create New...