renegade03

Members
  • Posts

    61
  • Joined

  • Last visited

Posts posted by renegade03

  1. Mahlzeit,

    so wir haben nun einige Zeit an dem Problem getüftelt, da unraid beim Hochfahren eine Anmeldung an der Domain fordert, diese aber da in einer VM gelagert natürlich noch nicht läuft.

    Jetzt haben wir ein script gebastelt, welches quasi die anmeldedaten forced und zeitversetzt den Anmeldeversuch macht. Allerdings haben wir nun das Problem, dass wir zwar die Berechtigungen der SMB Freigaben im Windows einsehen, aber nicht bearbeiten können. Laut einiger tutorials soll das aber funktioneren, die Berechtigungen dann im Windows anpassen zu können.

     

    Hat hiermit jemand schon Erfahrungen?

     

    Alternativ wäre einen Proxmox-Server aufzusetzen und in diesem dann eine VM für den AD und eine VM für Unraid zu machen oder einen Raspi als shadow-DC mitlaufen zu lassen, der quasi immer läuft.

     

    Wie habt ihr das gelöst, wenn ihr mit einer Windows Domain arbeitet?

     

    mfG

    Rene

  2. On 1/24/2023 at 11:19 PM, mgutt said:

    Warum?

    Weiß ich auch nicht, aber vermutlich, weil er bei den meisten Einstellungen verlangt, dass der Array gestoppt wird und de VM Dienst aus sind. Auf jeden fall habe ich immer das Problem, so bald ich join klicke, läd er ewig und kommt nicht rein. Schau ich dann auf die VM ist sie gestoppt.

  3. Mahlzeit,

    ich versuche gerade, meinen Server in die Domain zu bringen, um dort mittels Usergruppen die Rechte der shares setzen zu können.

    Allerdings stoße ich hierbei auf ein Problem:

    Der DC läuft auf einer VM. So bald ich in das AD joinen will, stoppt er aber alle vms und kann natürlich nicht joinen.

     

    Wie würdet ihr die Sache lösen, so dass ihr über das AD die Zugriffe auf die SMB Freigaben regeln könnt?

    Ich würde ungern jeden User aus der Domain nochmal im unraid anlegen müssen, denn das wäre ja wieder doppelter Aufwand der Verwaltung.

     

    mfG

    Renegade

  4. 2 hours ago, mgutt said:

    Eigentlich nicht. Check vielleicht kurz welches Betriebssystem die ISO verwendet. Dann kannst du in Unraid direkt die passende Vorlage nehmen. Ansonsten hatte ich hier mal eine Anleitung für Ubuntu geschrieben:

    Also das UCS basiert auf Debian Enterprise basierendes ISO. Aber alle Anleitungen, welche ich gefunden habe sagen jetzt, ich sollte es direkt als ISO einspielen und nicht als fertiges KVM-Image.

     

    KVM kann ich bei VM nicht auswählen und unter qcow2-image verläuft auch alles irgendwie im Sand, was ich finde.

  5. 1 hour ago, mgutt said:

    Ich würde den Container so nicht installieren. SYS_ADMIN = root-Rechte in unRAID. Das ist ein absolutes No-Go und widerspricht gänzlich dem Sicherheitskonzept von Containern.

    OK, das ist ein unschlagbares Argument. Habe zur Auswahl fertiges ISO für VirtualBox, VMware, VMware ESXi, Hyper-V und KVM.

     

    Was harmoniert mit Unraid am besten?

    Muss ich was besonderes beachten bei den Grundeinstellungen von VM in Unraid?

  6. Mahlzeit,

    ich möchte mir einen UCS Docker auf meinem Unraid Server installieren.

    Es geht um folgenden Docker: univention/univention-corporate-server

    Ich habe mir schon ein Tutorial dazu angeschaut, allerdings erklärt er nur die Grundlagen.

    bevor ich das Dingens komplett zerschieß, hoffe ich hier auf ein wenig Upgrade für mein Wissen. :)

     

    FQDN=node.ucs.example; \
    docker run \
    --detach \
    --cap-add SYS_ADMIN \
    --cap-add MKNOD \
    --volume /sys/fs/cgroup:/sys/fs/cgroup:ro \
    --tmpfs /run \
    --tmpfs /tmp \
    --restart unless-stopped \
    --hostname ${FQDN} \
    --name ${FQDN} \
    univention/univention-corporate-server

     

    Das wäre jetzt mal die Installationsanleitung.

    FQDN ist ja als Variable anzulegen

    hostname und name hätte ich jetzt auch als Variablen angelegt.

    volume ist ein Pfad.

     

    Nur wie lege ich den Rest an?

     

    mfG und Danke

    Renegade

  7. 10 hours ago, JayLong said:

    Jede Freigabe kannst du auch ohne einen Domain User (angemeldet) als Laufwerk anzeigen.#

     

    Wichtig "Verbindung mit anderen Anmeldeinformationen herstellen"

     

    Dann wie gewohnt mit deinem Domain user anmelden

    Ja, das ist mir schon klar, aber "öffentlich" hat eine Gasteinstufung also keine Anmeldeinformationen und das blockt Windows bei SMB. Also diese Freigaben werden gar nicht angezeigt.

  8. OK, den Fehler mit der Freigabe habe ich gefunden. Windows lässt seit einem Sicherheitsupdate standartmäßig keine unsicheren/öffentlichen Freigaben im SMB zu. Habe jetzt einen User angelegt und auf privat gestellt. siehe da, schon läuft es.

     

    Das ist insofern nur ein Problem, da ich in einer Domäne arbeite. Jetzt muss ich ja wieder an 2 Orten die User pflegen oder gibt es da eine bessere Möglichkeit?

  9. 17 hours ago, alturismo said:

    ja, ist alles bereits mehrfach auf den letzten 3 Seiten schonmal behandelt worden ;)

    zusammengefasst, die Docker aus dem "Appstore" sind nichts anderes als alle anderen Docker, nur dass die Templates "ausgefüllt" sind.

     

    vergleiche einfach 2 Docker und deren "Dockerhub" readme's mit den settings, dann die Vorlage aus dem Appstore ... dann füge den Docker einfach manuell hinzu und arbeite dich Schritt für Schritt durch.

    Ahh, jetztala. Vermute, du meinst mir letzten 3 Seiten Forentopics. Aber egal. Mit der Information habe ich jetzt ein Tutorial gefunden, wie man templates erstellt. Dann quasi den Docker über die Console mit pull raufziehen und läuft. (Zumindest denk ich das. Mal sehen, was mich das Tutorial lehrt. ;))

     

    17 hours ago, DataCollector said:

    Eigentlich müßte das funktionieren.

    Ich persönlich habe die Sicherheit zwar auf "Privat" eingestellt und darunter dann die jeweiligen Nutzer frei gegeben, aber zum Testen ist "Öffentlich" gut.

     

    Und Du bist sicher, daß Du im selben LAN Netz mit korrekter IP unterwegs bist?

    Nein ich habe ein Netz für mein Management (Server, AP,...) und eines für die Clients. Diese sind in der Firewall aber gegenseitig Freigegeben. Kann ja auch pingen, webserver nutzen, ssh usw. Mur Microschrott will mal wieder nicht.

     

    17 hours ago, alturismo said:

    zu deinem Share access Problem, teste doch erstmal public shares ohne Nutzer, Passwort, ...

     

    gerne genommener Fehler bei Windows Clients (auch das wurde mehrfach behandelt)

     

    Netzwerkeinstellung auf Öffentlich anstelle Privat

    Hab ja meine smb Freigabe als public gemacht und ohne User. Auf der Windows-Seite hab ich ein Domänennetzwerk, aber er findet ja nicht mal das Gerät als IP im Explorer. Browser usw läuft aber.

  10. 6 hours ago, DataCollector said:

    Klicke im "Main" Tab links auf den Namen des ersten Datenträgers Deines Pools.

    Wenn Du dann etwas runter scrollst, solltest Du sehen, wie Dein pool gehandhabt wird. Siehe meinen 1. Screenshot unten, indem ich mehrere Datenträger zu einem Raid5 zusammengefaßt habe.

    Ach da in dem Feld steht es. Super danke sehr.

     

    6 hours ago, DataCollector said:

    Das weiß ich nicht.

    Oft reicht es Windows einfach ein bisschen Zeit zu geben.

    Leider nein. windows kann unter \\XXX.XXX.XXX.XXX kein Gerät finden. Auch nach Stunden nicht.

    Hab ich was falsch konfiguriert?

    image.thumb.png.f0bae1f8604280bef9550daf10938e5d.png

     

    6 hours ago, DataCollector said:

    Docker hat seinen eigenen Unterbau, den es an alle Container weiter reicht. Somit sind die jeweilogen Dockercontaineranwendungen eher schlank.

    EIne VM bringt ihr gesamtes OS mit und kan somit recht voluminoes sein. Und wenn man dann mehrere davon nutzt, koennen die zusammen dann schon sehr viel Platz beanspruchen.

    Diverse vorgefertigte Docker findest Du in den Community Appications (die im "APP" Tab zu sehen sein sollten).

    Siehe zweiter Screenshot.

    Um sie in unraid zu nutzen mußt Du zuerst im "Settings" Tab > Docker > Enable Docker: Yes     einstellen.

    Das hab ich an und sehe auch unter APPs einige Docker. Falls ich mal einen habe, welcher nicht zu finden ist? Wie gehe ich dann vor?

    Gibt es da eine Anleitung?

     

  11. Mahlzeit.

     

    So mein Server ist jetzt zusammengebastelt und läuft. M.2 Kühler schon nachbestellt.^^

     

    Habe die Trial-Version installiert und nach @mgutt s Video die ersten Einstellungen gemacht bzw. korrigiert.

    Die Cache Laufwerke habe ich beide in einen Pool, diesen auf btrfs gestellt und unter balance "zu RAID1 konvertieren" geklickt. 

     

    • Hier die erste Frage: Wo sehe ich, ob er das wirklich gemacht hat? Es kam keine Bestätigung oder sonstiges.
    • Frage 2 ist: Wieso sehe ich meinen Server im Browser, aber wenn ich im Explorer die IP eingebe (natürlich mit \\) findet er das Gerät nicht?    Testfreigabe ist erstellt und öffentlich.
    • Wie installiere ich einen Docker bzw. was sind die Vorteile etwas als APP, VM oder Docker zu installieren? univention

     

    Weitere werden unweigerlich folgen. ;) 

     

    Ein frohes Neues und ein erfolgreiches 2023 euch.

    Renegade

  12. 19 hours ago, THORalf said:

    Glückwunsch, ... wo und für wieviel hast du es letztlich bekomen?

    War auf Amazon US. Hab es auf Amazon UK aber auch gesehen. Hab es für 216,-€ + ca. 38,-€ Zoll bekommen.

     

    19 hours ago, THORalf said:

    Vielen Dank an die gesamte Community & @mgutt  für die hilfreichen Threads und Tests, wenn man sich Zeit nimmt findet man da echt gute Infos  (brauchte aber auch mein eigenes Spreadsheet um die Komponenten zu clustern, pro. Cons, NoGos....)

     

    Dem stimme ich absolut zu. Hatte schon von der tollen Community gehört. War mitunter ein Hauptgrund, mich für Unraid zu entscheiden.

  13. 2 hours ago, T0a said:

    Das 32GB ECC Modul von Kingston ist wirklich super preiswert. Ich habe für den gleichen Preis vor einem Jahr ein ECC Modul mit nur 16GB von Samsung erworben. Solltest du viel mit Virtualisierung machen, bietet es sich an zeitnah ggf. ein zweites Modul zu erwerben. Ich habe zu Beginn den „Fehler“ gemacht nur ein günstiges ECC RAM Modul zu kaufen und habe zu einem späteren Zeitpunkt ein zweites Modul teurer nachgekauft. Unabhängig davon sind 32GB RAM natürlich auch für viele Szenarien ausreichend.

     

    Ja habe auch gehört, dass auf Grund von Sanktionen die Preise wieder steigen sollen. Ich werd zwischen den Feiertagen mal meine Kiste zusammenschrauben und sehen, wie es läuft. Falls der RAM knapp wird, kommt im Januar noch ein 2. Modul. Allerdings hab ich nur ein NAS und 2-3 kleinere VMs laufen. Da dürfte es ausreichen.

  14. Also Abschließend mal die fertige Zusammenstellung:

     

    Gigabyte c246m-wu4

    Intel Core i3-9100

    Kingston 32GB DIMM ECC (1 Modul)

    Western digital red sn700 NVMe-nas-SSD (2x)
    Seagate BarraCuda Compute 3TB (4x vorhanden)

    Corsair RM550x

     

    Ich Danke euch allen für eure Zeit, Geduld und euer Wissen. Habe auf jeden fall mal ein gutes Gefühl, die für mich optimalen Komponenten gefunden zu haben.

  15. OK, dann hab ich das jetzt soweit verstanden. Habe mich für die WD-Red SN700 1TB entschieden. Diese ist sogar für den Dauerbetrieb ausgewiesen.

     

    Also abschließend eure Meinung, beide NVME im RAID1 als Pool vor den Array schalten und gut oder?

  16. 1 hour ago, MAM59 said:

    Also vor dem Mover brauchst Du keine Angst haben, der läuft immer etwas mit angezogener Handbremse, so dass ja niemand von ihm belästigt wird (Zeit ist ja in dem Fall auch egal, er läuft ja im Hintergrund)

    Aber er beansprucht ja die ganze Zeit die NVMe dann. Darum sollte sie Stromsparend sein.

  17. 2 hours ago, MAM59 said:

    Bei den schlaffen VMs kannst Du sie auch gleich auf ne SATA-SSD packen, die langweilt sich dann immer noch zu Tode 🙂

     

    (Übertreibung macht anschaulich, aber echt, da liegen ein paar Zehnerpotenzen von Datengrößen zwischen)

     

    Das hab ich ja eingangs als Überlegung angebracht. Mir ist schon klar, dass die VMs nicht wirklich viel Leistung und Übertragungsrate brauchen, aber das halt relativ konstant und darum meine Überlegung eher stromsparende NVMe zu nehmen, weil oft Kleinigkeiten zu tun und nur gelegentlich etwas mehr, wenn Sie als Cache fungieren und der Mover läuft.

    Wobei auch das keine 100Gb sein werden.

  18. 37 minutes ago, MAM59 said:

    Der ist meist recht simpel: PCIe 4.0 ist doppelt so schnell wie 3.0, braucht dafür aber ordentlich mehr Saft.

    Sind allerdings alles PCIe 3.0x4. Also alle wirklich ähnliche Kriterien. Die WD-Red soll angeblich sehr gut dafür sein.

     

    4 minutes ago, DataCollector said:

    Bei Dir werden über ein paar Sekunden Dateien gelesen, ab und zu auch einige Dateien geschrieben (aber oft zuerst in den Ram Cache) und in der Zwischenzeit wartet die SSD einfach darauf, dass sie etwas tun soll (weil ja auch der Ram erstmal zwischenpuffert). In der Zeit (Idle) gehen SSD (sofern dei Firmware nicht verbockt ist oder die gerade GarbageCollection oder so betreiben) selbstständig schon in verschiedene niedrisge Schlafzustände und benötigen in der Zeit dann sehr wenig Energie.

    Ja allerdings läuft ja meine VM mit dem Smarthome und die mit dem DomainController drauf. also sind sie eigentlich immer im Betrieb. Von Daher eben eine mit möglichst wenig Verbrauch.

  19. Bin jetzt nicht so der NVMe Profi. Hab hier mal die Infrage kommenden SSDs verglichen.

     

    Nur leider ist bei einigen Platten kein Verbrauch im Betrieb angegeben und dieser schwankt teils deutlich.

    WD-Blue vs. 970-Evo = 5.1 Watt. Bei 2 Platten ist das ein Unterschied von 10 Watt. Das ist schon eine Hausnummer.

    Leider hat die WD-Red nichts angegeben. Seltsamerweise die beiden anderen WD schon. Aber bei maximal liegt die Red eher an einer 970-Evo. Da diese Platten dauerhaft laufen will ich das natürlich möglichst sparsam. Kann mir einer mal den krassen Unterschied erklären?

    NVMe-SSD.png

  20. 5 hours ago, MAM59 said:

    Um Deine Frage beantworten zu können, fehlt noch ein wichtiges Detail: Die LAN Geschwindigkeit.

    Also Der Server soll 2x 1GBit Lan mit Link Aggregation oder aufgeteilt auf NAS und VM bekommen. Das muss ich in der Laufzeit testen. Später soll der Server aber über 10GBit über SFP+ an den Router angeschlossen werden.

    Die Clients laufen alle zwischen 300MBit bis 1 GBit. Allerdings liegen die persönlichen Daten der Clients auf dem Array. Also wird es mehrere Zugriffe gleichzeitig geben. Zudem auch hier und da mal einen Stream, allerdings ist mein Traffic eher viele kleine Daten und nicht wenig große Files.

     

    Das Backup wird regelmäßig auf einen externen Rechner mit rdx Laufwerk ausgeführt. Und da das Medium offline gelagert. Ist quasi offside und offline gleichzeitig.

    Ich hätte die VMs regelmäßig in den Array geschrieben und diesen dann 1x wöchentlich aufs RDX gesichert und die Platte geswitcht.

     

    10 hours ago, DataCollector said:

    Sollte man hingegen täglich nur ein paar MB bis einige Dutzend GB über den Cache auf das Array transferieren und dazu noch einen üppigen Ram haben, sollte sich das problemlos ausgleichen können, so daß man alles auch auf einer SSD ansiedeln kann.

    Aber selbst wenn sich dann dich entsprechende Probleme zeigen, kann man ja die Shares mit den VM/Docker immer noch später auf einen extra Datenträger transferieren.

    Das war auch mein Plan. erstmal nur mit den 2 NVMe arbeiten und bei Bedarf später umsiedeln. Will halt auch so wenig wie möglich Platten im Dauerbetrieb haben, sondern was geht bei nichtnutzung schlafen legen.

     

    1 hour ago, mgutt said:

    Bleib erstmal bei einem RAID1 und schau wie es läuft. Die SATA SSDs lass erstmal weg. 

    Das Raid1 über unraid und da die 2 NVMe rein oder?

  21. Mahlzeit,

     

    so da mein Setup jetzt hardwareseitig so ziemlich steht, mal die Frage an die Experten hier zur Einteilung der Speichergeräte.

    Der Server besteht im Prinzip aus einem NAS und ein paar VMs.

     

    vorhanden sind: 2x NVMe SSD

                            4x HDD

                           2x SATA SSD (optional)

     

    Das Mainboard ist das GIGABYTE C246M-WU4.

     

    Grundsätzlich war mein Gedanke, die NVMe SSD als Raid 1 zu definieren über das Mainboard und diese dann als Cache zu nutzen.

    Die 4 HDDs kommen in den Array. Die 2 SSDs hätte ich evtl als 2. Raid 1 pool laufen lassen für die wichtigen VMs (DomainController, Smarthome)

    Diese haben ja nicht die großen Datenmengen, somit würde hier SATA völlig ausreichen.

    Oder wäre es sinnvoller, alle VMs auf die NVMe raufzupacken und diese dann permanent im Betrieb zu haben und dafür auf die SSDs zu verzichten?

     

    Bzw. Ist ein ZFS Raid mit plugins möglich? Habe gehört, BTRFS soll nicht so super sein.

     

    Oder bin ich jetzt komplett falsch abgebogen, was den Aufbau angeht?

     

    mfG

    Rene

  22. On 12/5/2022 at 10:22 AM, mgutt said:

    Nimm ruhig 3200 Mhz, wenn der gleich teuer ist. Der RAM taktet automatisch runter.

     

    Ob du 8 oder 128GB verbaust, musst du wissen. Viel hilft viel, kostet aber auch viel. Ich empfehle als Minimum einen 32GB Riegel. So kann man jederzeit auf Maximum aufrüsten.

     

     

    Super danke dir, ist auf der Liste.

     

    Beim Netzteil werd ich mit einer PicuPSU wohl nicht hinkommen. Somit das Corsair.

     

    Dann hab ich jetzt noch die Kleinteile zu checken und kann die Order losschicken. Freu mich schon auf meinen ersten Unraid Server. :)

    • Like 1