Jump to content

mgutt

Moderators
  • Posts

    11,355
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Wer es noch nicht wusste: Bald können wir für jeden Kleinkram zum Zoll laufen und Gebühren zahlen. Ab dem 01.07. ist es soweit. Ich glaube ich bestelle ab dann jeden Tag einen 1 Cent Artikel und hole ihn nicht ab. Das nennt man dann DoS Attacke ^^
  2. Das sollten auch die SATA Ports einer 4er/5er SATA PCIe Karte können. Es gibt das Vision W übrigens auch als mATX: https://www.gigabyte.com/de/Motherboard/W480M-VISION-W-rev-10#kf Denk dran, dass die Intel Boards meist eh nicht genug Lanes besitzen um alle PCIe und M.2 Slots eines Full ATX zu versorgen. Beim C246 Pro von Asus ist auch ein Slot geshared. Steht in der Anleitung. Beim Gigabyte geht sogar ein kompletter PCIe Slot aus. Daher sind die mATX Boards vom Prinzip genauso gut. Das W480M hat übrigens TB integriert. Kann man damit zwei Rechenr direkt verbinden? Hab ich keine Ahnung von. AMD Boards sind etwas zickig was das Durchschleifen von Hardware an VMs angeht, keine Ahnung ob man eine iGPU ordentlich nutzen kann und ECC ist grundsätzlich fehlerhaft implementiert (RAM Fehler werden nicht an den Linux Kernel gemeldet). Und sparsam bedeutet bei AMD aktuell teuer, weil nur die neueste Serie sparsam ist. Was hast du vor? 12 Platten sind in der Spitze 240W, 80W CPU und was noch?
  3. Die von mir vorgeschlagene CPU erfordert auch ein neues Board, neuen RAM (wenn du DDR3 hast) etc. Sind 1151v2. Und glaub mir. Der E-2278G verspeist deinen zum Frühstück ^^ D Wie auch immer. War auch nur eine Idee um Strom zu sparen.
  4. Ohne 2.) Geht das nicht. Dann deaktiviere am besten IPv6 in deiner Fritz!Box unter Internet Zugangsdaten. Dann bekommt die auch keine öffentliche IPv6 mehr und das Problem ist gelöst.
  5. Is anyone really using this syntax styling? My personal option is, that it is useless. And why is HTML the default? Thank you for the mobile code button. Life saver ^^
  6. mgutt

    Welche Cache SSD?

    Die nicht, weil kein DRAM: - Crucial BX500 - SanDisk Plus - WD Green - Kingston A400 Sonstige Gründe: - Silicon Power A55 bricht nach vollem SLC Cache massiv ein - Intenso.. baut glaube ich nur Müll - Samsung QVO weil QLC Andere Modelle von einer bekannten Marke sollten gehen. NAS SSDs oder Gaming SSDs sind dagegen finanziell völlig unattraktiv. Qualitativ wäre eine Samsung 860 Pro mit ihren MLC sogar hochwertiger, da MLC doppelt so lange hält wie TLC. Deswegen hatte die 850 Pro (auch MLC) damals sogar 10 Jahre Garantie. Heute sind die SSDs deutlich minderwertiger, allerdings auch günstiger. Stand heute kann man sagen, dass 1TB über 100 € kosten muss, sonst taugt die SSD nichts. Oder es ist zufällig gerade ein Angebot.
  7. Ohne ECC RAM ist ein ASRock B365 Pro mATX wegen der 2 NVMe optimal für Unraid (um jetzt oder später ein NVMe RAID realisieren zu können). Als CPU zb ein i3 8100/9100. 10te Generation Intel geht nur mit Unraid Beta/RC. Wenn das passt, findet sich aber bestimmt auch ein Board. Wenn eine NVMe reicht, dann gibt es auch zahlreiche Boards für unter 100 €.
  8. Create a script with the following content: #!/bin/bash apt-get update apt-get -y install libpcap-dev And save it under /mnt/user/appdata/iobroker/scripts/userscript_everystart.sh. The ioBroker container executes this script if it exists. Credits go to @ich777. He found the line Ok, then I will make "host" the default setting of the container.
  9. Nein. Apps müssen von dem Container selbst kommen. Dazu verweise ich auf meine Antwort hier und die folgenden Antworten, wo wir die meiner Ansicht nach besten Container/Apps bereits genannt haben: https://forums.unraid.net/topic/101222-unraid-als-nas-und-mehr/?tab=comments#comment-933813 HA gibt es bei Unraid nicht. Da müsste man sich selbst ein Konzept ausdenken. zB zwei vollwertige Unraid Server, die ihre Docker Container und VMs synchron halten oder ähnliches. Ist auf jeden Fall keine Klicki-Bunti-Lösung, sondern mit Arbeit verbunden. Damit meinst du auch einen kompletten Klon von Unraid? Also wieder HA? Ich kann dir da gerade nicht folgen. Ich nutze dafür rsync: https://forums.unraid.net/topic/97958-rsync-incremental-backup/ Andere nutzen Veeam usw. Unraid selbst bringt keine Lösung mit. Wenn du Unraid in einer VM laufen lassen würdest, und darin dann wieder eine Gaming VM, dann hättest du vermutlich die selben Probleme. Nested VM ist immer so eine Sache. Aber wenn Unraid nativ auf dem Server läuft, wird dir das denke ich keine großen Probleme bereiten. Hier sehe ich bei Unraid auch keine Einschränkung, außer dass man VMs in Unraid eher auf einem SSD RAID liegen hat und nicht in einem HDD RAID Pool (letzteres geht auch erst ab Unraid Beta/RC). Die VMs brauchen aber keine GPU? Weil mit mehreren VMs sharen kannst du sie in Unraid nicht. Das geht nur mit Quadros über Citrix, Red Hat oder VMware. Unraid hat seinen Fokus eher auf Hot/Cold Storage. Heiße Daten (VMs, Container, Uploads, etc) auf einem SSD RAID und kalte Daten (Medien, Backups, etc) auf dem HDD Array, was ungefähr wie ein RAID4 ist, nur ohne Striping. Bei Unraid Beta/RC kommen nun erstmals auch mehrere HDD RAIDs dazu. Unraid erlaubt so viele Laufwerke nur bei Unraid Beta/RC und wenn diese Laufwerke nicht alle im Array sind (Maximum 28+2), sondern der Rest in RAID Pools. Mit der aktuellen stabilen Version könnte man also gar nicht so viele Laufwerke nutzen. Klingt nach zwei Intel Xeon E5-2689. Durch die schwachen Kerne, brauchst du relativ viele Kerne pro VM. Strom kostet dich nicht so viel? Je nach Strompreis wäre ein Hardware-Upgrade lohnenswert. Ein E-2278G/E-2288G hätte zB doppelt so viel Leistung pro Kern, so dass du mit einer Single CPU bei weniger als dem halbem Stromverbrauch das selbe Ergebnis erzielen würdest. Als kleiner Bonus wäre sogar eine iGPU für zB Container dabei.
  10. Man kommt drauf, aber das Menü zeigt keinen Link zur WebGUI, wenn man br0 nimmt. Läuft der Container als bridge/host, dann geht es:
  11. I like to support rlcone by testing a recent beta version. Its not in the official beta branch, so I would need to update it manually. Would this be possible? There is no slackware package in the list: https://beta.rclone.org/branch/fix-3274-webdav-delete/v1.54.0-beta.5062.259d0bb8c.fix-3274-webdav-delete/
  12. Für Docker ja, für VM nein. Man kann eine GPU nur für den Host (Unraid mit Dockern) oder eine VM nutzen. Willst du also mit der iGPU in Plex transcodieren, kannst du sie nicht mehr für eine VM verwenden. Er hat nicht die "Mogelpackung" verlinkt, sondern das "gute" mATX Board Dann ist das C246M-WU4 auch für dich ein gutes Board. Fehlen nur eben noch 4 SATA Ports. Dazu musst du wissen, dass PCIe Karten mit einem Controller arbeiten, der nur eine bestimmte Bandbreite liefert. Da du "nur" HDDs anschließen möchtest, reicht natürlich ein Adapter, der 4x 200 MB/s kann. Hier ist eine Liste: https://forums.unraid.net/topic/41340-satasas-controllers-tested-real-world-max-throughput-during-parity-check/ Beispiel: https://www.amazon.de/IO-Crest-ASMedia-Non-Raid-Low-Profile-Halterung/dp/B08J2PK1HF Günstiger: https://de.aliexpress.com/item/4001296961548.html?spm=2114.12010612.8148356.1.67055f96bcPTl2 Beispiel: https://www.amazon.de/IO-Crest-Non-Raid-Controller-Unterstützung/dp/B07ST9CPND Günstiger: https://de.aliexpress.com/item/32986459789.html?spm=2114.12010612.8148356.3.67055f96Ul5Fqb IOCrest macht sehr gute Karten.
  13. mgutt

    Welche Cache SSD?

    Es braucht nur "server multi channel support = yes". Aber das funktioniert nur, wenn man beidseitig mehrere LAN Ports hat. Ansonsten muss man noch RSS aktivieren: interfaces = "10.10.10.10;capability=RSS,speed=10000000000" Wobei 10.10.10.10 die IP vom Unraid Server ist und "10000000000" die Geschwindigkeit des Unraid 10G Ports. Näheres dazu und wie man das schlussendlich prüft, in meinem Guide unter Punkt 4: https://forums.unraid.net/topic/97165-smb-performance-tuning/ PS Es hat damals viele Recherche gekostet um das herauszufinden. Das war irgendwo beim Bug-Tracker von Samba vergraben. Es wird aber beides irgendwann zum Standard.
  14. This is a general problem for multiple iobroker users with those amazon dash buttons: https://www.google.com/search?q=iobroker+Unable+to+acquire+the+dpkg+frontend+lock First step would be to open the Container's console (click on its icon) and install pcap by the following command: apt-get update && apt-get install libpcap-dev If this still does not help read this: https://forum.iobroker.net/topic/11021/amazon-dash-adapter-spinnt-sich-aus/7?_=1610987374725&lang=de A general question: Are you using the container in bridge or host mode? @_Marlon_ complained that it worked for him with Shelly adapters only in host mode.
  15. mgutt

    Welche Cache SSD?

    Er hat schon recht. Kommt auf die CPU an. Mein i5-7600K schafft es mit einem Kern gerade so und die Maus ruckelt. Aus dem Grund habe ich damals SMB Multichannel aktiviert: https://superuser.com/questions/1587290/why-is-smb-client-not-capable-of-using-rss-although-its-enabled Vorher: Nachher: Aber Multichannel ist bei Linux immer noch instabil. Auch das muss jeder selbst abwägen. Du hast bei einem RAID5 mit 3 sehr guten SSDs 2x 560 MB/s lesen und schreiben und durch die Verdoppelung bei RAID5 liegst du dann bei 1120 MB/s. Ok, ist noch nicht 1175 MB/s, aber schnell genug ist das doch?! Ich mein SAS ist natürlich geil, aber entsprechend teuer. Wenn Du viel RAM hast, merkst du davon am Ende meiner Ansicht nach nichts (ist ja nur ein NAS und kein Datenbank-Server).
  16. Ok, dann ist das tatsächlich ein Problem, denn als bridge geht das nicht: https://stackoverflow.com/a/37467039/318765 Es geht also tatsächlich nur macvlan. host geht alleine deswegen nicht, weil iobroker auf viel zu vielen Ports unterwegs ist. Das wird langfristig nur Probleme mit anderen Containern geben. Wobei bei macvlan (br0) doof ist, dass der Nutzer selbst eine feste IP vergeben muss. Aber das ist dann eben so. Doch was ich gar nicht verstehe, warum der WebGUI Eintrag im Template dann ignoriert wird. @ich777 kennst du da eine Lösung? Bei dir hast du ja keine br0 mit WebGUI im Einsatz wenn ich das richtig bei Github recherchiert habe. Ich habe WebGUI gesetzt, aber bei br0 wird das ignoriert:
  17. mgutt

    Welche Cache SSD?

    RAID1 heißt einfache Schreibgeschwindigkeit und doppelte Lesegeschwindigkeit. Bei SATA also nicht genug zum Schreiben über 10G. Allerdings kann man Schreiben mit viel RAM und einem hohen vm.dirty_ratio abfangen. Mache ich mit 64GB und 50% ratio. Das reicht dann für 25 bis 30GB (je nachdem wie viel RAM frei ist), so dass meine einzelne SATA SSD trotzdem 10G "schafft". Wenn man dagegen 10G durchgehend haben will, dann bräuchte es ein RAID5 aus 3 SSDs. Damit hätte man 2-fache Lese- und 2-fache Schreibgeschwindigkeit. Bei einem RAID10 (4 SSDs) wäre die Performance noch besser, weil bei einem RAID10 keine Parität berechnet werden muss. Wenn die CPU stark genug ist, ist das aber denke ich eher zweitrangig. Gerade bei SSDs. Man muss aber anmerken, dass BTRFS nur im RAID0/1/10 als sicher gilt. RAID5/6 gilt nach wie vor als instabil, wobei es sehr viele trotzdem so nutzen. Mein Favorit wäre ein RAID1 mit 128GB RAM und 50-70% dirty_ratio. Ich mag es simpel
  18. So funktioniert nun mal IT Sicherheit. Wem das egal ist, der nutzt eben "host".
  19. Das liegt daran, dass IOBroker vom Prinzip keine Ports benötigt, sondern die im Netzwerk vorhandenen Aktoren und Sensoren. Diese wollen ioBroker erreichen und das machen sie über viele verschiedene Ports. Die müsste man dann eben erstmal herausfinden. Ich habe gerade gesehen, dass Mqtt noch einen Port für SSL benötigt. Schalte den auch mal frei. Das ist TCP 8883: https://mqtt.org/faq/ Eventuell lag es daran. Ja das ist korrekt. Ich werde beide Ports so oder so im Template hinterlegen. Mal sehen ob ich noch einen anderen für Shelly finde. EDIT: Das Template ist schon mal aktualisiert. Dauert ein paar Stunden bis man die neuen Ports beim Installieren sieht.
  20. Ergänzend zu @Ford Prefect's Post: 1.) Ist dir der möglichst kleinste Stromverbrauch wichtig? Alternativ zu einer LSA Karte ging auch das C246M-WU4 und dann noch eine 4 oder 5 Port SATA Karte. Muss man nur mal recherchieren welcher Controller schnell genug ist bzw eine Karte mit zwei Controllern nehmen oder eben zwei 2-Port Karten. 2.) Darf es laut sein? Weil der boxed reicht sonst wirklich. Wenn das egal ist, dann sind ja auch die Lüftergeschwindigkeiten egal. Nimmt man bei Bedarf eben einen 1 auf 3 Adapter und wenn es langsamer sein soll noch einen Drosseladapter. Also keine Kurve, sondern einfach laufen lassen und gut ist. 3.) Was ist mit LAN? Reicht 1G? Das neue Gigabyte W480 Vision hat 2.5G onboard. Braucht aber die neueste Unraid RC Version. Allerdings muss man dann für ECC einen Xeon nehmen. Macht die Sache also deutlich teurer. Korrekt.
  21. Welche? Dann würde ich auch das anpassen.
  22. Mittlerweile gibt es übrigens ioBroker in den Apps. Hier der Support-Thread.
  23. Aus Sicherheitsgründen verwende ich grundsätzlich Bridge: https://www.elastic.co/de/blog/docker-networking "If you use --net=host then the container will use the host network and this can be dangerous. It will allow you to change the host network from within the container and if you have an application running as root and it has a vulnerability, there is risk of unsolicited remote control of the host network via the the Docker container." Wenn Shelly nicht im Bridge Modus funktioniert, dann weil Shelly mit IOBroker über einen Port kommuniziert, der noch nicht freigegeben wurde. Die Frage ist nun welcher Port das ist. Wenn ich richtig recherchiert habe, dann braucht Shelly 5683 UDP: https://forum.iobroker.net/topic/34264/shelly-geräte-werden-nicht-gefunden/17 Wäre cool, wenn du das testen könntest. Also Port hinzufügen und im Bridge Modus starten.
  24. Da hast du bereits den Denkfehler. Der Container kennt im Bridge Modus keine 192er IP Range, sondern nur die 172er. Auch ist die Vergabe des 17004 Ports "falsch". Wenn du der WebUI innerhalb des Container eine IP außerhalb des Containers zuweist, kann das nicht gehen. Und wenn du dann noch den Port auf 17004 änderst, während die Zugriffe von außen von 17004 auf 8080 geleitet werden, dann landen die auch auf 8080, wo aber eben keine WebUI lauscht. Was du über EcoDMS einstellen musst: - WebUI IP auf "localhost" - WebUI Port auf 8080 Was du beim Container einstellen musst: - WebUI Port von 17004 auf 8080 leiten Und die WebUI sollte dann über http://192.xxx.xxx.xxx:17004 aufgehen (nicht https). Übrigens ist laut Anleitung die WebUI bei Neuinstallationen standardmäßig aktiviert und muss nur "gegebenfalls" bei Updates reaktiviert werden.
×
×
  • Create New...