Jump to content

mgutt

Moderators
  • Posts

    11,355
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. This is something I saw on multiple machines and now as I'm testing Unraid through a VM, I was able to reproduce it. This error happens only on very first boot of Unraid: warning: file_put_contents(/boot/config/plugins/dynamix/monitor.cron): failed to open stream: not such file or directory in /usr/local/emhttp/plugins/dynamix/include Wrappers.php on line 26
  2. Die Cases sind ja cool (und klein): https://caseend.com/brand/mechanic-master/ China Händler: https://shop34001191.taobao.com/ Das C26 ist krass klein für ein Mini-ATX Case: https://www.reddit.com/r/sffpc/comments/j1aser/machine_masters_c26_just_arrived_13liter_matx/
  3. Sorry, I don't know why, but I misinterpreted the linked thread. I build only the OpenCL driver. The Mesa 20 driver that is really needed should be this one: https://slackware.pkgs.org/current/slackware-x86_64/mesa-20.2.3-x86_64-1.txz.html And this one should be handy, to check the driver through vainfo: https://slackware.pkgs.org/14.2/slackware-x86_64/libva-1.6.2-x86_64-1.txz.html or this one: https://slackware.pkgs.org/current/slackware-x86_64/libva-2.9.1-x86_64-1.txz.html Example output: https://emby.media/community/index.php?/topic/72084-going-mental-over-ryzen-2400g-vega-vaapi/ Note: Mesa 20 is only available for the "current" version of Slackware, which is a dev/beta version and I do not know if the package is compatible with 14.2. Needs testing. The OpenCL driver could be needed in the future for HDR SDR conversion (tone mapping).
  4. Und was bringt das dem Angreifer? Er muss ja erst mal eine Lücke in dem anderen Container finden. Das ist die selbe Situation als würde ein Angreifer einen physischen Client in deinem Netzwerk kontrollieren und dann versuchen andere Clients zu übernehmen. Ein erfolgreicher Ping ist ja noch lange kein erfolgreicher Angriff. Dazu bedarf es erst mal eine Sicherheitslücke beim Ziel auszunutzen. Solange du keinen Container "privileged" ausführst, da das wohl das Ausbrechen aus einem Container ermöglichen kann, wird ein Angreifer da denke ich wenig ausrichten können. Er hat zwar einen Container übernommen, aber kann eben nur über UDP/TCP mit den anderen Containern oder Clients in deinem Netzwerk kommunizieren. Selbst wenn SSL lokal laufen würde, könnte der Angreifer mit Root-Rechten das ja einfach a) deaktivieren oder b) einen Man-in-the-Middle-Angriff ausführen und selbst das SSL-Zertifikat bereitstellen. Also richtig, wenn der Angreifer Root-Rechte auf der Host-Maschine hat, hast du grundsätzlich ein Problem. Sagen wir mal Nextcloud generiert die Datei /mnt/nextcloud/config.php. Was kümmert dich jetzt ob die Datei Root-Rechte oder Nutzer-Rechte oder bestimmte Ausführungsrechte besitzt? Schließlich hast du den Pfad /mnt/nexcloud ja nur beim Nextcloud-Container gemountet und nicht bei anderen Containern. Würde also ein anderer Container angegriffen werden, so könnte der nicht auf diesen Pfad zugreifen. Würde dagegen der Nextcloud-Container angegriffen, ist es ja logisch, dass der das Passwort kennt, da Nextcloud ohne das Passwort ja keine Verbindung zur Datenbank aufbauen könnte. Genauso gut könnte der Angreifer ja jetzt "SELECT" Abfragen an die Datenbank absetzen und das Ergebnis an ein externes Ziel weiterleiten. Von Docker Compose habe ich keine Ahnung, aber so wie ich das hier sehe, kann man das wohl so einstellen, dass Container nur mit bestimmten Containern kommunizieren können und zB das Internet komplett tabu ist: https://stackoverflow.com/questions/39913757/restrict-internet-access-docker-container https://stackoverflow.com/a/41768596/318765 Also quasi wie eine zwischengeschaltete Firewall mit restriktiver Whitelist.
  5. Wenn Du bei der bisherigen Nutzung das appdata Verzeichnis zB auf disk1 und disk2 hattest und dann auf disk2 fest einstellst, ist die Wahrscheinlichkeit hoch, dass die Daten entweder auf beiden Laufwerken verteilt oder noch auf disk1 liegen. Du musst also erst mal die Daten auf disk2 verschieben. Dazu gibt es verschiedenste Möglichkeiten. Ich denke die einfachste Variante ist es die Disks wie vorher zu wählen und dann den Use Cache auf "Prefer" zu setzen, den Docker Dienst deaktivieren und dann den Mover zu starten. Dadurch werden alle Dateien von den Festplatten auf die SSD verschoben. Das solltest du natürlich auch kurz prüfen, in dem du über den MAIN-Tab rechts auf das Ordner-Symbol der jeweiligen Festplatte klickst. Das Ziel ist, dass auf keiner Festplatte noch "/appdata" zu finden ist, sondern ausschließlich auf der SSD. Wenn das erledig ist, änderst du die included Disks des appdata shares. Nun kannst du Use Cache auf das zurückstellen was du vorher genutzt hast. zB "Yes". Wenn du nun den Mover erneut ausführst, wird alles auf die eine Disk verschoben, die du haben willst. Erneut prüfen. Wenn alles richtig aussieht, kannst du den Docker-Dienst wieder starten. Ähnliches gilt auch für die docker.img Datei. Diese Datei befindet sich im Share "system". In diesem Share liegen bei mir zB nur das docker.img und das libvirt.img der virtuellen Maschinen. Ansonsten liegt da nichts von Unraid selbst, falls das deine Frage war. Ja. Unraid selbst führt kein Trim aus.
  6. Das docker.img enthält keine relevanten Nutzerdaten. Wenn du das docker.img neu erstellst, werden also eigentlich nur die Container-Images gelöscht. Die Nutzerdaten der Container befinden sich unter /mnt/user/appdate/name_des_containers. Diesen Pfad kannst du beim Erstellen des Containers bei Bedarf auch anpassen um zB einen neuen leeren Pfad zu testen. Oder du löschst den bestehenden Pfad und alle darin enthaltenen Dateien (oder benennst ihn um). Dazu kannst du ja den Share appdata über das Netzwerk und einem passwortgeschützten User verfügbar machen.
  7. Nennenswerte Einschränkungen sollte es denke ich nicht geben. Auf den Karten sind in der Regel immer wieder die selben Controller verbaut. Ein paar Controller / Karten sind auch hier aufgelistet: https://wiki.unraid.net/Hardware_Compatibility#PCI_SATA_Controllers In seltenen Fällen treten Kompatibilitätsprobleme mit dem Board selbst auf. Ich hatte die Tage zB Probleme den Adapter zum Laufen zu bringen, obwohl der Controller selbst mit Unraid kompatibel ist: https://forums.unraid.net/topic/99126-problem-with-iocrest-m2-to-5x-sata-softreset-failed-device-not-ready/ Aktuell warte ich aber auf eine Ersatzkarte und noch eine normale PCIe Karte mit dem selben Controller um auf Nummer sicher zu gehen, dass nicht einfach die M.2 Karte selbst kaputt ist.
  8. Hier hat ein User das selbe Problem. Ich würde dich bitten da mehr Feedback zu geben, auch bezogen darauf ob du dich mit der Datenbank von außen über HeidiSQL verbinden kannst: https://forums.unraid.net/topic/99475-problem-mit-nextcloud-installation/ Du könntest den Share "appdata" über das Netzwerk und einem passwortgeschützten User freigeben (Export Yes, Private, Read/Write) und dann darüber den Ordner löschen, den du als Pfad für den jeweiligen Container verwendet hast. Alternativ änderst du einfach den Pfad beim Erstellen des neuen Containers. Der Pfad ist häufig ausblendet. Ganz unten auf "Show more settings ..." klicken, dann erscheint der und fängt an mit "/mnt/user/appdata/...". Heißt der zB "mariadb", änderst du ihn einfach in "mariadb2" und schon ist die Installation des MariaDB Containers jungfräulich. Ähnlich gehst du dann mit dem factorio container vor. Ja. Erstelle ein Backup von deinem USB Stick. Das geht über den MAIN Tab, dann auf "Flash" und wähle "Flash Backup": Dann kannst du den Server herunterfahren, den Stick entfernen, über den USB Creator neu beschreiben und zum Schluss kopierst du die Lizenzdatei /config/{basic/plus/pro.key aus dem Backup auf den neu erstellten Stick unter /config. Der Server bootet dann jungfräulich. Allerdings sehe ich keinen wirklichen Grund darin das zu machen. Die Weboberfläche bietet eigentlich genug Optionen. zB kannst du unter Tools -> New Config auch das Array komplett neu erstellen. Dem Stick ist es auch egal wenn du dir neue Hardware anschaffst. Unraid installiert sich erst beim Booten, dh Stick in neuen Server stecken und alles funktioniert so als wäre es immer schon so gewesen.
  9. Kurz gegooglet und ich würde sagen alle. Asrock, Asus, Gigabyte und MSI haben das bereits bestätigt. Wobei ich natürlich nicht weiß ob das dann auch für alle Mainboard-Modelle gilt. Einziger Haken ist evtl, dass du eine alte CPU brauchst um das BIOS zu aktualisieren. Das war recht praktisch beim Asus ROG Strix B550-I Gaming. Da konnte man das BIOS über eine Taste und einen USB-Stick überschreiben. Aber wenn du jetzt eh erst mal mit einer anderen CPU startest, ist das ja keine Hürde.
  10. Vorab: Die Share-Rechte haben nichts mit den Containern zu tun. Die gelten nur bei Zugriff über das Netzwerk und sollten natürlich NICHT ohne Passwort, also "Public" erfolgen. Ich habe das gerade mal durchgespielt und bei mir hat das auf Anhieb geklappt. Da du bereits mit phpmyadmin nicht auf die MariaDB kommst, ist offensichtlich der MariaDB Container nicht erreichbar. Mein Tipp wäre sich HeidiSQL zu installieren und über den PC versuchen eine Verbindung zur MariaDB Datenbank aufzubauen: https://www.heidisql.com/ Ich habe auf die Schnelle auch mal ein Video dazu erstellt:
  11. mATX willst du jetzt wegen dem Preis oder warum kein Mini-ITX? Auswahl hast du massig: Bis 30 Liter Volumen und ab 280mm GPU Länge Gefallen würde mir jetzt zB das Jonsbo UMX3 (Achtung, kein Kabel-Management!): Oder das InWin 301: Oder das Raijintek Thetis: Liegend gibt es dann bekanntlich mehrere Optionen von Silverstone.
  12. Ok, also 191mm + 15mm = 206mm. Dann passt das Z370M DS3H mit seinen 226mm nicht. Ich besorge mir das trotzdem mal. Im Bitfenix Mini ITX Case ist ziemlich viel Platz. Da könnte das evtl passen. EDIT: @ich777 Ist das ein normales ATX Netzteil? Was wäre, wenn man ein SFX Netzteil verbaut? Wie viel Platz ist denn noch "unten", also wo die RAM Slots sind?
  13. Also wegen dem Wasser sehe ich kein Problem. Ich habe ja auch so ein Teil und das Wasser spritzt ja nur nach unten. Klar bei einem Rohrbruch sieht das anders aus, aber da kann es ja überall hinspritzen. Ist ja aber auch geeerdet.
  14. Stimmt. Und dein Board hat auch eine Buchse mehr am Anschlusspanel. Daher täuscht das so. Da bin ich mal gespannt Das Z370M DS3H ist (fast) Flex ATX: 22.6cm x 19.3cm Flex ATX hat ja die Abmessungen: 22.9cm x 19.1cm Ist also an einer Seite kürzer und an der anderen länger und die 2mm bekommt man zur Not mit dem Bandschleifer weg Wobei die Schraubpunkte bei deinem irgendwie ganz woanders sind. Das Supermicro X10SDV-7TP4F Flex-ATX sieht vom Lochmuster dagegen genauso aus wie das Z370M DS3H: EDIT: Jetzt habe ich es raus. Deins ist kein Flex-ATX, sondern ein Mini-DTX Board. Es ist also nur etwas länger als Mini-ITX: Aber das Lochmuster scheint teilweise zu passen. Vielleicht geht es daher für mein Vorhaben:
  15. Das Z370M DS3H passt vielleicht ins DS380, aber @ich777 hat es nicht endgültig getestet. Wobei das gar nicht nach FlexATX aussieht, weil das ja nur ein PCIe Slot ist?! Das ist doch Mini ITX oder nicht? Das Z370M DS3H sieht viel größer und auch rechteckiger aus. Vor allem die PCIe Slots scheinen an gänzlich anderen Positionen zu liegen: Das Gigabyte sieht in jedem Fall wie ein klassisches Flex ATX aus: https://www.idealo.de/preisvergleich/ProductCategory/3018F1376020.html Für mich selbst ist das vor allem interessant für das Bitfenix Mini ITX Case und dem 10 Zoll Rack. Muss ich unbedingt mal ausprobieren ob das passt.
  16. Ich wollte nur das leere Rack nutzen und deinem Wunsch nach Hotswap entsprechen. Ich habe noch das gefunden: http://www.wingsonic.com.tw/en/chanpinzhuanqu/gongyejixiangmozu/760.html Das abgebildete 3U Rack, nur eben mit zwei solcher Teile, also 8 Bays. Aber das finde ich nirgends. Der Hersteller verkauft jedenfalls auf Alibaba ab 1 Stück: https://m.alibaba.com/product/62002402463/detail.html Ansonsten gibt es noch das, aber leider nicht ab 1 Stück: https://m.german.alibaba.com/p-detail/ED308H40-Server-Rack-Case-with-8-60118665405.html
  17. 4HE passen nicht mehr oder? https://www.logic-case.com/products/rackmount-chassis/4u/4u-short-storage-chassis-w-8x-35-sata-hot-swap-bays---eatx-motherboard-support-sc-43400-8hs/
  18. Abgetrennt von hier: https://forums.unraid.net/topic/98896-normalen-rechner-nas-mit-unraid-zusammenführen-videoschnitt-tauglich-bin-hin-und-her-gerissen/?do=findComment&comment=917694 Und was ist mit 22.6cm x 20.5cm wie beim Gigabyte B365M DS3H? Das hat sogar 6x SATA. Hmm... das Gigabyte Z370M DS3H hat 22.6cm x 19.3cm und auch 6x SATA. Das muss ich mir für das nächste Projekt vormerken.
  19. It seems that German providers are too stingy to buy enough US traffic: https://telekomhilft.telekom.de/t5/Telefonie-Internet/Routing-zu-BitBucket-org-fehlerhaft-langsam/m-p/4246902#M1164467 So the only solution is to host in europe or use Cloudfront (which is much more expensive). I think the best option would be OVH as they offer unlimited traffic even in their smallest webhosting packages. And the optional CDN service is cheap. It costs only ~2 € per month. But its limited to a maximum file size of 20 MB, so it would be needed to split the download file to multiple chunks to benefit from it. And my offer was serious, too. Feel free to test the speed: https://unraid.gutt.it/stable/unRAIDServer-6.8.3-x86_64.zip Other versions: https://unraid.gutt.it/
  20. Dein 19 Zoll Rack wird denke ich 600mm breit sein. Da wird doch ein 462mm breites PC Case noch hinpassen. Der Wasserfilter macht doch keine 10cm aus. Oder täuscht da die Perspektive?
  21. I checked the network traffic through "Microsoft Network Monitor" and the USB Creator downloads from s3.amazonaws.com with the IP 52.216.26.222. Seems to be an US AWS data center location. As it's an encrypted https link I'm not able to see more. EDIT: Ok, I checked the hex code of the USB creator (hacker style ^^) and found some download links: https://s3.amazonaws.com/dnld.lime-technology.com/creator_branches.json https://s3.amazonaws.com/dnld.lime-technology.com/stable/releases.json https://s3.amazonaws.com/dnld.lime-technology.com/stable/unRAIDServer-6.8.3-x86_64.zip I downloaded the last URL by my browser and it's as slow as with the USB creator. I tested the same URL with my remote Unraid server which is connected to a Vodafone cable connection (> 500 Mbit/s, used by 30% of all Germans) and its even slower: Conclusion: This has nothing to do with my internet connection. Its related to AWS and it seems, that there is no CDN active (Cloudfront).
  22. Ein Fractal Design Define R5 hätte auch 8 Bays, aber das bekommt man natürlich nicht so leicht an die Wand. Dafür aber kompatibel bis ATX. Meine Idee wäre ja den Rückendeckel abmachen und dann in so einer Wandschiene einhaken: https://www.amazon.de/Gedotec-Wandschiene-Hängeschrank-Schrank-Aufhänger-Aufhängeschiene/dp/B07Z4441KX/ Keine Ahnung ob das geht ^^ Das Define R5 hat werkzeuglose Festplattenhalter, ist also ähnlich komfortabel wie HotSwap Einschübe:
  23. How do you know that? My internet connection is from Deutsche Telekom (40% of all Germans use this provider). It costs more than other providers, but it rarely suffers from bandwidth problems (thats why I'm choosed them). Is it possible that Unraid does not use the CDN services of AWS? Because the EU location is fast, while some international locations are slow (my download speed is ~70 Mbit/s), but there is no location with only 0.8 Mbit/s (the download speed of the usb creator): https://cloudharmony.com/speedtest-for-aws I stopped this speedtest and repeated the USB Creator and again extremely slow: What is the direct link to the Unraid image? I like to test the download speed outside of the USB Creator. By that I could test it with different internet connections as well. Is this forum hosted on AWS, too? This would explain why it is somethings so extremely slow.
  24. Ok, good to know, but why use this service if its so slow? Letting the customer wait ages is not a good idea if you want to sell a product. I could easily provide some storage of my german managed server (unlimited traffic). ^^
  25. I tested this today and yesterday with the Windows USB Flash Creator. As my usual speeds are much faster it looks to me like a problem on the unraid website:
×
×
  • Create New...