mgutt

Moderators
  • Posts

    11265
  • Joined

  • Last visited

  • Days Won

    123

Everything posted by mgutt

  1. Which works only on this single client as you know. Another option would be to register a free DDNS domain for every website and set your local IP to it. By that all your local clients are able to access the websites. But note: Some routers disallow DNS resolution to local IPs. It's called Rebind protection. But those routers usually allow to setup a whitelist of domains. Next option would be to register a domain at a hoster which allows changing DNS records. Then the domains would look really nice as well (depending on your domain of course). I'm using this for public websites and for local websites I added to NPM an advanced settings which disallows public access. This is really nice as nextcloud.example.com works public, while homeassistent.example.com is only usable on my local network but both are using valid SSL certificates.
  2. Nein. Mein Testserver hat nur User Scripts und File Manager drauf.
  3. Hier verkauft jemand ein interessantes Komplettsystem: https://www.kleinanzeigen.de/s-anzeige/fujitsu-celsius-w580power-intel-core-i7-8700k-3-2ghz-16gb-ram-/2457963807-228-6853 Foto vom Mainboard: Das hat den C246 Chipsatz, ist also ECC RAM fähig und besitzt 8x SATA (für 4x SATA braucht man ein Adapterkabel auf Mini SAS). Eine zweite NVMe könnte man sich dann in den untersten X4 Slot adaptieren. Ich kenne zwar nicht den Verbrauch, kann mir aber gut vorstellen, dass das sehr sparsam ist, wenn man es mit anderen Fujitsu Boards vergleicht. Natürlich ohne die GPU. Die bringt im Wiederverkauf übrigens um die 90 €. Ich denke 300 € wären ein super Preis. Dann verkauft man die GPU und hat ein günstiges gutes Board. Wobei der Preis auch jetzt schon gut ist. Ist ja schließlich eine gute CPU, RAM und SSD auch noch dabei. Leider scheint das Gehäuse nur Platz für 3 HDDs zu haben. Daher sehe ich da wenig Potential das für einen Server zu verwenden. Hinweis: Fujitsu OEM Boards haben manchmal andere Netzteil-Stecker. Hier scheint aber ein normaler 20 Pin verbaut zu sein. Ich denke ein aktueller 24 Pin Stecker passt drauf, nur die 4 extra Adern werden eben nicht verwendet. Natürlich vorausgesetzt das war übersteht landet nicht im Lüfterstecker ^^ Dann eben einen 24 Pin auf 20 Pin Adapter kaufen.
  4. Wouldn't it be easier to use http://phpbb.local or an usual domain?! This works if your phpbb container provides it's hostname through avahi/mdns, but of course this does not use the proxy then. Requests would go directly to the phpbb container. Why do you want https on a local IP?! You will receive warnings from your browser without a valid certificate. Are all these containers providing their content through a subdirectory or not? I mean if you have a custom location /mediawiki and you are forwarding it to http://mediawiki, this can not work if mediawiki does provide the content through http://mediawiki/wiki/index.html as there isn't anything in http://mediawiki/ Do those containers have http logs? It would be helpful to see what is requested. This is strange: Is it possible that phpbb runs in the subfolder "phpBB3"? Another problem: Not all website softwares detect all parts of the URL and use it. Maybe the software only detects the hostname and not the subdir, then it forwards the user to https://192.168.1.123/login-success.html I stead of https://192.168.1.123/mediawiki/login-success.html Here is an example of phpmyadmin which has a variable to set the base URL: https://docs.phpmyadmin.net/en/latest/config.html So as you can see it already tries to detect your URL, but maybe it does not detect the subdir part?!
  5. Erst mal alle mit mind 6x SATA: https://geizhals.de/?cat=mbp4_1700&xf=2962_6 Das günstigste Asus oder Gigabyte Board mit 6x SATA, wäre demnach das Gigabyte Z690 UD DDR4 für 185 € (das hat sogar 2.5G Realtek LAN, aber keine Ahnung ob das einen negativen Einfluss auf den Verbrauch hat): https://geizhals.de/gigabyte-z690-ud-ddr4-a2625186.html?hloc=de Laut hier aber auch schon 13,5W: https://www.hardwareluxx.de/community/threads/die-sparsamsten-systeme-30w-idle.1007101/page-81#post-29538923 Wobei auch er kein gutes Netzteil meiner Ansicht nach hat. Oder du traust dich der erste zu sein, der ein Biostar holt für 172 € (hat ebenfalls 2.5G Realtek LAN, wie du siehst ist das heute quasi der Standard): https://geizhals.de/biostar-b760m-silver-a2872254.html?hloc=de Hast du ein ordentliches Strommessgerät und wärst bereit 2 bis 3 Boards zu testen? Das halte ich aktuell für die beste Option. Also sparsames Netzteil, RAM und CPU bereit halten und erst dann nach und nach ein paar Boards bestellen und durchmessen. Hier habe ich übrigens mal ein B760M mit 4x SATA und ASM1166 gemessen:
  6. Das klingt jetzt nicht gerade sexy, so ohne Passwort. Geht das auch sicherer?
  7. Aktuell messe ich einen Lenovo M75q Tiny PC mit Ryzen 5 Pro 4650GE, 1x SATA und 2x NVMe: Sparsam kann die CPU also schon mal. iGPU Treiber gibt es ja meine ich keine?!
  8. Das wird vermutlich den Verbrauch unnötig erhöhen. Ich würde mal sagen, dass du da quasi alles nehmen kannst, was mindestens 4 Kerne hat. Vielleicht geht man aber gleich auf 6. Das ist jetzt so eine Sache. Ich erkläre dir mal meine "ideale Vorstellung" für ein aktuelles Setup: - Intel, weil da im Leerlauf ein sehr niedriger Verbrauch möglich ist - aktuellste 13te Generation oder alte Boards bis zur 9ten Generation, weil dazwischen zu viel verbraucht wurde - wenn man schon was aktuelles holt, dann auch gleich mit 2.5G LAN, damit es zukunftssicher ist - der LAN Controller sollte möglichst von Intel sein, da dort die beste Treiberunterstützung vorhanden ist und C-States eher respektiert werden - 6x SATA wären schon schick, aber man kann im Härtefall auch eine ASM1166 nachrüsten, also filtern wir hier nichts. Tut man das nämlich doch, ist das günstigste Board das hier: https://geizhals.de/asus-rog-strix-z690-a-gaming-wifi-d4-90mb18k0-m0eay0-a2625537.html?hloc=de Also über 300 €, nur weil man 2.5G Intel LAN und 6x SATA haben will. Krank, wenn ich berücksichtige wie wenig mein W480M mit 8x SATA damals gekostet hat. - alle Boards von ASRock müssen wir ausschließen, denn da lese ich in letzter Zeit nur von schlechten C-States. Das gilt auch für dein gewähltes Board. Google lieber erstmal. Wir haben hier einige, die bei 20W gelandet sind und den Kauf dann bereut haben. - Dann sollte man möglichst alle Boards meiden, die über zusätzliche Controller für Thunderbolt, USB oder SATA verfügen. Da wird es schon schwieriger das zu erkennen, denn dazu muss man sich das Foto genau anschauen. Hier zb ein ASMedia Controller auf einem Asus Board, der nicht in den technischen Daten dokumentiert ist: Solche Controller sind unser Feind, wenn es um einen möglichst geringen Verbrauch geht. Diese finde ich insbesondere bei Asus extrem oft (war früher nicht so). Gilt übrigens auch für das oben verlinkte Z690 Board. Das hat laut hier einen ASMedia Controller für 2x SATA. Jedenfalls stellt man fest, dass wenn man intensiv recherchiert und alle Boards sichtet, dass man selbst für 400 € aufwärts nichts findet, was nicht überladen ist mit irgendwelchen Controllern. Der einzige "Lichtblick" ist dieses Kontron K3842-Q2 Board: https://geizhals.de/kontron-k3842-q2-f5110-v189-a2954024.html?hloc=de Was aber mit 270 € aber auch einfach über 100 € teurer geworden ist, wenn man es mit dem Vorgänger, dem Fujitsu D3644-B vergleicht. Und ich hoffe du willst keinen ECC RAM. Denn dann wird es richtig eklig, was die Preise anbelangt.
  9. Das hätte ich tatsächlich nicht erwartet, dass ZFS das nicht kann. Ist tatsächlich schon ewig auf der Wunschliste der User. Wer mag kann hier kommentieren, damit es vielleicht mehr Aufmerksamkeit erfährt: https://github.com/openzfs/zfs/issues/405 Was ist denn die Fehlermeldung des cp Kommandos?
  10. Ich habe das hier mal thematisiert: Die ganze Magie ist also das ganz normale Copy Kommando von Linux, nur dass man die Reflink Option ergänzt: cp -a --reflink --sparse=auto "/mnt/cache/domains/Windows 10/vdisk1.img" "/mnt/cache/domains/Windows 10/vdisk1-backup.img" Die selbe Technik verwende ich zb auch in meinem Rsync Skript, damit die Container nur für ein paar Sekunden gestoppt werden müssen: Wichtig ist nur, dass Ziel und Quelle auf der selben Partition liegen. Das ist ja auch bei Snapshots zwingend notwendig.
  11. Das eine ist das unRAID Array mit separater Parität, wo jede HDD einzeln formatiert ist, einzelne HDDs schlafen können und niemals alle Daten verloren gehen können, egal wie viele HDDs kaputt gehen und das andere ist ein RAID, wo immer alle HDDs parallel laufen und wenn mehr als X Laufwerke ausfallen sind alle Daten weg. Weder an dem einen, noch an dem anderen ist irgendwas neu. Auch nicht an Snapshots oder der Selbstheilung. Alles Dinge, die schon immer in BTRFS funktioniert haben. Hast du denn ECC RAM? Weil Selbstheilung nützt nichts, wenn die Daten bereits kaputt aus dem RAM kommen. Und die NVMe hat dann noch welche Aufgabe? Ein Cache ist sie jedenfalls nicht mehr, weil es ja kein Array mehr gibt. Natürlich ist ein RAID schneller als das Array. Array = Lesen und Schreiben von der HDD wo die Datei drauf ist, RAID Pool = Lesen und Schreiben von allen HDDs parallel Auch daran ist nichts neu. Du kannst nichts von einem Pool auf einen anderen Pool verschieben lassen. Der Mover wäre in so einem Szenario gar nicht aktiv. Du hast dann einfach nur Shares, die nur auf die NVMe liegen und Shares, die nur auf den HDD Pool liegen. Alle wären also ein separater Primary Storage. Auch das kannst du aktuell schon so machen. Aber das funktioniert nur, wenn du einen leeren USB Stick in das Array packst. Das Array ist in unRAID Pflicht. Korrekt. Denk dran, dass du dann nicht mal eben HDDs dazu packen kannst, geschweige denn entfernen. Unterschiedlich große HDDs schon gar nicht. Jedenfalls nicht ohne auf die kleinste HDD Größe zurück zu fallen. Und für welche Daten? Und warum machst du nicht jetzt schon Snapshots? Kann BTRFS und sogar XFS (dateibasiert). Letzteres nutze ich regelmäßig bei VMs und Containern.
  12. Die SSD kommt nicht zum Array "dazu". Für die erstellst du einen Pool und ordnest sie dort zu. Denk aber dran, dass du mit nur einem Datenträger in einem Pool keine Ausfallsicherheit hast.
  13. Also keine Parität? Dann kann es ja eigentlich nur Netzwerk sein. Große oder sehr viele kleine Dateien? Also laufen die Dateien jetzt bei der NVMe auf oder den HDDs?!
  14. SMB unterstützt nur einen Transferkanal, außer man aktiviert SMB Multichannel mit RSS. In Sachen MacOS habe ich dazu leider keine Erfahrungen. Hier liest es sich so, dass MC standardmäßig aktiv ist, aber von RSS ist keine Rede, sondern nur von mehreren Netzwerkverbindungen: https://support.apple.com/de-de/HT212277 Kann der besagte Finder mehrere Server in einem Ordner anzeigen und parallel von diesen Lesen? Dann würde ich unRAID per hosts Datei verfügbar machen und die Bilder auf mehreren Shares verteilen und die alle über unterschiedliche Hostnamen einbinden. Das Problem ist dann übrigens auch bei einer Syno vorhanden. SMB ist nach wie vor ein Windows Protokoll, dass man in Linux per Reverse Engineering nachgebaut hat. Willst du was natives, solltest du eher auf NFS setzen. Aber auch NFS hat Multipath erst ab NFS 4.1. Keine Ahnung was nun in unRAID dabei ist. Nächster Punkt ist: Nutzt du einen Disk Share oder User Share? Letzerer hat einen massiven Overhead bei vielen kleinen Dateien. Letzter Punkt: Das Array ist lahm. Kein Geheimnis. Hot Data gehört daher auf einen Pool. Vorzugsweise aus SSDs. Auch das wäre bei einer Syno nicht anders, wo du ja über ein RAID5/6 zugreifen würdest.
  15. Jo Das hat damit nichts zu tun. Das bestimmt nur wie die neuen Dateien auf den Array Disks verteilt werden. Wobei ich wie gesagt nach wie vor nicht weiß wann das Free Min Space von Pool oder Share greifen. Ich würde daher beide auf den selben Wert einstellen.
  16. Man stellt appdata normalerweise nicht auf Cache, weil das bereits der Standard ist. Der Standard ist prefer. Der Mover verschiebt dann alle Dateien vom Array auf den Cache. Das macht er aber nur, wenn die jeweilige Datei gerade nicht verwendet wird. Dh wenn man den Cache eingerichtet hat NACHDEM bereits Container installiert wurden, liegen vermutlich viele Dateien auf dem Array, die nicht verschoben werden, weil sie gerade in Verwendung sind. Dann muss man einfach Docker auf Nein stellen und den Mover starten. Korrekt. Allerdings sollte man nicht Prefer mit dem /mnt/cache Tweak mixen, denn was durch Prefer auf das Array verschoben wird, ist nicht über den Pfad /mnt/cache zu erreichen. Wenn du wirklich nur mit Only und /mnt/cache arbeiten willst, musst du wie in der FAQ beschrieben Minimum free space nutzen. Auch hier erwarte ich aber vom Nutzer, dass er versteht warum das so wichtig ist, bevor der Tweak angewendet wird. Ich betone das immer so, weil ich ständig Kunden habe, die deswegen ihre Container zerlegen. Sie lesen nur ein bisschen, verstehen nichts, haben dann häufig nicht mal Backups und dann knallt es und sie wissen nicht warum.
  17. Dann machst du gerade den nächsten Fehler: Du weißt nicht warum der Fehler aufgetreten ist und wenn es wieder passiert, bist du wieder in der selben Situation. Beispielsweise gibt es in Unraid kein "neu aufsetzen". unRAID installiert sich bei jedem Booten komplett neu. Wenn man also den Stick neu macht, hat man rein gar nichts geändert. Natürlich kann man seine Platten neu formatieren, aber genauso gut könntest die einfach die entsprechenden Ordner leeren. Siehe File Manager Plugin. Doch auch das wäre nicht der richtige Schritt. Denn was war überhaupt dein Problem? Dh wenn dein Cache Pool vollläuft zB durch Uploads, werden all diese Shares nichts mehr speichern können. Willst du das? Du kannst damit problemlos einen oder mehrere Container zerlegen. Nämlich dann, wenn die Container bereits Dateien auf dem Array abgelegt haben. Immer dann wenn so eine Frage kommt, rate ich dringend davon ab solche Tweaks zu nutzen. Denn das Basisverständnis was in welchem Pfad liegt, muss man einfach haben. Wozu machst du das alles und lässt es nicht so wie es war? Das Ändern der Pfade in /mnt/cache ist nur für fortgeschrittene Nutzer empfohlen und ab unRAID 6.12 ist dieser Performance Tweak auch überflüssig, daher würde ich ihn nicht mehr verwenden. Hier eine kleine FAQ zu dem Thema: https://forums.unraid.net/topic/99393-häufig-gestellte-fragen/?do=findComment&comment=1223263 Aber wie gesagt. Ich würde es nicht mehr umsetzen, da es veraltet ist.
  18. Falls du vor hast deinen eigentlichen PC als VHost zu verwenden, dann musst du immer mit Einschränkungen leben. Wenn der Host selbst aber deinem Haupt OS entspricht, also Windows, ist das denke ich noch praktikabel genug. Also mach das doch so. Übrigens kannst du in Windows zb Snapraid nutzen. Auch eine Methode für ein "Nicht-RAID". unRAID ist im Kern ein NAS und kein VHost. Wenn man keine Zeit hat Dinge zu recherchieren und auszuprobieren und dann auch nicht die ideale Hardware hat, dann ist der Frust vorprogrammiert. Wobei zB das Durchschleifen einer iGPU an einen Container auch in Proxmox nicht durch simples Klicken erledigt wird: https://forum.proxmox.com/threads/intel-rocket-lake-11th-quicksync-passthrough.98874/#post-446128 Und headless ist auch bei Proxmox mit dem Setzen von Kernel Optionen verbunden: https://forum.proxmox.com/threads/true-headless-pve-with-single-gpu-passthrough.98120/post-499265 Ich denke die Punkte sind daher überall gleich.
  19. Spontan würde ich sagen, dass er noch ein paar Sekunden braucht das korrekte, also Transcoding, darzustellen. Niedrige Bitrate und Direct Play machen tatsächlich keinen Sinn.
  20. Laut Google was in Richtung UEFI Boot. Hat sich da auch was zurückgesetzt nach dem BIOS Update? Und warum Use Intel GPU, ich dachte das ist ein AMD Setup?!
  21. Wie gesagt ist das nicht dein Problem. Ich denke wenn die GPU korrekt durchgeschliffen wurde, wird es klappen. Wobei auch hier die Frage ist, ob du die grundlegenden Bedingungen erfüllst. Zb kann man eine GPU bei einem AMD Consumerboard ohne iGPU nur mit extra Schritten an eine VM durchschleifen. Du solltest daher noch was zu deinem Board und CPU erzählen.
  22. Ich habe Original 4K Rips mit bis zu 80 Mbit/s. Es wäre ziemlich Banane, wenn ich die komprimieren würde. Da kann ich ja gleich Netflix schauen.
  23. Diesmal mit einer IOCREST IO-PCE225-GLAN 2.5G Intel Netzwerkkarte. Vorabmessung mit 3x NVMe und 1x SATA: 5,6W@C8. Zusätzlich mit der Netzwerkkarte und das 1G Netzwerkkabel von der Onboard-Buchse gewechselt in die Netzwerkkarte: 6.7W@C7. EDIT: Nachdem ich bei Reddit von "auto-cpufreq" laß und mir den Quellcode von dem Python-Script so anschaute, dachte ich mal, ich probiere mal den Turbo der CPU zu deaktivieren: echo "1" > /sys/devices/system/cpu/intel_pstate/no_turbo Ergebnis inkl. 2.5G Karte: 5.2W@C7 Ergebnis mit den 5 SSDs (wie im letzten Beitrag): 5W@C7 Also Turbo deaktivieren bringt auch noch was.
  24. I've added this to the custom commands section, which reduces power consumption even further by disabling CPU Turbo: # ------------------------------------------------- # Disable CPU Turbo # ------------------------------------------------- [[ -f /sys/devices/system/cpu/intel_pstate/no_turbo ]] && echo "1" > /sys/devices/system/cpu/intel_pstate/no_turbo [[ -f /sys/devices/system/cpu/cpufreq/boost ]] && echo "0" > /sys/devices/system/cpu/cpufreq/boost By that it is not necessary to disable Turbo through the BIOS. It can be disabled if required through the script. What is the impact: For my M920x Tiny PC the power consumption in idle was reduced by 0.9W. I even tested this, but for me it has no impact: echo "balance_power" | tee /sys/devices/system/cpu/cpu*/cpufreq/energy_performance_preference The default ist "balance_performance": cat /sys/devices/system/cpu/cpu0/cpufreq/energy_performance_preference balance_performance
  25. Auch endlich wieder da: Ein Standardwert bei Free Space eines Shares: Allerdings leider nicht beim Pool 😒 Wobei ich nach wie vor nicht weiß wann welcher Wert eigentlich "gewinnt". Ich würde mir außerdem "10% oder max 100GB" wünschen. Weil bei einer 22TB Festplatte, sind 2TB Free Space ziemlich sinnfrei.