batesman73

Members
  • Posts

    44
  • Joined

  • Last visited

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

batesman73's Achievements

Rookie

Rookie (2/14)

2

Reputation

1

Community Answers

  1. Hi there, I've been an satisfied Unraid user for years now. However I wanted to try something new an installed Unraid as VM in Proxmox. It took some time but everything is running now as I wanted to. My goal is still to use Unraid but mainly for Dockers. Therefore I installed a single SSD for the array and the rest of the data is mounted as samba share. And here comes my problem. Unraid has a "strange behaviour" regarding those mounts. I seems that "something is constantly crawling" through the mounted shares an that causes the system to produce some kind of load. Although I can't see something via TOP the current consumption oscillates (interval approx. 10sec) between 30W and more than 80W. But I'm shure it's related to Unraid because it only occurs when Unraid mounts a share and not when other VMs/container do this. Furthermore it happens even when Unraid itself has services for Docker and VMs stopped. The only thing I can see is that on the serverside (OMV) for the shares I have these entrys in "fatrace" smbd(4376): RO /etc/passwd smbd(4376): C /etc/passwd smbd(4376): RO /etc/passwd smbd(4376): C /etc/passwd mergerfs(3412): RO /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/85 mergerfs(3412): RC /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/85 mergerfs(3412): O /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/f6 mergerfs(3412): R /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/f6 mergerfs(3412): RC /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/f6 mergerfs(3412): RO /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/6a mergerfs(3412): RC /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/6a mergerfs(3412): RO /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/68 mergerfs(3412): RC /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/68 mergerfs(3412): RO /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/8f mergerfs(3412): RC /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/8f mergerfs(3412): RO /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/92 mergerfs(3412): RC /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/92 mergerfs(3412): O /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/25 mergerfs(3412): R /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/25 mergerfs(3412): RC /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/25 mergerfs(3412): O /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/11 mergerfs(3412): R /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/11 mergerfs(3412): RC /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/11 mergerfs(3412): RO /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/a0 mergerfs(3412): RC /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/a0 mergerfs(3412): O /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/c4 mergerfs(3412): R /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/c4 mergerfs(3412): RC /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/c4 mergerfs(3412): RO /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/6d mergerfs(3412): R /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/6d mergerfs(3412): C /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/6d mergerfs(3412): RO /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/f0 mergerfs(3412): RC /srv/dev-disk-by-uuid-1ae00376-eadd-4657-aaff-23b9572bea05/media/misc/RoonBackups/34282427-ffd8-4861-98ed-751f935dfea6/d4/f0 smbd(4376): RO /etc/passwd smbd(4376): C /etc/passwd smbd(4376): RCO /etc/passwd smbd(4376): RO /etc/passwd smbd(4376): C /etc/passwd smbd(4376): RO /etc/passwd smbd(4376): C /etc/passwd The smbd accesses seem to be normal as all other clients generate these, too. But the accesses by mergerfs seem to be triggered by Unraid. My assumption is that Unraid does some kind of scanning of those folders. Can anybody tell me more ? THX Norman
  2. Well you put me already on the right path. Checking with chromium works but my "daily" browser Firefox 91.7.0esr doesn't
  3. Hi, after upgrading to 6.10-rc3 I can't edit scripts any more via the WebIF. Even though i create a new one I could only enter the name of the script but no "content". Does anybody know about it ? The scripts themselves are still existing and I can edit via ssh/nano. HTX
  4. Hi, ähm ja. Das war ein Fehler 70 ;-( Als ich in der Fritzbox nachgeschaut habe zeigte sich eine andere IP als die gedachte. Das lag sicher daran das sich beim Verschieben der VM musste ich die Mac der VM ändern. Dadurch hat die FritzBox dann natürlich eine neue IP vergeben. Ich komme jetzt per RDP drauf. Warum das mit dem "pingen" so langsam ist werde ich mir nochmal anschauen. Da komme ich vieicht nochmal drauf zurück. Danke für den Dekanstoß
  5. Hi, natürlich habe ich jetzt in der VM DHCP (Client) laufen. Ursprünglich hatte ich die VM auf meinem 2-ten "Test"Unraid laufen wo ich eine Linux VM mit Graka als Daily Driver laufen hab und dann die Win10 VM installiert habe. Auch da war pingen sehr langsam. Jatzt habe ich die VM aber auf meinem Server im Keller gestartet um auszuschliessen das es irgendwas mit dem Unraid internen Netzwerk zu tun hat. Also wenn ich den Server nun direkt anpinge dauert es max. 0,5ms und es gehen keine Pakete verloren. Aber die darauf installierte Win10 VM reagiert mit ca. 1,5ms und es gehen halt Pakete verloren. Ich weiss nicht ob das der ursächliche Fehler ist warum RDP sich nicht verbinden kann, aber zumindest ist es ein Anhaltspunkt
  6. Hi, auch wenn das Thema öfter mal diskutiert wurde kann ich aber keine Lösung zu meinem Problem finden. Vieleicht habt ihr eine Idee. Also ich muß durch "externen Trigger" notgedrungen einen Win Rechner nutzen können Dazu habe ich mir Win VM aufgesetzt. Da bin ich analog zu dem wie es mgutt in seinem Thread dazu geschrieben hat vorgegangen. Hierbei hatte ich schon das erste Problem mit dem Netzwerk. Es war nicht möglich das Windoof zu aktivieren so lange ich eine feste IP vergeben hatte. Bei der "Spiegel" Seite konnte ich z.B. auch nur die Texteinträge sehen, aber keine Bilder usw. Also habe ich jetzt der Fritzbox gesagt Sie soll für die VM immer die gleiche IP nutzen und so weit scheint es zu klappen. Allerdings kann ich keine RDP Verbindung aufbauen (habe mehrere Clients versucht). Das Netzwerk in der VM steht auf "br0" und Treiber ist "virtio". Was mir noch aufgefallen ist, das ein pingen sehr langsam ist und es werden auch Pakete verloren. Hat da wer noch eine Idee. PS:RDP ist natürlich in WIN10 Pro aktiviert !
  7. Hi, hab den Thread wiedergefunden in dem das thematisiert wurde. Der Kollege hatte zwar eine andere CPU, aber mit den Einstellungen aus den Screenshots komme ich derzeit auf knapp 18W Ich werde noch ein wenig probieren, aber für einen 10-Kerner im idle finde ich das schon cool
  8. Hi, das ist grundsätzlich klar. Wie gesagt ich bin ja auch nicht direkt unzufrieden. Ich meine mich entsinnen zu können das hier schon jemand mit einem ähnlichen System Richtugn 15W kam (allerdings mit einer "kleineren" CPU). Deswegen einfach die Frage ob jemand das gleiche MB hat und welche Einstellungen er nutzt. Mit Powertop werde ich dann später "spielen" wenn Unraid drauf ist, die HDs und die SAT Karte eingebaut sind. Dann wird das mit Neustarts des Systems nämlich nervig und das mögen die HDDs sicher nicht.
  9. Das Netzteil hat 550W. Das wurd auch von MGUTT in seinem "Häufig gestellte Fragen" Thread als sehr effizient empfohlen. Wie auch immer. mit meinem anderen System (Xeon E3 1225 v6) kam ich ohne alle HDs und zusätzlichen Karten auch unter 20W. Von daher gehe ich davon aus dass das Meßgerät das halbwegs hinkriegt (Voltcraft - Energy Monitor 3000).
  10. Hi, ich wollte nur mal in die Runde fragen wer das Board hat und welche Einstellungen er jeweils gemacht hat. Das Board wird ja an mehreren Stellen hier empfohlen. Ich habe es aktuell mit einem W-1290P, einer NVME und dem be quiet! Pure Power 11 FM am laufen und komme bei Idle auf ca. 25W auf einem aktuellen (Test)Kubuntu. Der Wert ist nicht schlecht, aber ich würde gerne schauen ob ich weiter runter kommen bevor ich mein aktuelles System auf die Kiste umziehe. Derzeit habe ich im BIOS Audio sowie die seriellen Schnittstellen abgeschaltet und C-States aktiviert. Das hat in Summe aber nur ca.2 W gebracht. Also ... ich hatte gelesen das manche def. unter 20 W kommen. Her mit euren Einstellungen Oder liegts ev. an der CPU
  11. OK, ich hoffe wir habens bal Bei Custom Bridge hatte ich immer im Kopf das es jeeils eine eigene IP gibt. Muß ich aber gar nicht. Unter Welcher IP wären denn die anderern Container erreichbar wenn ich z.B. Host 192.168.1.10 und Openhab unter 192.168.1.11 mit Custom Bridge laufen lasse und den anderen Container keine extra IP gebe. Gesendet von meinem SM-T830 mit Tapatalk
  12. Dann hab ich das wohl falsch in Erinnerung. Ich dachte wenn der Host z.B. die 192.168.1.10 hat und ich per custom bridge für Openhab 192.168.1.11 nehme dann "sehen" sich beide nicht direkt. Die Kommunikation liefe dann über den Switch an dem Unraid hängt. Aber du sagst das der Host dann intern die kommunikation über eine Bridge macht, richtig ? Gesendet von meinem SM-T830 mit Tapatalk
  13. Genau das hatte ich probiert. Aber wie komme ich von Mosquitto, Grafana, InfluxDB dann an Openhab ? Dann habe ich ja vom Host keine direkte Verbindung zu der IP. Die Daten dann von den Containern über den Switch wieder zurück in den Rechner zu spielen kann ja nicht die Lösung sein. Gesendet von meinem SM-T830 mit Tapatalk
  14. Hi, bei openhab klappt es im Moment. Bei der Config in Dockerhab steht allerdings auch das als Host laufen soll. Ich vermute das ich da je nach genutztem Binding in Probleme laufen könnte. Spätesetens bei UPNP Themen. Deswegen läuft bei mir auch Emby im Host Mode da es sonst öfter Probleme bei der Verbindung mit CLients gibt. Je mehr solcher Container im Host Mode laufen um so eher gibts dann vermutl. Probleme. Gesendet von meinem SM-T830 mit Tapatalk
  15. Hi, ich wollte auch keine IPs bündeln sondern die Container. Mir ist auch klar das Openhab nicht PortForwarding eingebaut hat. Hier hab ich mich vielleicht falsch ausgedrückt. Was ich bräuchte wäre im Prinzip das gleiche wie es aktuell standardmäßig auf dem HOST und seiner IP läuft nochmal parallel auf einer 2-ten IP. Die Container in dem Cluster sollen natürlich von aussen erreichbar sein. Ich würde dann nur gerne openhab im HOST Modus auf dieser IP laufen lassen und die restlichen Container per bridge Gesendet von meinem SM-T830 mit Tapatalk