Sporadisch nicht erreichbar nur Neustart hilft, direkt monitor Tod. QNAP NAS TS-1079 Pro /I7 /(8GBRAM) /2xZFS 9TB/2x10G


Soliver84

Recommended Posts

Hallo,

 

Fehler: Sporadisch nicht erreichbar nur Neustart hilft, NEU Oberfläche geht nicht mehr gut GUI COMMAND Conected/ disconected in einer tur.

 

bin ziemlich neu mit Unraid, hat auch alles soweit funktioniert-

 

Ich kann leider nicht herausfinden woran es liegt, die nas ist an Festplatten laufen ist aber nicht merh erreichbar, Bildschirm angehängt keine Reaktion.

Es hilft nur ein Harter Neustart. das war jetzt schon das 3 oder 4te mal.

 

So jetzt ist es so ich kann mich an der Oberfläche zwar anmelden reagiert aber nur sporadisch. wenn ich die commandline über die web Oberfläche öffne: Conected/ disconected innerhalb von par Sekunden.

 

Putty geht.

 

Ich würde gerne ein Live log entweder auf der Nas selber am Bildschirm starten oder in Putty was da abgeht.

 

Aber viel leicht ist das ja bekannt und mir kann jemand helfen.

 

 

habe das gefunden wieso brauche ich das:

https://futurestud.io/tutorials/nginx-solve-reponse-status-0-worker-process-exited

 

Edit:

habe VT-d im BIOS deaktiviert jetzt geht die Console wieder. allso wie vorher. aber das problem das sie später nicht erreichbar ist ist immer noch.

 

Danke

Grüße

 

 

Edited by Soliver84
Link to comment

Meiner Erfahrung nach ist das ein "veralteter" Zugriff auf die GUI über den selben oder anderen PC. Ich hatte das zb mal als ich in einem Tab unRAID auf eine neue Version aktualisiert habe und dann mit einem anderen Tab weitergearbeitet habe. Ich konnte das aber nicht mehr nachstellen. In dem Thread ist es übrigens auch die häufigste gemeldete Ursache:

https://forums.unraid.net/topic/84681-odd-ngnix-error-filling-up-my-syslog/

 

Wäre schön wenn man mal herausfindet wie dieser Bug entsteht.

Link to comment
16 minutes ago, Soliver84 said:

Wie bring ich ihm bei das ETH 0 nicht zu nutzen?,

Wenn du die network.cfg und network-rules.cfg löschst, sind die Netzwerkeinstellungen zurückgesetzt. Danach einfach den Adapter zu eth0 machen, den du haben willst (Interface Rules bei den Netzwerkeinstellungen. Den Rest bei Bedarf deaktivieren. Also einfach gar keinen Bond nutzen, sondern nur eine Buchse solo. Ein 10g als eth0 wird dir ja denke ich reichen.

 

Link to comment
On 7/26/2021 at 12:51 PM, Soliver84 said:

habs verstanden ;) Danke dir.

 

dachte des oberste sei der bond, dawai ist das oberste ja ETH0 ;).

 

umgestellt und jetzt geht die kiste mal soweit wieder.

Das hat ja nix zu sagen....für mich sieht Deine netzwerk-Konfig immer noch falsch aus...(siehe MAC Adressen)

 

bond0: flags=5379<UP,BROADCAST,PROMISC,MASTER,MULTICAST>  mtu 1500
        ether xx:xx:xx:cb:2b:3a  txqueuelen 1000  (Ethernet)
bond2: flags=5187<UP,BROADCAST,RUNNING,MASTER,MULTICAST>  mtu 9000
        inet 192.168.12.28  netmask 255.255.255.0  broadcast 0.0.0.0
        ether xx:xx:xx:df:f1:86  txqueuelen 1000  (Ethernet)
br0: flags=4099<UP,BROADCAST,MULTICAST>  mtu 1500
        ether xx:xx:xx:cb:2b:3a  txqueuelen 1000  (Ethernet)
eth0: flags=6147<UP,BROADCAST,SLAVE,MULTICAST>  mtu 9000
        ether xx:xx:xx:cb:2b:3a  txqueuelen 1000  (Ethernet)
eth1: flags=6147<UP,BROADCAST,SLAVE,MULTICAST>  mtu 9000
        ether xx:xx:xx:cb:2b:3a  txqueuelen 1000  (Ethernet)
eth2: flags=6211<UP,BROADCAST,RUNNING,SLAVE,MULTICAST>  mtu 9000
        ether xx:xx:xx:df:f1:86  txqueuelen 1000  (Ethernet)
eth3: flags=6211<UP,BROADCAST,RUNNING,SLAVE,MULTICAST>  mtu 9000
        ether xx:xx:xx:df:f1:86  txqueuelen 1000  (Ethernet)

 

Du hast immer noch bonding aktiviert.

bond0 und Bridge/br0 sind auf eth0, eth1 ist Teil des bond0/der br0

Dann hast Du bond2 mit eth2 und eth3 gebaut...und nur dieser bond2 hat ne IP -> in welchem ETHX ist das Kabel nun drin bzw wo gehört es rein und was ist wie, zB über einen Switch verkabelt?

Edit: wenn Du allein eth0 eingesteckt hast und sonst nix, dürfte gar kein I-Net gehen, da dort keine IP und Default-Route existiert....

 

Dein Plan war doch bonding ganz aus, bridging an und nur eth0 (1x10G) auf die bridge.

Die restlichen ethx deaktivieren.

 

Die ganzen Docker sind ausserdem auf der bridge nicht br0....willst Du das so?

Evtl. ist das auch ein Problem in Deiner Konstellation.

Edited by Ford Prefect
MACs maskiert
Link to comment
16 minutes ago, Soliver84 said:

Danke für den Hinweis 

 

 

ok ich sehe schon des Thema Netzwerk auf der kieste muss ich mir nich ansehen.

 

Ich wollte die 2x 10G zusammen schließen der Switch kann 802.3ad.

 

Eth3 und eth4 sind das.

 

habe bemerkt das des auf backup eingestellt war.

Eigentlich wolltest Du die richtigen NICS auf die jeweilge Nummer (eth0, ...)  zuordnen und dann von da weiter machen.

 

Unraid macht das schon richtig, aber Du musst die Reiehnfolge einhalten.

 

- zuerst in den Interface Rules die NICS auf die gewünschten Nummern verteilen...zB Deine beiden 10G auf eth0 und eth1

image.thumb.png.a67d3295e8cdc7ade883952788e13d61.png

 

- dann auf eth0 die Netzwerkbrücke aktivieren....und die IP einstellen.

- dann auf eth0 den bond aktivieren und eth1 dazupacken.

 

Bei mir sieht das so aus (habe 4 NICs im bond):

image.thumb.png.7959b5652b9cce0c597155ea79003b12.png

 

16 minutes ago, Soliver84 said:

ja aber dann funktioniert das nicht die Config nur zu löschen, und neu zu starten wenn da noch so viel vorhanden ist:(

Du musst bei configs löschen und neu booten.

 

16 minutes ago, Soliver84 said:

aber irgend wie ist dann ja auch der wurm in Unraid, ich hab nur einen bond dort stehen!!

...Netzwerk-Brücke vergessen...siehe oben...mach es in der Reihenfolge.

 

16 minutes ago, Soliver84 said:

ja die docker stehen noch auf bridge Standardeinstellung

Lustig, weil im Moment hast Du gar keine Bridge, sondern nur den Bond.

 

Link to comment

Tja, hmmm...also als die 10G noch eth2 und eth3 waren, steht in Deiner Diagnostics dass die auch mit 10G gesynct sind (logs/system/ethtool.txt).

Wie kommst Du jetzt auf 1G? Wo steht das?


Edit: Achso...wegen den Dockern? Du hast ja aktuell keine Bridge gehabt in dem Zustand ;-)

Und was der Docker sagt, aber was durchgeht ist eh eine andere Sache....ein virtio Treiber läuft auch mit der ganzen Speicherbandbreite der CPU und es steht nur 1g dran ....wenn überhaupt ;-)

Edited by Ford Prefect
Link to comment

ja, sollte...denn da war doch bond2 auf den 10G Karten ;-) 

...und ausserdem ....einfach mal probieren...hast Du überhaupt eine Gegenstelle, die 20G verträgt, auf dem Bond?

Iperf3 für unraid gibt es im nerd-Pack ;-)....ich bezweifle aber, das die QNAP CPU überhaupt an 10G rankommt.

Edit: ok, hatte im Hinterkopf das da ein i3-2100U mit 2C/4T drin werkelt...ein i7 sollte schon etwas mehr schaffen ;-)

Edited by Ford Prefect
Link to comment

@Ford Prefect

 

ja Schaft er aber auch nur weil eingestellt ist alle gleichzeitig schreiben. ;), die CPU ist da nicht so gefordert eher der Arbeitsspeicher und die SSD!

 

jop einen 20G gegenstelle gibt es :), sogar genauer gesagt 40G Glasfaser ;) leider ist LINUX nicht so mein ding bin Windows Server janer.... ud das seit NT4

 

allso den PC mit 2,5G bekomm ich voll ausgelastet 285-300Mb`s das ist schon mal gut, des ist schon krass wenn man überlegt das man damals eine WD Raptor gekauft hat um 160mb`s zu übertragen bzw. games damit gespielt bzw. Installiert hat. :), der Server ist aber gerade im umbau warte noch auf die Speicher aus China....

 

ist das jetzt richtig so:

 

 

 

 

 

PS

@Ford Prefect kannst du oben aus deinem Post oben meine MAC Adressen noch entfernen ;) da wir die ja nicht mehr hier brauchen :)

Edited by Soliver84
Link to comment
On 7/26/2021 at 9:02 PM, Soliver84 said:

die CPU ist da nicht so gefordert eher der Arbeitsspeicher und die SSD

In unRAID und SMB stimmt das nicht. Mein Windows PC mit i5 ruckelte als ich noch kein SMB Multichannel mit RSS nutzte. Daher geht nichts über Single Thread Leistung.

 

On 7/26/2021 at 9:02 PM, Soliver84 said:

Hallo noch jemand da :(

Noch eine Frage offen gewesen?

 

Link to comment
1 hour ago, Soliver84 said:

Hallo noch jemand da :(

..wenn Du einen User mit "@" informieren willst, musst Du nicht einfach den Namen dahinter schreiben, sondern auch auf das Auswahlfeld, das dann hochpoppt, klicken ;-)

 

On 7/26/2021 at 9:02 PM, Soliver84 said:

@Ford Prefect

 

ja Schaft er aber auch nur weil eingestellt ist alle gleichzeitig schreiben. ;), die CPU ist da nicht so gefordert eher der Arbeitsspeicher und die SSD!

 

jop einen 20G gegenstelle gibt es :), sogar genauer gesagt 40G Glasfaser ;) leider ist LINUX nicht so mein ding bin Windows Server janer.... ud das seit NT4

 

allso den PC mit 2,5G bekomm ich voll ausgelastet 285-300Mb`s das ist schon mal gut, des ist schon krass wenn man überlegt das man damals eine WD Raptor gekauft hat um 160mb`s zu übertragen bzw. games damit gespielt bzw. Installiert hat. :), der Server ist aber gerade im umbau warte noch auf die Speicher aus China....

 

ist das jetzt richtig so:

 

Ja....aber nur, wenn auch ne MTU von 9000 überall eingestellt ist und alle das unterstützen.

Da jeder Link im Bond aber 10G ist, sollten also 10G drin sein...um 20G zu bekommen, brauchst Du Multi-Threaded Anwendungen (testen mit iperf3 und zB "-P 4" Parameter) und evtl. eine Einstellung im Switch, dass für LACP L2 und L3 zur Verteilung genutzt werden, weil Normal ist L2, also MAC und die ist auf der jeweiligen Verbindung gleich. Edit: und damit würde nur ein Link im Bond dafür genutzt.

Quote

PS

@Ford Prefect kannst du oben aus deinem Post oben meine MAC Adressen noch entfernen ;) da wir die ja nicht mehr hier brauchen :)

wieso plötzlich so pingelig, in Deinen Screenshots sind sie auch drin ;-)...aber gerne...ist ja Dein Faden....

Edited by Ford Prefect
Link to comment

HI@ all :)

 

Da bin ich wieder, hab es jetzt zeit Technisch eingrenzen können, man kann die uhr danach stellen wo sich Unraid aufhängt, und zwar genau nach 3Stunden 50.

 

Was braucht Ihr um mir zu helfen?

 

wie kann ich die log datei von heut Nacht öffnen was bei 3Stunden 50 steht?

 

Danke

Grüße

Link to comment
3 hours ago, Soliver84 said:

dann warten wir mal auf den nächste ausstieg. ;))

Hast du container im br0 modus laufen?

 

Würde dir wärmstens empfehlen mal ein update auf 6.10.0-RC1 zu machen und dann in den Docker Settings von macvlan auf ipvlan umzustellen, evtl behebt es dein problem.

Link to comment
  • 1 month later...

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.