Jump to content

Stromsparende Hardware gesucht


Recommended Posts

9 minutes ago, phillip.de said:

Hm, sprich anderes Mainboard? Worauf soll ich da achten? 

Ich würde erst einmal messen, was das System wirklich idle (ohne laufende Docker und so) braucht.

50-70W erscheinen mir extrem viel. Ich bezweifele, daß bei dem verbrauch die Festplatten wirklich schlafen.

Bei einem Z690 (also Vorgänger) kann man ein Mainboard, CPU, Ram (=nackt idle) auf unter 20W kommen.

5 spindown Festplatten würden dann je ca. 1W ausmachen

4 NVMe SSD können sich iáuf zweierlei Arten Auswirken: Sie beeinflussen direkt PCIe zur CPu und können die C-States vermiesen und anderer seits gibt es NVMe SSD (meist PCIe 4.0 oder auch 5.0) welche schon idle ein paar Watt schlucken. Leider hast Du nicht gesagt, welche NVMe SSD Du drin hast, aber vielleicht mach es Sinn die mal zu prüfen, was die wirklich idle schlucken. Gerade einige PCIe 5.0 SSD sind idle, wie auch unter Last ser energiefressend (meist ist ein kühlkörper erforderlich. bei einigen Extremmodellen sollen problemlos 20W pro SSD unterLast bei drauf gehen. Wenn Docker drauf zugreifen schläft seo eine SSD nie und wird warm und frisst Strom.

 

 

Welche C-States erreichst Du?

Hast Du im BIOS/UEFi alle ASPM optionen aktiviert und auf Maximum eingestellt?

Hast Du mal versuchst PCIe auf 3.0 einzugrenzen?

 

Link to comment
2 minutes ago, DataCollector said:

Ich würde erst einmal messen, was das System wirklich idle (ohne laufende Docker und so) braucht.

50-70W erscheinen mir extrem viel. Ich bezweifele, daß bei dem verbrauch die Festplatten wirklich schlafen.

Bei einem Z690 (also Vorgänger) kann man ein Mainboard, CPU, Ram (=nackt idle) auf unter 20W kommen.

5 spindown Festplatten würden dann je ca. 1W ausmachen

4 NVMe SSD können sich iáuf zweierlei Arten Auswirken: Sie beeinflussen direkt PCIe zur CPu und können die C-States vermiesen und anderer seits gibt es NVMe SSD (meist PCIe 4.0 oder auch 5.0) welche schon idle ein paar Watt schlucken. Leider hast Du nicht gesagt, welche NVMe SSD Du drin hast, aber vielleicht mach es Sinn die mal zu prüfen, was die wirklich idle schlucken. Gerade einige PCIe 5.0 SSD sind idle, wie auch unter Last ser energiefressend (meist ist ein kühlkörper erforderlich. bei einigen Extremmodellen sollen problemlos 20W pro SSD unterLast bei drauf gehen. Wenn Docker drauf zugreifen schläft seo eine SSD nie und wird warm und frisst Strom.

 

 

Welche C-States erreichst Du?

Hast Du im BIOS/UEFi alle ASPM optionen aktiviert und auf Maximum eingestellt?

Hast Du mal versuchst PCIe auf 3.0 einzugrenzen?

 

Als NVMe verwende ich die Crucial P3.

 

Zu den Tests werde ich nachher mehr sagen können. Ich bin noch nicht zuhause, aber ich probiere es nachher mal und melde mich!

Link to comment
8 minutes ago, DataCollector said:

Ich bezweifele, daß bei dem verbrauch die Festplatten wirklich schlafen.

das hatte ich auch ... daher hatte ich das ja bereits erfragt, Antwort

 

image.thumb.png.464260d3e6c14492c159f91cd3f4c821.png

 

jetzt gehe ich mal davon aus dass dies auch gemeint war ... mir kam das ja auch etwas hoch vor ohne verbaute dGPU's ... aber who knows ;)

 

ich bin jetzt hier raus, viel Erfolg noch dabei.

Link to comment
1 hour ago, phillip.de said:

Als NVMe verwende ich die Crucial P3.

 

Die Crucial P3 (4TB) sind mir nicht als sehr energieintensiv aufgefallen, dafür waren die mir aber erheblich zu langsam.

Nach einem Test sind die bei mir per Wiederruf wieder zurück gegangen.

Aber ich habe auch nicht geprüft ob die Crucial vielleicht die C-States 'schädigen'.

 

Link to comment

Danke @alturismo

 

also nochmal, meine Nachricht hat der nicht übernommen…

 

Ich habe ca. 15 Shares, und ein paar davon sind auf „only Array“ eingestellt, da ich vermeiden wollte das dass Array zugemüllt wird. Ich wusste nicht wie sich z.B. eine VDSM mit einer 600GB Platte verhält. Da hier nur Bilder draufliegen, sollten diese auf das Array.

 

kann das mitunter ein Problem sein?

Link to comment
22 minutes ago, phillip.de said:

Ich habe ca. 15 Shares, und ein paar davon sind auf „only Array“ eingestellt, da ich vermeiden wollte das dass Array zugemüllt wird. Ich wusste nicht wie sich z.B. eine VDSM mit einer 600GB Platte verhält. Da hier nur Bilder draufliegen, sollten diese auf das Array.

kann das mitunter ein Problem sein?

 

Ich verstehe es zwar nicht so ganz, aber:

ich gehe mal davon aus, daß die festplatten im Array sind und die SSDs in Pool(s).

 

Wenn die Shares nur im Array (only Array) sind und Du auf diese Shares auf dem Array zugreifst, erfolgen alle lesenden Zugriffe eben auf die Festplatten, welche dann anlaufen und mehr Strom schlucken, als wenn sie schlafen/Spindown sind.

 

Wenn Du (only Array) verwendest werden sogar die Schreibzugriffe nicht in einem Pool/Cache (SSD?) abgefangen, sondern schreiben auch direkt auf die Festplatten, wobei die möglicherweise auch vorhandene Parity dann auch laufen muß (Spinup). Warum Du only Array verwendest kann ich aber nicht verstehen, wenn Du 4x 1TB SSD hast, kannst Du davon doch etwas im Pool für Cache bereitstellen.

 

Leider weiß ich nicht, wie Dein unraid eingerichtet ist, aber mir klingt das in diesem Beitrag von Dir sehr verworren.

Link to comment

Okay, ich dachte das war verständlich ausgedrückt. Ich versuche das nochmal aufzudröseln.

 

Im Cache sind natürlich nur die NVMe SSDs drin. Im Array sind nur die HDDs drin. Eine HDD halt als Parity Drive.

 

Und da ich im Cache, „nur“ 2,5TB Platz habe wollte ich z.B. gerne die virtuelle Festplatte der VDSM auf dem Array haben da hier die geringere Geschwindigkeit egal ist. Ich wusste jetzt aber nicht ob Unraid die ganze qcow2 Datei im Cache behält. Da ich hier nicht die ganzen 500GB verschwenden wollte, habe ich daher einen Share mit dem Namen DSM erstellt welcher nur auf dem Array läuft. 
 

ist das etwas logischer? Ich denke mal das Unraid nicht die Dateien innerhalb des VDSM Containers einzelnen verschieben kann…

 

Ich habe gerade auch gesehen, das es ein BIOS Update gibt. Ich werde das wohl mal auch einspielen, die Frage ist natürlich ob das was bringt. 

Link to comment
5 minutes ago, phillip.de said:

ist das etwas logischer? Ich denke mal das Unraid nicht die Dateien innerhalb des VDSM Containers einzelnen verschieben kann…

 

ist auch so ... entweder oder ... und wenn man unbedingt DSM nutzen will (Synology DSM schätze ich mal) dann ... bleibt es nur das Image cache ODER array, du hast dich für Array entschieden, sprich, immer wenn DSM darauf zugrift läuft die disk, wenn etwas geschrieben wird sogar disk + parity ... deine Entscheidung.

 

aber wenn du ja spindown (alle Platten mit grauem Symbol vorne) getestet hattest mit dem DSM Docker ... dann ist ja erstmal alles ok ;)

und der Docker scheint ja dann nicht permanent darauf zu arbeiten ...

Link to comment
15 minutes ago, phillip.de said:

Unraid behält halt permanent die Platte 1 und die Parity Platte im Up Zustand. Das wird dann hier wohl das Problem sein warum diese Platten nicht runtergefahren werden.

yep ... dann gehe ich mal davon aus das nie alle Platten im spindown (standby) gewesen sind ... wie ich und @DataCollector vermuteten ...

 

egal, wie auch immer, hast ja genug Anhaltspunkte um daran zu arbeiten.

  • Upvote 1
Link to comment

So ich habe jetzt mal das BIOS aktualisiert, das Kopieren der V-DSM Platte zum Cache gestartet (Laut Unbalanced dauert das gute 17 Stunden). 

Das System verbraucht momentan im Idle mit 2 eingeschalteten Festplatten 50 - 60 Watt (Siehe Screenshot).

 

Die C-States und ASPM sind bei mir beide im Bios aktiviert. Beim ausführen des folgenden Befehls (

lspci -vv | awk '/ASPM/{print $0}' RS= | grep --color -P '(^[a-z0-9:.]+|ASPM )'

bekomme ich folgende Ausgabe:

00:06.0 PCI bridge: Intel Corporation 12th Gen Core Processor PCI Express x4 Controller #0 (rev 05) (prog-if 00 [Normal decode])
                LnkCap: Port #5, Speed 16GT/s, Width x4, ASPM L1, Exit Latency L1 <16us
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
00:1a.0 PCI bridge: Intel Corporation Raptor Lake PCI Express Root Port #25 (rev 11) (prog-if 00 [Normal decode])
                LnkCap: Port #25, Speed 16GT/s, Width x4, ASPM L1, Exit Latency L1 <64us
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
00:1b.0 PCI bridge: Intel Corporation Raptor Lake PCI Express Root Port #17 (rev 11) (prog-if 00 [Normal decode])
                LnkCap: Port #17, Speed 8GT/s, Width x1, ASPM L0s L1, Exit Latency L0s <1us, L1 <4us
                LnkCtl: ASPM L0s L1 Enabled; RCB 64 bytes, Disabled- CommClk-
00:1b.4 PCI bridge: Intel Corporation Raptor Lake PCI Express Root Port #21 (rev 11) (prog-if 00 [Normal decode])
                LnkCap: Port #21, Speed 16GT/s, Width x4, ASPM L1, Exit Latency L1 <64us
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
00:1c.0 PCI bridge: Intel Corporation Raptor Lake PCI Express Root Port #1 (rev 11) (prog-if 00 [Normal decode])
                LnkCap: Port #1, Speed 8GT/s, Width x1, ASPM L0s L1, Exit Latency L0s <1us, L1 <4us
                LnkCtl: ASPM L0s L1 Enabled; RCB 64 bytes, Disabled- CommClk-
00:1c.2 PCI bridge: Intel Corporation Raptor Point-S PCH - PCI Express Root Port 3 (rev 11) (prog-if 00 [Normal decode])
                LnkCap: Port #3, Speed 8GT/s, Width x1, ASPM L1, Exit Latency L1 <64us
                LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+
00:1c.4 PCI bridge: Intel Corporation Device 7a3c (rev 11) (prog-if 00 [Normal decode])
                LnkCap: Port #5, Speed 16GT/s, Width x4, ASPM L1, Exit Latency L1 <64us
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
00:1d.0 PCI bridge: Intel Corporation Raptor Lake PCI Express Root Port #9 (rev 11) (prog-if 00 [Normal decode])
                LnkCap: Port #9, Speed 16GT/s, Width x4, ASPM L0s L1, Exit Latency L0s <1us, L1 <4us
                LnkCtl: ASPM L0s L1 Enabled; RCB 64 bytes, Disabled- CommClk-
00:1d.4 PCI bridge: Intel Corporation Device 7a34 (rev 11) (prog-if 00 [Normal decode])
                LnkCap: Port #13, Speed 16GT/s, Width x4, ASPM L1, Exit Latency L1 <64us
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
01:00.0 Non-Volatile memory controller: Micron Technology Inc 2550 NVMe SSD (DRAM-less) (rev 01) (prog-if 02 [NVM Express])
                LnkCap: Port #1, Speed 8GT/s, Width x4, ASPM L1, Exit Latency L1 unlimited
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
02:00.0 Non-Volatile memory controller: Micron Technology Inc 2550 NVMe SSD (DRAM-less) (rev 01) (prog-if 02 [NVM Express])
                LnkCap: Port #1, Speed 16GT/s, Width x4, ASPM L1, Exit Latency L1 unlimited
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
04:00.0 Non-Volatile memory controller: Micron Technology Inc 2550 NVMe SSD (DRAM-less) (rev 01) (prog-if 02 [NVM Express])
                LnkCap: Port #1, Speed 16GT/s, Width x4, ASPM L1, Exit Latency L1 unlimited
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
pcilib: sysfs_read_vpd: read failed: No such device
06:00.0 Ethernet controller: Realtek Semiconductor Co., Ltd. RTL8125 2.5GbE Controller (rev 05)
                LnkCap: Port #0, Speed 5GT/s, Width x1, ASPM L0s L1, Exit Latency L0s unlimited, L1 <64us
                LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+
07:00.0 SATA controller: ASMedia Technology Inc. ASM1166 Serial ATA Controller (rev 02) (prog-if 01 [AHCI 1.0])
                LnkCap: Port #0, Speed 8GT/s, Width x2, ASPM L0s L1, Exit Latency L0s <4us, L1 <64us
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
09:00.0 Non-Volatile memory controller: Micron Technology Inc 2550 NVMe SSD (DRAM-less) (rev 01) (prog-if 02 [NVM Express])
                LnkCap: Port #1, Speed 16GT/s, Width x4, ASPM L1, Exit Latency L1 unlimited
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+

 

Wird man da etwas schlau draus, was man hier noch verbessern kann? 

Ich hänge auch nochmal eine Ausgabe von powertop an...

powertop1.png

powertop2.png

powertop3.png

powertop4.png

Stromvebrauch_Unraid.png

Link to comment
1 hour ago, phillip.de said:
isab

 

1 hour ago, phillip.de said:

Die C-States und ASPM sind bei mir beide im Bios aktiviert. Beim ausführen des folgenden Befehls (

lspci -vv | awk '/ASPM/{print $0}' RS= | grep --color -P '(^[a-z0-9:.]+|ASPM )'

bekomme ich folgende Ausgabe:

00:06.0 PCI bridge: Intel Corporation 12th Gen Core Processor PCI Express x4 Controller #0 (rev 05) (prog-if 00 [Normal decode])
                LnkCap: Port #5, Speed 16GT/s, Width x4, ASPM L1, Exit Latency L1 <16us
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
00:1a.0 PCI bridge: Intel Corporation Raptor Lake PCI Express Root Port #25 (rev 11) (prog-if 00 [Normal decode])
                LnkCap: Port #25, Speed 16GT/s, Width x4, ASPM L1, Exit Latency L1 <64us
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
00:1b.0 PCI bridge: Intel Corporation Raptor Lake PCI Express Root Port #17 (rev 11) (prog-if 00 [Normal decode])
                LnkCap: Port #17, Speed 8GT/s, Width x1, ASPM L0s L1, Exit Latency L0s <1us, L1 <4us
                LnkCtl: ASPM L0s L1 Enabled; RCB 64 bytes, Disabled- CommClk-
00:1b.4 PCI bridge: Intel Corporation Raptor Lake PCI Express Root Port #21 (rev 11) (prog-if 00 [Normal decode])
                LnkCap: Port #21, Speed 16GT/s, Width x4, ASPM L1, Exit Latency L1 <64us
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
00:1c.0 PCI bridge: Intel Corporation Raptor Lake PCI Express Root Port #1 (rev 11) (prog-if 00 [Normal decode])
                LnkCap: Port #1, Speed 8GT/s, Width x1, ASPM L0s L1, Exit Latency L0s <1us, L1 <4us
                LnkCtl: ASPM L0s L1 Enabled; RCB 64 bytes, Disabled- CommClk-
00:1c.2 PCI bridge: Intel Corporation Raptor Point-S PCH - PCI Express Root Port 3 (rev 11) (prog-if 00 [Normal decode])
                LnkCap: Port #3, Speed 8GT/s, Width x1, ASPM L1, Exit Latency L1 <64us
                LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+
00:1c.4 PCI bridge: Intel Corporation Device 7a3c (rev 11) (prog-if 00 [Normal decode])
                LnkCap: Port #5, Speed 16GT/s, Width x4, ASPM L1, Exit Latency L1 <64us
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
00:1d.0 PCI bridge: Intel Corporation Raptor Lake PCI Express Root Port #9 (rev 11) (prog-if 00 [Normal decode])
                LnkCap: Port #9, Speed 16GT/s, Width x4, ASPM L0s L1, Exit Latency L0s <1us, L1 <4us
                LnkCtl: ASPM L0s L1 Enabled; RCB 64 bytes, Disabled- CommClk-
00:1d.4 PCI bridge: Intel Corporation Device 7a34 (rev 11) (prog-if 00 [Normal decode])
                LnkCap: Port #13, Speed 16GT/s, Width x4, ASPM L1, Exit Latency L1 <64us
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
01:00.0 Non-Volatile memory controller: Micron Technology Inc 2550 NVMe SSD (DRAM-less) (rev 01) (prog-if 02 [NVM Express])
                LnkCap: Port #1, Speed 8GT/s, Width x4, ASPM L1, Exit Latency L1 unlimited
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
02:00.0 Non-Volatile memory controller: Micron Technology Inc 2550 NVMe SSD (DRAM-less) (rev 01) (prog-if 02 [NVM Express])
                LnkCap: Port #1, Speed 16GT/s, Width x4, ASPM L1, Exit Latency L1 unlimited
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
04:00.0 Non-Volatile memory controller: Micron Technology Inc 2550 NVMe SSD (DRAM-less) (rev 01) (prog-if 02 [NVM Express])
                LnkCap: Port #1, Speed 16GT/s, Width x4, ASPM L1, Exit Latency L1 unlimited
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
pcilib: sysfs_read_vpd: read failed: No such device
06:00.0 Ethernet controller: Realtek Semiconductor Co., Ltd. RTL8125 2.5GbE Controller (rev 05)
                LnkCap: Port #0, Speed 5GT/s, Width x1, ASPM L0s L1, Exit Latency L0s unlimited, L1 <64us
                LnkCtl: ASPM Disabled; RCB 64 bytes, Disabled- CommClk+
07:00.0 SATA controller: ASMedia Technology Inc. ASM1166 Serial ATA Controller (rev 02) (prog-if 01 [AHCI 1.0])
                LnkCap: Port #0, Speed 8GT/s, Width x2, ASPM L0s L1, Exit Latency L0s <4us, L1 <64us
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+
09:00.0 Non-Volatile memory controller: Micron Technology Inc 2550 NVMe SSD (DRAM-less) (rev 01) (prog-if 02 [NVM Express])
                LnkCap: Port #1, Speed 16GT/s, Width x4, ASPM L1, Exit Latency L1 unlimited
                LnkCtl: ASPM L1 Enabled; RCB 64 bytes, Disabled- CommClk+

 

Wird man da etwas schlau draus, was man hier noch verbessern kann? 

 

Die Realtek Netzwerkkarte und die (vermutlich) dazu gehörende PCIe Bridge haben ASPM disabled. Das verschlechtert in der Regel die Schlafzustände der CPU.

 

Und in Deinem späteren Screenshot von Powertop:

Powertop C-States : gar keine (alle gelisteten bei 0%) = Entwder zeigt das System falsch an oder die CPU läuft immer unter Last.

Link to comment
22 hours ago, alturismo said:

was nichts aussagt ...

 

TDP == Thermal Disign Power == maximal erzeugte Verlustleistung ...

 

es geht doch um die idle Power, da liegen die meisten recht nah zusammen,...

Da muss ich mal kurz einspringen und was fragen. Aktuell habe ich einen Intel Core I5-13500 im Auge (243€) TDP liegt bei 65W. Gleichpreisig würde ich aber auch einen Intel Core i5-14600K bekommen - TDP hier bei 125W.

Abgesehen ob man diese Mehrleistung gerade benötigt, würde es in Anbetracht C-States etc. was bringen? Oder wäre es eher kontraproduktiv?

Link to comment
8 minutes ago, k3vbert said:

Abgesehen ob man diese Mehrleistung gerade benötigt, würde es in Anbetracht C-States etc. was bringen? Oder wäre es eher kontraproduktiv?

C States mal außen vor, die 14th gen ist bekannt dass die etwas "hungriger" ist ... von Haus aus ;)

 

in meiner Anmerkung meine ich damit, es ist egal ob du eine 13500T, K, oder ohne Zusatz nimmst im idle ...

 

ob die 14er etwas mehr brauchen wird, denke ja ... ist bekannt dafür, ob es an den C States etwas ändert ... glaube ich nicht

  • Thanks 1
Link to comment

Ich habe leider gerade ein anderes Problem. 

Mein Server steigt momentan alle 40 Minuten aus. Der Server ist dann einfach aus und fährt wieder hoch.

 

Kann da jemand was dazu sagen, woran das liegen kann oder wie das testen kann? 

Nach dem Neustart läuft auch alles erstmal wieder... Aber das ist so ja nicht normal... 

Und da keine Logs auf den Stick geschrieben werden, sieht es in meinen Augen nach einem wirklichen "Kaltstart" aus. 

 

Temperaturen sind auf jedenfall nicht über 30 Grad. 

 

Stromprobleme kann ich eigentlich ausschließen, da mein Rechner am selben Stromkreis hängt, und dieser hat keine Probleme. Netzteil habe ich auch schon testweise getauscht. 

unraid-server-diagnostics-20241005-2110.zip

Log.txt

Edited by phillip.de
Link to comment
On 10/4/2024 at 6:53 PM, DataCollector said:

Powertop C-States : gar keine (alle gelisteten bei 0%) = Entwder zeigt das System falsch an oder die CPU läuft immer unter Last.

In dem anderen Screenshot sind ja alle Kerne im Idle angezeigt. Oder hat das eine andere Bewandnis? 

Link to comment
1 hour ago, phillip.de said:

Kann da jemand was dazu sagen, woran das liegen kann oder wie das testen kann? 

 

harte Neustarts sind in der Regel immer

 

Hardware related ...

zu aggressive Stromsparmechanismen im Spiel

 

Zweiteres kannst du recht einfach testen, alles was damit zusammenhängt, retour auf Standard setzen

BIOS settings auf Standard, powertop, auto tweak, was auch immer ... retour unnd/oder weg.

 

Hardware Fehler ... immer schwer (leider), bleibt fast immer nur trial & error ... eine Komponente nach der anderen ...

memtest, Karten raus, Netzteil Tausch, ... usw usw ... wie gesagt, leider immer ...

 

wenn das OS abschmiert, friert Unraid ein und man muss manuell einen Neustart erzwingen

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...