Jump to content

Mehrere technische Fragen und Probleme


JOBU

Recommended Posts

55 minutes ago, DataCollector said:

Vielleicht findet die Lottogesellschaft ja diesen Monat meine Zahlen. 😁

Ach man gönnt sich ja sonst nichts 😅

 

Aber du würdest dich wundern, was wir für ein Geld rauswerfen. Die Tage noch 5 Jahre alte Server gekauft, weil wir überall die selbe Hardware brauchen und nachkaufen mussten. Statt 2000 € pro Server plötzlich 5000 €. Dazu dann für 800 € extra alte RAID Controller, weil die Software mit der neuen Revision nicht klar kam. 😅

Link to comment
1 hour ago, mgutt said:

Ach man gönnt sich ja sonst nichts 😅

 

Aber du würdest dich wundern, was wir für ein Geld rauswerfen. Die Tage noch 5 Jahre alte Server gekauft, weil wir überall die selbe Hardware brauchen und nachkaufen mussten. Statt 2000 € pro Server plötzlich 5000 €. Dazu dann für 800 € extra alte RAID Controller, weil die Software mit der neuen Revision nicht klar kam. 😅

Solange ein Kunde die Kosten irgendwie trägt: okay.

Als Privatperson/Endkunde sitzt bei vielen das Geld eben nicht so locker.

 

Ich bin ja schon recht verrückt, was Computer angeht (allein die Festplatten in meinen 1st System kamen im Laufe des letzten Jahres auf rund 8-9.000 Euro).

Aber es sind meine Reserven für sowas zu sehr in die Knie gegangen.

So langsam muß ich das Ganze auch wunschgemäß zum Laufen kriegen, sonst wäre die erhoffte Geldeinsparung durch unraid nie da gewesen und ich hätte das Geld auch in die Stromrechnung stecken und meine Altsysteme so weiter betreiben können.

Aber dafür fehlen mir noch so ca. 36TB Lagerkapazität in unraid und das Array hat schon 25 Devices (und der bedarf steigt). Im Array kann ich das also nicht realisieren. Deswegen meine Idee mit dem externen Pool, doch der muß auch gesichert werden, denn BTRFS Raid5 ist ja nicht unbedingt als stabil verschrieen.

Wenn es nicht zu alt und langsam wäre würde ich sogar ein ext Raid6 Gehäuse mit eSATA ins Auge fassen, aber eSATA geht bei den Dinern nur bis 3GBIt/s und die dort verbauten Raid5 Kontroller sind eigentlich nur ein JMB Abfallprodukt und recht alt. Kompatibilität mit Festplatten der 16-20TB Klasse ist da mehr als fraglich.

*seufz* Luxusprobleme :)

 

Link to comment

zu dem Gehäuseproblem bei Ebay habe ich diese Dinger hier auch ins Auge gefasst super billig und schneller als die Esata vielleicht lässt damit dein extern Erweiterungsvorhaben realisieren gibt es in verschiedenen Größen und Preisklassen

 

https://www.ebay.de/itm/114792678813?

 

oder sowas:

https://www.ebay.de/itm/293575875339

 

dann das hier mit ESata 6G

https://amzn.eu/d/71IoyJ6

 

und das 

https://amzn.eu/d/gwpphjr

 

die hatte ich beide letzteres nutze ich heute noch und bin zufrieden damit.

 

 

Edited by JOBU
Link to comment

Hallo Jobu.

Danke für Deine Mühe, aber diese Richtungen hatte ich schon betrachtet, durchgeplant und verworfen.

 

11 hours ago, JOBU said:

Sowas hatte ich schon mal ins Auge gefaßt, doch ich weiß mit der HP Stromversorgung nichts anzufangen. Kennst Du das Pinout?

 

11 hours ago, JOBU said:

Eine Backplane allein bringt mir nicht viel, da alles drum herum fehlt.

Deshalb plane/baue ich es ja extern selber.

 

11 hours ago, JOBU said:

dann das hier mit ESata 6G

https://amzn.eu/d/71IoyJ6

Mehrere Festplatten (ohne Raid) über einen (e)SATA Anschluß funktioniert nur per Portmultiplying  und Portmultiplier hat bei unraid nicht den besten Ruf.

 

Selbst wenn das Gehäuse einen Raid/JBOD Kontroller drin hätte (siehe Deinen Vorschlag weiter unten), ist das der Technikstand von 2012. Daß die mit 16-20TB großen Festplatten umgehen können ist mehr als fraglich, da auch die damalig verfügbaren JMB/Marvel Chips das nicht konnten/können.

 

Abgesehen von dem extra Stromverbrauch der dafür notwendigen (und ineffizienten) Zusatznetzteile sind diese Gehäuse mit für eSATA recht alt (die Entwicklung der Chips und Firmware ist leider vor rund 5-10 Jahren stehen geblieben). USB selber ist unter Unraid nicht wirklich immer stabil.

Thunderbold ist in unraid noch nicht wirklich massentauglich/empfehlenswert, Firewire ist auch schon zu alt.

Standard SCSi ist ebenfalls zu alt und bei heutigen SATA Festplatten nicht zu gebrauchen.

 

Es bleiben für Festplatten/Arrays nur die Techniken die unraid kennt/stabil kann: SATA (auch eSATA) und SAS

 

Aktuell strebe ich an SAS/SATA über SFF extern auf Wechselrahmen zu schicken. Die Rahmen werden mit 12V aus dem PC Netzteil (ATX GPU-Stecker) versorgt und werden sich ihre notwendigen 5V selber (per Adapterplatinchen) erstellen. Also schon in die Richtung Deines HP 8er Rahmens nur mit angepasster Stromversorgung.

 

11 hours ago, JOBU said:

Alte Gehäuseentwicklung mit Raid aus dem letzten Jahrzehnt (noch vor 2011). Auch hier ist alte Technik eingebaut, die mit heutigen großen Festplatten nicht klar kommt.

 

Wenn Raidsonic, Fantec, Sharkoon, etc... sowas als Neuentwicklung hätten, die somit garantiert performant (eSATA 6G gut ausnutzend) auch mit heutige großen festplatten umgehen könnte, wäre das schön. Aber die benutzen in der Regel eben Marvel oder JMB Raid-Chips (eigentlich Bridgechips mit zusätzlicher Raidfunktion als Nebenprodukt), die eben schon 5-10 Jahre alt sind und deren Firmware aktuell nicht mit so großen Festplatten umgehen kann.

Raid0 oder Raid1 kann man jha noch recht simpel in einen Chip 'gießen' und das kann man auch (fast) Größenirrelevant realisieren. Aber bei Raid5 ist schon einiges an Verwaltungsaufwand in der Firmware drin und somit muß der Chip/Firmware für solche Größen vorbereitet sein.

 

 

11 hours ago, JOBU said:

die hatte ich beide letzteres nutze ich heute noch und bin zufrieden damit.

Was war Deine maximale Festplattengröße in den ext. Gehäusen?

 

 

Nur so als kleine Nebeninfo:
EbayLinks können stark gekürzt werden, wenn man ab dem Fragezeichen abschneidet.

Edited by DataCollector
Link to comment

Was war Deine maximale Festplattengröße in den ext. Gehäusen?

10TB das war die größte dich ich hatte zu dem Zeitpunkt und die lief 

 

 

Nur so als kleine Nebeninfo:
EbayLinks können stark gekürzt werden, wenn man ab dem Fragezeichen abschneidet.

ich weiss habs vergessen (war um 4:00 nachts rum) beim 2. Link hab ich es ja auch gemacht  

 

Sowas hatte ich schon mal ins Auge gefaßt, doch ich weiß mit der HP Stromversorgung nichts anzufangen. Kennst Du das Pinout?

Denke ja zumindest größtenteils:

 

https://www.servershop24.de/hp-backplane-power-cable/a-121104/?

 

Das sollte die Belegung sein soweit bekannt

https://www.reddit.com/r/homelab/comments/jmp5fl/modifying_a_power_cable_for_an_hp_backplane/

Wtby1HLDfWYv-veKh_FJJKOIUjFGiwQR30H3eKkJQIo.webp

Edited by JOBU
Link to comment

Hi ich habe noch zwei Fragen

1. die eine unbeantwortet blieb, wegen des Stickumzuges der neuen Daten auf den alten Stick mit dem Pro Lizenzschlüssel (oder UUID Änderung anstelle des Umkopierens) wie geht man vor, einfach alles vom Teststick umkopieren bis auf den Lizenzkey oder genügen die Configs?

 

2. ich habe noch Platten mit Daten, die im anderen alten Array waren, hier im neuen unter Unassigned Dev. liegen, aber noch nicht eingebunden sind, wenn ich diese nun einbinden möchte, bekomme ich die Meldung das alle Daten überschreiben werden, wenn das Array gestartet wird, stimmt das wirklich oder ist das eine "leere Drohung" wenn bereits XFS Formatierung vorliegt und alte Unraid Daten drauf sind, oder muss ich wirklich den harten Weg gehen und alle Daten erst umkopieren ins Array?

Alternative wäre natürlich vermutlich eine neue Konfig erstellen in den Settings um das löschen zu umgehen.

Edited by JOBU
Link to comment
38 minutes ago, JOBU said:

bis auf den Lizenzkey oder genügen die Configs?

Einfach den kompletten config Ordner vom alten Stick übernehmen. unRAID erkennt, dass die vorhandene Lizenz nicht zum Stick passt und bietet dir nach dem Booten an die Lizenz auf den neuen Stick zu ändern.

 

39 minutes ago, JOBU said:

bekomme ich die Meldung das alle Daten überschreiben werden, wenn das Array gestartet wir

Damit erweiterst du das Array ohne die Parität zu aktualisieren. Damit das möglich ist, geht unRAID hin und schreibt die neue Platte komplett mit Nullen voll. Also sie wird wirklich gelöscht.

 

Du musst also stattdessen folgendes machen:

- Screenshot von der Disk Übersicht, damit du weißt welche Disk in welchem Slot war

- dann Tools > New Config und bei Pools den Haken rein, dass du diese behalten willst

- jetzt das Array exakt wieder so mit den Disks befüllen wie es vorher war, nur eben zusätzlich mit den neuen Disks

- Array starten und die Parität wird neu aufgebaut

 

 

 

  • Like 1
Link to comment
  • 2 weeks later...

Hallo kurzes finales Feedback hierzu, es hat alles wunderbar funktioniert, neue Parität mit allen vorhanden Platten wurde endlich erfolgreich erstellt, alle Platten haben keine Fehler mehr und alles läuft bestens.

Vielen Dank an an alle für die hilfreichen Tipps und Tricks

Edited by JOBU
Link to comment

@mgutt

hi ich glaube ich muss doch nochmal nachlegen was den hohen Stromverbrauch angeht und mgutt hier ja mitgehofen hat ich habe noch ein Mini-ITX Mainboard auch auch der Z-390 Reihe welches aber nur einen PCI-E hat und ich ja wenigstens 1 für ne SAS Card und die 10GBit Card brauche zudem habe ich statt des 700W  noch ein neues BQ Power 9 mit 500w wo läge ca das Einsparpotential beim Tausch, oder gleich der Tipp Corsair RM550x 2021?, ich war doch etwas geschockt, bei der Shelly Plug S Ausgabe, mit einen Verbrauch von 160w im normalen Betrieb anzeigte, welchen ich natürlich trotz PV Anlage, gerade im Hinsicht auf den Winter drosseln möchte, soviel es geht,  hab mal Powertop getestet werde aber aus der Ausgabe nit ganz schlau C states unter Pgk wirft 0% aus bei allen aus powertop Autotune gibt auch nix aufschlussreiches aus zudem verstehe ich deine Aussage "alle HDDs müssen stehen", meinst du damit das alle gelistet sein müssen die im System verbaut sind? 

Ich würde gerne auch die Hardware ändern bei viel Nutzen was den Verbrauch angeht, wo ist die höchste Einsparung drin, da die vorhandene Hardware recht hochpreisig verkaufbar wäre und ich gerne ein 24/7 System möchte würde ich gerne das maximale Sparpotential nach und nach erreichen, sofern mein Bedarf noch gedeckt ist. würde gerne meinen  Büro-PC im Unraid mitlaufenlassen in VM und evtl noch eine Synology DSM Instanz in erste Linie wegen der umfangreichen Smartphone und Tablet Apps für die es ja eng aussieht was Unraid angeht zumindest hat das meine Suche ergeben.

 

Hier mal die Autotune Ausgabe 

Quote

modprobe cpufreq_stats failedCannot load from file /var/cache/powertop/saved_results.powertop
RAPL device for cpu 0
RAPL device for cpu 0
Devfreq not enabled
glob returned GLOB_ABORTED
 the port is sda
 the port is sdb
 the port is sdc
 the port is sdd
 the port is sde
 the port is sdf
 the port is sdg
 the port is sdh
 the port is sdi
 the port is sdj
 the port is sdk
 the port is sdl
 the port is sdm
 the port is sdn
 the port is sdo
 the port is sdp
 the port is sdq
 the port is sdr
Leaving PowerTOP


Pkg(HW)  |            Core(HW) |            CPU(OS) 0   CPU(OS) 6
                    |                     | C0 active  27.4%       25.7%
                    |                     | POLL        0.0%    0.0 ms  0.0%    0.0 ms
                    |                     | C1          0.4%    0.0 ms  0.3%    0.1 ms
C2 (pc2)    0.0%    |                     |
C3 (pc3)    0.0%    | C3 (cc3)    1.7%    | C3          0.3%    0.1 ms  0.2%    0.1 ms
C6 (pc6)    0.0%    | C6 (cc6)    9.8%    | C6          9.3%    0.7 ms  4.5%    0.6 ms
C7 (pc7)    0.0%    | C7 (cc7)   55.8%    | C7s         0.0%    0.0 ms  0.0%    0.0 ms
C8 (pc8)    0.0%    |                     | C8          6.5%    0.9 ms  4.3%    0.9 ms
C9 (pc9)    0.0%    |                     | C9          0.3%    1.8 ms  0.6%    2.9 ms
C10 (pc10)  0.0%    |                     |
                    |                     | C10        59.1%    2.1 ms 67.9%    6.2 ms
                    |                     | C1E         0.8%    0.2 ms  0.3%    0.1 ms

                    |            Core(HW) |            CPU(OS) 1   CPU(OS) 7
                    |                     | C0 active  27.9%       24.7%
                    |                     | POLL        0.0%    0.0 ms  0.0%    0.0 ms
                    |                     | C1          0.3%    0.1 ms  0.2%    0.1 ms
                    |                     |
                    | C3 (cc3)    1.0%    | C3          0.2%    0.1 ms  0.1%    0.1 ms
                    | C6 (cc6)    6.6%    | C6          5.3%    0.6 ms  4.6%    0.7 ms
                    | C7 (cc7)   60.1%    | C7s         0.0%    0.0 ms  0.0%    0.0 ms
                    |                     | C8          3.5%    0.8 ms  3.2%    0.9 ms
                    |                     | C9          0.2%    7.2 ms  1.0%    3.5 ms
                    |                     |
                    |                     | C10        65.8%    3.9 ms 68.8%    6.9 ms
                    |                     | C1E         0.8%    0.2 ms  0.9%    0.3 ms

                    |            Core(HW) |            CPU(OS) 2   CPU(OS) 8
                    |                     | C0 active  31.5%       26.4%
                    |                     | POLL        0.0%    0.0 ms  0.0%    0.0 ms
                    |                     | C1          0.2%    0.1 ms  0.4%    0.1 ms
                    |                     |
                    | C3 (cc3)    5.2%    | C3          0.9%    0.1 ms  0.4%    0.2 ms
                    | C6 (cc6)    7.0%    | C6          8.5%    0.4 ms  4.5%    0.6 ms
                    | C7 (cc7)   43.0%    | C7s         0.0%    0.0 ms  0.0%    0.0 ms
                    |                     | C8          6.0%    0.6 ms  3.8%    0.8 ms
                    |                     | C9         12.4%    0.7 ms  0.6%    3.3 ms
                    |                     |
                    |                     | C10        43.0%    0.8 ms 66.9%    5.1 ms
                    |                     | C1E         2.1%    0.1 ms  0.9%    0.2 ms

                    |            Core(HW) |            CPU(OS) 3   CPU(OS) 9
                    |                     | C0 active  26.6%       26.1%
                    |                     | POLL        0.0%    0.0 ms  0.0%    0.0 ms
                    |                     | C1          0.2%    0.1 ms  0.2%    0.1 ms

 

Edited by JOBU
Link to comment
23 minutes ago, JOBU said:

Hier mal die Autotune Ausgabe 

Bei durchgehender mittlerer bis hoher CPU Last kann die CPU keinen C-State erreichen. Bei dir sind es ja knapp 30% Last.

 

25 minutes ago, JOBU said:

zudem verstehe ich deine Aussage "alle HDDs müssen stehen", meinst du damit das alle gelistet sein müssen die im System verbaut sind? 

Disk4 steht, Disk7 läuft

image.png.981d1af8d2995d38c185c614b018312e.png

 

In den Disk Settings kannst du einen automatischen Spindown einstellen.

 

26 minutes ago, JOBU said:

statt des 700W  noch ein neues BQ Power 9 mit 500w wo läge ca das Einsparpotential beim Tausch

Zwischen 5 und 30W kann ein Netzteil ausmachen. Titanium Netzteile sind die sparsamsten, aber auch die teuersten. Bei deinem aktuellen Verbrauch bringt ein Corsair RM550x (2021) nichts, weil es nur bei unter 30W weniger verbraucht als die meisten anderen Gold-Netzteile.

 

28 minutes ago, JOBU said:

welches aber nur einen PCI-E hat und ich ja wenigstens 1 für ne SAS Card und die 10GBit Card brauche

Hast du so viele HDDs oder warum die SAS Karte? ITX ist tatsächlich schwer was Gutes zu finden. Ein ITX Board mit 8x SATA und 2x M.2 gibt es zB nicht, außer vielleicht das Asrock Rack E3C256D4ID2, aber das hat keine Monitoranschlüsse und da weiß auch keiner was das verbraucht.

 

39 minutes ago, JOBU said:

würde gerne meinen  Büro-PC im Unraid mitlaufenlassen in VM

Das ginge dann ja nur mit Grafikkarte, weil auf dem Ausgang des Boards siehst du nur Unraid.

 

39 minutes ago, JOBU said:

Smartphone und Tablet Apps für die es ja eng aussieht was Unraid angeht

Keine Ahnung was du benötigst, aber mehr als Nextcloud und Plex brauche ich nicht.

  • Like 1
Link to comment

Ok Danke, das runterfahren der Platten & beenden von  Docker hat den Wert schon mal halbiert von 160W auf 79W runtergedrückt hatte den SpinDown zwar an aber auf 30 min stehen, denke das ist zu lange oder? Mal schauen wie es sich im Tages mittel darstellt bei 24 Std hab nun mal auf 15 min gedrosselt oder ist nie besser.

der Docker Shinobi Start hat den Wert gerade wieder auf knapp über 100 gebracht, heisst das Projekt sirbt auf Unraid und wander zum Pi

 

Quote

Hast du so viele HDDs oder warum die SAS Karte?

Leider ja aktuell 24er Backplane, davon 13 im Array, 1 M2, 1 2,5 SSD, dann noch 4 unassigned Devices 1 davon läuft mit Shinobi Pro als NVR, diese kann ich aber auf den Pi auslagern sollte es hier zuviel Leistung ziehen (der mit Home Assistant läuft, da der ohnehin 24/7 läuft und vom Verbrauch her nicht groß ins Gewicht fällt) und weitere ausgebaute 7 Platten die unter anderem Synology Restdaten enthalten und zum Teil mit CRC Fehlern belegt waren (bei Prüfung der Platten war von denen aber nichts zu sehen).

Ich bin sicher weniger, aber  dafür grössere Platten um das Volumen von aktuell 100TB im Array & 24 TB unassigned zu erreichen, würde sicher auch ein Einsparpotential bringen, allerdings ist ja der Kosten Nutzen Faktor recht gering da PV einen Teil der Kosten abfängt, die Platten hingegen erst mal richtig Asche kosten, und die Ersparnis sicher sehr sehr lange auf sich warten lässt, evtl muss ich effizienter arbeiten und mehr zusammenlegen, um einige Platten aus dem System entfernen und bei Bedarf dann wieder zurück einbauen.

Edit:

4x 10 TB hängen wie anfangs schon erwähnt intern am Mainboard.

 

Quote

Das ginge dann ja nur mit Grafikkarte, weil auf dem Ausgang des Boards siehst du nur Unraid.

Die aber dann aber vermutlich recht einfach gestrickt sein kann oder, ich habe hier einen Sack voll rumfliegen von Radeon Hd5400 über  verschiedene Nvidia GTX u.a. 8800 und auch eine RTX 2070, ist alles dabei, wobei bis auf die 5400 alle Strom benötigen denn Sie dann auch ordentlich abrufen unter Last.  

Edited by JOBU
Link to comment
9 hours ago, JOBU said:

den SpinDown zwar an aber auf 30 min stehen, denke das ist zu lange oder?

Nein. Selbst 1 Stunde fände ich nicht zu lang. 15 Minuten sind dagegen klar zu kurz, sofern sie deswegen immer wieder starten und stoppen. Die Frage ist, warum 30 Minuten nicht funktioniert hat. Ist auf den Platten was von Docker drauf, dass die deswegen nie standen? Sollte nicht so sein. Hast du keinen Cache? Docker und VMs sollten ausschließlich auf dem Cache laufen.

 

9 hours ago, JOBU said:

der Docker Shinobi Start hat den Wert gerade wieder auf knapp über 100 gebracht

Was meinst du mit 100? 100W? Dh der verursacht eine hohe CPU Last? Warum?

 

9 hours ago, JOBU said:

Shinobi Pro als NVR

Ok, also Surveillance. Wohin werden die Aufnahmen geschrieben? Ich hoffe doch mal nicht ins Array? Wo liegen die Container-Dateien? Werden die Videos transcodiert? Von der CPU oder iGPU? 

 

9 hours ago, JOBU said:

allerdings ist ja der Kosten Nutzen Faktor recht gering da PV einen Teil der Kosten abfängt,

Mein Server hat 7+1 18TB Platten, also 126TB + 2TB Cache. Verbrauch 20W mit 10G Karte. Ich habe auch eine PV Anlage, aber nachts und im Winter nutzt mir das halt herzlich wenig. Wie du schon sagst. Nur "ein Teil" wird kompensiert.

 

Dein Problem wird vermutlich sein, dass Backplane + SAS Karte ~40W verbraten. Aus dem Grund habe ich weder das eine, noch das andere. Ist aber auch die Frage ob einem der Komfort der Hotbays das einfach wert ist.

 

Wenn ich 24 Platten haben wollte, würde ich das ohne Hot Bay Gehäuse mit 8x Onboard und 3x ASM1166 6-fach SATA Karten umsetzen. Damit wäre der Mehrverbauch nur ~10W.

 

9 hours ago, JOBU said:

Nvidia GTX u.a. 8800 5400

Klingt alt. Kann man eh nicht in einer VM nutzen. Alles ab Kepler geht.

 

9 hours ago, JOBU said:

alle Strom benötigen denn Sie dann auch ordentlich abrufen unter Last.  

Ok, jetzt fängst du plötzlich doch mit Strom an 😛

 

Tatsächlich würde eine Grafikarte gar nicht mal so viel ausmachen, wenn man sein Setup ordentlich konfiguriert. Alturismo hat zb seine Grafikkarte im Standby (per Skript), wenn die VM aus ist. Ich sage mal 20W Mehrverbrauch sind mit einer 2070 machbar.

Link to comment
Quote

Sollte nicht so sein. Hast du keinen Cache? Docker und VMs sollten ausschließlich auf dem Cache laufen.

Doch 1TB aus je 500GB 2,5 SSD und M2, Docker ist kein Dienst ausser ÜCAM angewesen darum das umlagern auf den Pi Docker läuft im Cache VM im Moment noch unbenutzt auch auch der Test war gecached

 

Quote

Was meinst du mit 100? 100W? Dh der verursacht eine hohe CPU Last? Warum?

und 

Wo liegen die Container-Dateien? Werden die Videos transcodiert? Von der CPU oder iGPU? 

 

 ja im stehende Platten Modus wenn er nicht läuft 70w Shinobi im Betrieb 100w, Platte ist natürlich nicht im Array,

Transcoding ist ne gute Frage wo gebe ich das vor wer transcodiert.

Container Dateien hab ich im Original belassen für Docker wie voreingestellt

 

 

/mnt/user/system/docker/docker.img

/mnt/user/appdata/
 

Quote

 

Quote

Dein Problem wird vermutlich sein, dass Backplane + SAS Karte ~40W verbraten. Aus dem Grund habe ich weder das eine, noch das andere. Ist aber auch die Frage ob einem der Komfort der Hotbays das einfach wert ist.

 

Wenn ich 24 Platten haben wollte, würde ich das ohne Hot Bay Gehäuse mit 8x Onboard und 3x ASM1166 6-fach SATA Karten umsetzen. Damit wäre der Mehrverbauch nur ~10W.

nein das war so meine Idee nachdem die Synology augelöst habe hatte ich halt 24 Platten die irgendwo hin sollten dann habe ich gesucht und das gefunden, viel zu laut viel zu groß und viel zu schwer zum glück habe ich einen abgetrennten Raum hier im Haus wo ich das Ding lautlos hinstellen konnte es das alles nit störte da ich noich in der Findungs phase bin und Unraid erstmal vernünftig ans laufen bringen wollte, habe ich mich erstmal um das drumherum nit geschert.

 

Quote

Ok, jetzt fängst du plötzlich doch mit Strom an 😛

Ja genau, nachdem das System nun zufriedenstellen läuft kommt nun das drumherum, dann nun nähert sich der Winter, ist zwar noch in gefühlt weiter Ferne aber da die PV neu ist habe ich noch keine Winterwerte darum ist das logische Folge, nun anfangen an den Stellhebeln zu drehen, um das System zu optimieren, und da hat der Stromschock mit 160-200W schon nicht unerheblich dazu beigetragen.

Zudem im September das E Auto dazukommt und zusätzlich hungrig ist, die Wallbox aber leider noch nicht Bidirektional arbeitet.

 

Der VM Hintergrund war aber eigentlich den Büro PC mit ähnlicher Hardware mit ins System zu nehmen da der auch sehr viel läuft wäre da auch hohes Einsparpotential, wenn der von Unraid, da hapert es nun massiv an der Auflösung und der fehlenden GPU aber mit deinen Tips werde ich da Schritt für Schritt weiterkommen, Titanium ist ja garnit so unbezahlbar, da ich den Keller voll Hardware habe werde ich ein perfektes System finden, für alle Bedürfnisse, sowas braucht halt zeit wenn man selbstständig ist....  

 

 

 

 

 

 

 

Edited by JOBU
Link to comment
2 hours ago, JOBU said:

darum das umlagern auf den Pi Docker

Und das soll warum weniger Strom verbrauchen, wenn man zwei Geräte nutzt statt einem?!

 

2 hours ago, JOBU said:

läuft 70w Shinobi im Betrieb 100w, Platte ist natürlich nicht im Array,

Und warum überhaupt auf eine HDD?

 

2 hours ago, JOBU said:

Transcoding ist ne gute Frage wo gebe ich das vor wer transcodiert.

Erstmal musst du den Intel GPU Treiber in unRAID installieren. Dann hast du die iGPU per /dev/dri verfügbar (Google "shinobi dev dri") Den Pfad fügst du einfach dem Container hinzu. Über das GPU Stats Plugin kannst du dann im Dashboard sehen, ob die iGPU auch genutzt wird.

 

2 hours ago, JOBU said:

abgetrennten Raum hier im Haus

Und wie soll das dann mit der VM laufen? Ich dachte du wolltest den Server in dein Büro stellen?

  • Like 1
Link to comment

 

Quote

Und das soll warum weniger Strom verbrauchen, wenn man zwei Geräte nutzt statt einem?!

weil der Pi extrem sparsam ist und mit 1€ im Jahr im Leerlauf auskommt, dieser wegen Homeassistant eh 24/7 läuft, genau darum damit nicht 2 Geräte dauerhaft laufen, denn da das Unraid weitaus mehr Strom benötigt, als der Pi, war mit vorher klar, darum lege ich Unraid schlafen, wenn ich es nicht brauche, was auch der Grund war, mit Homeassistant vom UR wieder auf den Pi umzuziehen und da dieser wie gesagt eh läuft bietet es sich ein eine weitere 24/7 Instanz einzubinden.

 

Quote

Und warum überhaupt auf eine HDD?

Bei der Frage kann ich mir nur selbst an den Kopf fassen, dass ich auf USB Stick oder SD Karte nicht alleine komme, das ist echt traurig 🙈Aber manchmal sind es die naheliegendsden DInge auf die man nicht selbst kommt.  

 

Quote

Über das GPU Stats Plugin kannst du dann im Dashboard sehen, ob die iGPU auch genutzt wird.

Danke werde ich machen, aber gleichzeitig noch zu dem dem "top" Befehls Tipp, wegen des hakelnden Streamings, kein ausrastender Prozess auffällig, IO Wait ist mir in der Liste nicht begegnet weder oben in den Spalten noch in der Liste mit Werten und als befehl wird es auch nicht angenommen im Terminal.

 

 

Quote

Und wie soll das dann mit der VM laufen? Ich dachte du wolltest den Server in dein Büro stellen?

Das ist simpel zu erklären, der Raum befindet sich direkt neben dem Büro, mit Kabeldurchführungen, dorthin (USB, HDMI, STROM, Netzwerk (RJ mit 1 GBit und LL mit 10 Gbit), und auch den Powerknopf habe ich entsprechend ins Büro verlängert, der Grund ist der, das der Raum nur zugängig ist, wenn ich die Spülmaschine vorziehe, da dies früher eine Abstellkammer im Wohnzimmer war, wir aber bei Geburt unseres Sohnes mein Büro in die alte Küche und die Küche zusätzlich ins Wohnzimmer integriert haben.

 

Aber natürlich wäre auch die Option Browser möglich wenn die VM eine bessere Auflösung hat und stabil läuft  natürlich nicht als Bürolösung denn dann muss ja wiederum ein 2. PC laufen, aber für Ipad und Notebooks, wäre auch das eine praktikabele Lösung, trotzdem virtuell auf dem PC zu arbeiten, oder auch externen Zugriff zu haben, bei Bedarf.

 

Zum Abschluss nochwas ganz allgemeines liebe Helferlein und Mods:

 

Ich bin echt froh, das hier ein so netter Umgangston herrscht und Leute die Hilfe brauchen, auch Hilfe bekommen und wenn Du/Ihr*innen es zum 100 oder 1000x in Antworten schreibt, statt auf die Sufu zu verweisen, oder Leute blöd anzumachen, dass Sie das noch nicht gemacht haben, oder bei 1000 Seiten eines Threads nur 600 überflogen haben und deshalb fragen oder Ihnen einfach die Zeit fehlt sich stundenlang mit Suchen zu beschäftigen.

Ich finde jeder ist irgendwann mal irgendwo wo neu und fängt mit etwas an, auch Ihr wart irgendwann mal da, wo ich gerade mit Unraid bin, habe zwar den technischen Hintergrund und auch viel IT technisches Wissen und Verständnis aus anderen Projekten, aber gerade Unraid ist halt ein Bastelobjekt, dass nie ein Selbstläufer wird, was zwar super Spaß macht, aber auch leider, immerwieder viele Fragen aufwirft und Zeit benötigt bis man alles intus hat, dafür bin ich allen hier echt dankbar, das Ihr soviel Mühe und Zeit investiert, anderen zu helfen.

Klasse, ganz großes Lob

Edited by JOBU
Kommata & Änderungen
  • Like 1
Link to comment
3 hours ago, JOBU said:

USB, HDMI

Denk an die maximale Kabellänge. Das kann gerade bei USB ein Problem sein. Aber du kannst meine ich mit einem Hub auf halber Länge noch was rausholen.

 

 

3 hours ago, JOBU said:

darum lege ich Unraid schlafen, wenn ich es nicht brauche

Ah ok. Ich dachte unRAID läuft auch durch.

 

3 hours ago, JOBU said:

USB Stick oder SD Karte

Vielleicht auch auf eine RAM Disk oder die vorhandene SSD?!

  • Like 1
Link to comment
Quote

Denk an die maximale Kabellänge.

Ist Wand an Wand ca 50-60cm + 2 - 2,5m bis zum Monitor, aber selbst dann kann ich den Monitor näher zur Wand schieben, also kein Problem, zudem habe ich die Erfahrung mit USB 2.0 bereits gemacht, als ich noch Homeassistant mit Zigbeestick betrieben habe, und über 2.0 nichts tat, bei 3.0 allerdings bisher problemlos, für größere längen gibt es ja aktive Lösungen oder/und mit Verstärker mit HDMI Problematik ist ebenfalls bekannt das es ab 3m abfallen kann aber nit muss auch hier bereits gesammelte Erfahrungen als leidig geprüfter Oculus Nutzer erster Stunde, das größte Problem waren HDMI/DP und USB Verlängerungen, mit denen dann entweder die Brille oder die damals noch nötigen Wandsensoren den DIenst versagten...

Quote

Vielleicht auch auf eine RAM Disk oder die vorhandene SSD?!

...oder so aber der Pi4 bleibt für Shinobi immer die besser Wahl um Unraid schlafen zu legen, ich messe mal die Werte im Vergleich UR -> PI

 

https://www.notebookcheck.com/Atomic-Pi-Guenstige-Raspberry-Alternative-mit-Intel-Prozessor-ab-sofort-verfuegbar.419300.0.html#:~:text=Ad-Blocker ab.-,Atomic Pi%3A Günstige Raspberry-Alternative mit,Intel-Prozessor ab sofort verfügbar&text=Mit dem Atomic Pi steht,möglich wie die direkte Bildausgabe.

oder den mit Unraid laufen lassen...

 

Edited by JOBU
Link to comment
1 hour ago, JOBU said:

für größere längen gibt es ja aktive Lösungen

Ja, aber damit legt man sich auf eine USB Version fest. Zb USB 3 und da funktionieren dann keine Tastaturempfänger. Also evtl braucht man dann zwei Kabel. Das nur als Info 

 

1 hour ago, JOBU said:

oder den mit Unraid laufen lassen...

Die Frage ist wie das mit dem Komfort aussieht, wenn du an den Rechner willst. Der Server braucht ja so 2 Minuten bis er hochfährt und dann kommt noch die Startzeit des Arrays und Bootzeit der VM dazu.

Link to comment
Quote

Ja, aber damit legt man sich auf eine USB Version fest. Zb USB 3 und da funktionieren dann keine Tastaturempfänger.

ist das eine unRAID Eigenheit, mit den Tastaturempfängern, denn am PC hab ich das Problem nicht.

Edited by JOBU
Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...