Jump to content

mgutt

Moderators
  • Posts

    11,355
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Aus einem Container auszubrechen, setzt voraus, dass man erstmal eingebrochen ist. Also muss der Angreifer sowohl eine Lücke über HTTP ausnutzen um auf den Webserver des Containers zu kommen und von da aus muss er eine Lücke in Docker ausnutzen, um auf das Host-System zu kommen. Alles im Bereich des denkbaren, aber da Docker auf cgroups setzt, müsste da schon eine Lücke in Linux selbst vorhanden sein. Ok, es gab schon eine andersartige Lücke, aber die setzte voraus, dass der Container privilegiert gestartet wurde und wer das macht, der hat eben Pech. ^^ Wer komplett paranoid ist, kann ja Docker in einer VM laufen lassen. Das wären dann drei Stufen
  2. Darum geht es. Anandtech misst nur die 12V der CPU. Mein System zieht mit 8 schlafenden HDDs, 10G Karte, M.2 NVMe und 64GB ECC RAM 20W. 6W fallen dabei alleine auf die 10G Karte. Mittlerweile sind es 10 HDDs, ich musste deswegen eine SATA Karte nachrüsten und ich musste den SATA Port Standby opfern, weil die Karte sonst abschmiert. 28W.
  3. Wäre easy wenn man die API Abfragen der Docker CPU Last überwacht und wenn 1 Minute oder so keine mehr vom Browser angefordert wurde, dann schaltet es sich ab.
  4. Sachen gibt's. Wie soll man bitte auf sowas kommen.
  5. Ich tippe mal darauf, dass du den USB Stick beim Einrichten über "Custom" nicht auf UEFI gestellt hast. Denn mit UEFI braucht man diese Boot-Reihenfolge usw eigentlich gar nicht anfassen. Ich habe das jedenfalls noch nie gemacht.
  6. Meine Stromrechnung, weshalb ich die Fritz!Box auch nur sehr ungern gegen Router + Modem + X ersetzen will. Und parallel weiterlaufen lassen schon gar nicht. Youtube ist gar nicht unter 13 Jahren erlaubt. Oder geht es um ältere Kinder? Ab 13 werde ich denke ich kaum noch was filtern. Wenn nur wie jetzt die nächtliche Nutzung per Google Family Link bzw Microsoft Family Safety unterbinden.
  7. Ich denke Dynamix Cache Dirs, weil es hier erwähnt wurde: https://forums.unraid.net/topic/83161-find-command-using-all-the-cpu/?tab=comments#comment-770933 Eventuell müsste man vor dem Sleep das hier ausführen lassen: pkill find Damit würden alle find-Prozesse gekillt werden und er sollte schlafen gehen. Ob das Dynamic Cache Dirs noch ordentlich funktioniert, kann ich dann aber nicht sagen.
  8. Tja, welches Script führt denn find mit einem timeout aus. Was hast du denn so für Plugins und Container installiert? Irgendwas spezielles dabei wo du den Share "Carl" hinzugefügt hattest? Weil der is ja der einzige auf dem der Befehl läuft. Eventuell Dynamix cache dirs?
  9. Die 130 € Differenz macht nur das Intel 10G. Alle Boards mit 10G sind schweine teuer. Der Chipsatz verbraucht alleine über 7W (also ohne das Board oder Komponenten). Hat derBauer bereits getestet. Ich habe sehr viele Tests dazu schon durch. Und es gibt effektiv niemanden, der ein X570 System im Idle unter 15W gebracht hätte. Das ist bei Intel dagegen überhaupt kein Problem. Mein C246N-WU2 liegt mit i3 bei 8W und ich denke nicht, dass ein C246M-WU4 oder W480M Vision so viel mehr zieht. Letzterer gepaart mit einem W-1270 und du hättest ähnlich viel Leistung wie beim 5600X und sogar eine iGPU. Aber du darfst auch ruhig das ASRock Rack X570D4U-2L2T und mir dann sagen was das verbraucht. Hatte ich auch schon auf der Liste ^^
  10. Im Quelltext kommt "log "error: ${hash^^} hash key mismatch, $file is corrupted" 1" bei "Verify" und "Check" vor. Keine Ahnung wann "Verify" ausgeführt wird, aber "Check" hättest du ja in der Liste.
  11. Ich meine der störende Befehl ist der in der nächsten Zeile. Also "find". Hat sich da ein "find" irgendwo aufgehangen, weil das ist nicht normal, dass der so lange offen bleibt. Führe mal das über das Terminal aus: pgrep -c find Mehr als 0? Dann bekommst du so den kompletten Befehl: pgrep -af find In den Logs folgt auch der Trace. Für mich sieht das ein bisschen nach rclone aus (wegen fuse).
  12. Energiespareinstellungen von Ubuntu?
  13. Kommt natürlich auf die GPU an. 750W klingt aber schon viel.
  14. Korrekt, nur was bringt dir das, wenn du zu 90% im Betrieb nur 10-50W ziehst? Diese Kurve versetzt sich ja immer weit nach rechts, umso mehr Leistung das Netzteil hat. Dh ein 300W Netzteil ist effizienter bei 30W als ein 600W Netzteil. Dann entweder tauschen oder jetzt schon überlegen wie viel die maximal ziehen wird. Ja vom Prinzip alles ganz nett, aber vergiss nicht. Die CPU ist für den Noctua ein Witz. Der kühlt ja CPUs bis 140W. Ein Top Blower, der auf das Mainboard bläst hätte auch seine Vorzüge. Der würde zB auch das Board und die NVMe erwischen. Aber ob das am Ende großartig was ändert. Ich glaube eher nicht. Mir reicht jedenfalls der billige Boxed Kühler. Ich kaufe auch nichts anderes, ich wollte es nur gesagt haben ^^
  15. Ich würde rsync noch ein zweites mal laufen lassen um zu schauen ob wirklich alles übertragen wurde. Dann würde ich mal schauen was die SMART Werte eigentlich sagen. Hast du da "Grown Bad Blocks"? Das sind die Blöcke, die während deiner Nutzung kaputt gegangen sind. Die "Total bad blocks" enthalten diese und die defekten Blöcke ab Werk (ja, ist so ^^). Weitere Infos dazu hier: https://www.swissbit.com/files/public/Documents/TechNotes/AN2102en_Bad_Blocks.pdf
  16. Hier mal die genauen technischen Daten meiner DC HC520 12TB: https://gzhls.at/blob/ldb/f/6/2/9/02358c5132c5b04e8c479f282b7be56d0d8f.pdf 5 * 0,59 = 2,95W 12 * 2,00 = 18,12W Also 12 Platten bräuchten 35W über 5V und 217W über 12V. Nehmen wir dieses 300W-Netzteil von Seasonic und wir stellen fest, dass wir noch genug Luft bei beiden Spannungen hätten: https://seasonic.com/sfg Daher mein Fazit: 350 oder 400W reichen dir.
  17. Grundregel: Kaufe niemals einen T-Prozessor. Wenn du die Leistungsaufnahme limitieren willst, dann nutze das BIOS und stell ein TDP Limit ein. Das mache aber nur, wenn du das Netzteil nicht größer auslegen möchtest oder die Kühlung das sonst nicht mitmacht. Der Stromverbrauch eines normalen Prozessors ist bis zu dem TDP Limit des T-Prozessors identisch. Dh ein i3-9300 verbraucht beim Parity Check genauso viel Strom wie ein i3-9300T. Außer der Parity Check benötigt mehr Leistung als der 9300T liefern kann. Dann verbraucht der 9300 zwar mehr Strom, ist aber auch x Stunden früher fertig und die HDDs können entsprechend früher schlafen gehen. Es hat sich also gelohnt den Strom zu investieren um woanders Strom zu sparen. Mehr dazu: https://www.heise.de/ct/hotline/Stromspar-Prozessoren-2056350.html Die CPU als "boxed" und du hast Kühler und Lüfter schon dabei. Da gibt es bestimmt günstigere Alternativen. 240W HDDs (12x 20W) 70W CPU 20W Mainboard mit Lüftern, USB etc 20W NVMe (2x 10W) 5W SATA Controller -------- 355W Netzteil Und das ist in Summe faktisch nicht erreichbar, da während die HDDs hochfahren die anderen Komponenten nicht die volle Leistung ziehen. Ein 350W Netzteil würde dir also eigentlich reichen. Wobei es natürlich immer noch etwas auf die 5V Leistung ankommt. Da müsste man mal alle Werte der Platten addieren und schauen was auf dem Typenschild des Netzteils steht. Ja, ohne RGB LED hat der Server nur die halbe Leistung 🤣 Da bei dem Gehäuse nur zwei Lüfter dabei sind, würde ich vermutlich alle ersetzen. Also drei in die Front, damit alle drei HDD-Käfige Luft abbekommen und hinten raus... vermutlich gar keiner, weil die von vorne ja schon Druck machen. Würde ich einfach während dem Betrieb schauen. Zu beachten gibt es da nichts außer die Größe und ob man zB 4 Pin für eine Regulierung über PWM nimmt oder einfach nur DC Lüfter mit 3 Pin. Mit PWM Lüftern kann man beides machen. Was ich nicht verstehe und was man erst sieht, wenn man es hat, ist die Lüftergröße in der Front. Gehofft hatte ich jetzt, dass man pro Käfig einen 120mm Lüfter nehmen kann. Laut Datenblatt passen vorne aber nur 1x 120mm und 1x 80mm. Kann also sein, dass du da was "basteln" musst. Schau einfach mal ob der beigefügte 120mm Lüfter an allen drei Positionen theoretisch passt und wenn ja kaufst du drei 120mm Lüfter zB von Noctua und baust die ein.
  18. Eventuell eine unsichtbare Datei oder eine mit falschen Rechten? Weil in den Logs sieht es ja so aus als sollte da ein Dateiname stehen, aber der fehlt dann einfach: Jan 13 03:49:54 FloBineDATA bunker: error: BLAKE2 hash key mismatch, is corrupted EDIT: Ja laut Quelltext wird da eine Variable gefüllt: https://github.com/bergware/dynamix/blob/72c87e4890cb381ec07541e47423052a60bd3f06/source/file-integrity/scripts/bunker#L604 echo "${hash^^} hash key mismatch, $file is corrupted" >>$tmpfile.2 bzw auch noch mal weiter unten. Gefüllt wird diese Variable hier: https://github.com/bergware/dynamix/blob/72c87e4890cb381ec07541e47423052a60bd3f06/source/file-integrity/scripts/bunker#L574 file="${line:$name}" $line wird hier gefüllt: https://github.com/bergware/dynamix/blob/72c87e4890cb381ec07541e47423052a60bd3f06/source/file-integrity/scripts/bunker#L571 while read -r line; do Und kommt regulär aus $tmpfile: https://github.com/bergware/dynamix/blob/72c87e4890cb381ec07541e47423052a60bd3f06/source/file-integrity/scripts/bunker#L612 done <$tmpfile $tmpfile ist diese: https://github.com/bergware/dynamix/blob/72c87e4890cb381ec07541e47423052a60bd3f06/source/file-integrity/scripts/bunker#L486 # Used for concurrent script execution tmpfile=/tmp/$cmd.$RANDOM.list Gefüllt wird die Datei mit Pfaden ab hier: https://github.com/bergware/dynamix/blob/72c87e4890cb381ec07541e47423052a60bd3f06/source/file-integrity/scripts/bunker#L508 if [[ $one -eq 0 ]]; then if [[ -z $mask ]]; then find "$path" -type f -name "*" $size $base -exec getfattr -n user.$hash --absolute-names "{}" 1>/dev/null 2>$tmpfile + & else find "$path" -type f \( $mask \) $size $base -exec getfattr -n user.$hash --absolute-names "{}" 1>/dev/null 2>$tmpfile + & fi waitfor $! "Scanning for files to add" sed -i "s/: user.$hash: No such attribute$//" $tmpfile & waitfor $! "Preparing for execution" else [[ -f $path ]] && echo "$path" >$tmpfile || exit fi Die Frage ist nun was genau in der $tmpfile steckt bzw in "$line". Ich würde vorschlagen den Quelltext von der Datei "bunker" so zu verändern, dass wir an diese Information kommen. Am besten ersetzt du folgendes: log "error: ${hash^^} hash key mismatch, $file is corrupted" 1 gegen das: log "error: ${hash^^} hash key mismatch, $file is corrupted (line is $line and name is $name)" 1 Das kommt im Quelltext 2x vor. Ersetze beide Stellen! Weißt du wie? Einfach die bunker Datei in einen Share kopieren: cp /usr/local/emhttp/plugins/dynamix.file.integrity/scripts/bunker /mnt/cache/sharename/bunker Und dann nach der Änderung zurück: cp /mnt/cache/sharename/bunker /usr/local/emhttp/plugins/dynamix.file.integrity/scripts/bunker Danach noch mal ausführen und schauen was diesmal in den Logs steht. Sind die immer noch leer, dann müssen wir uns den Inhalt von $tmpfile anschauen.
  19. Also JorgeB sagt, dass deine noch lebende SSD ebenfalls Schreibfehler in den Logs hinterlassen hat und sie deswegen read-only gemountet wurde. Das muss wohl schon der Fall gewesen sein, als die andere noch funktionierte. Dann hatten vermutlich beide einen Fehler und das ist nun das Ergebnis. Also die Datensicherung ist jetzt erstmal wichtig. Danach müssten wir mal prüfen ob die SSDs wirklich defekt sind. Hattest du mal im laufenden Betrieb den Strom gezogen oder hart abgeschaltet über die Power-Taste? Oder meinst du die SSDs konnten durch die Syno verschlissen worden sein?
  20. No, I hoped there is something implemented like "btrfs balance start dconvert=single". ^^
  21. @Squid What do you think about implementing this in common errors plugin? https://forums.unraid.net/topic/46802-faq-for-unraid-v6/page/2/?tab=comments#comment-700582
  22. No? Isn't it possible to downgrade the RAID1 to Single disk through this way?
×
×
  • Create New...