Jump to content

mgutt

Moderators
  • Posts

    11,355
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Mir fällt gerade ein, dass das ja eigentlich total easy per Script zu machen ist. Einfach die Disk mit Zufallsdaten überschreiben (sdX entsprechend anpassen): dd if=/dev/random of=/dev/sdX bs=1M Danach die Platte komplett auslesen (die Daten werden verworfen): dd if=/dev/sdX of=/dev/null bs=1M Fertig. Danach einbauen und Unraid wird sie Nullen. Eine Verifikation der Daten wie es das Plugin macht ist überflüssig (und sinnfrei, weil ja die Sektoren niemals magnetisiert wurden), da der ECC, also die HDD Firmware das bereits abdeckt. HD Tune macht übrigens nichts anderes. Das ganze läuft mit voller Geschwindigkeit. Je nachdem wie die Durchschnittsgeschwindigkeit der Platte ist, also 150 bis 200 MB/s. Bei 150 MB/s also 1x schreiben und 1x lesen, macht also grob 2 Stunden pro TB. Ich werde das mal in den Plugin Thread schmeißen. Mal sehen ob ich erschlagen werde ^^
  2. 5 Minuten ^^ Wie gesagt. Ich mache nur mehrere Random Write Tests. Der beschreibt dabei nicht die komplette Platte, sondern zufällig auf allen möglichen Spuren hier und da was. Eine nagelneue Platte wo teilweise Sektoren defekt waren, hatte ich noch nie. Ich kann nachher aber gerne mal testen wie lange der vollständige Erase mit HD Tune und der Verify-Option benötigt. Das würde ich auch nutzen, wenn die Platte gebraucht wäre.
  3. Ja, aber es gibt Einschränkungen: M.2_1 hat also nur x2, also nur 2000 MB/s, wodurch bei einem RAID auch M.2_2 entsprechend gedrosselt wäre. Außerdem wird dessen Bandbreite mit SATA6G_2 geteilt. PCIEX16_4 kann man quasi vergessen. Das C246-WU4 ist hier übrigens nicht besser. Auch hier hat ein M.2 Slot nur x2. Allerdings wird da einfach PCIEX4_2 gekillt, so dass die SATA Ports zumindest keine geteilte Bandbreite besitzen. Trotzdem sind beide Boards nicht optimal ausgestattet. Asus hat einen großen Fehler gemacht, in dem sie der mATX Variante keinen zweiten M.2 Slot verpasst haben. Meine Empfehlung wäre das C246M von Asus und dann einen günstigen M.2 PCIe Adapter in den letzten verbauen. Dann hast du deine zwei M.2 mit voller Bandbreite. Ja, das Board verbraucht durchgehend 6W mehr. Selbst wenn der Server heruntergefahren wurde.
  4. This could propably help. The problem is, that you have a tmp dir in the OS, a tmp dir in the webserver and a tmp dir in PHP. And finally as you mentioned, you could set a custom tmp dir for Nextcloud, too. So give it a try. Set the tmp dir through the config.php to "/tmp" and follow the step in the first post to map it to a different location like "/mnt/user/appdata/nextcloud/temp". If you want to map it to Unraids "/tmp" dir which is located in your servers RAM, you must create a tmpfs dir first as mentioned in this guide: https://forums.unraid.net/topic/35878-plex-guide-to-moving-transcoding-to-ram/page/12/?tab=comments#comment-894460 Otherwise it could totally fill up the RAM. So simply using "/mnt/user/appdata/nextcloud/temp" is easier. Mapping the Proxy Containers tmp dir is not needed as I explained before.
  5. I'm talking about Nextcloud. And what does my command return? Changing tmp-paths of SWAG or NPM is not needed. Those are proxies which forward data and not saving it to disk (which would be extremely inefficient). If they would do that, they would be misconfigured.
  6. Did you set "/mnt/user/appdata/nextcloud/temp"? If yes, are there any files in this folder when you upload files? Alternatively upload your file and execute this command through the Webterminal: find /var/lib/docker -type f -printf "%T@ %p\n" | sort -n | cut -d' ' -f 2- | tail -n 50 It shows you the 50 most recent files in the docker.img.
  7. One bug location found: 13:57:01 lstat("/dev/", {st_mode=S_IFDIR|0755, st_size=3920, ...}) = 0 13:57:01 write(1, "/dev/: Unable to detect device t"..., 36) = 36 13:57:01 write(1, "Please specify device type with "..., 47) = 47 13:57:01 write(1, "\nUse smartctl -h to get a usage "..., 41) = 41 This is caused in /usr/local/emhttp/plugins/dynamix/scripts/monitor in this line: if (!file_exists($file) || (time()-filemtime($file)>$var['poll_attributes'])) exec("smartctl -n standby -H $type ".escapeshellarg("/dev/$port")."|grep -Pom1 '^SMART.*: \K[A-Z]+'|tr -d '\n' >".escapeshellarg($file)); It happens because $port is sometimes empty: /usr/local/emhttp/plugins/dynamix/scripts/monitor170smartctl -n standby -H '/dev/sdh'|grep -Pom1 '^SMART.*: \K[A-Z]+'|tr -d ' ' >'/var/local/emhttp/smart/disk8.ssa' /usr/local/emhttp/plugins/dynamix/scripts/monitor170smartctl -n standby -H '/dev/sdd'|grep -Pom1 '^SMART.*: \K[A-Z]+'|tr -d ' ' >'/var/local/emhttp/smart/disk9.ssa' /usr/local/emhttp/plugins/dynamix/scripts/monitor170smartctl -n standby -H '/dev/'|grep -Pom1 '^SMART.*: \K[A-Z]+'|tr -d ' ' >'/var/local/emhttp/smart/parity2.ssa' /usr/local/emhttp/plugins/dynamix/scripts/monitor170smartctl -n standby -H '/dev/sdj'|grep -Pom1 '^SMART.*: \K[A-Z]+'|tr -d ' ' >'/var/local/emhttp/smart/cache.ssa' /usr/local/emhttp/plugins/dynamix/scripts/monitor170smartctl -n standby -H '/dev/sdg'|grep -Pom1 '^SMART.*: \K[A-Z]+'|tr -d ' ' >'/var/local/emhttp/smart/parity.ssa' I think its because of "parity2". I don't have a second parity. So this check should not happen.
  8. The file can't be uploaded to NPM as NPM forwards the traffic.
  9. Lad dir das Backup vom Stick einfach auf den PC. Eine Kopie in die Cloud ist natürlich bei Einbruch/Brand auch sinnvoll. Wenn du der nicht vertraust, kannst du ja ein verschlüsseltes 7zip machen (wegen AES256) und das hochladen. Das Passwort darfst du nur eben nicht vergessen. Dieses Backup sollte man aber regelmäßig machen, zumindest wenn du Plugins installierst und was an den Einstellungen änderst.
  10. Hmm... Kann man nicht mit dem Backup die Lizenz auf einen neuen Stick übertragen? Oder muss man das noch mal mit dem Link aus der E-Mail bestätigen? Bin ich gerade überfragt. Wobei das Szenario schon eher fragwürdig ist. Wer klaut schon eine Unraid Lizenz.
  11. Wenn zb der Stick kaputt geht, dann hast du hoffentlich ein Backup vom kompletten Stick und nicht nur von der Lizenzdatei. Sonst müsste man ja alles neu einstellen. Ob dieses Backup nun unbedingt ins Bankschließfach muss... wenn dann auch das Backup von den Festplatten oder nicht? ^^ Ich mein ob die paar Kröten für die Lizenz verloren gehen, wäre mir jetzt bei einem Einbruch/Brand weniger wichtig als die Daten. Übrigens braucht man die Lizenzdatei nicht mal. Man kann mit dem Link aus der E-Mail die Lizenz auch auf einen neuen Stick übertragen (1x pro Jahr oder mit Hilfe des Supports). Die E-Mail mit dem Link sollte man sich also aufheben.
  12. Nichts. Wir kennen allerdings nicht den Stromverbrauch dieses Boards. Sag bescheid, dann wissen wir es ^^
  13. Achso. Das kannst du dir sparen. Da der appdata Share nur von Docker genutzt wird. Lösch mal den ioBroker Container und lösch die ioBroker Dateien. Entweder von Hand oder mit dem CleanUp Appdata Plugin. Dann noch mal schauen ob die Dateien wirklich gelöscht sind. Danach kannst du den Container wieder installieren. Hat es jetzt geklappt? Übrigens solltest du den Cache von appdata entweder deaktivieren oder bevorzugt wählen (und dann natürlich regelmäßig Backups machen). Die Dateien auf Array und Cache verstreut zu haben, bringt dir ja nichts, da sie alle schlussendlich auf dem Array landen werden.
  14. "Yes" means "Create on cache, move to Array (later)". That's why you should choose "Prefer" which means "Create on cache if possible, if not, move to cache (later)" or "Only" which means "Create on cache". As "Only" can fail if the Cache is full, I suggest "Prefer".
  15. Mine is disabled. So if I use br0, I'm not able to ping the host (but everything else).
  16. Oh, sehe ich auch gerade ^^ Aber die Erklärung steht doch da: Das hat also nichts mit dem Cache zu tun, sondern mit der Disk. Die Einstellung soll also verhindern, dass man eine Datei auf die Disk kopiert und die Disk dabei voll läuft. Sie meldet also vorher schon, dass sie voll ist, so dass keine partielle Datei auf der Disk erstellt wird. Real wird wohl eh keiner die volle Kapazität pro Disk ausschöpfen. Aber gut zu wissen, dass man auch das einstellen kann ^^ Habe ihm schon in den Blog geschrieben. Mal sehen ob er antwortet.
  17. Ach du nutzt 6.9.0. Da ist das ja jetzt bei den Shares. Bei 6.8.3 konnte man das nur global einstellen. Ich meine aber, dass das nun nicht Share-bezogen ist, sondern Pool-bezogen. Dh wen du jetzt zB 10GB einstellst und die Einstellungen von einem anderen Share lädst, sollte da auch direkt 10GB stehen. Der Sinn dahinter ist, dass man jetzt für jeden Share theoretisch einen eigenen SSD Pool als Cache angeben kann. Das was du willst ist es also nicht. Da stört mich einiges: 1.) Er hat auf /mnt/user kopiert und nicht auf /mnt/disk1 (er nimmt dadurch den SHFS Overhead voll mit, der je nach CPU einen Kern überlasten kann) 2.) Er hat scheinbar kein Turbo-Write (reconstruct write) aktiviert, was wohl der größte Fehler darstellen würde. 3.) Bei NVMe only hat er nicht ohne Parity gegengeprüft. Er muss doch erst mal ermitteln ob eine NVMe alleine die 40GB überhaupt mit voller Geschwindigkeit schreiben kann. 4.) Er hat nicht verstanden, dass Trim nicht hilft (weil es auf der Parity nicht greift) 5.) Er hat nach dem Parity Build nicht abgewartet, damit die Garbage Collection die NVMe säubern kann (er hat es zumindest nicht erwähnt). Wenn das Array aus gleich großen NVMe besteht und die Parity gerade erstellt wurde, dann ist der Overprovisioning-Bereich doch bestimmt voll. 6.) Er hat nicht auf mehrere Laufwerke gleichzeitig geschrieben. Da ist das Unraid Array nämlich sehr schwach. Ein Vergleich wäre sehr interessant gewesen. 7.) Es ist sehr verdächtig, dass er eine durchgehend konstante Übertragungsrate hat. Wenn ich 50 GB auf eine HDD meines NAS übertrage, sieht das erst so aus: und nach 25GB so: Um eine durchgehend konstante Übertragungsrate zu erzwingen, müsste ich das RAM Caching von Linux quasi deaktivieren. Wenn er das gemacht hat, warum erwähnt er es nicht?
  18. Mach das bitte nicht. Ich hab nur gefragt ^^ Wenn du im laufenden Betrieb den Cache deaktivierst, dann kann der Container nur noch auf /mnt/disk1/appdata oder /mnt/disk2/appdata zugreifen. Die Dateien auf /mnt/cache/appdata kennt er dann nicht mehr. Der Container installiert sich also neu oder weil er gerade noch läuft, meldet er "ich kann nichts finden, Fehler". Daher bitte niemals die Cache-Einstellung ändern, wenn VMs oder Docker-Container noch laufen. Nutzt du einen Cache mit zwei SSDs? Dann stoppe in den Einstellungen den Docker-Dienst, stell appdata beim Cache auf "Bevorzugen" und starte den Mover. Dieser schiebt dann denn kompletten appdata Ordner auf die SSDs. Wenn er damit fertig ist, darfst du unter "Speicherort" nur noch "cache" lesen dürfen. Erst danach startest du wieder den Docker-Dienst. Warum sehe ich denn auf deinem Screenshot unter appdata keinen iobroker Ordner? Hattest du den Container schon wieder gelöscht oder hat der erst gar keinen Ordner erstellt? Das wäre tatsächlich komisch. Ich habe ihn gerade testweise unter 6.8.3 installiert und der Ordner wurde erstellt:
  19. Alles. Erklärungen bekommst du, wenn du in den Share-Einstellungen auf "Use cache (for new files/directories):" klickst. Das gilt übrigens überall. Oder oben rechts aufs Fragezeichen. Dann werden immer alle Hilfen eingeblendet. Deren Caches sind nicht datei- sondern blockbasiert und funktionieren daher nicht ohne die dahinter laufenden HDDs. Ein gänzlich anderes Konzept, das ich nicht haben wollen würde. Aber wie gesagt. Eine "Hot Cache Files" Option wäre schon schick. Kann aber Unraid aktuell nicht. Übrigens erfüllt der RAM diese Aufgabe bereits. Jede Datei, die man abruft, landet bei Linux direkt im RAM. Beim zweiten Download wird gar nicht mehr auf die HDD / SSD zugegriffen. Daher bin ich ein Fan von sehr viel RAM. Kann nicht gehen, weil die dir dann irgendwann beim Erreichen des Limits abschmieren würden. So viel Speicher wird auf der SSD grundsätzlich freigelassen. Das ist notwendig, weil beim Upload auf den Server noch nicht bekannt ist wie groß die Datei wird. Daher muss man diesen Wert größer machen als die größte Datei, die man vor hat hochzuladen. Ich habe wegen Blu-Rip rippen sogar 100GB eingestellt. Wenn das Array komplett aus SSDs besteht oder wie? Kann ich kaum glauben. Nein Trim ist Teamwork zwischen OS und SSD. Das OS sagt mit Trim, dass zb Sektor 1 nicht mehr benötigt wird. Sektor 1 liegt auf der SSD aber nicht in Sektor 1 wie bei einer HDD, sondern in einer Gruppe von Sektoren, die sich Seite nennt. Durch den Trim weiß die SSD nun, dass sie zb nun zwei halb volle Seiten zu einer vollen Seite machen kann. Wenn man dagegen einen bestimmten Sektor geändert haben möchte, was ja bei der Parität grundsätzlich der Fall ist, wäre das sehr langsam, weil immer die ganze Seite neu erstellt werden muss. Die SSD lässt das daher gar nicht erst zu und markiert stattdessen den Datensatz auf der Seite als gelöscht und schreibt die Änderung auf eine neue Seite. Daher ist nun meine Hoffnung, dass eine übergröße SSD als Parität, genug Bereiche für diese Aufgabe frei hat und dann bei der Garbage Collection die Daten wieder auf einer Seite zusammenfasst, so dass wieder genug leere Seiten frei werden. Dieser Artikel erklärt das ganz gut: https://hardwrk.com/blog/trim-vs-garbage-collection-was-ist-der-unterschied Trim funktioniert also nur bei einem klassischen Dateisystem, wo das OS der SSD sagt, dass ganz bestimmte Sektoren einer gelöschten Datei nicht mehr benötigt werden. Da eine Parity aber kein Dateisystem verwendet (Raw) und grundsätzlich immer alle Sektoren in Benutzung sind, kann man hier gar kein Trim anwenden. Erst dachte ich, dass eine übergroße SSD helfen müsste, aber dann müsste es dieses Problem auch bei einem RAID geben. Und hier meinen manche, dass es das dank over-provisioning, also den Ersatzzellen, nicht gibt: https://www.spinics.net/lists/raid/msg40916.html
  20. Hast du den Appdata Share mal mit und mal ohne Cache konfiguriert? Der Pfad /opt/iobroker verlinkt auf /mnt/user/appdata/iobroker/data: Dort werden die Dateien bei der Installation reinkopiert. Also welche Cache Option hat "appdata"? Wenn du bei den Freigaben rechts auf den Ordner klickst um die Dateien in "appdata" anzuschauen, welchen Standort habe sie? Nur Cache, eine bestimmte Disk, beides?
  21. HBA x8 Dual 10G x4 Quad M.2 x16 GPU x2 Letzteres wird dich evtl wundern, aber mehr brauchst du weder für eine officetaugliche VM, noch für Transcoding. Selbst beim Gaming ist der Unterschied zwischen x8 und x16 gering.
  22. Ok, monitored even longer and now a check for sde appeared: 16:34:02 openat(AT_FDCWD, "/dev/sde", O_RDONLY|O_NONBLOCK) = 3 16:34:02 write(1, "Device is in STANDBY mode, exit("..., 35) = 35 sdc is still missing, but sdl appeared multiple times with a pipe error: strace: Process 27020 attached strace: [ Process PID=27020 runs in x32 mode. ] strace: [ Process PID=27020 runs in 64 bit mode. ] 17:15:01 read(3, "\"\", \"\"\n },\n { \"Seagate Barracu"..., 4096) = 4096 17:15:01 read(3, "T3000DM001\",\n \"\", \"\",\n \"-v"..., 4096) = 4096 17:15:01 read(3, "Constellation ES (SATA 6Gb/s)\", "..., 4096) = 4096 17:15:01 read(3, " \"\", \"\", \"\"\n },\n { \"Seagate M"..., 4096) = 4096 17:15:01 read(3, "\"-v 187,raw48,Uncorrectable_ECC_"..., 4096) = 4096 17:15:01 read(3, "bly explained by the WD firmware"..., 4096) = 4096 17:15:01 read(3, "viar Green\", // tested with WDC "..., 4096) = 4096 17:15:01 read(3, "/82.00A82,\n // WDC WD80EFAX"..., 4096) = 4096 17:15:01 read(3, "SB ID entries\n ////////////////"..., 4096) = 4096 17:15:01 read(3, " \"USB: Samsung; \",\n \"0x04e8:0"..., 4096) = 4096 17:15:01 read(3, "at\"\n },\n // Micron\n { \"USB: M"..., 4096) = 4096 17:15:01 read(3, " { \"USB: Maxtor OneTouch 4; \",\n"..., 4096) = 4096 17:15:01 read(3, " \"\", // 0x0114\n \"\", // 0x0"..., 4096) = 4096 17:15:01 read(3, " usbjmicron\"\n },\n { \"USB: Verb"..., 4096) = 3817 17:15:01 read(3, "", 4096) = 0 17:15:01 close(3) = 0 17:15:01 lstat("/dev/sdl", {st_mode=S_IFBLK|0660, st_rdev=makedev(8, 176), ...}) = 0 17:15:01 stat("/sys/devices", {st_mode=S_IFDIR|0755, st_size=0, ...}) = 0 17:15:01 stat("/sys/block/sdl/device/..", {st_mode=S_IFDIR|0755, st_size=0, ...}) = 0 17:15:01 access("/sys/block/sdl/device/../idVendor", F_OK) = -1 ENOENT (No such file or directory) 17:15:01 stat("/sys/block/sdl/device/../..", {st_mode=S_IFDIR|0755, st_size=0, ...}) = 0 17:15:01 access("/sys/block/sdl/device/../../idVendor", F_OK) = -1 ENOENT (No such file or directory) 17:15:01 stat("/sys/block/sdl/device/../../..", {st_mode=S_IFDIR|0755, st_size=0, ...}) = 0 17:15:01 access("/sys/block/sdl/device/../../../idVendor", F_OK) = -1 ENOENT (No such file or directory) 17:15:01 stat("/sys/block/sdl/device/../../../..", {st_mode=S_IFDIR|0755, st_size=0, ...}) = 0 17:15:01 access("/sys/block/sdl/device/../../../../idVendor", F_OK) = -1 ENOENT (No such file or directory) 17:15:01 stat("/sys/block/sdl/device/../../../../..", {st_mode=S_IFDIR|0755, st_size=0, ...}) = 0 17:15:01 access("/sys/block/sdl/device/../../../../../idVendor", F_OK) = -1 ENOENT (No such file or directory) 17:15:01 stat("/sys/block/sdl/device/../../../../../..", {st_mode=S_IFDIR|0755, st_size=0, ...}) = 0 17:15:01 access("/sys/block/sdl/device/../../../../../../idVendor", F_OK) = -1 ENOENT (No such file or directory) 17:15:01 stat("/sys/block/sdl/device/../../../../../../..", {st_mode=S_IFDIR|0755, st_size=0, ...}) = 0 17:15:01 lstat("/sys", {st_mode=S_IFDIR|0555, st_size=0, ...}) = 0 17:15:01 lstat("/sys/block", {st_mode=S_IFDIR|0755, st_size=0, ...}) = 0 17:15:01 lstat("/sys/block/sdl", {st_mode=S_IFLNK|0777, st_size=0, ...}) = 0 17:15:01 readlink("/sys/block/sdl", "../devices/pci0000:00/0000:00:1d"..., 4095) = 92 17:15:01 lstat("/sys/devices", {st_mode=S_IFDIR|0755, st_size=0, ...}) = 0 17:15:01 lstat("/sys/devices/pci0000:00", {st_mode=S_IFDIR|0755, st_size=0, ...}) = 0 17:15:01 lstat("/sys/devices/pci0000:00/0000:00:1d.0", {st_mode=S_IFDIR|0755, st_size=0, ...}) = 0 17:15:01 lstat("/sys/devices/pci0000:00/0000:00:1d.0/0000:05:00.0", {st_mode=S_IFDIR|0755, st_size=0, ...}) = 0 17:15:01 lstat("/sys/devices/pci0000:00/0000:00:1d.0/0000:05:00.0/ata13", {st_mode=S_IFDIR|0755, st_size=0, ...}) = 0 17:15:01 lstat("/sys/devices/pci0000:00/0000:00:1d.0/0000:05:00.0/ata13/host13", {st_mode=S_IFDIR|0755, st_size=0, ...}) = 0 17:15:01 lstat("/sys/devices/pci0000:00/0000:00:1d.0/0000:05:00.0/ata13/host13/target13:0:0", {st_mode=S_IFDIR|0755, st_size=0, ...}) = 0 17:15:01 lstat("/sys/devices/pci0000:00/0000:00:1d.0/0000:05:00.0/ata13/host13/target13:0:0/13:0:0:0", {st_mode=S_IFDIR|0755, st_size=0, ...}) = 0 17:15:01 lstat("/sys/devices/pci0000:00/0000:00:1d.0/0000:05:00.0/ata13/host13/target13:0:0/13:0:0:0/block", {st_mode=S_IFDIR|0755, st_size=0, ...}) = 0 17:15:01 lstat("/sys/devices/pci0000:00/0000:00:1d.0/0000:05:00.0/ata13/host13/target13:0:0/13:0:0:0/block/sdl", {st_mode=S_IFDIR|0755, st_size=0, ...}) = 0 17:15:01 lstat("/sys/devices/pci0000:00/0000:00:1d.0/0000:05:00.0/ata13/host13/target13:0:0/13:0:0:0/block/sdl/device", {st_mode=S_IFLNK|0777, st_size=0, ...}) = 0 17:15:01 readlink("/sys/devices/pci0000:00/0000:00:1d.0/0000:05:00.0/ata13/host13/target13:0:0/13:0:0:0/block/sdl/device", "../../../13:0:0:0", 4095) = 17 17:15:01 lstat("/sys/devices/pci0000:00/0000:00:1d.0/0000:05:00.0/ata13/host13/target13:0:0/13:0:0:0", {st_mode=S_IFDIR|0755, st_size=0, ...}) = 0 17:15:01 openat(AT_FDCWD, "/sys/class/scsi_host/host13/proc_name", O_RDONLY) = 3 17:15:01 read(3, "ahci\n", 31) = 5 17:15:01 close(3) = 0 17:15:01 openat(AT_FDCWD, "/dev/sdl", O_RDONLY|O_NONBLOCK) = 3 17:15:01 fcntl(3, F_SETFD, FD_CLOEXEC) = 0 17:15:01 ioctl(3, SG_IO, {'S', SG_DXFER_FROM_DEV, cmd[6]=[12, 00, 00, 00, 24, 00], mx_sb_len=32, iovec_count=0, dxfer_len=36, timeout=60000, flags=0, data[36]=[00, 00, 05, 02, 5b, 00, 00, 02, 41, 54, 41, 20, 20, 20, 20, 20, 48, 47, 53, 54, 20, 48, 55, 48, 37, 32, 31, 32, 31, 32, 41, 4c, ...], status=00, masked_status=00, sb[0]=[], host_status=0, driver_status=0, resid=0, duration=0, info=0}) = 0 17:15:01 ioctl(3, SG_IO, {'S', SG_DXFER_FROM_DEV, cmd[16]=[85, 08, 0e, 00, 00, 00, 01, 00, 00, 00, 00, 00, 00, 00, ec, 00], mx_sb_len=32, iovec_count=0, dxfer_len=512, timeout=60000, flags=0, data[512]=[5a, 04, ff, 3f, 37, c8, 10, 00, 00, 00, 00, 00, 3f, 00, 00, 00, 00, 00, 00, 00, 43, 38, 55, 48, 48, 44, 45, 45, 20, 20, 20, 20, ...], status=00, masked_status=00, sb[0]=[], host_status=0, driver_status=0, resid=0, duration=0, info=0}) = 0 17:15:01 ioctl(3, SG_IO, {'S', SG_DXFER_NONE, cmd[16]=[85, 06, 2c, 00, 00, 00, 00, 00, 00, 00, 00, 00, 00, 00, e5, 00], mx_sb_len=32, iovec_count=0, dxfer_len=0, timeout=60000, flags=0, status=02, masked_status=01, sb[22]=[72, 01, 00, 1d, 00, 00, 00, 0e, 09, 0c, 00, 00, 00, 81, 00, 00, 00, 00, 00, 00, 00, 50], host_status=0, driver_status=0x8, resid=0, duration=0, info=0x1}) = 0 17:15:01 ioctl(3, SG_IO, {'S', SG_DXFER_FROM_DEV, cmd[16]=[85, 08, 0e, 00, 00, 00, 01, 00, 00, 00, 00, 00, 00, 00, ec, 00], mx_sb_len=32, iovec_count=0, dxfer_len=512, timeout=60000, flags=0, data[512]=[5a, 04, ff, 3f, 37, c8, 10, 00, 00, 00, 00, 00, 3f, 00, 00, 00, 00, 00, 00, 00, 43, 38, 55, 48, 48, 44, 45, 45, 20, 20, 20, 20, ...], status=00, masked_status=00, sb[0]=[], host_status=0, driver_status=0, resid=0, duration=0, info=0}) = 0 17:15:01 brk(0x584000) = 0x584000 17:15:01 brk(0x5a6000) = 0x5a6000 17:15:01 brk(0x5c7000) = 0x5c7000 17:15:01 ioctl(3, SG_IO, {'S', SG_DXFER_FROM_DEV, cmd[16]=[85, 08, 0e, 00, d0, 00, 01, 00, 00, 00, 4f, 00, c2, 00, b0, 00], mx_sb_len=32, iovec_count=0, dxfer_len=512, timeout=60000, flags=0, data[512]=[10, 00, 01, 0b, 00, 64, 64, 00, 00, 00, 00, 00, 00, 00, 02, 05, 00, 84, 84, 60, 00, 00, 00, 00, 00, 00, 03, 07, 00, 9f, 9f, 9c, ...], status=00, masked_status=00, sb[0]=[], host_status=0, driver_status=0, resid=0, duration=5, info=0}) = 0 17:15:01 ioctl(3, SG_IO, {'S', SG_DXFER_FROM_DEV, cmd[16]=[85, 08, 0e, 00, d1, 00, 01, 00, 01, 00, 4f, 00, c2, 00, b0, 00], mx_sb_len=32, iovec_count=0, dxfer_len=512, timeout=60000, flags=0, data[512]=[10, 00, 01, 10, 00, 00, 00, 00, 00, 00, 00, 00, 00, 00, 02, 36, 00, 00, 00, 00, 00, 00, 00, 00, 00, 00, 03, 18, 00, 00, 00, 00, ...], status=00, masked_status=00, sb[0]=[], host_status=0, driver_status=0, resid=0, duration=3, info=0}) = 0 17:15:01 write(1, "=== START OF READ SMART DATA SEC"..., 41) = 41 17:15:01 ioctl(3, SG_IO, {'S', SG_DXFER_NONE, cmd[16]=[85, 06, 2c, 00, da, 00, 00, 00, 00, 00, 4f, 00, c2, 00, b0, 00], mx_sb_len=32, iovec_count=0, dxfer_len=0, timeout=60000, flags=0, status=02, masked_status=01, sb[22]=[72, 01, 00, 1d, 00, 00, 00, 0e, 09, 0c, 00, 00, 00, 00, 00, 00, 00, 4f, 00, c2, 00, 50], host_status=0, driver_status=0x8, resid=0, duration=1, info=0x1}) = 0 17:15:01 write(1, "SMART overall-health self-assess"..., 57) = 57 17:15:01 write(1, "\n", 1) = -1 EPIPE (Broken pipe) 17:15:01 --- SIGPIPE {si_signo=SIGPIPE, si_code=SI_USER, si_pid=27020, si_uid=0} --- 17:15:01 close(3) = 0 17:15:01 exit_group(0) = ? 17:15:01 +++ exited with 0 +++ Now I started a movie which is on sdl and the icon became directly active in the WebGUI: So its only something related the standby status which fails.
×
×
  • Create New...