-
Posts
43 -
Joined
-
Last visited
-
Days Won
1
Content Type
Profiles
Forums
Downloads
Store
Gallery
Bug Reports
Documentation
Landing
Posts posted by BUSTER
-
-
Quote
Gelinde und einfach gesagt: "Ja".
Das ist einfach das Unraid Konzept das wenn Daten geschrieben werden auf ein Array unter Parität das sowohl die Daten und die Parität gleichzeitig (auf unterschiedliche Platten) geschrieben werden. Das halbiert schonmal deine theoretische Schreibrate und dazu kommen noch parallele Lesevorgäng (bei letzterem iirc).
Okay dann ist es so, muss ich versuchen ob ich so leben kann
44 minutes ago, MPC561 said:Deswegen gibt es ja auch den Schreibcache der auf vollem Speed läuft und der das bedingt kompensieren soll.
Ja das habe ich auch bemerkt, das schreiben aufm Cache ist trotzdem wesentlich schneller, jedoch bei mir schnell voll da nur 256GB, ich werde den die tage mit einem 2TB Nvme austauschen, dann sollte ich tagsüber keine Probleme mehr haben, und nachts hat denn der Mover jedem menge zeit alles zu verschieben
Ich danke dir für deine ausführliche Erklärung @MPC561
cYa BUSTER
-
Hi liebe Community,
Bisher bin ich sehr gut gefahren mit UnRaid, SMB Performance, Docker Containers, VM`s, alles lieft sehr gut bis ich auf die Idee kam so langsam mal mein Array auch mit Parität Disks vergebe damit falls mal einer ausfällt, ich Sicherheiten habe, aber seitdem ich Parität Disk mit angebunden habe, ist das System sehr Langsam geworden, SMB Speed ca 60MBit´s vorher Hatte ich fast immer 110MBit´s, auch wenn was von dem Cache Drive der Mover etwas verschieben tut ist der Speed 30MBit´s was vorher ca 160MBit´s war, wenn der Mover arbeitet alle 6 CPU´s 100% oder wenn ich etwas per SMB hinschiebe auch 100% Prozessor Auslastung, nichts läuft mehr in der zeit bis die Übertragungen fertig sind.
Mein System ist ein Mini PC der schon ein bissle Power hat,
Technopc H385 Intel® Core™ i5-8400 CPU @ 2.80GHz, 32GB RAM DDR4 2666 MHz
Alles an HDD´s sind per USB 3.0 mit einem aktiven USB HUB angebunden.
wie oben beschrieben ist das Performance Problem nach dem Einbau des Parität Disk Passiert,
ist das Normal ?
PS: disgnostics ist im Anhang
cYa BUSTER
-
Ich selber benutze NginxProxyManager der hat ein WebGUI da beim Nextcloud host den Eintrag hinzugefügt und das funzt 😎
cYa BUSTER
- 1
-
2 hours ago, hawihoney said:
Das kann man in den Docker Einstellungen umstellen. Dazu muss man das Docker Subsystem natürlich vorher stoppen und neu einrichten:
Hab den Satz nicht verstanden.
Grundsätzlich gibt es bei Nextcloud die Konfiguration (AKA /config) und die Daten (AKA /data). Deren Ziel/ordner hast Du bei der Einrichtung von Nextcloud angegeben. Wenn beides auf einem kleinen, schnellen Pool liegt, dann kann man z.B. /data auch an anderer Stelle ablegen. Wenn man erheblich mehr benötigt gibt es noch weitere Möglichkeiten (Stichwort Externe Speicher, ...). Dazu müsste ich aber erstmal begreifen was Du meinst.
Habs nun so gemacht das ich alles auf /mnt/user/Nextcloud/ Installiert habe ohne den Cache zu NutzenDie HDD anzeige ist bissle merkwürdig..
Mount: /data
Dateisystem: fuse.shfs
Größe: 23.64 TB
Verfügbar: 22.98 TBeigentlich müsste diese folgend aussehen
Mount: /data
Dateisystem: fuse.shfs
Größe: 51.00 TB
Verfügbar: 22.98 TBkeine ahnung warum das so dargestellt wird von Nextcloud, aber so kann ich erstmal die restlichen TB`s komplett anbinden.
danke für eure Hilfe
cYa BUSTER
-
1 hour ago, mgutt said:
Erstmal könntest du docker.img auf Folder umstellen. Damit wird dann die gesamte Größe des Cache Pools angezeigt:
hab das nicht gefunden das auf Folder umstellen, kannst du etwas ausführlicher bitte erklären
Ich habe es Komplett neu Installiert das NextcloudPi, diesmal auf ein Share direkt also /mnt/user/UnRaid/Nextcloud, den Share alle Disks zugewiesen, und Cache auf Yes gestellt, nun wird nur das Cache NVME als Größe des Nextcloud angezeigt
cYa BUSTER
-
Was zeigt die App denn falsch an? Ist dass auch als Admin unter System so?
Im App und auch als Admin unter System wird die Größe des docker.img angezeigt.
QuoteErstmal könntest du docker.img auf Folder umstellen. Damit wird dann die gesamte Größe des Cache Pools angezeigt:
Das probiere ich gleich mal aus.
QuoteUnd würde man nun /var/www/html (und alle Unterordner) auf zb /mnt/user/nextcloud verlinken, sollte das denke ich auch das komplette Array anzeigen oder nicht? Setzt natürlich voraus, dass man den Container stoppt und alle Dateien aus appdata dahin kopiert.
Hat aber auch den Nachteil, dass das Array immer wieder laufen wird.
Ich hatte es auch in einer eigenen Share direkt Installiert gehabt, diesen Share habe ich alle Platten Zugewiesen,
da es Docker ist behandelt es auch eben so und zeigt nur den docker.img Größe an
-
Hi Community.
Hab da ein Problem, wo ich mehr Speicher vergeben muss im Array sind 50TB und muss diese Nextcloud zuweisen.
so das es auch im Handy App zu ersehen ist wieviel davon schon in Nutzung ist.
Hatte mir gedacht das ich eine Neue Freigabe mache diesen alle Disks vom Array zuweise und Nextcloud da Installiere, aber geht nicht
Nextcloud wird immer die Größe von dem Docker Image angezeigt dieser ist bei mir 300GB, somit auch nur 300GB nutzbar.
hat vielleicht jemand eine Idee ?
cYa BUSTER
-
Hi Archonw,
auch wenn ich es sehr spät hier deine Antwort sehe,
Ja es ist die Lösung um es genau zu sagen echo "proxy_hide_header Upgrade;" >> /etc/nginx/conf.d/default.conf
das funktioniert jetzt bei mir auch, danke für deine Antwort und Hilfe.
cYa BUSTER
-
Hi there,
i know firstly must read the instuctions what i have but not understand , in witch exaktly folder must be create the config.xml file ?
i have create in /boot/config/config.yml issue not solved,
i have create in /mnt/user/appdata/antennas/config/config.yml issue persist again
can you please tell me what can i do ?
EDIT: Issue solved created config.yml file in /mnt/user/appdata/antennas <--- in antennas folder ! you disscriped in config folder
cYa BUSTER
-
Hallo Liebe Community,
Ich hab ein Problem mit dem externen zugreifen auf meine Docker Image NextcloudPi von ownyourbits, das ganze funktioniert wunderbar mit Windows oder Android, jedoch wenn ich mich mit einem Apple gerät verbinden will extern halt darauf zugreifen will bekomme ich die oben genannte Fehlermeldung "Parsen der Antwort nicht möglich" NginxProxyManager regelt das Reversen, bin vergeblich auf der Suche was das Problem sein könnte, auf Reddit bin ich auf ein Thread fündig geworden wo einige andere das Problem auch haben, jedoch noch keine Lösung da ist, ich bin auf jede Tipp und Hilfe Dankbar.
cYa BUSTER
-
12 hours ago, mgutt said:
Da die Fehler wirklich überall auftauchen, sogar direkt im Boot-Bereich der HDD, würde ich sagen, dass das nicht an der HDD liegt, sondern eher am Kabel / der Verbindung:
Jul 31 13:22:26 UnRaid emhttpd: shcmd (498): /usr/sbin/cryptsetup luksClose md5 Jul 31 13:22:26 UnRaid kernel: md: disk5 read error, sector=0 Jul 31 13:22:26 UnRaid kernel: md: disk5 read error, sector=16 Jul 31 13:22:26 UnRaid kernel: Buffer I/O error on dev md5, logical block 2, async page read ### [PREVIOUS LINE REPEATED 1 TIMES] ### Jul 31 13:22:26 UnRaid kernel: md: disk5 read error, sector=32 Jul 31 13:22:26 UnRaid kernel: Buffer I/O error on dev md5, logical block 4, async page read Jul 31 13:22:26 UnRaid kernel: md: disk5 read error, sector=64 Jul 31 13:22:26 UnRaid kernel: Buffer I/O error on dev md5, logical block 8, async page read Jul 31 13:22:26 UnRaid kernel: md: disk5 read error, sector=128 Jul 31 13:22:26 UnRaid kernel: Buffer I/O error on dev md5, logical block 16, async page read Jul 31 13:22:26 UnRaid kernel: md: disk5 read error, sector=256 Jul 31 13:22:26 UnRaid kernel: Buffer I/O error on dev md5, logical block 32, async page read Jul 31 13:22:26 UnRaid kernel: md: disk5 read error, sector=512 Jul 31 13:22:26 UnRaid kernel: Buffer I/O error on dev md5, logical block 64, async page read Jul 31 13:22:26 UnRaid kernel: md: disk5 read error, sector=1024 Jul 31 13:22:26 UnRaid kernel: Buffer I/O error on dev md5, logical block 128, async page read Jul 31 13:22:26 UnRaid kernel: md: disk5 read error, sector=2048 Jul 31 13:22:26 UnRaid kernel: Buffer I/O error on dev md5, logical block 256, async page read Jul 31 13:22:26 UnRaid kernel: md: disk5 read error, sector=4096 Jul 31 13:22:26 UnRaid kernel: Buffer I/O error on dev md5, logical block 512, async page read Jul 31 13:22:26 UnRaid kernel: md: disk5 read error, sector=8192 Jul 31 13:22:26 UnRaid emhttpd: shcmd (499): /usr/sbin/cryptsetup luksClose sdg1 Jul 31 13:22:26 UnRaid kernel: mdcmd (43): stop
Dass keine SMART-Werte in den Logs stehen, ist auch komisch. So als könnte Unraid diese nicht wegen USB auslesen. Führe mal über das Web Terminal das Kommando aus, um dir die SMART Werte anzeigen zu lassen:
smartctl -A /dev/sdf
Nun versetz die Disk in den Spindown und check mit dem Kommando den Power-State:
hdparm -C /dev/sdf
Hier aus deinem Report die SMART Werte. Die sind wichtig und stehen alle auf Null:
5 Reallocated_Sector_Ct PO--CK 200 200 140 - 0 7 Seek_Error_Rate -OSR-K 200 200 000 - 0 196 Reallocated_Event_Count -O--CK 200 200 000 - 0 197 Current_Pending_Sector -O--CK 200 200 000 - 0 198 Offline_Uncorrectable ----CK 200 200 000 - 0
Der hier bezieht sich auf die Verbindung zwischen Mainboard und HDD:
199 UDMA_CRC_Error_Count -O--CK 200 200 000 - 21
Diesen gilt es zu beobachten. Der sollte nicht weiter steigen, weil das sonst bedeutet, dass weiterhin ein Verbindungsfehler vorhanden ist.
Meine Glaskugel sagt bis hier hin, dass USB schlafen geht und die Verbindung zur Platte kurz komplett weg ist. Nutzt du Stromsparmechanismen im BIOS oder hast du in Unraid powertop installiert oder sonst irgendwas in der Richtung eingestellt?
Dann allgemein: Verschlüsselung und USB und Array und kein Backup (?) sind eine ganz böse Kombination.
Moin mgutt,
danke für deine hilfe
wenn ich UnRaid neu starte bekomme ich info sehe --> Screenshot
SMART Werte
root@UnRaid:~# smartctl -A /dev/sdf
smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.10.28-Unraid] (local build)
Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org=== START OF READ SMART DATA SECTION ===
SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000f 083 064 006 Pre-fail Always - 184740262
3 Spin_Up_Time 0x0003 091 091 000 Pre-fail Always - 0
4 Start_Stop_Count 0x0032 100 100 020 Old_age Always - 39
5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always - 0
7 Seek_Error_Rate 0x000f 072 060 045 Pre-fail Always - 17420699
9 Power_On_Hours 0x0032 099 099 000 Old_age Always - 1537 (53 79 0)
10 Spin_Retry_Count 0x0013 100 100 097 Pre-fail Always - 0
12 Power_Cycle_Count 0x0032 100 100 020 Old_age Always - 16
183 Runtime_Bad_Block 0x0032 100 100 000 Old_age Always - 0
184 End-to-End_Error 0x0032 100 100 099 Old_age Always - 0
187 Reported_Uncorrect 0x0032 100 100 000 Old_age Always - 0
188 Command_Timeout 0x0032 100 099 000 Old_age Always - 1 1 1
189 High_Fly_Writes 0x003a 100 100 000 Old_age Always - 0
190 Airflow_Temperature_Cel 0x0022 040 035 040 Old_age Always FAILING_NOW 60 (Min/Max 60/60 #628)
191 G-Sense_Error_Rate 0x0032 100 100 000 Old_age Always - 0
192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 2
193 Load_Cycle_Count 0x0032 100 100 000 Old_age Always - 445
194 Temperature_Celsius 0x0022 060 065 000 Old_age Always - 60 (0 23 0 0 0)
195 Hardware_ECC_Recovered 0x001a 083 064 000 Old_age Always - 184740262
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0010 100 100 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x003e 200 200 000 Old_age Always - 0
240 Head_Flying_Hours 0x0000 100 253 000 Old_age Offline - 771h+16m+21.230s
241 Total_LBAs_Written 0x0000 100 253 000 Old_age Offline - 32827230064
242 Total_LBAs_Read 0x0000 100 253 000 Old_age Offline - 16652753490SpinDown
/dev/sdf:
drive state is: standbySpinUP
/dev/sdf:
drive state is: active/idleMuss sagen wenn ich UnRaid neu starte, array anbinde, und nur den ruTorrent CT starte der auch nur auf die SDF1 zugewiesen ist läuft alles, ohne Probleme.
Starte jetzt nach und nach andere CT
NginxProxyManager --> rennt, keine Probleme mit SDF1
Bitwarden --> rennt, keine Probleme mit SDF1
Jellyfin --> rennt, keine Probleme mit SDF1
Info erhalten --> Screenshot hat aber nichts mit dem start von Jellyfin zu tun nehme ich an da dieser auf SDF nicht zugreift, (hatte nebenbei einen 11GB Torrent am Laden um zu testen das in der zeit etwas geschieben wird auf die SDF1)
Windows 11 VM Gestartet = gleiche Problem Festplatte ist ausgefallen, somit musste ich bei den Windows 11 Einstellungen nachschauen, und Voila warum auch immer habe ich die SDF Platte auch dem Windows 11 zugewiesen so das es auch über USB erreichbar sein soll bei Windows 11 keine ahnung warum da der Haken an war siehe --> Screenshot
hab den Haken da rausgenommen, UnRaid & Windows 11 erneut gestartet läuft alles wieder, Festplatte doch nicht Löffel abgegeben juhuu
Danke für euren Hilfen.
cYa BUSTER
- 1
-
Hallo Ford Prefect,
Danke für deine hilfe, genau ich nutze noch kein Parity, alles an Festplatten sind Verschlüsselt, auch der 256GB NVMe Cache Drive, auch die 256GB SSD
alles ist per USB 3.0 verbunden, es ist ein Mini PC der hier --> TechnoPC H385, somit habe ich keine Möglichkeit die HDD direkt per SATA anzuschließen, zu mindestens nicht bei diesem gerät, ich könnte es bei mein Sohn am PC direkt über SATA anschließen, der hat wiederum Windows 10 vermute das der keine XFS Luks Crypt Unterstützt ?
zu not könnte ich diesen denn mit eine Linux Live Distro Booten wenns was bringt ?
// EDIT: ich hab alles mal heruntergefahren USB Kabeln alle raus etwas staubig gewesen, alles wieder angeschlossen array gestartet und nun konnte ich auch ein SMART test machen mit der Platte, im Anhang das report.
Letztes SMART Prüfergbnis: Ohne Fehler abgeschlossen ich wird daraus nicht schlau
//EDIT nochmal gleiche Fehler nach Paar Minuten
Datenträgerprotokoll
Jul 31 17:37:10 UnRaid kernel: sd 5:0:0:0: [sdf] 3907029168 512-byte logical blocks: (2.00 TB/1.82 TiB)
Jul 31 17:37:10 UnRaid kernel: sd 5:0:0:0: [sdf] Write Protect is off
Jul 31 17:37:10 UnRaid kernel: sd 5:0:0:0: [sdf] Mode Sense: 17 00 00 08
Jul 31 17:37:10 UnRaid kernel: sd 5:0:0:0: [sdf] No Caching mode page found
Jul 31 17:37:10 UnRaid kernel: sd 5:0:0:0: [sdf] Assuming drive cache: write through
Jul 31 17:37:10 UnRaid kernel: sdf: sdf1
Jul 31 17:37:10 UnRaid kernel: sd 5:0:0:0: [sdf] Attached SCSI disk
Jul 31 17:37:37 UnRaid emhttpd: WDC_WD20_EARS-00MVWB0_2010052700001487-0:0 (sdf) 512 3907029168
Jul 31 17:37:37 UnRaid kernel: mdcmd (6): import 5 sdf 64 1953514552 0 WDC_WD20_EARS-00MVWB0_2010052700001487-0:0
Jul 31 17:37:37 UnRaid kernel: md: import disk5: (sdf) WDC_WD20_EARS-00MVWB0_2010052700001487-0:0 size: 1953514552
Jul 31 17:37:37 UnRaid emhttpd: read SMART /dev/sdf
Jul 31 17:40:08 UnRaid sudo: root : TTY=pts/0 ; PWD=/root ; USER=root ; COMMAND=/sbin/fsck -Vt xfs /dev/sdf1
Jul 31 17:50:46 UnRaid kernel: blk_update_request: I/O error, dev sdf, sector 1989002496 op 0x0:(READ) flags 0x0 phys_seg 64 prio class 0
Jul 31 17:50:46 UnRaid kernel: blk_update_request: I/O error, dev sdf, sector 1989003008 op 0x0:(READ) flags 0x0 phys_seg 32 prio class 0cYa BUSTER
-
Hallo liebe Deutsche Community,
musste heute feststellen das eine 2 TB Festplatte von mir Probleme macht,
Array has 1 Disk with read errors.. es ist die 2 TB Platte die Extern per USB angebunden ist,
was kann ich machen ? gibt es irgendeine Möglichkeit diese zu retten ? diagnostik report habe ich als Anhang hochgeladen.
wäre für jeden brauchbaren tip Dankbar
Jul 31 15:16:39 UnRaid kernel: md: disk5 read error, sector=3013787480
Jul 31 15:16:39 UnRaid kernel: md: disk5 read error, sector=3013787488
Jul 31 15:16:39 UnRaid kernel: md: disk5 read error, sector=3013787496
Jul 31 15:16:39 UnRaid kernel: md: disk5 read error, sector=3013787504
Jul 31 15:16:39 UnRaid kernel: md: disk5 read error, sector=3013787512
Jul 31 15:16:39 UnRaid kernel: md: disk5 read error, sector=3013787520cYa BUSTER
-
@JorgeB thank you for help, i have setted up in the cache options "PREFER" in this mode can the Mover not Move return to Hard Disk's, after chance mode to "YES" mover works and moves files return issue solved 😃
Best regards
BUSTER
- 1
-
Hi Community,
i need help about the issue of UnRaid shfs: share cache full, 256GB NVMe used for cache pool an is full, mover dont works,
what can i do ?
SMB Performance
in Deutsch
Posted
Okay.. das wusste ich so nicht vielen Dank für den Wichtigen Hinweis,
hatte früher alles unter Windows Share, dann irgendwann zu UnRaid gewechselt, ich werde zusehen das ich mal ein Ordentlichen Server einrichte.
Im Kopf hatte ich das auch schon, dass ich das mache als nächstes Projekt, und hatte mich auch schon umgeschaut was für ein Case ich nehme, nach tagelangen Recherchen hab ich mich für das Fractal Design Define 7 XL Black Gehäuse entschieden da kann man mit bis zu 18 HDD´s einbauen, also Gehäuse steht schonmal fest
muss noch entscheiden welche Mainboard, CPU, RAM, und Grafikkarte für Plex Transcoding, wenn Tip´s hast nehe ich gerne entgegen
cYa BUSTER