All Activity

This stream auto-updates

  1. Past hour
  2. I haven’t read it yet but am now. I’ll let you know if I have any questions. Thanks for the link.
  3. I am unable to login. I enter the correct user name, password and used the server address of clients.us2.crashplan.com Is there anything I can do to get crashplan working?
  4. There is on invokeAI (option 3) under settings enable nsfw checker.
  5. Yeah it seems my template changes haven't made it to those who already have it installed you need to add these variables: Variable: CONDUIT_DATABASE_PATH - /var/lib/matrix-conduit/ Variable: CONDUIT_PORT - 6167 Variable: CONDUIT_CONFIG - leave empty
  6. The latest update seemed to have broken it for me: thread 'main' panicked at src/main.rs:53:55: The CONDUIT_CONFIG env var needs to be set. Example: /etc/conduit.toml note: run with `RUST_BACKTRACE=1` environment variable to display a backtrace
  7. Das geht ohne Probleme. Dazu musst du nur den Pfad im Docker zusätzlich einrichten, so das Plex das auch Mountet. HIer ein Beispiel: Macht Sinn Ja, du kannst soviele Mounts einrichten wie du willst.
  8. Yesterday
  9. Ja, und genau das ist ja auch der Grund dem Array einen Pool mit SSD(s) vorzuschalten Die Parity bei einem Array mit mehr als 2 Festplatten bremst eben. Naja, Du bist mit 2 Paritydatenträgern sicher gegen den Ausfall von maximal 2 Datenträgern im Array. Wenn das die gesuchte (Ausfall)Sicherheit ist: ja. Gegen so gut wie (fast) alles andere was passieren kann bist Du damit nicht sicher. unraid selber kann BitRot nicht erkennen oder gar beheben. Es gibt ein FileIntegrity Plugin, welches ich aber nach Tests nicht mehr einsetze. Ich setze auf halbautomatisch (über ein Windowssystem) erzeugte Checksummen um in späteren Prüfläufen zu erkennen ob da etwas nicht mehr stimmt. Wenn es Dir das bringt, was Du willst: okay. Naja, "um jeden Preis" ist eine vielleicht doch sehr teure Sache. Aber dann wird es wohl Zeit für diverse gespiegelte Systeme auf der Welt.
  10. Ist zwar eine Share Einstellung, aber ja, die wirkt sich auch auf die zugeordneten (bzw. nicht ausgeschlossenen) Disks aus. Ich gebe zu, ich verstehe die Frage nicht so ganz, aber die oben gemachte EInstellung betrifft nur das Array. Für Pools (SSDs) kannst (und solltest) Du extra nochmal einen Minimum free Space einstellen. Wenn Du Daten von außen beispielsweise per SMB hoch lädst hat ein Docker damit nichts zu tun. Wenn Du eine 300GB große Datei hoch lädst bekommst Du bei der Einstellung ein Problem. Der Minimun Free Space sollte immer größer sein, als die jemand zu schreibende Datei. Wenn Du hingegen viele kleinere Dateien hoch lädst, die in Summe 300GB haben, dann wird unraid so lange den Pool/SSD beschreiben, bis eben die 100GB unterschritten werden. die nächsten ganzen Dateien werden dann (wenn man de nicht irgendetwas falsch eingestellt hat) nicht mehr in den Pool, sondern in das Array direkt geschrieben. Plexeinstellungen sind nicht so mein Ding. Ich plexe nicht. Was Du in einem Plex Container einstellen kannst, weiß ich nicht. Das Docker Image ist immer nur auf einem Laufwerk. Man kann Docker auch nicht im Image, sondern in einem Verzeichnis laufen lassen, aber auch das liegt eigentlich auf einem Laufwerk (das aber vielleicht auch zum Teil von dem Pool in das Array rüber schwappen kann). Aber eigentlich ist es ja so, daß die Container für Docker sehr klein/schlank sind und somit der Dockerkrempel kaum Platz bedarf. Aber Du kannst den Containern (mit vielleicht 2 GB Platzbedarf) ja Zugriff auf diverse Shares geben, doe dann einige hundert TB groß sind. Und diese müssen ja auch nicht unbedingt Shares sein, die auf physikalische festplatten verweisen, sondern können auch auf physikalischen SSD liegen, die vielleicht permanent auf einem extra Pool liegen.
  11. Moin zusammen, ich würde mein Datenmanagement gerne umstellen, so dass es erst auf dem Cache landet und dann intern verschoben wird von Cache auf Array. Am liebsten Nachts wenn nichts auf dem Server passiert. Aktuell habe ich eingestellt, dass mind. 100 GB frei bleiben pro Disk: Bleibt dies bei diesen EInstellungen ebenfalls der Fall oder gelten die 100 GB nun für min. free auf dem Cache? Wenn ich nun zB 300 GB an Daten hochlade, erkennen die Docker dann dass sie im Array landen werden und ihnen ist es egal dass der Mover nocht nicht gelaufen ist? Oder muss ich vorher zwingend die Dateien verschieben lassen? Daneben würde ich gerne eine weitere Datenquelle für Plex als nur das Array verwenden. Eigentlich will ich eine SSD dazu haben wo nur mp3s drauf sind damit Abends nicht die Disks dafür anspringen. Ist es überhaupt möglich mehr als eine Datenquelle oder Share für Docker zu konfigurieren? Ich hoffe ich habe mich verständlich genug ausgedrückt wo mir der Schuh drückt.
  12. I ran mem test with one stick at a time. I put both sticks back. I started the server but did not start the array and it crashed after several days.
  13. Apr 26 14:24:41 Jonsbo kernel: zfs: `' invalid for parameter `zfs_arc_max' Apr 26 14:24:41 Jonsbo kernel: zfs: unknown parameter '6302227456' ignored Edit zfs.conf and remove the space before the value, should be: options zfs zfs_arc_max=6302227456 not options zfs zfs_arc_max= 6302227456
  14. Schicksal

    Plex

    cache drive vielleicht randvoll?
  15. Hi ! When I did my server, I had in mind two issues : Being able to store all my files and access them Being able to (in the future) be able to use it as something universal for all my PC (aka a VM) My actual unraid server is simple. Not enough RAM, no GPU, not even an amazing CPU. With 12TB of HDD. (The case is cool tho, just saying haha). I had plans to upgrade everything, but in a second time. Today I did my first VM setup. It works flawless, I linked to my shares, tried to use the mstsc.exe, the potential for that is amazing. But now, before going further i'd like to upgrade my server. So i've a few questions : I'd like to run my VM(s) on a SSD. Like either a nvme or a SATA one. Could I just plug one in, ignore all the rules based on my array (size, parity etc since it'll just be done for storing my WM data) ? Is it that easy ? Is it possible / easy to migrate my VM's boot file (the .img right ?) from my user/domains to the future SSD that way I can just move and have no reinstallation to do ? I'd like to throw more RAM and a GPU to really play and everything on that VM. Can I just add them, and config them without resetting up a new VM ? Seems the case, just want to be sure. Thanks a lot !
  16. Apr 26 11:01:46 streamengine kernel: mdcmd (30): import 29 Apr 26 11:01:46 streamengine kernel: md: import_slot: 29 empty Apr 26 11:01:46 streamengine emhttpd: import 30 cache device: (sdd) Samsung_SSD_870_EVO_2TB_S6PNNS0T603387M Apr 26 11:01:46 streamengine emhttpd: import 31 cache device: no device Apr 26 11:01:46 streamengine emhttpd: import flash device: sda Apr 26 11:01:46 streamengine root: Submitting SysDrivers Build Apr 26 11:01:46 streamengine SysDrivers: SysDrivers Build Starting Apr 26 11:01:46 streamengine emhttpd: read SMART /dev/sdj Apr 26 11:01:46 streamengine emhttpd: read SMART /dev/sdk Apr 26 11:01:46 streamengine emhttpd: read SMART /dev/sdh Apr 26 11:01:46 streamengine emhttpd: read SMART /dev/sdg Apr 26 11:01:46 streamengine emhttpd: read SMART /dev/sdd Apr 26 11:01:46 streamengine emhttpd: read SMART /dev/sde Apr 26 11:01:46 streamengine emhttpd: read SMART /dev/sdb Apr 26 11:01:46 streamengine emhttpd: read SMART /dev/sdf Apr 26 11:01:46 streamengine emhttpd: read SMART /dev/sdc Apr 26 11:01:46 streamengine emhttpd: read SMART /dev/sdl Apr 26 11:01:46 streamengine emhttpd: read SMART /dev/sdi Apr 26 11:01:46 streamengine emhttpd: read SMART /dev/sda Apr 26 11:01:56 streamengine kernel: mdcmd (31): set md_num_stripes 1280 Apr 26 11:01:56 streamengine kernel: mdcmd (32): set md_queue_limit 80 Apr 26 11:01:56 streamengine kernel: mdcmd (33): set md_sync_limit 5 Apr 26 11:01:56 streamengine kernel: mdcmd (34): set md_write_method Apr 26 11:02:13 streamengine SysDrivers: SysDrivers Build Complete Apr 26 14:54:13 streamengine kernel: mdcmd (35): set md_num_stripes 1280 Apr 26 14:54:13 streamengine kernel: mdcmd (36): set md_queue_limit 80 Apr 26 14:54:13 streamengine kernel: mdcmd (37): set md_sync_limit 5 Apr 26 14:54:13 streamengine kernel: mdcmd (38): set md_write_method Apr 26 14:54:13 streamengine kernel: mdcmd (39): start STOPPED Apr 26 14:54:13 streamengine kernel: unraid: allocating 51590K for 1280 stripes (10 disks) Apr 26 14:54:13 streamengine kernel: md1p1: running, size: 19531825100 blocks Apr 26 14:54:13 streamengine kernel: md2p1: running, size: 7814026532 blocks Apr 26 14:54:13 streamengine kernel: md3p1: running, size: 7814026532 blocks Apr 26 14:54:13 streamengine kernel: md4p1: running, size: 7814026532 blocks Apr 26 14:54:13 streamengine kernel: md5p1: running, size: 7814026532 blocks Apr 26 14:54:13 streamengine kernel: md6p1: running, size: 11718885324 blocks Apr 26 14:54:13 streamengine kernel: md7p1: running, size: 11718885324 blocks Apr 26 14:54:14 streamengine kernel: md8p1: running, size: 11718885324 blocks Apr 26 14:54:14 streamengine emhttpd: shcmd (25494): udevadm settle Apr 26 14:54:14 streamengine emhttpd: Opening encrypted volumes... Apr 26 14:54:14 streamengine emhttpd: shcmd (25495): touch /boot/config/forcesync Apr 26 14:54:14 streamengine emhttpd: Mounting disks... Apr 26 14:54:14 streamengine emhttpd: mounting /mnt/disk1 Apr 26 14:54:14 streamengine emhttpd: shcmd (25496): mkdir -p /mnt/disk1 Apr 26 14:54:14 streamengine emhttpd: /usr/sbin/zpool import -f -d /dev/md1p1 2>&1 Apr 26 14:54:17 streamengine emhttpd: pool: disk1 Apr 26 14:54:17 streamengine emhttpd: id: 1522930789915103990 Apr 26 14:54:17 streamengine emhttpd: shcmd (25497): /usr/sbin/zpool import -f -N -o autoexpand=on -d /dev/md1p1 1522930789915103990 disk1 Apr 26 14:54:22 streamengine kernel: VERIFY3(range_tree_space(smla->smla_rt) + sme->sme_run <= smla->smla_sm->sm_size) failed (281460079722496 <= 17179869184) Apr 26 14:54:22 streamengine kernel: PANIC at space_map.c:405:space_map_load_callback() Apr 26 14:54:22 streamengine kernel: Showing stack for process 25399 Apr 26 14:54:22 streamengine kernel: CPU: 0 PID: 25399 Comm: z_wr_iss Tainted: P O 6.1.79-Unraid #1 Apr 26 14:54:22 streamengine kernel: Hardware name: System manufacturer System Product Name/ROG STRIX B450-F GAMING, BIOS 4901 07/25/2022 Apr 26 14:54:22 streamengine kernel: Call Trace: Apr 26 14:54:22 streamengine kernel: <TASK> Apr 26 14:54:22 streamengine kernel: dump_stack_lvl+0x44/0x5c Apr 26 14:54:22 streamengine kernel: spl_panic+0xd0/0xe8 [spl] Apr 26 14:54:22 streamengine kernel: ? rs_get_start+0xc/0x1d [zfs] Apr 26 14:54:22 streamengine kernel: ? range_tree_stat_incr+0x28/0x43 [zfs] Apr 26 14:54:22 streamengine kernel: ? range_tree_remove_impl+0x3b7/0x406 [zfs] Apr 26 14:54:22 streamengine kernel: ? zio_wait+0x1ee/0x1fd [zfs] Apr 26 14:54:22 streamengine kernel: space_map_load_callback+0x50/0x79 [zfs] Apr 26 14:54:22 streamengine kernel: space_map_iterate+0x2d6/0x324 [zfs] Apr 26 14:54:22 streamengine kernel: ? spa_stats_destroy+0x16c/0x16c [zfs] Apr 26 14:54:22 streamengine kernel: space_map_load_length+0x93/0xcb [zfs] Apr 26 14:54:22 streamengine kernel: metaslab_load+0x33b/0x6e3 [zfs] Apr 26 14:54:22 streamengine kernel: ? slab_post_alloc_hook+0x4d/0x15e Apr 26 14:54:22 streamengine kernel: ? spl_kmem_alloc_impl+0xc1/0xf2 [spl] Apr 26 14:54:22 streamengine kernel: ? __kmem_cache_alloc_node+0x118/0x147 Apr 26 14:54:22 streamengine kernel: metaslab_activate+0x36/0x1f1 [zfs] Apr 26 14:54:22 streamengine kernel: metaslab_alloc_dva+0x8bc/0xfce [zfs] Apr 26 14:54:22 streamengine kernel: ? preempt_latency_start+0x2b/0x46 Apr 26 14:54:22 streamengine kernel: metaslab_alloc+0x107/0x1fd [zfs] Apr 26 14:54:22 streamengine kernel: zio_dva_allocate+0xee/0x73f [zfs] Apr 26 14:54:22 streamengine kernel: ? kmem_cache_free+0xc9/0x154 Apr 26 14:54:22 streamengine kernel: ? spl_kmem_cache_free+0x3a/0x1a5 [spl] Apr 26 14:54:22 streamengine kernel: ? preempt_latency_start+0x2b/0x46 Apr 26 14:54:22 streamengine kernel: ? _raw_spin_lock+0x13/0x1c Apr 26 14:54:22 streamengine kernel: ? _raw_spin_unlock+0x14/0x29 Apr 26 14:54:22 streamengine kernel: ? tsd_hash_search+0x70/0x7d [spl] Apr 26 14:54:22 streamengine kernel: zio_execute+0xb4/0xdf [zfs] Apr 26 14:54:22 streamengine kernel: taskq_thread+0x269/0x38a [spl] Apr 26 14:54:22 streamengine kernel: ? wake_up_q+0x44/0x44 Apr 26 14:54:22 streamengine kernel: ? zio_subblock+0x22/0x22 [zfs] Apr 26 14:54:22 streamengine kernel: ? taskq_dispatch_delay+0x106/0x106 [spl] Apr 26 14:54:22 streamengine kernel: kthread+0xe7/0xef Apr 26 14:54:22 streamengine kernel: ? kthread_complete_and_exit+0x1b/0x1b Apr 26 14:54:22 streamengine kernel: ret_from_fork+0x22/0x30 Apr 26 14:54:22 streamengine kernel: </TASK> Apr 26 14:54:43 streamengine network: reload service: nginx
  17. First of all, thank you for the awesome docker containers! How would I best add these variables, so that I can install the public test of Ashlands? I tried adding the variables like in the attached image, but no luck. Edit: Solution: put "-beta public-test -betapassword yesimadebackups" (without quotes) in the GAME_ID field after the numbers. Also added the environment variable PUBLIC_TEST=true, but don't know if that is necessary. @ich777
  18. If electricity costs are important to you then go with the 5900x for your Unraid server. The Intel 13900K is generally known to be much more power hungry. https://beebom.com/intel-core-i9-13900k-review/
  19. There is no free version of Unraid v6 and you always need a valid licence. The closest is a trial licence valid for 30 days which is free and intended to allow no users to evaluate whether Unraid meets their needs but has the time limitation built in.
  20. Hello So I've tried to change the RAM allocation of the ZFS cache drive and it seems that it broke everything. my single ZFS cache drive is unmountable. I have managed to return the values of /etc/modprobe.d/zfs.conf to the previous ones (thorugh editing the /config/modprobe.d/zfs.conf), but it is still unmountable. in the terminal, the response to: zpool list is The ZFS modules are not loaded. Try running '/sbin/modprobe zfs' as root to load them. Any idea how to load these modules and get my zfs cache drive mounted again in the pool? Thank you very much! Jonsbo Diagnostics 20240427.zip
  21. ok thank you! it will take me a few days, I'm not back to my home until after this coming Thursday
  22. There is no user data on the parity drive, just enough information to rebuild a failed disk (in conjunction with all the other non-failed data drives. There is a good write-up on how Unraid parity works in the online documentation. As long as you do not have any disabled disks (marked with a red ‘x’) then rebuilding parity is zero risk to your data and is in fact necessary to protect it against future Fisk failures.
  23. I think it worked - after rebooting, I can see the "Airflow" widget on the dashboard, and the Dynamix Fan Auto Control app sees the qnap_ec pwm fan controllers right away, I didn't need to fiddle with the terminal to get them to show up. Thank you! If I may ask, what changes did you make to fix this? And is this a global fix for all TS-464s in the qnap-ec plugin?
  1. Load more activity