Leaderboard

Popular Content

Showing content with the highest reputation on 01/25/21 in all areas

  1. Dude not to sound like a Dik but this thread was 2 years old and your input was no longer needed and the thread did not need to be bumped, please pay attention to dates before bumping threads especially if it's just to troll someone.
    2 points
  2. Also if that length is OK, it might be more economical to get a direct attach copper (DAC) instead of modules and fiber. That's what I used (1m DAC) between my workstation and server with Mellanox X3 cards.
    2 points
  3. I suggest you should avoid NC522SFP, it may need firmware update ( for Windows / Linux ) and it seems use Qlogic chipset which not common today. https://www.amazon.com/HP-NC522SFP-Server-Adapter-468332-B21/dp/B002JQH7UO#customerReviews Recommend Intel X520 or Mellanox ConnectX 2/3, best should be Mellanox but you need got a card with proper ethernet firmware not infiniband. Anyway each have its cons pro and need two. Many member use above, so support info. also best then others. For the fiber, 1M really short in length, hope you are right with that.
    2 points
  4. In meinem 10 Zoll Rack findet kein Micro-ATX Board Platz und der PCIe Slot von meinem Mini-ITX Board ist bereits mit einer 10G Karte belegt. Nun der Plan: #1 M.2 PCIe Adapterkarte Es gibt Quad M.2 Adapterkarten mit integriertem Controller für 500 € aufwärts und welche für unter 100 €, die ein Board mit Bifurcation Support voraussetzen. Mein Gigabyte C246N-WU2 unterstützt glücklicherweise Bifurcation. Beispiele: Gigabyte CMT4034 ? € Asrock RB4M2 ? € IOCrest IO-PCE34M2-01 50 € Asus Hyper M.2 X16 40 € Allerdings steht bei meinem Board nicht 4x x4, sondern nur 2x x8 Support: Die einzige Karte mit zwei M.2 NVMe Slots, die ich finden kann ist die: Supermicro AOC-SLG3-2M2 #2 M.2 auf PCIe x4 Adapter ADT-Link bietet wohl die größte Sammlung an PCIe / M.2 Adapterkabeln. Während bei den meisten Quad Karten das R42NL gehen sollte, muss man für die Asus Quad M.2 Karte und die Supermicro Dual Karte wohl das R42SL nehmen (Foto bearbeitet): Jedenfalls käme man mit der Asus Karte und dem Adapterkabel gerade mal auf 60 €. Das wären >200 € weniger als die Synology E10M20-T1 kostet (und die ich nicht zum Laufen gebracht habe) und >100 € weniger als die QNAP QM2-2P10G1TA, die wegen ihrer PCIe 2.0 x4 Gesamtbandbreite schlicht keinen Sinn macht. Da ich bereits eine IOCrest IO-M2F585-5I verbaut habe, käme ich bei meinem Gigabyte C246N-WU2 damit auf: 13x SATA 3x M.2 NVMe 1x PCIe 3.0 x4 für die 10G Karte Das wäre schon ein Traum 😍 Dann drückt mir mal die Daumen, dass die Asus Karte läuft. Das Kabel habe ich auch schon bestellt 😅
    2 points
  5. Sure enough, as soon as I connected the molex to sata power cable the server saw the disks straight away. Just needed to re assign the parity and data drive and I'm away. Thanks for your time everyone 🙂
    1 point
  6. Btw, i opened up another bug report as i was asked to do that https://github.com/openzfs/zfs/issues/11523 @Marshalleqcould you add some additonal information you have there, for example containers you experienced the issue with? I think that might help
    1 point
  7. That worked! It looks so much better now. Thank you!
    1 point
  8. Bumped noVNC to version 1.2.0, you now have the ability to use the sliders like you have it in other containers.
    1 point
  9. Hi folks, I appreciate the recommendation (and the efforts on getting the updated BIOS from ASRock)! I swapped my old setup over to the new board, processor, and RAM without any issues.
    1 point
  10. Hard reboot gave me access to web ui. Considering this solved, will start new thread of I encounter unsurmountable problems. Thanks Jorge. azathoth-diagnostics-20210125-1043.zip
    1 point
  11. Think of containers as tiny vm's, they each have their own OS, and typically only have the bare minimum of tools installed to keep their size down. The container authors made a choice not to include curl.
    1 point
  12. ...man sollte einfach mal noch warten und eine Generation NICs überspringen...100G sind die Zukunft 🤐
    1 point
  13. You can check here for some bench results.
    1 point
  14. Oh ding dong me, I forgot about that! Previously I used a molex to sata cable to power those drives for that very reason but I forgot to put that cable back in, no wonder the server cant see them! Right, I'm at work now so I will put that cable back in there tomorrow morning. Thanks for the reminder JorgeB!
    1 point
  15. Diags show that you formatted sdb: Jan 24 23:41:08 unRAID emhttpd: shcmd (398): /sbin/wipefs -a /dev/sdb1 Jan 24 23:41:08 unRAID emhttpd: shcmd (399): mkfs.btrfs -f /dev/sdb1 Then added sdc to the pool, this also wiped that device: Jan 24 23:41:08 unRAID emhttpd: shcmd (401): /sbin/wipefs -a /dev/sdc1 Jan 24 23:41:08 unRAID root: /dev/sdc1: 8 bytes were erased at offset 0x00010040 (btrfs): 5f 42 48 52 66 53 5f 4d So there's no device still with old pool data to recover from.
    1 point
  16. This shows that on of the cache devices dropped offline in the past: Jan 24 14:47:07 tower kernel: BTRFS info (device sdb1): bdev /dev/sdc1 errs: wr 1507246927, rd 137577961, flush 19733411, corrupt 0, gen 0 See here for what to do and how to better monitor a pool, then recreate the docker image.
    1 point
  17. Hallo liebe Freunde, ich bin erst jetzt auf PM aufmerksam geworden. Ich habe mal ein paar grundsätzliche Fragen zur Etablierung von PM in meine bestehende Umgebung. Derzeit haben wir in unserem Office auf UnRaid Share-Freigaben (bspw. "Management" u. "Mitarbeiter"). Jetzt ist es so, dass ich gerne einen bestehenden Ordner, nennen wir ihn mal "Rechnungen", durchsuchbar machen möchte. Wenn ich es jetzt richtig verstanden habe, erreiche ich doch eben jenes mit Papermerge. Ich gebe also den Ordner Rechnungen im Docker Template an, PM jagt das OCR drüber, macht die Dateien durchsuchbar und lässt aber sonst alles wie es ist. Richtig? Ich habe jetzt mal wirklich ausgiebig in einem Testcontainer herumgespielt. Ich beantworte mir die Fragen mal selber, vielleicht hilft es ja jemanden, der eventuell die gleichen hat ;-). Hier ist es so, man lädt Dateien hoch oder lässt sie in ein "import" Verzeichnis schieben. Die Ursprungsdateien verbleiben aber wie in meinen Fall am Originalort. Es wird also eine neue Datenbank angelegt. Wenn dann mal eine Prüfung kommen sollte, bietet Papermerge aber in deŕ Webansicht an, einen Ordner im kompletten als .tar Datei herunter zu laden. Super! Wenn ich dann das richtige Dokument gefunden habe, kann ich auf Aktion->Download und bekomme das Dokument vom Urpsrungsordner heruntergeladen, korrekt? Nein, es wird aus der oben erwähnten Datenbank geladen. Wahlweise einzeln oder als .tar Archiv. Zweiter Use Case wäre folgender, wie es User @Zip macht: Ich habe Genius Scan, mit dem ich Belege und Quittungen auf meine Nextcloud hochlade in einen Ordner, der wiederum als external storage auf ein UnRaid Share verweist. Kann ich PM über die Automatisierung dann so einstellen, dass er die Quittung direkt aktiv weiterverschiebt? Also tatsächlich diesmal die Datei anfasst und physisch verschiebt? Das ist der eigentliche Sinn des Import Ordners. Habe ich noch nicht getestet, sollte ich aber! Bleibt mir alle gesund! hundsboog
    1 point
  18. Ja gut. Alle Probleme kann ich auch nicht lösen 😅
    1 point
  19. Hello, If you were running nextcloud 17; like me you didn't keep nextcloud up to date, version 17 is not officially compatible with php 7.4. By chance the upgrade scripts do run on php 7.4. (revert back to the previous version if you tried to pdate manually); If you are runnning an even earlier version of nextcloud, this will probably not work; You should do a backup of the database as well before attemting this, as if one of the upgrade scripts fails because of the php version your database will be in a strange half migrated state. So try this to your own risk. I did the following: docker exec -it nextcloud updater.phar This updated my nextcloud to version 17. But it couldn't run the upgrade scripts. By chance the upgrade scripts of v17 works with php 7.4. Open up appdata\nextcloud\www\nextcloud\lib\versioncheck.php and remove everything beside the <?php at the first line Now run the upgrade script docker exec -it nextcloud occ upgrade Disable maintenance mode docker exec -it nextcloud occ maintenance:mode --off Now re-run, docker exec -it nextcloud occ upgrade until there is no update left. Hope it helps, ; The best way to actually do it, would be by changing the image to get an older version; then run the upgrades; then update the image again. I couldn't bother with that
    1 point
  20. Parity dropped offline, because of that there's no SMART report, but most likely a connection/power issue, replace/swap cables/slot with a different disk to rule that out and see if it happens again.
    1 point
  21. OK tried to reinstall... now everything woks but obviously have to reconfigure.... for some reaseon port 8080 does not allow me to connect, so had to change that.
    1 point
  22. The audio reset feature for navi is integrated into vendor-reset master now. No need to select the branch anymore..
    1 point
  23. Kann ich nachvollziehen, ist bei mir ja auch nicht anders, schließlich haben wir in Deutschland die höchsten Strompreise weltweit. Ausserdem ist es auch aus ökologischer sicht wenig sinnvoll einen Server 24/7 laufen zu lassen wenn er nur 12Std. am Tag genutzt wird. Mit der Meinung sind wir hier aber in der Minderheit. Ein großteil der unRaid User sitzt in den USA. Dort ist der Strom vergleichsweise günstig und das Umweltdenken nicht sonderlich ausgeprägt. Wie gesagt ist das Sleep Plugin schon seit einiger Zeit nicht mehr vollkommen funktional, ich habe das im entsprechenden Thread öfters angemerkt ohne jegliche Reaktion des Entwicklers. Daraufhin hab ich es für mich geforked und in einen funktionierenden Zustand gebracht. Ich hätte dazu jetzt einen PR schreiben können, aber wenn ich sehe das PR's zu dem Plugin im Repo des Entwicklers versauern dann kann ich mir vorstellen das dieses Plugin keinen großen Stellenwert dort hat. Da geht es eher darum das irgendwelche Lüftersteuerungen besser laufen. Lustig daran ist das ich beim Übergang auf 6.9 nun bemerkt habe das die Array Überwachung im Plugin komplett kaputt ist und das wahrscheinlich schon seit vergangenem Sommer, aber es scheint bisher keiner gemerkt zu haben. Ich kann das Plugin in v6.8.3 von unRaid seit meinem Fork problemlos nutzten, für 6.9 arbeite ich derzeit noch an einem Fix.
    1 point
  24. That's fine as you have experience, I got all SAS/10G stuff from China, harddisks from Amazon.
    1 point
  25. Then spindown all disks and check power usage delta.
    1 point
  26. Wow this is the first guide, which finally worked for my i3-8100 IGD. Thank you so much, also for the linked sources. Your post should be pinned on top in this forum!
    1 point
  27. Amend that to read "if you use the parity 2 drive slot" You will still run into the performance difference even if you only have single parity if it happens to be in the 2nd parity position.
    1 point
  28. Did you add the port mapping that would normally be on the youtube-dl container to the vpn container?
    1 point
  29. Thanks, Was able to try some of the suggestions, This seemed to fix it from your post: Regedit Path: HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\LanmanWorkstation\Parameters Double-click AllowInsecureGuestAuth and change "Value data" from 0 to 1
    1 point
  30. @b3rs3rk, Hi, The GPU Statistic seems a bit strange on my Dashboard when transcoding PLEX... The PLEX display a big elongated logo
    1 point
  31. looks to me like vyprvpn do not support native wireguard so you are out of luck for now:- https://www.reddit.com/r/VyprVPN/comments/gxbh3d/wireguard_configuration_on_linux/ you need to contact them directly if you want to find out the latest on when/if they will ever support it.
    1 point
  32. I went ahead and installed L2.34 that he had made available. It does have IGFX option and works for Plex transcoding, unlike the P2.30 version that came installed by default.
    1 point
  33. Then you should add the line pointing it to /usr/local/bin/ccextractor. I have also updated the Readme to reflect this. I have since fixed the template. sr0 should now be passed through as a device by default. Thanks for the heads up. Also please consider donating at https://github.com/sponsors/rix1337 if you are a regular user of this image.
    1 point
  34. For those that are interested, I have found an article here that describes how to set up usb hot plug. https://www.labsrc.com/unraid-automatic-usb-hotplugging-libvirt/#comments I havent tested it myself but ideally it would be nice to see an expansion of this plugin to enable auto hot plug without having to use the UNRAID GUI.
    1 point
  35. Vielen Dank für den Hinweis. Das war die UEFI Modus bei Erstellung von dem Stick. Bein ersten Mal hat es es wohl ohne geklappt. Und ich habe die "Customize" übersehen. Jetzt hat es funktioniert. Hat nur leider bis jetzt übet 5 Stunden Ärger gekostet... Vielen dank nochmals. P.S. Ich habe noch die Testversion. Gibt es beim Kauf auch die Paypal- Zahlung? habe auf der Seite keine Infos dazu gesehen.
    1 point
  36. Sorry to say but I just do not know the answer. This is their official container with no modifications whatsoever, so you should be able to just raise an issue on their GitHub page for cloudbeaver, and if/when they make a change to add or resolve this issue, it should take effect on your next scheduled container update, since this will pull directly from their official dockerhub build. Hope this helps!
    1 point
  37. I wish to have wake up and sleep on shedule...
    1 point
  38. I was wrapping my head around this solution for a few days now. In order to use legacy passthrough "The IGD device must have a VGA ROM, either provided via the romfile option or loaded automatically through vfio (standard)." [0]. From my understanding the iGPU does not expose a ROM via PCI when the host is booted in UEFI mode [1]. Thus, you probably where able to access the VM via remote access with full GPU support, but got no signal from the port. The symptom in most cases is the following error "vfio-pci: Cannot read device rom at 0000:00:02.0 Device option ROM contents are probably invalid" in the VM log. Further telling that the legacy pass through mode [2] [3] is disabled. To solve the issue you need to manually provide a ROM as vfio is not able to provide it. In your case, your MB is capable to boot in legacy mode that allows to expose the ROM via PCI. Sadly, I cannot go this route for my UHD 630 as my MB does not support legacy mode (probably the standard in the future). In this case I think, you need either a second GPU (don't own one) to dump the IGD ROM or ask someone with the same CPU to dump the ROM for you in legacy mode (a collection of IGD ROMs would be really nice): Update 14-05-2020: Finally, found a working solution for UEFI only MB owners out there that works with legacy GVT-G passthrough and OMVF Bios [6,7]. Following, the setup that resolved the black screen issue with an Intel Core i3-8100 (UHD 630). The trick for me made the "vbios_gvt_uefi.rom" (see [7]; disclaimer: be warned to use a random ROM file from the Internet): Unraid Settings: - Host boots in UEFI (no legacy mode no CSM) - "Unraid OS" boot mode - Permit UEFI boot: Yes - Kernel parameter: append video=efifb:off,vesafb:off modprobe.blacklist=i2c_i801,i2c_smbus,snd_hda_intel,snd_hda_codec_hdmi,i915,drm,drm_kms_helper,i2c_algo_bit - VFIO-PCI Config to stub 00:02.0 VM Settings: - Windows 10 OS, OMVF Bios, i44fx-4.2, Hyper-V: Yes PCI Passthrough cheers, - stay home and don't eat bats [0] https://github.com/qemu/qemu/blob/master/docs/igd-assign.txt [1] https://www.redhat.com/archives/vfio-users/2018-April/msg00022.html [2] https://unraid.net/blog/unraid-server-os-6-3-released (Legacy and UTP mode) [3] https://vfio.blogspot.com/2016/07/intel-graphics-assignment.html [4] https://github.com/qemu/qemu/blob/master/docs/igd-assign.txt [5] https://forums.unraid.net/topic/83802-intel-gvt-g-support-multiple-virtual-intel-igpus-we-already-have-gvt-d/?tab=comments#comment-776192&searchlight=1 [6] https://www.reddit.com/r/VFIO/comments/fzje5x/no_output_from_igpu_when_passed_through/ [7] https://github.com/intel/gvt-linux/issues/23 PS: I think the IGD passthrough will be more popular in the future as services like Stadia and Geforce Now will emerge and improve. This allows casual gamer to enjoy a gaming session with their IGD driven Windows 10 VM. Also GVT-D is a thing [5]. However, I think we will not see this in Unraid in the near future since its focus are NAS features.
    1 point
  39. Hey, thanks for this. I expanded on what you did and put it into an event card. Here it is if you want it: https://gist.github.com/Log1x/0c24e25952d039fa7e708d5205cd94f9
    1 point
  40. I've worked around the issue manually, I'll post it here in case anyone else has the same issue. Make sure the Slack notification service is enabled. Open the terminal and enter this: cd /boot/config/plugins/dynamix/notifications/agents sudo nano Slack.sh Delete the script that is already there and replace it with the one below. Remember to add your Discord Webhook URL (don't add /slack to the end) and modify the message format if you want. #!/bin/bash ############ #Insert Your Discord Webhook URL (Don't add /slack to the end) WEBH_URL="" #Enter Your Messaging Format (Look at Unraid GUI for the names of the available variables to use here) #(Also Supports Markdown formatting such as the **BOLD** markup I use in below example) MESSAGE="**$SUBJECT**\n$DESCRIPTION\n$CONTENT" ############ curl -k -X POST --header 'Content-Type: application/json' -d "{\"content\": \"$MESSAGE\"}" $WEBH_URL 2>&1 The default message format I've used in the script will look like this in Discord: From this point on do not edit the Slack settings in Unraid's GUI as it will most likely overwrite the modifications you've made. You can still use the Test button. Hope this helps, feel free to ask if you need any help with this.
    1 point
  41. The BLAKE2 package is installed together with the plugin, but the plugin can't tell whether it runs on your processor or not. Ps. The checksums are not added to the file itself, but to the extended attributes which are maintained by the OS, the original file is never touched.
    1 point