Jump to content

DarkMan83

Members
  • Posts

    97
  • Joined

  • Last visited

Posts posted by DarkMan83

  1. 14 minutes ago, Lyror said:

    Ich lege dir es wärmstens ans Herz darüber wirklich nachzudenken. Ich persönlich darf immer bei Bekannten die "Internetprobleme" beheben. Das meiste Problem ist, dass die ach so tollen Speedports mit IPv6 im Heimnetz kommen und das dann auch noch ausschließlich. Wenn ich Testweise eine Fritzbox mit IPv4 dort installiere funktioniert es reibungslos. Ich liebe diese Geräte vom Herzen 🙄

    Das nächste Punkt der mich da ein bisschen in Rage bringt ist, diese Bevormundung was man darin einstellen darf und was nicht.

     

     

    Aber zum Thema hier: 

    Ich habe meinen Container einfach über Bridge. 

    image.png.7ea5597bb5961125944e0524d4c66716.png

    Im Router habe ich die Portfreigabe gemacht auf den internen Port 5600 und fertig. Ich kann sie von innen und von außen erreichen. Ich hab das Problem hier noch nicht so verstanden. Wofür brauch ich eine extra IP? Habe ich etwas übersehen?

    Natürlich ist das auch ne Lösung, es führen bekanntlich viele Wege nach ROM...ich habe meinem eine extra IP gegeben, da ich so viele Docker laufen habe und teilweise schon ganze Portranges auf dem Host belegt sind.

    Und zur Übersichtleichkeit ;-)

  2. Wieso einen zweiten Port?

    Einfach is doch egal ob Docker oder VM...du kannst den Dingern eine eigene IP zuordnen...

    Beispiele:

    Unraid-Nextcloud-Docker.thumb.PNG.3c03fb42b12a9094ee5b4907d04c1fdc.PNG

    Fritzbox-Nextcloud-beispiel.thumb.PNG.a10d40861aef8b601792b4763059d2da.PNG

     

    Ich hab in meiner DE-Domain dann einfach eine Subdomain mit cloud.domain.de gemacht und lass das ganze über CloudFlare-DNS laufen (Vorteil is noch das standard SSL-Zerrtifikat, welches kostenlos ist), noch ein anderer Docker, der das DDNS updated, das aktualisieren bei Cloudflare dauert höchstens 10 Minuten, wenn man mal ne neue IP bekommt. (Alternativ geht auch noch DuckDNS, da gibts auch einen Docker für...)

    Mein Nextcloud funzt hier einwandfrei und da ich für 12,90 € noch nen Rootserver habe, wo auch die DE-Domain drüber läuft, kann ich darüber auch Mails von Nextcloud Weiterleiten...

     

    P.S. Ihr "Säcke" ich hätte auch gerne mal Glasfaser...bei uns wurde sogar der Supervectoringausbau verschoben...Ich glaub ich muss aufs Land ziehen, damit ich endlich Glasfaser bekomme! Wenn du heute in der Stadt wohnst, bist bestraft!

     

    Gruß

    Dark

    • Thanks 2
  3. Jipp, this is exactly the same for my xeon...

    If i use /tower/share i get ~500 Mb/s and if i use /tower/cache/share i get ~980 MB/s...

    On direct share access one single core has 100% usage...

    However, as i have 128 GB ram an my cache is 10% even the nvme cache isn't used on file copy until it's finished.

     

    After that it gets flushed to cache at 3-4 GB/s.

    So RAM should always be fast, but it isn't, because of single thread on direct share writing.

     

    Greetings

    Dark

    • Like 1
  4. Currently i've searched the Forums for exactly this problem i think.

    I'm on unraid v6.9-beta25.

    For Serverspecs see my sig.

     

    I have an NVME cachepool and that one is set to the share i'm transferring to.

    I've also tuned the...

    vm.dirty_background_ratio: 9%

    vm.dirty_ratio: 10%

     

    As i have 128 GB of ECC RAM, this should use ~12,8 GB RAM as cache.

    The file i'm transferring is ~11 GB.

     

    Using: /mnt/user/ShareName

    The maximum speed i get is ~500 MB/s and the cache has no IO going on, as the RAM is utilized.

    After the file is completly transferred, it gets flushed to the cache at ~500 MB/s.

     

    Using: /mnt/cache

    If i transfer the same file again i get ~1 GB/s and it is again written to the RAM.

    After the file is completly transferred, it gets flushed to the cache at ~2 GB/s.

     

    I wonder why the 500 MB/s manifesting as a magic barrier, regardless of what anyone tried.

     

    Greetings

    Dark

  5. Da liegt ihr ja noch niedrig, ich habe eine, die hat 8k+ Fehler...

    Lag aber damals daran, dass sie mal als Backup-Platte genutzt wurde bei mir und in einem externen USB-Gehäuse steckte, was einen scheiss Controller hatte.

    Dieser hatte Aussetzer, wenn er warm wurde.

    Eben diese Platte steckt nun im Unraid-System und läuft tadellos.

    Wie mein Vorredner schon sagte: Solange die Fehler dann nicht mehr werden, is alles gut.

     

    Gruß

    Dark

    • Thanks 1
  6. 2 hours ago, Phil85 said:

    Das Wort Auslastung kommt halt auch an mehreren Stellen vor, wie Gesamtauslastung CPU, Auslastung Ram, Auslastung Platten,

    daher würde ich es an dieser Stelle eigentlich auch beibehalten um so die Konformität zu bewahren.

    Falls es aber programmiertechnisch momentan nicht anderst machbar ist würde ich wohl auch "Last" nehmen,

    was anderes geht wohl kaum

    Du kannst die Konformität aber nicht beibehalten, wenn es vom Layout her nicht passt und wir die Ansage haben, dass an dem Layout nichts gemacht wird (Breite, usw.)

     

    Ich hatte das Thema schon angesprochen, dass es schlecht ist, das Layout an Englisch zu orientieren, da die Wörter in Englisch meist viel kürzer, als in anderen Sprachen sind.

    Aber lässt sich halt nix dran ändern, Vorgaben sind Vorgaben.

     

    Gruß

    Dark

  7. Oh, ganz schön was los hier... Und da immer geschrieben wird "Professional translator" und hier schon so viele sind, fühle ich mich nun nicht angesprochen xD

     

    **Update**

    Und nun hab ich mir die Übersetzungen Mal angeschaut, besser als nichts.

    Vieles passt halt noch nicht ganz, denn man darf nicht immer wortwörtlich übersetzen, aber das wird schon werden.

  8. 5 minutes ago, johnnie.black said:

    If you're using a custom controller it's a known issue.

    Yeah, i see. I investigated further, but couldn't find where the disks.ini is generated.

    Maybe a user script updatiung the temps in that ini file would temp fix this problem, until it gets picked up and worked on...

    Or modify the rc.diskinfo php script for writing that info into the ini file.

  9. On 3/19/2020 at 12:33 AM, whiteatom said:

    Hi all,

    Thanks for this great plugin. I noticed something in the logs when I started a new pre-clear...

     

     

    I'm wondering why it thinks this disk (a WD red 6tb) is an SSD. Should I adjust something to do the head stress test that it has disabled?

     

    Thanks,

     

    whiteatom

    I have the same problem with an WD40EFAX, which is clearly identified as a SMR drive by me, which cloud/should have in it's SMART data the TRIM command listed as available.

    I dunno whats the method for checking if it's actually an SSD used by this plugin, but this could be the problem?

     

    Greetings

    Dark

  10. Good diggin dude.

    I'm currently facing the same problem, also found another topic in the search results, which seems to be no more existant.

    cciss-6.x.thumb.jpeg.0f94a50ae17c6e5bb31cacf786b0ae16.jpeg

     

    So, this seems to be true for all custom controller types...

    And this is really bad, if you use some control mechs, like hdd temp dependant functions to be executed...

     

    If there's no other topic about this problem, do we need to push it to bugs?

     

    This is freaking me out like hell, im just a few days on unRaid and for my old QNAP the IT-Chip not workin, but the hdd temps are there.

    And for my HP DL380p the hdd temps not working, this one frustrates even more. If there would be any source code for this, i would digg it together my self xD

    But for now i just have to go to sleep, because the next day is monday! YAY! Work work work...Coding to rule the World.

  11. Hi,

    i have QNAP TS-1677x with AMD inside.

    I was trying to get all those temps and other things working, i did some google digging and found, that it must be using the IT8528 chip/board, because sensors-detect ist complaining. But it seems unRaid did not activate the kernel modules on compile, hopefully.

     

    If the iManager driver would be baked into the kernel, it could get me the: Temps, GPIO (LCD), FANS and LED's control - Maybe not until 6.9 unRaid release.

    sensors-detect showed this:

    Some Super I/O chips contain embedded sensors. We have to write to standard I/O ports to probe them. This is usually safe. Do you want to scan for Super I/O sensors? (YES/no): Probing for Super-I/O at 0x2e/0x2f Trying family National Semiconductor/ITE'... Yes
    Found unknown chip with ID 0x8528

    So after soe Gooling i found:

    1. https://lore.kernel.org/patchwork/patch/634176/
    2. https://lwn.net/Articles/705319/
    3. https://github.com/rvido/iManager

     

    Would be so nice, if these QNAP Hardware would work on unRaid, so i could beat them on e.g. Facebook, as they refused to give me support for their product and only said: Use compatible NVME -> which is in QNAP case never updated since 2018 and the fastest NVME's are 530 MB/s, this made the NVME's obsolete, as my normal SATA SSD already got 560 MB/s 😞

     

    I would be so thankfully, if someone has any idea on getting this working, or bring it to the next unRaid version or the dynamix temperature plugin, i would buy you a beer 🙂

     

    Greetings

    Dark

  12. 25 minutes ago, dlandon said:

    You appear to have a corruption in your /config/plugins/unassigned.devices/unassigned.devices.cfg file.

     

    Several options:

    • Reboot server to see if it clears up.  That file is copied to ram disk and it may have been corrupted.
    • Remove the unassigned.devices.cfg file and reboot.  You will have to re-do any UD mounted disks.

    If it does not clear up, you'll need to shutdown the server and put your flash drive in another computer and check for issues.

    Thanks, deleting the file + restart worked 🙂

  13. Hi there,

    this is gonna be my first post.

     

    My problem seems similiar to this Problem: 

     

     

    I have 3 docker running (Plex, AdGuardHome, CrushFtp9) which are set to use br0 and set to autostart. However each time i restart the unRaid-Server my dockers stop working.

    dockers.JPG.3b0e817209cf1e862ecdc4358e880add.JPG

    I get that "No Container" problem mentioned in that Topic.

    If i go into the container settings i noticed, that the br0 disappeared from the dropdown for the networking mode of that container.

    Than i can restart the docker service, which gets me rid of the "No Container" problem. But after that i get "Bad Arguments" error for each docker mentioned.

    To fix that, i have to go into settings and reassign br0, which is available again in the dropdown, after restarting the docker service.

     

    For me it seems, that the docker service is started before the networking initialized, could that be?

    I can't seem to find any solution in that other topic or in the Forums.

     

    P.S. I got stalled devices after restarting, because they use the AdGuardHome DNS, which refuses to start.

     

    Greetings

    Dark

×
×
  • Create New...