Jump to content

Flex0

Members
  • Posts

    19
  • Joined

  • Last visited

Everything posted by Flex0

  1. Thanks for the answer. I removed the conf.yml but it didnt help, my links are still missing. I'll wait for an update...
  2. Followed your instructions - but my links are still missing. Did mess up the paths?
  3. Made a new port and deleted the old - now dashy works again but all my stuff is gone, like it has been reseted. All the Entrys are still present in the .yaml-file but dashy is not showing them. Anyone knows how to get my stuff back or reimport it?
  4. Hey there, when logging out it redirects me to localhost:3000 instead of myip:3000. I found a possible solution where I would need to edit the .env file. Thought it would be under appdata but the linkwarden folder is completly empty. So could you tell me where to find the .env?
  5. Hey there, I'm running NPM for quite some time now, only on my internal network and only for getting certificates from lets encrypt for a registered domain. I use pihole to "redirect" my custom domainnames to npm and it all worked. Lately I tried to install authentik because I want one container accessible from outside via cloudflare tunnel. Thats where I probably fucked up something but I can't recall what I did wrong. When trying to proxy authentik I always got firefox "error" : "We can’t connect to the server". So I rebooted and after most of my proxys aren't working anymore. Even NPM itself isn't reachable anymore via it's domain. NPM uses br0 - because I need the IP for pihole to redirect. All my other contrainers are running on a custom docker network. While NPM, Authentik, photoprism and nextcloud aren't working anymore or respectively giving me a 5XX-Error or "cant connect" message adminer and vaultwarden are still running without any problems. Some additional Info: All containers a reachable via IP and are working The CLI comannd from the 1. site of this thread responded "host reachable" Host access to custom networks is enabled. I have no Idea what I did or what went wrong so I would appreciate your help. Thanks in advance, Flex0
  6. Hallo zusammen, mein Unraid-Server läuft seit >2 Jahren auf auf Hardware von 2013 (I5-4xxx, keine M2 bzw. keine NVME, etc.). Ich hab mir einen HP HP Elitedesk SFF (i5-9xxx) für 200€ auf Ebay geschossen, dieser hat allerdings nur 2x 3,5 Zoll Schächte und 1x 2,5. In meinem aktuellen Build habe ich 1x 4TB parity, 1x 4TB Share und 1x 2TB Share. Für den neuen Build ist geplant für parity und Share jeweils 1x 8 TB zu verwenden. Ich stelle mir nun allerdings die Frage, wie ich am Besten die Daten "umziehe", da ich gleichzeitig sowohl Parity als auch Shares "ersetzen" muss. Nach einigem Googeln und Lesen von diversen Beiträgen habe ich mir nun folgendes überlegt: Die neue 8TB Share in den bestehenden Server einhängen. Mit unbalanced alle Daten aus den bestehenden Shares kopieren. Die 8TB ausbauen und mit der neuen 8TB Parity in den neuen "Server" einhängen. Unraid USB-Stick in den neuen Server stecken, Share und Parity zuweisen und Parity aufbauen lassen. Hätte den Vorteil das noch alle Daten auf dem alten System als Sicherheitskopie inkl. der Parity vorhanden sind falls etwas schief laufen sollte. Ist dieses Vorgehen aus eurer Sicht Sinnvoll bzw. würde der Umzug so funktionieren oder bin ich dabei völligen Quatsch zu machen? Grüße Flex0
  7. Also nach dem der Rollback zwar funktionierte aber immer noch kein Netzwerk vorhanden war habe ich den Stick formatiert und das Backup wieder aufgespielt. Ergebnis - immer noch kein Netzwerk verfügbar. Nach langem hin und her habe ich herausgefunden, dass an meinem unmanged Switch wohl 1 Port defekt ist - trotz blinken an Netzwerkport und Unraid..... Naja es gibt wohl nichts was es nicht gibt. Trotzdem danke an Alle die sich die Mühe gemacht haben das zu lesen und entschuldigt bitte mein Unvermögen!
  8. Die Doc sagt folgendes: Sollte die einzige notwendige Änderung sein, der Rest müsste doch im "Backup" enthalten sein?
  9. Achso, klar myservers ist verbunden - wenn es denn Netzwerk gäbe^^ Pihole, DNS und DHCP ist aktiv allerdings unter anderer IP. Das ist ein alter Laptop den ich mal für solche Fehlerfälle und permanentlogs gedacht hatte - nur ohne Netzerk bringt das auch nichts😅 Trotzdem auf jeden Fall erstmal vielen, vielen Dank für deine Mühe und Hilfe!! GUI im safemode ohne Plugins funktioniert, dann werde ich jetzt wohl den Rollback starten und noch ein/zwei Updates abwarten.
  10. Kann ich tatsächlich nicht genau sagen. Hatte den Stick zum kopieren des Logs am Win-PC und wollte gerade prüfen ob das deaktivieren von SSL eine änderung bringt. Allerdings komme ich nicht soweit, da jetzt die GUI zwar lädt, die Weboberfläche (Firefox) jedoch "Unable to connect" meldet.
  11. Wegen der MACvlan calltraces? Hatte auf Verdacht die folgende Schritte gemäß https://docs.unraid.net/unraid-os/release-notes/6.12.4/ befolgt: Allerdings habe ich momentand sowohl Docker als auch VMs deaktiviert bzw. die Engines auf "disabled" und somit müsste ja zumindest Unraid selbst erreichbar sein, oder habe ich hier einen Denkfehler.
  12. Hallo zusammen, kurz vorab, ich habe das Gestern schon im englischen general support Bereich gepostet allerdings bisher leider keine Rückmeldung erhalten. Da mein englisch nicht das beste ist versuch ich es noch einmal hier. Ich hoffe das ist soweit in Ordnung. Nun aber zum Thema: ich habe vorgestern von 6.11.5 auf 6.12.4 geupdated und zuerst hatte auch alles einwandfrei funktioniert. Gestern morgen fiel mir dann auf, dass weder Unraid noch meine VMs oder Docker erreichbar waren. Zugriff auf die Unraid Web GUI war ebenfalls nicht möglich. Habe dann in der Fritzbox nachgesehen und festgestellt, dass die entsprechenden IPs aktuell nicht verbunden sind. Der Server läuft, ich konnte mich problemlos direkt anmelden. Ich habe dann hier im Forum und online nach ähnlichen Problemen gesucht konnte aber nichts finden was mein Problem löst. Da es bei bestimmten NIC Treibern wohl probleme gibt/gab habe ich auf Verdacht vt-d deaktiviert, was allerdings keine besserung brachte. Ich habe ein Diagnostik log erstellt, konnte allerdings nichts direkt erkennen, wobei ich auch nicht genau weiß worauf ich achten müsste. Ihr seht, ich scheitere bereits bei der Fehlersuche selbst, daher wäre ich für Unterstützung sehr dankbar. Gruß Flex0flex-raid-diagnostics-20231123-1600.zip
  13. Hey guys, I updated yesterday from 11.5 to 12.4 and everything seemed to be fine until today I couldn't access neither web gui nor shares nor dockers or VMs. Dockers and VMs do have a static IP and a short look into the fritzbox showed non of them was connected. I logged into the server via gui directly but couldn't find the problem. I tried to ping the router but 100% loss. I disabled vt-d but that didn't help either. So I'm not sure where to look or what to do therefore help would be appreciated. flex flex-raid-diagnostics-20231123-1600.zip
  14. Hallo zusammen, ich habe mich an folgendem Beitrag orientiert und konnte so echte LE Zertifikate für Vaultwarden und andere Services nutzen. Meine Docker liefen entweder auf BR0 (bspw. NPM, Vaultwarden) und andere auf Bridge (nextcloud, Adminer, MariaDB). Beim "pointen" durch NPM auf de Domains bekam ich aber immer wieder fehler, was daran lag das Br0 nicht mit den bridged Containern komunizieren kann. (zumindest gemäß der Matrix im Nginx Proxy Manager (NPM) Official Post). Daher habe ich ein custom Docker network erstellt und meine Docker jetzt alle dort neu aufgesetzt (adminer, Maria, NPM, Vaultwarden, Nextcloud). Nun brauche ich aber eine eigenständige IP Adresse für NPM die ich auch in Pihole eintragen kann. Diese erhalte ich aber nur wenn ich diesen wieder auf Br0 setzte wodurch die anderen Docker wieder nicht damit komunzieren können. Kann ich das custom docker network irgendwie erreichbar machen, denn da hätten ja alle eigene IP oder gibt es sogar eine einfachere Lösung?
  15. Hallo zusammen, seit dem Update auf 6.10 hängt sich mein Server immer wieder auf. Etwa alle 2-3 Tage und vemutlich meistens in der Nacht also im IDLE Betrieb. Die einzige Möglichkeit den Server wieder erreichbar zu machen ist ein hardreset ( gefolgt von einem stundenlangen paritycheck mit meistens 3 -5 Fehlern). Ich habe deshalb einen Syslogserver aufgesetzt um dem ganzen auf die Spur zu kommen, nur versteh ich nicht was wirklich drin steht😅. 2022-07-25T04:42:48+02:00 Flex-Raid kernel: kernel BUG at drivers/md/unraid.c:356! 2022-07-25T04:42:48+02:00 Flex-Raid kernel: invalid opcode: 0000 [#1] SMP NOPTI 2022-07-25T04:42:48+02:00 Flex-Raid kernel: CPU: 2 PID: 4834 Comm: mdrecoveryd Not tainted 5.15.46-Unraid #1 2022-07-25T04:42:48+02:00 Flex-Raid kernel: Hardware name: Gigabyte Technology Co., Ltd. H87-HD3/H87-HD3, BIOS F5 08/03/2013 2022-07-25T04:42:48+02:00 Flex-Raid kernel: RIP: 0010:_get_active_stripe+0x2ed/0x339 [md_mod] 2022-07-25T04:42:48+02:00 Flex-Raid kernel: Code: 00 00 4c 01 f0 48 8b 90 38 01 00 00 81 e2 00 02 00 00 52 4c 8b 88 50 01 00 00 44 89 d2 4c 8b 80 48 01 00 00 e8 a4 7e 40 e1 58 <0f> 0b 41 ff c2 e9 7c ff ff ff 31 c0 ff cd 41 89 5e 28 75 06 8b 05 2022-07-25T04:42:48+02:00 Flex-Raid kernel: RSP: 0018:ffffc9000045fcc0 EFLAGS: 00010093 2022-07-25T04:42:48+02:00 Flex-Raid kernel: RAX: ffff8881058d7ed0 RBX: 0000000000000000 RCX: 0000000000000000 2022-07-25T04:42:48+02:00 Flex-Raid kernel: RDX: 0000000000000000 RSI: 0000000000000004 RDI: ffff8881058d7ed0 2022-07-25T04:42:48+02:00 Flex-Raid kernel: RBP: 0000000000000001 R08: 0000000000000004 R09: 0000000000000000 2022-07-25T04:42:48+02:00 Flex-Raid kernel: R10: 0000000000000003 R11: 0000000000000000 R12: ffff888149423070 2022-07-25T04:42:48+02:00 Flex-Raid kernel: R13: ffff888104461cfc R14: ffff8881058d7b88 R15: 0000000080054070 2022-07-25T04:42:48+02:00 Flex-Raid kernel: FS: 0000000000000000(0000) GS:ffff88842e300000(0000) knlGS:0000000000000000 2022-07-25T04:42:48+02:00 Flex-Raid kernel: CS: 0010 DS: 0000 ES: 0000 CR0: 0000000080050033 2022-07-25T04:42:48+02:00 Flex-Raid kernel: CR2: 00001505aba0e758 CR3: 000000000420a004 CR4: 00000000001706e0 2022-07-25T04:42:48+02:00 Flex-Raid kernel: Call Trace: 2022-07-25T04:42:48+02:00 Flex-Raid kernel: <TASK> 2022-07-25T04:42:48+02:00 Flex-Raid kernel: get_active_stripe+0xa1/0xf9 [md_mod] 2022-07-25T04:42:48+02:00 Flex-Raid kernel: ? init_wait_entry+0x29/0x29 2022-07-25T04:42:48+02:00 Flex-Raid kernel: unraid_sync+0x20/0xa0 [md_mod] 2022-07-25T04:42:48+02:00 Flex-Raid kernel: md_do_sync+0xb0/0x1f5 [md_mod] 2022-07-25T04:42:48+02:00 Flex-Raid kernel: md_do_recovery+0x99/0x152 [md_mod] 2022-07-25T04:42:48+02:00 Flex-Raid kernel: md_thread+0x100/0x12a [md_mod] 2022-07-25T04:42:48+02:00 Flex-Raid kernel: ? init_wait_entry+0x29/0x29 2022-07-25T04:42:48+02:00 Flex-Raid kernel: ? md_seq_show+0x6c8/0x6c8 [md_mod] 2022-07-25T04:42:48+02:00 Flex-Raid kernel: kthread+0xdc/0xe3 2022-07-25T04:42:48+02:00 Flex-Raid kernel: ? set_kthread_struct+0x32/0x32 2022-07-25T04:42:48+02:00 Flex-Raid kernel: ret_from_fork+0x1f/0x30 2022-07-25T04:42:48+02:00 Flex-Raid kernel: </TASK> Ich habe jetzt auch schon an anderen Stellen gelesen das 6.10 ziemlich buggy sein soll und ein rollback auf .9 empfohlen wird. Ich würde euch trotzdem bitten mal einen Blick auf das log zu werfen, nicht das ich jetzt Warnzeichen übersehe und es doch nicht am OS liegt. Vor allem die zweite Zeile kann anscheinend auf einen RAM defekt hindeuten. Vielleicht weiß ja einer von euch Rat. Auf jeden Fall schon mal vielen Dank fürs Lesen.🙂 Edit: Memtest lief ohne Fehler 3x durch
  16. I have a parity, a cache drive and two file drives. Cache drive is the only SSD, for parity and file drives i don't know which is which. The license file should be in my E-Mail.
  17. Thanks for the reply. I forgot to mention, already tried chkdsk but it wasn't able to run because the stick is read only or write protected (not sure how its called in english). I tried to change that via diskpart but - though diskpart stated attrbutes cleared - the stick is still protected.
  18. Hey there, [prelude] half a year ago I switched from proxmox to unraid because it was said to be an easy solution. I struggeld a lot with proxmox but felt like chief Mc Hacker himself everyime I got something to work but it was to time consuming. So I bought unraid, started from scratch and build up my setup slowly. The part about creating shares was super easy and worked well. For VMs and containers to setup to my need like homeassistant and others it was more complex. Due to my work I wasn't able to pull it thorugh so till today I haven't finished it all to my likes. And guess what? Intelligent as I am I did not make any backup - though I bought external hard drives for it - because why would I need a backup of an unfinished setup? I know now backup - no pity. [problem] So because of some strange errors I received two or three weeks ago, I shut the system down because I didn't had the time to look into it. Yesterday I restarted the system and could't connect via network. So I pluged in a display and unraid stated IPv4 adress with 169. something. Knowing this adress range isn't possible I googled the error. I read about dying USB stick, so I tried to save my data to my linux notebook but linux couldn't read the stick. I tried it on my Win10 machine an could save some data - though super.dat and some other things are not readable. I swear to god I didn't do anything else - just put the stick into the computer and copy everything thats possible. BUt after putting it back in my sever it resulted into kind of a bootloop - unraid is starting boot.bz and by the time it shows ok the system restarts. Don't know why or anything. I tried to reinstall unraid via the installer tool on the same USB drive - but although I get the 100% install and checksum ok it dsiplays some kind of error at the end with the stick beeing the same as it was before. [question] Any Ideas how to save the damn thing? The usb stick is about half a year old - so my hopes are that there is still a chance. If the stck is dead - and the super.dat is gone so is my array right? Same for the VMs and containers or is there any way to save this somehow. Sorry for the long post, any help is appreciated and have a nice sunday. Flex0
×
×
  • Create New...