Jump to content

mgutt

Moderators
  • Posts

    11,356
  • Joined

  • Last visited

  • Days Won

    124

Everything posted by mgutt

  1. Nein, ich habe keine Erfahrungen damit. Ich habe nur die Beiträge aus dem Forum gelesen. Für mich klingt das nach "meine Kaffeemaschine ist von Bosch, dann muss der Kühlschrank auch von Bosch sein". Ich mein extra Geld ausgeben, nur damit man alles von einer Marke hat. Finde ich eine komische Argumentation. Es gibt übrigens noch weitere Einschränkungen. Die USG kann zB keine Domains lokal auflösen: https://community.ui.com/questions/Resolve-DNS-to-Local-IP/a15900d2-62cb-4396-a106-525476dc45ca#answer/7aa28a27-3f9d-4187-9656-47ce495fd4dd Den Rebind-Schutz kann man nur per json Datei beeinflussen: https://forums.unraid.net/topic/65785-640-error-trying-to-provision-certificate-“your-router-or-dns-provider-has-dns-rebinding-protection-enabled”/?tab=comments#comment-630082 Und lustig wird es, wenn die Datenbank vom Controller wegen einem Stromausfall etc korrupt ist. Dann kannst du nämlich alles neu einrichten und hast so lange keinen Zugriff auf die USG und damit dem "Tor zum Internet". Ubiquiti konnte das nie lösen und hat deswegen ja diese überteuerten Cloud Key2 mit "eingebauter USV" rausgebracht. So toll ich die APs ja finde, aber beim Rest... naja muss jeder selber wissen. Wie telefonierst du eigentlich? Oder hast du kein Festnetz? Das ist einer der Gründe, warum ich eine Fritz!Box habe. Wobei ich noch den DECT 200 nutze und die Internetfilter. Das würde ich alles beim USG vermissen.
  2. Danke für den Hinweis. Ich habe das Unraid Template entsprechend geändert. Kannst du noch den EXPOSE für den WebGUI Port im Container hinterlegen? Dann geht auch der WebGUI Link in Unraid, wenn man als Netzwerk "br0" (MACVLAN) wählt. Wenn du willst, kannst du natürlich selbst das iobroker Unraid Template einreichen. Dann lösche ich das wieder aus meiner Template-Sammlung und du bist Maintainer.
  3. Naja, du hast schon alles gefunden, was man dazu finden kann: https://community.ui.com/questions/GERMAN-Portfreigabe-IPv6/eb970a73-7e43-4609-9de8-199267ca5e73 Kurz gesagt: Von Haus aus geht das nicht, kann man nur manuell lösen und die Regeln verfallen immer wieder, wenn man in der GUI was ändert. Warum hast du die USG überhaupt gekauft?
  4. Mittlerweile habe ich alle Platten über SATA verbunden. Dann habe ich wieder den Sync angestoßen und gestern Abend hatte ich erneut einen Fehler. Die WebGUI war nicht erreichbar. SMB war ebenfalls tot. Später am Abend lief der Server dann ohne mein Zutun wieder. In den System Logs war zum Zeitpunkt des Fehlers nur das geloggt worden: Apr 2 20:34:21 Thoth emhttpd: cmd: /usr/local/emhttp/plugins/user.scripts/showLog.php rsync2 Apr 2 21:17:43 Thoth nginx: 2021/04/02 21:17:43 [error] 6418#6418: *349331 upstream timed out (110: Connection timed out) while reading response header from upstream, client: 192.168.178.30, server: , request: "GET /Dashboard HTTP/1.1", subrequest: "/auth_request.php", upstream: "fastcgi://unix:/var/run/php5-fpm.sock", host: "thoth" Apr 2 21:17:43 Thoth nginx: 2021/04/02 21:17:43 [error] 6418#6418: *349331 auth request unexpected status: 504 while sending to client, client: 192.168.178.30, server: , request: "GET /Dashboard HTTP/1.1", host: "thoth" Apr 2 21:59:54 Thoth emhttpd: cmd: /usr/local/emhttp/plugins/dynamix/scripts/disk_log sde Apr 3 00:00:07 Thoth crond[1901]: exit status 1 from user root /usr/local/sbin/mover &> /dev/null Der Server war nach 20:34 irgendwann nicht erreichbar. Ich tippe auf den Eintrag um 21:17 Uhr, wo ich versucht habe die WebGUI zu öffnen. Da ich wieder zwei rsyncs laufen hatte, kann ich nun keine Platte eingrenzen. SMART sieht bei allen Platten nach wie vor in Ordnung aus. Eventuell gibt es auch ein Problem mit den Logs, die rsync produziert. Ich sehe nämlich gerade, dass die Log-Datei des Scripts 13GB groß ist. Die RAM Auslastung ist für meine Verhältnisse hoch, aber noch weit von überlastet: Leider gibt rsync in den Logs keinen Timestamp aus. Vielleicht hatte ja ein Script zu dem Zeitpunkt seine Arbeit erledigt?! EDIT: Nein, das Änderungsdatum deutet nicht darauf hin. Die eine rsync Log-Datei wurde um 01:30 Uhr das letzte mal beschrieben und die andere um 01:20 Uhr. Wirklich komisch. Ich werde jetzt mal die Log-Dateien beide löschen und die rsync Skripte diesmal nacheinander laufen lassen. Außerdem habe ich das Kommando angepasst, so dass rsync hoffentlich auch einen Zeitstempel ausgibt. Dann kann ich hoffentlich wenigstens den Zeitraum eingrenzen. EDIT: Der Server muss auf jeden Fall total überlastet gewesen sein, denn ich lasse ein Skript alle 15 Minuten ausführen und um 21:15 sollte ein Skript ausgeführt werden, das erst um 21:18 gestartet wurde: Ein anderes Script läuft alle 5 Minuten und auch da gab es Verzögerungen: Es muss also schon um 21:10 ein Problem mit dem Server gegeben haben, wo dieses Script hätte ausgeführt werden müssen. Leider habe ich mir die Zeit nicht notiert, aber um diese Zeit herum hatte ich mit Sonos versucht Musik über SMB abzuspielen. Die Musik liegt auf der SSD. Die SSD sieht auch in Ordnung aus, aber ich mache zur Sicherheit mal einen Screenshot von den SMART Werten für den späteren Vergleich: Vielleicht hatte sich auch einfach nur der SMB Service böse aufgehangen, aber komisch, dass es keine Logs zu dem Zeitpunkt gibt. Ich warte jetzt mal die beiden syncs ab und schaue ob sich der Fehler wiederholt. Außerdem habe ich das Script, das alle 5 Minuten ausgeführt wird, um folgende Zeile ergänzt, damit in den Logs auch die Prozesse und Auslastungen zu sehen sind: top -b -c -n1 -d1 | head -n20
  5. Dazu müsste mal einer der PiHole User was sagen. @Solaer @Anym001 @Niaxa @Ford Prefect Weiß es einer von euch? Also wie man für eine Domain eine lokale IP über PiHole ausgeben lassen kann? Naja entweder oder. Wenn du eh öffentlich darauf zugreifen willst über eine DDNS, dann brauchst du auch kein Umschreiben mit PiHole machen. Dann kämst du ja sowohl lokal als auch öffentlich über die öffentliche Domain / IP auf die Nextcloud. Willst du dagegen VPN nutzen, dann hätte der Server immer nur eine lokale IP und das Umschreiben per PiHole würde greifen. Da ist einfach die Frage was du machen willst. Ja, ist ja auch richtig. Du kannst kein validiertes Zertifikat dafür bestellen. Es geht nur ein selbst erstelltes (self signed). Also nichts mit Lets Encrypt. "Bereits vorhanden", damit meinst du Lets Encrypt? Das ist nicht für andere Domains validiert, sondern eben nur für die eine DuckDNS Adresse. Du kannst kein Zertifikat auf fremde Domains übertragen. Dann wäre SSL nicht so sicher, wie es ist. Also entweder hast du eine Domain für die du ein Zertifikat bestellst oder du hast eine lokale Adresse mit einem self-signed Zertifikat. Dieses muss dann aber in jedem Endgerät gespeichert werden. Ansonsten bekommst du auch dann Fehlermeldungen. Wenn dir das mit self-signed nichts sagt und du nicht weißt wie man diese in Endgeräten abspeichert, kann ich dir nur raten es über DuckDNS + Lets Encrypt Zertifikat zu lösen. Alternativ geht es vielleicht über den unraid.net MyServer Dienst. Der hat meine ich ein Wildcard-Zertifikat hinterlegt, das man nicht mehr selbst validieren lassen muss. Dann könnte man lokal die unraid.net Domain auf seine lokale IP auflösen lassen. MyServers habe ich allerdings noch nicht verwendet. Müsstest du mal ausprobieren. Ich habe hier aber schon gelesen, dass man da wohl die lokale IP des Servers zurückbekommt: https://forums.unraid.net/topic/105037-my-servers-access-unavailable/
  6. Hier ist der User mit dem C246-WU4. 18 bis 22W. Weniger hat er nicht geschafft: https://forums.unraid.net/topic/100714-solved-energiesparoptionen-gigabyte-c246-wu4/page/2/?tab=comments#comment-935426
  7. Du kannst sie nur in BTRFS laufen lassen. Im Cache wird nichts anderes unterstützt. Außer es ist nur eine SSD. Dann wird sie in XFS formatiert. Ich nutze zb nur eine und mache regelmäßig Backups. Geht auch, ist aber nicht der empfohlene Weg. Ja, die Pro hat einen größeren SLC Cache, weil sie TLC Zellen hat. Die 970 Pro hat noch MLC Zellen. Die braucht gar keinen SLC Cache. Die ist immer schnell. Ein Grund warum Enthusiasten Samsung auf dem absteigenden Ast sehen. Den großen SLC Cache brauchst du aber eh nicht, wenn du mindestens 1TB Kapazität wählst. Dann schreiben alle durchgehend mit mindestens 1.2 GB/s. Also mehr als ein 10G Netzwerk benötigt. Achte lieber auf einen guten Preis. Die hier ist zb wieder im Angebot und gleichwertig: https://www.mydealz.de/deals/wd-black-sn750-nvme-1tb-ssd-fur-101eur-inkl-versandkosten-500gb-fur-5999eur-1777291 Also falls dir 1TB reicht. Nein irrelevant. Ich würde aber das nehmen was ein Xeon maximal kann. Also 2666 MHz. Dies ist eine individuelle Entscheidung, die dir niemand abnehmen kann. E-Key ist ein WLAN Modul. Also nichts für M.2 SSD, die M-Key nutzt. Bei Intel sowieso nicht, seitdem sie diesen CNVi Müll rausgebracht haben. Bei AMD könnte man zb auf eine M.2 SSD adaptierten. Zwar nur mit x1 Geschwindigkeit, aber es ist möglich und damit flexibel was man macht. Bei Intel geht nur eine WLAN Karte. Unflexibel. Man kann übrigens von PCIe auf M.2 Key-M adaptieren. Also man muss nicht unbedingt ein Board mit zwei M.2 Slots nehmen. 7 vs 20W laut einem User hier. Er bekam es nicht stromsparend hin. Das Board verfügt über einen zusätzlichen SATA Controller. Vermutlich liegt es an dem. Ich würde grundsätzlich nur ITX oder mATX nehmen, wenn du Strom sparen willst.
  8. Ja will er, weil er Plex verwenden möchte. Noch gibt es ja keinen offiziellen Intel AMD Support. Außer man riskiert es mit Basteln. Ich würde es aber erstmal nicht machen.
  9. Verstehe. Man könnte aber das Unterverzeichnis (/.well-known/acme-challenge/) zur Verifizierung des Zertifikates vollständig freigeben. Also nur das und alles andere nur lokal.
  10. Das ist nicht sonderlich stromsparend. Das C246M-WU4 ist die bessere Wahl. Oder das W480M Vision. Reichen dir wirklich 4 Kerne? Ich mein später kann man natürlich immer noch einen Xeon nachrüsten, aber was du alles mit den VMs vor hast, könnte eng werden. Vielleicht machst du es wie ich. Ich habe später einen Xeon bei eBay geschlossen Egal. Hauptsache ein einzelnes 32GB Modul. Du wirst sicher später bis auf 128GB nachrüsten wollen. Alle die gehen: https://geizhals.de/?cat=ramddr3&xf=15903_keinSO~15903_mitECC~15903_ohneLR~15903_ohneREG~5828_DDR4&sort=p&hloc=de&v=e Gehen alle, aber die 980 ist wohl Geldverschwendung, da die CPU kein PCIe 4.0 unterstützt und sonst bringt PCIe 4.0 auch nichts. Ja: https://forums.unraid.net/topic/99393-häufig-gestellte-fragen/?tab=comments#comment-951565 Ansonsten sind die Dateien weg, wenn die SSD stirbt. Oder man macht sich ein Backup-Konzept. Nein. Die "Selbstheilung" bietet nur ein ZFS oder BTRFS RAID. Beides kannst du auch in Unraid nutzen. Nur eben mit dem "nicht schlafen" Nachteil. Es gibt aber ein Plugin um Dateien des Unraid Array regelmäßig auf Bitrot prüfen zu lassen. Das kombiniert mit einem Cache Pool aus sagen wir 2x 2TB SSDs (der ja in BTRFS läuft), könnte in deinem Fall alles zeitkritische per Selbstheilung abdecken und alles "alte" lässt du eben mit dem Plugin überwachen.
  11. Ja das geht. Dazu braucht man einen lokalen DNS Server. Zb PiHole. Dort hinterlegt man irgendeine Domain und gibt ihr eine lokale IP. Auf die Art könnte man zb nextcloud.com auf seine eigene Cloud verlinken. Wobei man üblicherweise eher nextcloud.local oder so nimmt. Ja, weil die Domain eine öffentliche IP besitzt. Deine Anfrage geht dann durch die Fritz Box Firewall und wird dann da wegen dem geschlossenen Port blockiert. Auch das lässt sich nur über einen lokalen DNS Server lösen. In Windows kannst du das zb mit der hosts Datei testen. Diese DNS Server IP hinterlegt man dann in der Fritz!Box. Dadurch bekommt jeder Client in deinem lokalen Netz als Antwort die lokale IP. Aber was ist mit unterwegs? Da gäbe es diese Domain nicht. Oder nutzt du dann einen VPN?
  12. Ich vermute, dass du beim Anlegen der Domain über das Dashboard deine aktuelle öffentliche IP in den DNS Server von DuckDNS gespeichert hast, danach der Container aber nie funktioniert hat, da der ja nur mit dem Token die Schnittstelle von DuckDNS aufrufen darf. Eigentlich sollte man das als Fehler melden, dass man das Feld zu einem Pflichtfeld macht.
  13. IPs können kein validiertes SSL Zertifikat besitzen. Let's Encrypt muss in der Lage sein deinen Server über eine Domain zu erreichen. Das einzige was ginge, wäre alle IPs bis auf die von Let's Encrypt und lokale zu sperren. Dann kämen noch Anfragen aus dem Internet bis zum Proxy, der sie dann aber verwirft. Oder man macht den Port immer nur kurz auf, damit Let's Encrypt das Zertifikat verlängern kann. Ganz ohne ein Türchen aufzumachen geht es jedenfalls nicht. Außer man hat ein selbst signiertes Zertifikat, das man auf jedem Endgerät manuell installiert.
  14. Schon klar. Ich meinte deine Aussage "deshalb hat man die Parität".
  15. Vorsicht. Ihm fehlen 3 Platten und es gibt nur 2 Paritäten. Aktuell besteht also keine Ausfallsicherheit. Mach einen Screenshot von der Disk Übersicht. Dann gehst du auf Tools > New Config und wählst aus, dass der Cache erhalten bleiben soll (falls vorhanden). Nun kannst du die Laufwerke an Hand des Screenshots den Slots wieder so zuordnen wie sie vorher waren. Allerdings lässt du die 3 fehlenden HDD Slots leer. Die Parität muss nun komplett neu aufgebaut werden. Die funktioniert ja nicht mehr, wenn mehr als 2 HDDs fehlen. Warum sollte er das machen? Wäre seine Parität intakt, würde diese mit diesem Schritt auch zerstört werden. Will man die Parität nicht beschädigen, darf man ausschließlich read-only mounten. Davon abgesehen: Welche HDD welche ist, sieht er ja an Hand der Seriennummern. Dafür muss er sie nicht extra mounten. Auch das mit der super.dat usw. Er hat doch gar nicht geschrieben, dass er nicht weiß welche HDD zu welchem Slot gehört?!
  16. Stimmt. Habe ich falsch verstanden. Das wird dann mit Unbalance gehen.
  17. Gigabyte hat jetzt mehrere Tage nicht mehr geantwortet. Ziemliche Narretei.
  18. Bei mir tauchte die per USB gemountete Platte in Unbalance nicht auf. Daher habe ich folgendes als Script in User Scripts hinzugefügt und im Hintergrund ausgeführt: #!/bin/bash rsync -av --hard-links --delete --stats /mnt/disk6/ /mnt/disks/JMicron_Tech Danach habe ich die Disks getauscht und das ganze noch mal umgekehrt per checksum verifiziert: #!/bin/bash rsync -av --hard-links --delete --stats --checksum /mnt/disks/JMicron_Tech/ /mnt/disk6 Letzteres dauert natürlich deutlich länger, stellt aber sicher, dass wirklich alle Daten korrekt übertragen wurden. Steht in den Logs des Scripts auch nur eine Datei, dann muss irgendwas falsch gelaufen sein.
  19. Nein Das ist normal. Nicht alle Tricks von powertop funktionieren bei jedem System. Nichts. Es gibt einfach manchmal Hardware, die lieber abschmiert als weniger Strom zu verbrauchen. Vom Prinzip geht nur testen. Am besten mit abgeschaltetem Array und dann die einzelnen Befehle durchprobieren. Die siehst du, wenn du dir einen HTML Bericht von powertop erstellen lässt. Oder eben die Befehle, die hier im Thread aufgelistet sind einzeln ausführen: https://forums.unraid.net/topic/98070-reduce-power-consumption-with-powertop/ Vorher würde ich aber das Schreiben der Logs auf den USB Stick aktivieren, damit du bei einem Absturz nachvollziehen kannst, was da eigentlich abgeschmiert ist.
  20. SSH oder direkt am Server anmelden. Dann "powerdown" eingeben. Bei mir löst die Powertaste übrigens einen sauberen powerdown aus. Ist das bei dir nicht so?
  21. Bei IPv4 denke ich so gut wie gar nicht. Die sind doch bestimmt sehr wertvoll. Die Telekom würde vermutlich alle nehmen, wenn sie könnte. Weiß man erst wenn es eingerichtet ist ^^ Halt für den Fall, dass deine Frau in einer Range ist, die noch nicht im Paket drin ist. Dann musst du der nicht erklären "geh auf die Seite bla bla".
  22. Here are the redirect rules: https://forums.unraid.net/topic/103111-nextcloud-sicherheits-einrichtungswarnungen-beheben/?tab=comments#comment-951459
  23. Yes, by adding the rule to your proxy.
×
×
  • Create New...