-
Posts
624 -
Joined
Content Type
Profiles
Forums
Downloads
Store
Gallery
Bug Reports
Documentation
Landing
Posts posted by i-B4se
-
-
-
Eigentlich nicht.
Sobald ich diese Eintragung rausnehme, kommt der Fehler.
Auf Seite 2 + 3 in diesem Thread wurde das schon mal abgearbeitet.
Hast du vorher irgendwas geändert?
-
On 2/26/2021 at 5:44 PM, i-B4se said:
Einfach bei NPM zu den ProxyHosts -> bei der passenden Domain auf "Edit" und in dem neuen Fenster auf "Advanced"
und die Werte eintragen:
location /.well-known/carddav { return 301 $scheme://$host/remote.php/dav; } location /.well-known/caldav { return 301 $scheme://$host/remote.php/dav; }
-
Ich glaube ich muss mir mal Grafana einrichten. Ganz nette Spielerei 😀
-
6 minutes ago, mgutt said:
3W = je nach DE Tarif 6 bis 8 € Ersparnis pro Jahr = ~5 Jahre bis zur Amortisierung.
Wenn der Server 24/7 läuft. 😉
Das hat er bisher nicht gesagt. Für was soll der Server überhaupt laufen? Reiner Speicher und dann evtl. nur ein paar Stunden am Tag oder ist mehr geplant?
-
Aber so richtig verstehe ich das nicht…
Man wurde abgemahnt und macht damit dann trotzdem weiter?
-
Das steht doch als Hilfetext beim Cache.
QuoteGibt an ob neue Dateien und Verzeichnisse auf den Cache-Datenträger/Pool geschrieben werden dürfen falls dieser vorhanden ist. Diese Einstellung beeinflusst das verhalten des Mover.
Nein verbietet das Schreiben neue Dateien und Verzeichnisse auf den Cache-Datenträger/Pool. Keine Aktivität vom Mover, ignoriert alle Dateien die sich eventuell noch auf dem Cache-Datenträger/Pool befinden.
Ja gibt an das neue Dateien und Verzeichnisse auf den Cache-Datenträger/Pool geschrieben werden sollen, vorausgesetzt es befindet sich genug freier Speicherplatz auf dem Cache-Datenträger/Pool. Wenn nicht genug Speicherplatz auf dem Cache-Datenträger/Pool vorhanden ist werden neue Dateien und Verzeichnisse direkt auf das Array geschrieben. Wenn der Mover aktiv ist werden die Dateien vom Cache-Datenträger/Pool auf das Array transferiert.
Nur gibt an das neue Dateien und Verzeichnisse auf den Cache-Datenträger/Pool geschrieben werden müssen. Wenn nicht genug Speicherplatz auf dem Cache-Datenträger/Pool vorhanden ist werden, schlagen Schreibvorgänge mit dem Fehler kein freier Speicherplatz vorhanden fehl. Keine Aktivität vom Mover ignoriert alle Dateien die sich eventuell noch auf dem Array befinden.
Bevorzugt gibt an das neue Dateien und Verzeichnisse auf den Cache-Datenträger/Pool geschrieben werden sollen, vorausgesetzt es befindet sich genug freier Speicherplatz auf dem Cache-Datenträger/Pool. Wenn nicht genug Speicherplatz auf dem Cache-Datenträger/Pool vorhanden ist werden neue Dateien und Verzeichnisse direkt auf das Array geschrieben. Wenn der Mover aktiv ist werden die Dateien vom Array auf den Cache-Datenträger/Pool transferiert.
HINWEIS: Der Mover kann nur Dateien verschieben die gerade nicht geöffnet/bentutzt werden. Das heißt wenn Sie Dateien von System Anwendungen wie zB Docker oder VMs verschieben wollen müssen diese Anwendungen vorher gestoppt werden wenn der Mover läuft.
-
1
-
-
1 hour ago, ich777 said:
Viele wissen zB nicht das emby oder jellyfin einen bibliotheksscan macht und dort zB auch die platten aufgeweckt werden, kann man bei den beiden deaktivieren indem man die schedulles innerhalb von emby/jellyfin deaktiviert, standardmäßig wird bei den beiden auch auf änderungen im verzeichnis geachtet und neue sachen werden so automatisch gescannt.
Nextcloud ist auch so ein Kandidat, wenn der automatische Upload aktiviert ist. Habe ich ein paar Seiten vorher schon erklärt.
Bis auf die Nextcloud-Platte wacht keine auf und auch nur wenn ich den Standort verändere.
Version: 6.9.2-
1
-
-
Stimmt, das funktioniert nicht.
Ist mir bisher nicht aufgefallen, da ich "Prefer" nicht benutzt.
-
Ich habe einige Shares die ein Leerzeichen haben und bisher wurden meine Daten vom Cache ins Array geschoben, sobald die Zeit "abgelaufen" war und die Daten nicht genutzt werden.
Gerade noch getestet
Datei per Windows in den Share geschoben -> Datei liegt jetzt auf der Cache -> alles geschlossen und Mover gestartet -> Datei ist im Array und nicht mehr aufm Cache
Oder habe ich da gerade etwas falsch verstanden?
-
Das sieht nach einem 600x600 (ist meiner auch) aus.
Dann wirst du hinten die klappe nicht mehr verschließen können, da die Strom- und Netzwerkkabel dagegen drücken. So ist es zumindest bei mir.
Wenn du die vordere Tür geschlossen halten möchtest, dann ist das 4088 nicht zu empfehlen. Da kommt dann kaum frische Luft an die Platten und Bauteile.
Falls du noch ein paar Tage zeit hast, dann stelle dir einen Verfügbarkeitswecker auf "Idealo" oder "Geizhals" und warte bis das 40248 wieder verfügbar ist.
-
Ich musste auch ewig warten bis das IPC 40248 wieder verfügbar war. Es war binnen 24 Std. wieder ausverkauft.
Die kommen mit der Nachlieferung nicht nach, wie die Dinger verkauft werden. Sagt sogar der Support.
Das 4088 ist bestimmt kein schlechtes Gehäuse, aber was mir nicht gefällt ist, dass der Lüfter nicht alle HDDs abdecken kann (Bild). Beim Parity-Check kann das schon warm werden.
Muss es denn ein kurzes Gehäuse sein? Was hast du für ein Rack?
-
Die Seriennummer der Platte ist trotzdem dem externe Gehäuse zugeordnet.
Gib mal auf der Seite die Seriennummer deiner Platte ein. Ist das eine externe Platte gewesen kommt:
"Garantieinformationen nicht verfügbar. Wenden Sie sich bitte an den Support."
Bei normalen HDDs stehen dort die Garantiedaten inkl. Datenwiederherstellungsdienste.
QuoteWas wird durch diese beschränkte Garantie nicht abgedeckt?
Diese beschränkte Garantie gilt nicht bei Problemen aufgrund von: (a) kommerzieller Verwendung, Unfällen, missbräuchlicher Nutzung oder Vernachlässigung; (b) Nichteinhaltung der Anweisungen, des Benutzerhandbuchs oder der Spezifikationen (einschließlich Erschütterungen, elektrostatischen Entladungen, Entmagnetisierung, Wärme- oder Feuchtigkeit oder Verwendung jenseits der Datenlese-/-schreibgrenzen); (c) unsachgemäßer Installation, Bedienung, Wartung oder Änderung; (d) verlorenen Passwörtern; oder (e) Defekten durch andere Geräte. Diese beschränkte Garantie verfällt, wenn ein Produkt mit entfernten, beschädigten oder verfälschten Etiketten oder jedweden Manipulationen (inklusive nicht genehmigte Entfernung von Bauteilen oder der externen Abdeckung) an uns zurückgesendet wird. Diese beschränkte Garantie deckt keine Datenverluste. Sichern Sie die Inhalte Ihres Produkts regelmäßig auf einem separaten Speichermedium. Folgeschäden, Nebenschäden sowie Kosten, die durch die Datenwiederherstellung oder den Aus- und Einbau der Festplatte entstehen, können im Rahmen des Garantieanspruchs ebenfalls nicht geltend gemacht werden. Diese beschränkte Garantie gilt nur für Hardware. Die Lizenz (und ggf. Garantie) für Software, Medien und Handbücher wird durch gesonderte schriftliche Vereinbarungen geregelt.
-
6 hours ago, jj1987 said:
Für's Shucking bietet sich (bei gleichem/ähnlichen Preis) Seagate an, die verbauten Festplatten haben bislang auch ausgebaut volle Garantie.
Mal ne kurze Frage, wie kommst du darauf?
Man bekommt höchstens aus Kulanz eine neue. Auch bei WD wurden schon Platten getauscht, obwohl diese ausgebaut waren.
Ich will damit nur sagen, dass man keinerlei Anspruch auf Garantie hat wenn man die Platten aus dem Gehäuse holt.
-
1 hour ago, dan4UR said:
Da gibt einige Tutorials.
Ich glaube 😅 ich habe das damals nach dieser Anleitung gemacht.
https://www.tecmint.com/ssh-passwordless-login-using-ssh-keygen-in-5-easy-steps/Ansonsten einfach mal nach "SSH-Key-Authentifizierung" gucken.
Mittlerweile arbeite ich so nicht mehr. Der Backupserver hat Leserechte auf einige Ordner und "zieht" dann die Daten.
1 hour ago, ich777 said:Wäre auch möglich und wäre auch meine Lösung... aber kann man so oder so machen, denk mal drüber nach wieviele Passwörter in den Docker Templates gespeichert sind...
Stimmt, aber durch den Key wird es auch ein wenig einfacher
-
1
-
-
Cooles Tutorial!
Eine Sache die mich daran ein wenig stört, dass das PW und der User in der Datei steht.
Ich hatte das über Public-Key-Authentifizierung gelöst.
So kann man dann per
ssh user@ip befehl.....
alles ausführen ohne die Daten hinterlegen zu müssen.
-
1
-
-
5 minutes ago, mgutt said:
Welche? Alle Platten deines Arrays? Mehr als Parity + eine Disk?
In meinem Fall nur die Parity + Disk1 (Speicherort von "Data")
Ich hatte "Platten" geschrieben, weil ich mit der Parity rechnet habe und ich weiß nicht wie die Leute ihre Shares angelegt haben.
-
Die Platten werden auch geweckt wenn man den automatischen Upload aktiviert hat und sein Standort ändert, sofern er in dem Moment etwas zum hochladen hat, sprich neue Fotos/Videos.
-
Mal kurz eingeklinkt, da wir gerade eine Immobilie inkl. Cams gekauft haben.
Ich habe eine Kamera um eine gewisse Sicherheit zu haben. Wenn das Videomaterial in den RAM geschrieben wird und jetzt ein Stromausfall etc. ist, dann ist alles weg. Bei einer Platte wäre es zumindest bis zu diesem Zeitpunkt drauf.
-
1
-
-
@Unraid_Haupt
Sei mir nicht Böse, aberQuote@Alex, falls du das als Video machen willst, würde ich es wünschen, erwähnt zu werden
Nur weil du 5 Zeilen eingefügt hast und alles passende hier schon im Thread steht.
Die Hauptarbeit hat trotzdem @mguttgemacht.
Ich reagiere bei sowas immer etwas empfindlich. Nehm es nicht persönlich, hab mit sowas schlechte Erfahrung gemacht.
Da hätte ich es Fair gefunden ihn zu erwähnen. Wenn es nämlich Probleme mit dem Script gibt gehen alle Rückfragen an ihn.
-
1
-
-
Wie rechnest du eine Festplatte auf einen Monat runter?
Wir wissen doch gar nicht wie viel TB er am Tag schreibt bis diese hinüber ist.
Bei einer Platte kann nur mit €/GB(TB) rechnen.
Und als du den Post abgesetzt hast, lag die 2 TB-Variante noch bei knapp 400€
-
Es gibt aber kein Script, welches man alle 30 min. laufen lassen kann oder?
Ich möchte nämlich so wenig Apps wie möglich auf dem Backup-Server laufen lassen.
Dasa S3 Plugin kann ich nicht verwenden, da ich eine SSD im Array habe und darauf laufen die Appdata etc.
D.H. das Array schläft nicht.
Ich müsste es dann über die Netzwerkauslastung machen. Ich weiß nicht ob es dann so funktioniert wie ich es gerne hätte.
-
5 minutes ago, mgutt said:
Der schreibt noch immer, obwohl du ein Timeout von 20 Minuten eingestellt hast, wie kann das denn sein?!
rsync dürfte dann ja gar nicht mehr aktiv sein.
War ungünstig beschrieben
Es geht eher darum wenn er noch etwas anderes machen wie zb ein Backup in die Cloud.
Wenn dann das Script ausgelaufen ist, und die Wartezeit durch ist, dann fährt er den Server runter.
52 minutes ago, jj1987 said:Naja grundsätzlich wäre das das s3 sleep Plugin eine Option. Das prüft z.B. Array Aktivität, ggfs ob eine bestimmte IP erreichbar ist, etc. und fährt dann das System runter bzw in den S3 Standby (kann man auswählen)
Schau ich mir mal an.
-
Hallööle
ich brauchte nochmal eure Hilfe 🤯
Aktuell werden meine Backups folgendermaßen vollzogen:
- auf dem "Hauptsystem" ist ein User angelegt der auf bestimmte Ordner nur Leserechte hat
- in bestimmten zeitlichen Abständen fährt mein H-Server den Backup-Server per WoL hoch.
- auf dem B-Server wird per User-Scripts das RSYNC-Script von @mgutt ausgeführt
- in bestimmten Abständen läd der B-Server noch ein paar Daten in die Cloud
- wenn der B-Server mit allem durch ist, dann fahr ich den Server per User-Script am H-Server wieder runter - per ssh-Befehl
Das funktioniert soweit auch alles bestens, aber es kann schonmal vorkommen das der B-Server unnötig lange läuft.
Entweder haben sich nicht viele Daten geändert und ist schnell durch mit dem Backup oder ich vergesse es einfach.
Gibt es eine Möglichkeit den B-Server automatisch runterzufahren?
Als Beispiel per Überwachung der Festplattenaktivität (Pool) und wenn die Platten im "Spindown" sind fährt der Server nach x-Minuten runter.
Ich habe auch schon
echo "Wait 20 minutes until shutdown the device." sleep 1200s echo "Shutdown the Server" ssh poweroff
an dem rsync-Script gehangen und das funktioniert auch, aber falls der Server noch am Schreiben/Lesen ist, fährt er diesen eiskalt runter
Evtl. hat da jemand eine Idee.
Nextcloud Sicherheits- & Einrichtungswarnungen beheben
in Anleitungen/Guides
Posted · Edited by i-B4se
Was ist "Webfinger" und "Nodeinfo"?
Ich habe nur die Fehlermeldung mit Caldav und Carddav.
Das sind meine Meldungen wenn ich
location /.well-known/carddav { return 301 $scheme://$host/remote.php/dav; } location /.well-known/caldav { return 301 $scheme://$host/remote.php/dav; }
bei NPM rausnehme
Die SVG-Meldung ignorieren. Hab das Paket nicht installiert und benötige ich auch nicht.
So ist es wenn die Sachen bei NPM eingetragen sind.
Also alles i.O.