Jump to content

i-B4se

Members
  • Posts

    624
  • Joined

Posts posted by i-B4se

  1. Was ist "Webfinger" und "Nodeinfo"?

    Ich habe nur die Fehlermeldung mit Caldav und Carddav.

     

    Das sind meine Meldungen wenn ich 

    location /.well-known/carddav {
        return 301 $scheme://$host/remote.php/dav;
    }
    
    location /.well-known/caldav {
        return 301 $scheme://$host/remote.php/dav;
    }

    bei NPM rausnehme

    image.thumb.png.ee51603d152fdcdf7e3869b8b7979976.png

    Die SVG-Meldung ignorieren. Hab das Paket nicht installiert und benötige ich auch nicht.

     

    So ist es wenn die Sachen bei NPM eingetragen sind.

    image.thumb.png.5a7e5c43cd39605463717cd69964d2bc.png

    Also alles i.O.

  2. 6 minutes ago, mgutt said:

    3W = je nach DE Tarif 6 bis 8 € Ersparnis pro Jahr = ~5 Jahre bis zur Amortisierung.

    Wenn der Server 24/7 läuft. 😉

    Das hat er bisher nicht gesagt. Für was soll der Server überhaupt laufen? Reiner Speicher und dann evtl. nur ein paar Stunden am Tag oder ist mehr geplant?

     

  3. Das steht doch als Hilfetext beim Cache. 
     

    Quote

    Gibt an ob neue Dateien und Verzeichnisse auf den Cache-Datenträger/Pool geschrieben werden dürfen falls dieser vorhanden ist. Diese Einstellung beeinflusst das verhalten des Mover.

    Nein verbietet das Schreiben neue Dateien und Verzeichnisse auf den Cache-Datenträger/Pool. Keine Aktivität vom Mover, ignoriert alle Dateien die sich eventuell noch auf dem Cache-Datenträger/Pool befinden.

    Ja gibt an das neue Dateien und Verzeichnisse auf den Cache-Datenträger/Pool geschrieben werden sollen, vorausgesetzt es befindet sich genug freier Speicherplatz auf dem Cache-Datenträger/Pool. Wenn nicht genug Speicherplatz auf dem Cache-Datenträger/Pool vorhanden ist werden neue Dateien und Verzeichnisse direkt auf das Array geschrieben. Wenn der Mover aktiv ist werden die Dateien vom Cache-Datenträger/Pool auf das Array transferiert.

    Nur gibt an das neue Dateien und Verzeichnisse auf den Cache-Datenträger/Pool geschrieben werden müssen. Wenn nicht genug Speicherplatz auf dem Cache-Datenträger/Pool vorhanden ist werden, schlagen Schreibvorgänge mit dem Fehler kein freier Speicherplatz vorhanden fehl. Keine Aktivität vom Mover ignoriert alle Dateien die sich eventuell noch auf dem Array befinden.

    Bevorzugt gibt an das neue Dateien und Verzeichnisse auf den Cache-Datenträger/Pool geschrieben werden sollen, vorausgesetzt es befindet sich genug freier Speicherplatz auf dem Cache-Datenträger/Pool. Wenn nicht genug Speicherplatz auf dem Cache-Datenträger/Pool vorhanden ist werden neue Dateien und Verzeichnisse direkt auf das Array geschrieben. Wenn der Mover aktiv ist werden die Dateien vom Array auf den Cache-Datenträger/Pool transferiert.

    HINWEIS: Der Mover kann nur Dateien verschieben die gerade nicht geöffnet/bentutzt werden. Das heißt wenn Sie Dateien von System Anwendungen wie zB Docker oder VMs verschieben wollen müssen diese Anwendungen vorher gestoppt werden wenn der Mover läuft.

     

    • Like 1
  4. 1 hour ago, ich777 said:

    Viele wissen zB nicht das emby oder jellyfin einen bibliotheksscan macht und dort zB auch die platten aufgeweckt werden, kann man bei den beiden deaktivieren indem man die schedulles innerhalb von emby/jellyfin deaktiviert, standardmäßig wird bei den beiden auch auf änderungen im verzeichnis geachtet und neue sachen werden so automatisch gescannt.

    Nextcloud ist auch so ein Kandidat, wenn der automatische Upload aktiviert ist. Habe ich ein paar Seiten vorher schon erklärt.

    Bis auf die Nextcloud-Platte wacht keine auf und auch nur wenn ich den Standort verändere. 
    Version: 6.9.2

    • Like 1
  5. Ich habe einige Shares die ein Leerzeichen haben und bisher wurden meine Daten vom Cache ins Array geschoben, sobald die Zeit "abgelaufen" war und die Daten nicht genutzt werden.

    Gerade noch getestet

    Datei per Windows in den Share geschoben -> Datei liegt jetzt auf der Cache -> alles geschlossen und Mover gestartet -> Datei ist im Array und nicht mehr aufm Cache

     

    Oder habe ich da gerade etwas falsch verstanden?

  6. Das sieht nach einem 600x600 (ist meiner auch) aus.

    Dann wirst du hinten die klappe nicht mehr verschließen können, da die Strom- und Netzwerkkabel dagegen drücken. So ist es zumindest bei mir.

    Wenn du die vordere Tür geschlossen halten möchtest, dann ist das 4088 nicht zu empfehlen. Da kommt dann kaum frische Luft an die Platten und Bauteile.

    Falls du noch ein paar Tage zeit hast, dann stelle dir einen Verfügbarkeitswecker auf "Idealo" oder "Geizhals" und warte bis das 40248 wieder verfügbar ist.

  7. Ich musste auch ewig warten bis das IPC 40248 wieder verfügbar war. Es war binnen 24 Std. wieder ausverkauft.

    Die kommen mit der Nachlieferung nicht nach, wie die Dinger verkauft werden. Sagt sogar der Support. 

    Das 4088 ist bestimmt kein schlechtes Gehäuse, aber was mir nicht gefällt ist, dass der Lüfter nicht alle HDDs abdecken kann (Bild). Beim Parity-Check kann das schon warm werden.

     

    image.thumb.png.cd8886b88821b56020d9b5a24ceb883e.png

     

    Muss es denn ein kurzes Gehäuse sein? Was hast du für ein Rack?

  8. Die Seriennummer der Platte ist trotzdem dem externe Gehäuse zugeordnet.

    Gib mal auf der Seite die Seriennummer deiner Platte ein. Ist das eine externe Platte gewesen kommt:

    "Garantieinformationen nicht verfügbar. Wenden Sie sich bitte an den Support."

    Bei normalen HDDs stehen dort die Garantiedaten inkl. Datenwiederherstellungsdienste.

     

    Quote

    Was wird durch diese beschränkte Garantie nicht abgedeckt?

    Diese beschränkte Garantie gilt nicht bei Problemen aufgrund von: (a) kommerzieller Verwendung, Unfällen, missbräuchlicher Nutzung oder Vernachlässigung; (b) Nichteinhaltung der Anweisungen, des Benutzerhandbuchs oder der Spezifikationen (einschließlich Erschütterungen, elektrostatischen Entladungen, Entmagnetisierung, Wärme- oder Feuchtigkeit oder Verwendung jenseits der Datenlese-/-schreibgrenzen); (c) unsachgemäßer Installation, Bedienung, Wartung oder Änderung; (d) verlorenen Passwörtern; oder (e) Defekten durch andere Geräte. Diese beschränkte Garantie verfällt, wenn ein Produkt mit entfernten, beschädigten oder verfälschten Etiketten oder jedweden Manipulationen (inklusive nicht genehmigte Entfernung von Bauteilen oder der externen Abdeckung) an uns zurückgesendet wird. Diese beschränkte Garantie deckt keine Datenverluste. Sichern Sie die Inhalte Ihres Produkts regelmäßig auf einem separaten Speichermedium. Folgeschäden, Nebenschäden sowie Kosten, die durch die Datenwiederherstellung oder den Aus- und Einbau der Festplatte entstehen, können im Rahmen des Garantieanspruchs ebenfalls nicht geltend gemacht werden. Diese beschränkte Garantie gilt nur für Hardware. Die Lizenz (und ggf. Garantie) für Software, Medien und Handbücher wird durch gesonderte schriftliche Vereinbarungen geregelt.

     

  9. 6 hours ago, jj1987 said:

    Für's Shucking bietet sich (bei gleichem/ähnlichen Preis) Seagate an, die verbauten Festplatten haben bislang auch ausgebaut volle Garantie.

    Mal ne kurze Frage, wie kommst du darauf?

    Man bekommt höchstens aus Kulanz eine neue. Auch bei WD wurden schon Platten getauscht, obwohl diese ausgebaut waren.

    Ich will damit nur sagen, dass man keinerlei Anspruch auf Garantie hat wenn man die Platten aus dem Gehäuse holt.

     

  10. 1 hour ago, dan4UR said:

    @i-B4se Wie würde das denn konkret aussehen, da die Frage glaub ich auch bei @sonic6 aufkam ?!

    Da gibt einige Tutorials.

    Ich glaube 😅 ich habe das damals nach dieser Anleitung gemacht.
    https://www.tecmint.com/ssh-passwordless-login-using-ssh-keygen-in-5-easy-steps/

    Ansonsten einfach mal nach "SSH-Key-Authentifizierung" gucken.

    Mittlerweile arbeite ich so nicht mehr. Der Backupserver hat Leserechte auf einige Ordner und "zieht" dann die Daten.  

     

    1 hour ago, ich777 said:

    Wäre auch möglich und wäre auch meine Lösung... aber kann man so oder so machen, denk mal drüber nach wieviele Passwörter in den Docker Templates gespeichert sind... :D

    Stimmt, aber durch den Key wird es auch ein wenig einfacher :D

    • Like 1
  11. Mal kurz eingeklinkt, da wir gerade eine Immobilie inkl. Cams gekauft haben.

    Ich habe eine Kamera um eine gewisse Sicherheit zu haben. Wenn das Videomaterial in den RAM geschrieben wird und jetzt ein Stromausfall etc. ist, dann ist alles weg. Bei einer Platte wäre es zumindest bis zu diesem Zeitpunkt drauf.

    • Thanks 1
  12. @Unraid_Haupt
    Sei mir nicht Böse, aber 

    Quote

    @Alex, falls du das als Video machen willst, würde ich es wünschen, erwähnt zu werden

    Nur weil du 5 Zeilen eingefügt hast und alles passende hier schon im Thread steht. 

    Die Hauptarbeit hat trotzdem @mguttgemacht. 
     

    Ich reagiere bei sowas immer etwas empfindlich. Nehm es nicht persönlich, hab mit sowas schlechte Erfahrung gemacht. 
     

    Da hätte ich es Fair gefunden ihn zu erwähnen. Wenn es nämlich Probleme mit dem Script gibt gehen alle Rückfragen an ihn. 

    • Like 1
  13. @Soliver84

    Wie rechnest du eine Festplatte auf einen Monat runter?

    Wir wissen doch gar nicht wie viel TB er am Tag schreibt bis diese hinüber ist.

    Bei einer Platte kann nur mit €/GB(TB) rechnen.

    Und als du den Post abgesetzt hast, lag die 2 TB-Variante noch bei knapp 400€

  14. Es gibt aber kein Script, welches man alle 30 min. laufen lassen kann oder?

    Ich möchte nämlich so wenig Apps wie möglich auf dem Backup-Server laufen lassen.

     

    Dasa S3 Plugin kann ich nicht verwenden, da ich eine SSD im Array habe und darauf laufen die Appdata etc.

    D.H. das Array schläft nicht.

    Ich müsste es dann über die Netzwerkauslastung machen. Ich weiß nicht ob es dann so funktioniert wie ich es gerne hätte.

     

  15. 5 minutes ago, mgutt said:

    Der schreibt noch immer, obwohl du ein Timeout von 20 Minuten eingestellt hast, wie kann das denn sein?!

     

    rsync dürfte dann ja gar nicht mehr aktiv sein.

    War ungünstig beschrieben :D

    Es geht eher darum wenn er noch etwas anderes machen wie zb ein Backup in die Cloud.

    Wenn dann das Script ausgelaufen ist, und die Wartezeit durch ist, dann fährt er den Server runter.

     

      

    52 minutes ago, jj1987 said:

    Naja grundsätzlich wäre das das s3 sleep Plugin eine Option. Das prüft z.B.  Array Aktivität, ggfs ob eine bestimmte IP erreichbar ist, etc. und fährt dann das System runter bzw in den S3 Standby (kann man auswählen)

    Schau ich mir mal an.

  16. Hallööle :)

     

    ich brauchte nochmal eure Hilfe 🤯

    Aktuell werden meine Backups folgendermaßen vollzogen:

     

    auf dem "Hauptsystem" ist ein User angelegt der auf bestimmte Ordner nur Leserechte hat

    - in bestimmten zeitlichen Abständen fährt mein H-Server den Backup-Server per WoL hoch.

    - auf dem B-Server wird per User-Scripts das RSYNC-Script von @mgutt ausgeführt

    - in bestimmten Abständen läd der B-Server noch ein paar Daten in die Cloud

    - wenn der B-Server mit allem durch ist, dann fahr ich den Server per User-Script am H-Server wieder runter - per ssh-Befehl

     

    Das funktioniert soweit auch alles bestens, aber es kann schonmal vorkommen das der B-Server unnötig lange läuft.

    Entweder haben sich nicht viele Daten geändert und ist schnell durch mit dem Backup oder ich vergesse es einfach.

     

    Gibt es eine Möglichkeit den B-Server automatisch runterzufahren? 

    Als Beispiel per Überwachung der Festplattenaktivität (Pool) und wenn die Platten im "Spindown" sind fährt der Server nach x-Minuten runter.

    Ich habe auch schon

    echo "Wait 20 minutes until shutdown the device."
    sleep 1200s
    echo "Shutdown the Server"
    ssh poweroff

    an dem rsync-Script gehangen und das funktioniert auch, aber falls der Server noch am Schreiben/Lesen ist, fährt er diesen eiskalt runter :D

     

    Evtl. hat da jemand eine Idee.

×
×
  • Create New...