Jump to content

warp760

Members
  • Posts

    250
  • Joined

  • Last visited

Everything posted by warp760

  1. Hätte ich den Container vorher stoppen sollen? Sehe gerade das im Ordner influxdb überhaupt nichts mehr liegt. Wundert mich jetzt grad wie der Container funktionieren kann??? Backup kommt wenn das System produktiv läuft. Eben welcher solcher Fehler zieh ich noch nicht komplett um. Dieses Problem ist jetzt aktuell kein Beinbruch. Später aber schon
  2. Mir wurde gerade eine Aktualisierung vom Docker influxdb angezeigt. Lief wunderbar durch, allerdings musste ich nun User Passwort usw neu einrichten und auch die Datenbank ist leer 😞 Sollte man hier besser anders vorgehen? So ist das ja Mist.... Host Path 1 ist /mnt/user/appdata/influxdb Dachte da wird nichts gelöscht?
  3. ok, USB bringt mir nix. Scheinbar keiner mit n Ethernetmodul hier 😞
  4. Und hast du irgendwelche Treiber direkt auf m Host nachgeladen oder gings bei dir so? Hast du auch die ETH Platine oder die USB Variante?
  5. Hallo zusammen, hat es schon jemand geschafft raspberrymatic mit der Ethernet Platine zum laufen zu bekommen? Ich bekomm leider keine Verbindung. 😞
  6. Hallo zusammen, raspberrymatic an sich läuft im Container. Allerdings bekomme ich keine Verbindung zur HB-RF-ETH Hat das schonmal jemand geschafft?
  7. genau... "dieses" Problem hatte ich auch. Hab dann halt alles gelöscht und von vorne angefangen 🙂
  8. Mir ist das Ganze ja auch gleich passiert. Offenbar ne schöne Newbie Falle 😞 Evt. wäre es besser per default den min space beim anlegen eines caches auf 20% des verfügbaren Speichers zu setzen statt auf 0. So rennt da ja jeder rein, weil jeder die Erwartung hat: Cache voll > es wird aufm Array weitergeschrieben.
  9. Merk schon das ich hier falsch bin. Merci 👍🏻
  10. Also die Meldung kommt ja "nur" von unraid und da ja auch nur mit dem NUT Plugin. Sehe das Problem nicht bei der USV
  11. Warum kommen sie denn mit dem originalen Plugin nicht? Auch die Qnap mault nicht wen ich sie anschliesse. Selbst bei Strom weg und Batteriebetrieb kommt ja alle 60s der Strom wäre wieder da
  12. Ist halt ne Vermutung von mir. Muss ja n Grund haben, warum ich mit Meldungen bombardiert werde...
  13. Die piept natürlich nicht, sondern für die ist das normales Regelverhalten. Das originale Plugin hat ja auch überhaupt kein Problem damit (wahrscheinlich wegen dem 6s Puffer) Nut hat das wahrscheinlich nicht. Mir wäre das originale Plugin eh lieber. Aber das reicht mir die Daten nicht weiter 😞
  14. Hab jetzt mal 100GB eingestellt. Geht ja nur bei der ersten NVME. Wie finde ich den raus ob der Pool im Raid1 läuft? Es gibt ja den Button zu Raid1 konvertieren. Aber dann passiert irgendwie nix und auch das Menü sieht wie davor aus. Ist mir extrem wichtig dass die im Raid1 laufen. Und warum ich bereits bei 470GB 100% gemeldet bekomme weiß keiner? Bei 2x 1TB stimmt ja aktuell was nicht.
  15. Beim originalen Plugin hab ich eine Einstellung in der apcupsd.conf gefunden: ONBATTERYDELAY 6 die wahrscheinlich dafür verantwortlich ist, dass ich mit dem original Plugin keine Fehlermeldungen bekomme. Dann habe ich auch noch folgendes gefunden: # ==== Configuration statements for Network Information Server ==== # # NETSERVER [ on | off ] on enables, off disables the network # information server. If netstatus is on, a network information # server process will be started for serving the STATUS and # EVENT data over the network (used by CGI programs). NETSERVER on # NISIP <dotted notation ip address> # IP address on which NIS server will listen for incoming connections. # This is useful if your server is multi-homed (has more than one # network interface and IP address). Default value is 0.0.0.0 which # means any incoming request will be serviced. Alternatively, you can # configure this setting to any specific IP address of your server and # NIS will listen for connections only on that interface. Use the # loopback address (127.0.0.1) to accept connections only from the # local machine. NISIP 0.0.0.0 # NISPORT <port> default is 3551 as registered with the IANA # port to use for sending STATUS and EVENTS data over the network. # It is not used unless NETSERVER is on. If you change this port, # you will need to change the corresponding value in the cgi directory # and rebuild the cgi programs. NISPORT 3551 # If you want the last few EVENTS to be available over the network # by the network information server, you must define an EVENTSFILE. EVENTSFILE /var/log/apcupsd.events # EVENTSFILEMAX <kilobytes> # By default, the size of the EVENTSFILE will be not be allowed to exceed # 10 kilobytes. When the file grows beyond this limit, older EVENTS will # be removed from the beginning of the file (first in first out). The # parameter EVENTSFILEMAX can be set to a different kilobyte value, or set # to zero to allow the EVENTSFILE to grow without limit. EVENTSFILEMAX 10 Aber egal was ich probiere, mein Nut Slave hat keine Verbindung Habt ihr noch ne Idee was ich noch probieren könnte? Oder wo kann ich ein Delay beim Nut Plugin eintragen? Ich vermute meine USV wechselt ständig zwischen Batterie und Netz und unraid definiert das als Stromausfall.
  16. Ich auch nicht 😎 Aber ging ja gerade noch auf. Passt jetzt so ja. Mit deinen beiden Befehlen kann ich jetzt nicht wirklich was erkennen. Der erste spuckt die Dateigrößen aus, oder? Aber was um 3:00 Uhr passiert erkenne ich da nicht.
  17. Hab da 1GB stehen. Dann war vielleicht dass das Problem? Was sollte man da denn erfahrungsgemäß eintragen?
  18. es ist ja nicht eine Datei mit 1,5TB gewesen, sondern ein Ordner mit vielen (kleineren) Dateien drin. Die größte Einzeldatei hatte glaub 5GB. Müsste ich mal prüfen. Aber ja, ich hätte erwartet das der Kopiervorgang einfach weiterläuft... Abgesehen davon das bei 500GB schon abgebrochen wurde mit der Meldung: 100%
  19. Mit blazer geht absolut garnichts. Mit usbhid halt ständig die Fehlermeldungen. Selbst wenn ich den Stecker ziehe und USV auf Batterie läuft, kommt alle 60s dass die USV wieder online wäre und gleich darauf wieder das der Strom weg ist 😞 Kann ich irgendwas machen, damit mir unraid mit dem originalen Plugin die Daten auf den Port legt? Ich brauch die Info um andere Geräte definiert runterfahren zu können.
  20. Ich wüsste nicht mal wo ich das einstellen kann?! Hab einfach beide Nvme dem Pool `Cache`zugeordnet. Aber egal welches Szenario: bei 500GB dürfte doch kein Abruch erfolgen mit "Speicher voll" oder übersehe ich was?! So hatte ich das auch erwartet. Zwar bei 1TB und nicht bei 500GB, aber es ging ja garnichts mehr. Das kanns ja auch nicht sein... Das soll die Lösung sein? Wenn man viel Daten kopiert immer den Zeitplan anzupassen? Dachte die Software wäre "schlauer"...
  21. Hab zwei Nvme 1TB als Cache in nem Pool und heute ~1,5TB Daten auf n Server geschoben. Hab dann bei ~475GB ne Meldung bekommen, der Speicher wäre bald voll und bei 500GB hat die Übertragung tatsächlich abgebrochen! Nun stellen sich mir natürlich zwei Fragen: 1. Warum meldet er bei 500GB statt 1000GB schon voll? 2. warum springt der Mover nicht an um Platz zu schaffen? Arbeitet der wirklich nur nach Zeitplan? Das wäre ja echt ne Lachnummer...
  22. Gerade getestet: nein, leider nicht. Kommt die gleiche Fehlermeldung
  23. also seh ich im Log gar nicht, "was" die HDD weckt?
×
×
  • Create New...