Syprix

Members
  • Posts

    82
  • Joined

  • Last visited

Everything posted by Syprix

  1. Oki dann muss ich mich nochmal intensiver mit dem Anleitungsteil beschäftigen...aber bei meinen beschränkten Kenntnissen wird es wohl darauf hinaus laufen das ich das Thema endgültig begrabe. Hätte ja irgendwie nice sein können mit Nextcloud aber ein stink normales Netzwerklaufwerk wird dann wohl auch tun ...irgendwann 😅 Hatte schon probiert mit der KI eine Lösung zu finden, muss sagen vor Monaten hat die noch brauchbare Klick-Anleitungen für das Ein oder Andere ausgespuckt aber hierzu ...nur bullshi.... Vielen Dank für die Tipps 🙂
  2. Ja und nein 😅 Ich vermute eher das es irgendetwas mit der Datenbank oder dem Docker zu tun haben muss als mit Nextcloud selbst daher habe ich es hier angebracht. Aber ist ein guter Einwand 🙂
  3. Ich habe grade die Sicherheits- & Einrichtungswarnungen entdeckt. 😅 Dort sind ne Menge Fehler aufgeführt..ich verstehe nur nicht ganz warum... Es ist eine frische Installation, die alte Installation hatte ich nicht genutzt und musste sie löschen weil sie in der Web Oberfläche nach Docker Updates nicht mehr erreichbar war. 33 Fehler seit 19.Februar 2024...das ist eine Menge, wo kann ich das einsehen? Und warum sind die noch vorhanden? Ich habe den Docker inklusive Image gelöscht, habe das Cleaning Plugin ausgeführt und die Reste gelöscht sowie im appdata Ordner die noch leeren Ordner von adminer, mariadb und Nextcloud gelöscht. Eigentlich dürfte gar nichts mehr im System sein von früher...
  4. Hallo zusammen, ich habe Nextcloud von Linuxserver installiert und habe es zusammen mit adminer und mariadb laufen. Wenn ich als Admin unter App-Pakete erst Collabora Online und dann Nextcloud installiere, bekomme ich nach der Installation jeweils eine Fehlermeldung: "Diese App kann nicht aktiviert werden, da sie den Server instabil macht". (Bei jeder App kommt diese Fehlermeldung) Wenn ich Nextcloud dann neu starte, ohne die App zu deaktivieren, ist die Fehlermeldung weg und die App scheint aktiviert zu sein. Zumindest ist die Schaltfläche in Nextcloud zu sehen wo ich ein neues Dokument anlegen kann. Wenn ich dies mache, kommt auch die Vorauswahl ob ich ein neues, blankes Dokument anlegen möchte oder ein Template nutzen möchte. Dies kann ich wählen und die neue Datei erscheint im Ordner. Will ich diese ODS Datei allerdings öffnen. läd sie ewig und wird nicht fertig geöffnet. Komischerweise schaue ich nach dem Versuch die Datei zu öffnen wieder in die App-Pakete und Nextcloud ist noch aktiviert aber Collabora nicht mehr. Ich aktiviere es wieder und erhalte wieder die Fehlermeldung. Kann mir Jemand sagen wie ich bei der Problemlösung vorgehen kann? Bzw. kennt das Problem Jemand und weiß die Lösung? Vielen Dank schonmal!
  5. Ich habe mit dieser Schritt für Schritt Anleitung von Bing den Memory Fehler beheben können: 1. Öffnen Sie ein Terminal auf Ihrem System. 2. Geben Sie den Befehl " sudo nano /etc/sysctl.conf " ein und drücken Sie die Eingabetaste. Dadurch wird die Datei /etc/sysctl.conf im Nano-Editor geöffnet. 3. Fügen Sie die folgende Zeile am Ende der Datei hinzu: " vm.overcommit_memory = 1 ". 4. Drücken Sie " Strg + O ", um die Änderungen zu speichern, und dann " Strg + X "um den Editor zu schließen. 5. Geben Sie den Befehl " sudo sysctl -p " ein, um die Änderungen zu übernehmen. 6. Starten Sie Ihren Computer neu. Nachdem Sie diese Schritte ausgeführt haben, sollte die Warnung nicht mehr angezeigt werden.
  6. Ich habe im Protokoll von Redis aber weiterhin die Warnung mit dem Memory und dem Config File. Ist das wichtig dies zu beheben?
  7. Hi Skyfighter, vielen Dank erstmal für deine Antwort! Da ich so schnell keine Antwort bekam, habe ich versucht die Lösung mit der KI von Bing zu lösen. Ich habe das Protokoll von Paperless von Bing analysieren lassen und die KI sagte mir das selbe wie du. Ich hatte dann die eckigen Klammern entfernt aber leider blieb das Problem bestehen. Bing sagte mir dann noch das ich die Konfigurationsdatei von Redis aufrufen solle und dort eine Änderung vornehmen müsse. Allerdings war die Konfigurationsdatei von Redis nicht in Appdata zu finden. Mir ist dann aufgefallen das dem Container von Redis gar kein Volumen zugeordnet war und so habe ich dann Redis neu installiert und bei der Installation folgendes hinzugefügt: Seit dem funktioniert Paperless wieder. Die Klammern musste wie du sagst aber auch noch entfernt werden. Ich frage mich allerdings warum die Klammern dort waren, ich meine hat ja vorher alles funktioniert. Kann es sein das die Klammern durch das Updaten kamen?
  8. Hallo zusammen, ich habe ein Problem mit meinem Paperless. Paperless und Redis starten aber Paperless ist im Browser nicht erreichbar. Im Protokoll von Paperless scheint es kein Problem zu geben aber in dem von Redis. Beides hat bis vor kurzem tadellos funktioniert und seit dem Unraid Update und den Updates der Container funktiniert es nicht mehr. Einmal scheint Redis zu melden das der Ram nicht ausreicht und dann noch das es ein Problem mit dem Config File gibt. Das mit dem Ram verstehe ich auch nicht so ganz. Ich habe 512GB Ram installiert und nur 251Gb sind in Verwendung. Kann mir bitte Jemand helfen die Fehler zu beheben? Vielen Dank im Voraus! Paperless Log.txt Redis Log.txt
  9. Ich habe den Fehler leider nicht korrigieren können aber durch eine Löschung von MariaDB und Nextcloud ( inklusive Nutzung des Plugins "CA Cleanup Appdata") und deren Neuinstallation, konnte ich Netxcloud wieder erreichen und muss es jetzt neu einrichten. Ich merke daher das ich nochmal prüfen muss, wie ich die MariaDB Datenbank von Nextcloud sichere um sie in so einem Fall wiederverwenden zu können. Auch das Thema Updateprozess der Docker muss ich mir wohl nochmal genauer ansehen. Blindlinks ein Update eines Dockers zu installieren, nur weil es verfügbar ist, macht anscheinend wenig Sinn.
  10. Ich meine ich hatte bei IONOS nur Debian zur Auswahl, da ich die kleinste Konfiguration genommen habe. Würde ich Ubuntu drauf machen wollen müsste ich ein kleines Upgrade nehmen da es 1GB mehr Ram erfordert. Aktuell bin ich bei 1€/Monat so wäre ich dann bei 3€/Monat. Habe die zahlen aber grade nicht genau im Kopf.
  11. Hallo zusammen, ich weiß leider nicht mehr genau was ich geupdatet hatte das Nextcloud mir als Fehler meldete, dass meine PHP Version veraltet wäre. Jedenfalls konnte ich deswegen Nextcloud nicht mehr aufrufen. Heute gab es von linuxserver ein Update für Nextcloud und dieses habe ich installiert. Der Docker startet jetzt zwar aber wennich über die WEBUI darauf zugreifen will, geht das nicht. <Seite ist leider nicht erreichbar> In der Protokolldatei von Nextcloud steht folgendes: Can't start Nextcloud because the version of the data (24.0.12.1) is more than one major version behind the docker image version (27.0.0.8) and upgrading more than one major version is not supported. Please run an image tagged for the major version 25 first. Meine Dataversion müsste ja meine Datenbank sein und die läuft auf Mariadb von linuxserver. Der Docker ist allerdings Up-To-Date, es gab noch kein Update. Gehe ich richtig der Annahme das ich auf ein Mariadb update warten muss um Nextcloud wieder zu erreichen?
  12. OMG ich kann nicht mehr vor Lachen Es ist zu geil. Ich bin son richtiger NOOB ... don't panic Oki, dann bin ich ja schonmal froh das es mit der Fritzbox gehen kann. Das mit RouterOS lasse ich dann mal lieber. AU MAN du machst mich feddich. 😄🙃
  13. Ok ist sehr schwer zu verstehen, ich denke ich muss mir mal ein paar Youtube Videos zum Thema IP-Routing ansehen. Aber ich denke ich verstehe was du meinst. Die Firewall in der Fritzbox ist nur fähig zu meinem VPS eine Wireguard Verbindung aufzubauen so das ich mit der IP des VPS Anbieters im Internet Surfen kann. Quasi als würde ich mir NordVPN kaufen um meine IP zu verschleiern. Was ich aber möchte ist ja, das ich von draußen über die IP vom VPS Anbieter erreichbar bin und Anfragen von außen an mein Unraid weiter geleitet werden. Das ist auch möglich, nur eben nicht mit der Fritzbox. Welche Router sind denn fähig so eine Verbindung aufzubauen? Bevor ich mir LTE angeschafft habe, wollte ich mir einen eigenen Router bauen mit OPNsense. Ich hatte mir schon einen MiniPC gekauft und nutzte sowieso ein Vigour Modem. Nur mit dem LTE Projekt musste ich das über den Haufen werfen da ich kein LTE Modem finden konnte und ich nicht wusste wie ich das dann mit OPN Sense konfiguriere. Ist ja schon mit den ANleitungsvideos nicht einfach für mich aber dann noch "besondere" Technik, na ich weiß nicht. Too much würde ich sagen.
  14. Danke, Fritte ist geil, habe ich auch noch nicht gehört. Oki, ich ziehe vorerst daraus, das wie Sacred schrieb ich eine Fritzbox benötige um auch die richtigen Einstellungen tätigen zu können. Dann kann ich mein Unraid über den VPS ins Inet bringen und den Rest im Haus direkt ins Inet gehen lassen. Dann werde ich mir erstmal eine Fritzbox holen. 🙂 Ich Danke euch beiden sehr für eure Ratschläge! Ja ich bin was Begriffe und Netzwerktechnik angeht absoluter Anfänger. Bin aber so froh das mein Synology NAS kaputt gegangen ist und ich so zu Unaid kam, macht auch Laune sich mit all dem zu beschäftigen. Und vor allem: tolles Forum hier! Super schnelle und präzise Antworten 🙂 Danke das ihr alle so Hilfsbereit seid, kann mir vorstellen dass das manchmal sicher sehr schwer ist bei all dem Mist was Unwissende verzapfen 😅 Aber wer weiß, irgendwann kommt der Tag an dem ich hier die basic Antworten liefern kann
  15. Ich habe den Router selbst gekauft. Im Netz hatte er die besten Bewertungen in allen Tests, das er den besten Empfang hat. Was das angeht, bin ich damit auch sehr zufrieden. Ich bekomme 4G+ und habe einen Ping von 20-25 ms ganz, ganz selten mal Ausreißer auf 30-35 ms aber nie mehr. Mein DL liegt bei 180Mbps und mein UL bei 75Mbps. Bei meinem Festnetzanbieter Arche.net bekomme ich nur 50Mbps/10Mbps, habe zwar einen ping von <16ms aber dafür ist die Leitung extrem instabil. DL bricht oft auf unter 8Mbits ein und UL ebenfalls. Der Anbieter sagt das ich eben "Pech" hätte, da alles in Glasfaser ausgebaut wird in Deutschland sind die Kosten nicht rentabel die Verteiler umzurüsten, sprich zu erweitern. Ich soll auf Glasfaser warten 😅 Ja, nee, ist klar. Hier hat man ja nicht mal damit angefangen und ich denke nicht das ich dies in den nächsten 3 Jahren hier bekomme. Ich kann mit LTE im Grunde alles spielen, auch Shooter und bin da eigentlich sehr zufrieden mit. 2-5 Sekunden würden mich dann aber nahe an den inakzeptablen Bereich bringen. Dauerhaft 30 ms würde man in Shooter garantiert merken, zumal die Ausrisse dann auf die 40 zugehen.
  16. Danke, dort kann ich super ablesen wieviel MHz die CPU grade hat. Sie taktet runter auf 1Ghz und taktet auch auf 3,3Ghz. 🙂 Dann würde ich sagen, das der Taskmanager in der VM das wohl nur nicht richtig anzeigen kann, wenn es eine VM ist.
  17. Erstmal Danke für deine Ausführungen, werde ich mir nochmal in Ruhe durchlesen wenn es etwas kühler ist, schwerer Stoff für mich 😅 Ich habe einen Huawai Router von Vodafone, den B818-263. Soweit ich weiß, unterstützt er dies nicht. Wenn der Router WG aufbaut, leitet er doch alle im Haushalt befindlichen Geräte durch den Tunnel, oder? Das wäre für Online Games doch nicht sinnvoll? Wirkt sich das nicht auf den Ping aus?
  18. Hallo zusammen, ich habe mir für mein Unraid ein Intel S2600CW-S Mainboard und die Intel Xeon E5-2680 V3 CPU gekauft. In Unraid unter "Übersicht" steht das die CPU @2,5Ghz taktet. Ich habe mir dabei erstmal nichts gedacht, schließlich ist dies der Grundtakt. Nachdem ich eine Windows 10 und auch Windows 11 VM aufgesetzt habe, ist mir allerdings aufgefallen, dass auch unter Last im Taskmanager die Taktrate stur bei 2,5 Ghz bleibt. Eigentlich kann die CPU bis 3,5Ghz hoch takten. Kann mir Jemand sagen warum sie dies in den VM´s nicht tut? Und ob auch für Unraid somit der Takt lediglich bei 2,5Ghz bleibt? Kann ich das irgendwo einstellen? Bzw. muss ich das Einstellen? Ich dachte die CPU regelt dies automatisch. Vielen Dank für eure Hilfen!
  19. Ok krass, ich habe ehrlich gesagt erwartet das ich schon mehr von dem verstanden hatte was ich eigentlich wollte aber dass ich das bis jetzt so konfus angegangen bin muss ich erstmal sacken lassen 😅 Vielen Dank das du dich mir dennoch angenommen hast und mich wenigstens versuchst in die richtige Richtung zu bringen. Deine Vorschläge werde ich erstmal versuchen "abzuarbeiten". Ich bin bissel baff und wüsste jetzt auch nicht welche Fragen ich weiter stellen sollte aber OK das wird schon 🙂 Ich befürchte nur, bis ich das verstanden habe was ich hier tue, haben sie bei mir endlich Glasfaser gelegt und ich brauche die ganze LTE Schose nicht mehr 😄 Aber HEY, Wissen macht ja nicht dümmer 😜
  20. Hallo zusammen, da ich einen LTE Anschluss zu Hause habe und dadurch mit DynDNS meine IP nicht zu einem entsprechenden Anbieter updaten kann um den Server von außen erreichbar zu machen, habe ich mir bei IONOS eine Virtual Server Cloud S gemietet und wollte diese über Wireguard mit meinem Unraid verbinden um dann die feste IPV4 Adresse von IONOS nutzen zu können um mein Unraid dann zu erreichen, zum Beispiel für Nextcloud. Auf dem V-Server habe ich Ubuntu 20.04 installiert und diesen, sowie mein Unraid via Putty dann anhand dieser Anleitung konfiguriert: WireGuard Site to Site VPN - Zwei Netzwerke sicher verbinden (schroederdennis.de) Leider habe ich es nicht hinbekommen die Verbindung zu erstellen als ich lediglich den Port 51820 auf dem V-Server durchreichte via TCP/UDP. Erst als ich ALLE Ports öffnete ( ja ich weiß 😞 ) meldete mein Unraid den Handshake. Wenn ich im Unraid unter VPN Manager nachsehe, zeigt sich mir folgendes Bild: Nun sind dort einige Felder wo "zwingend erforderlich" steht, aber keine Einträge durch die Putty Konfiguration gemacht wurden. Muss ich jetzt davon ausgehen das es zwar einen Handshake gibt, ich aber dennoch keine Verbindung habe? Zudem weiß ich jetzt nicht so recht weiter. Wenn ich die feste IP des V-Servers im Browser eingebe, dann kann die Seite einfach nicht geladen werden. Ich habe in meinem Router dann noch den Port für Nextcloud an die Unraid IP weiter geleitet und auch wenn ich die V-Server IP mit dem Port für Nextcloud dahinter eingebe, habe ich keine Verbindung zu meiner Nextcloud. Kann mir daher bitte jemand sagen ob die Konfiguration oben so überhaupt erfolgreich war und was genau jetzt meine Schritte sind um Zugriff auf die verschiedenen Docker (Anwendungen) zu erhalten? Vielen Dank schonmal im Voraus!
  21. Ja, denke das muss ich wohl machen bis ich mir den Hardware Controller und weitere Acc kaufen kann. Den Docker bekomme ich leider nicht zum laufen. Hast du die Omada Technik schon länger und bist du zufrieden?
  22. Folgendes steht in den Protokolldateien: at org.springframework.data.mongodb.repository.support.MongoRepositoryFactory.getTargetRepository(MongoRepositoryFactory.java:134) ~[spring-data-mongodb-3.3.3.jar:3.3.3] at org.springframework.data.repository.core.support.RepositoryFactorySupport.getRepository(RepositoryFactorySupport.java:324) ~[spring-data-commons-2.6.3.jar:2.6.3] at org.springframework.data.repository.core.support.RepositoryFactoryBeanSupport.lambda$afterPropertiesSet$5(RepositoryFactoryBeanSupport.java:322) ~[spring-data-commons-2.6.3.jar:2.6.3] at org.springframework.data.util.Lazy.getNullable(Lazy.java:230) ~[spring-data-commons-2.6.3.jar:2.6.3] at org.springframework.data.util.Lazy.get(Lazy.java:114) ~[spring-data-commons-2.6.3.jar:2.6.3] at org.springframework.data.repository.core.support.RepositoryFactoryBeanSupport.afterPropertiesSet(RepositoryFactoryBeanSupport.java:328) ~[spring-data-commons-2.6.3.jar:2.6.3] at org.springframework.data.mongodb.repository.support.MongoRepositoryFactoryBean.afterPropertiesSet(MongoRepositoryFactoryBean.java:119) ~[spring-data-mongodb-3.3.3.jar:3.3.3] at org.springframework.beans.factory.support.AbstractAutowireCapableBeanFactory.invokeInitMethods(AbstractAutowireCapableBeanFactory.java:1863) ~[spring-beans-5.3.18.jar:5.3.18] at org.springframework.beans.factory.support.AbstractAutowireCapableBeanFactory.initializeBean(AbstractAutowireCapableBeanFactory.java:1800) ~[spring-beans-5.3.18.jar:5.3.18] ... 21 more Caused by: com.mongodb.MongoTimeoutException: Timed out after 30000 ms while waiting to connect. Client view of cluster state is {type=UNKNOWN, servers=[{address=127.0.0.1:27217, type=UNKNOWN, state=CONNECTING, exception={com.mongodb.MongoSocketOpenException: Exception opening socket}, caused by {java.net.ConnectException: Connection refused}}] at com.mongodb.internal.connection.BaseCluster.getDescription(BaseCluster.java:181) ~[mongodb-driver-core-4.4.2.jar:?] at com.mongodb.internal.connection.SingleServerCluster.getDescription(SingleServerCluster.java:44) ~[mongodb-driver-core-4.4.2.jar:?] at com.mongodb.client.internal.MongoClientDelegate.getConnectedClusterDescription(MongoClientDelegate.java:144) ~[mongodb-driver-sync-4.4.2.jar:?] at com.mongodb.client.internal.MongoClientDelegate.createClientSession(MongoClientDelegate.java:101) ~[mongodb-driver-sync-4.4.2.jar:?] at com.mongodb.client.internal.MongoClientDelegate$DelegateOperationExecutor.getClientSession(MongoClientDelegate.java:291) ~[mongodb-driver-sync-4.4.2.jar:?] at com.mongodb.client.internal.MongoClientDelegate$DelegateOperationExecutor.execute(MongoClientDelegate.java:207) ~[mongodb-driver-sync-4.4.2.jar:?] at com.mongodb.client.internal.MongoCollectionImpl.executeCreateIndexes(MongoCollectionImpl.java:848) ~[mongodb-driver-sync-4.4.2.jar:?] at com.mongodb.client.internal.MongoCollectionImpl.createIndexes(MongoCollectionImpl.java:831) ~[mongodb-driver-sync-4.4.2.jar:?] at com.mongodb.client.internal.MongoCollectionImpl.createIndexes(MongoCollectionImpl.java:826) ~[mongodb-driver-sync-4.4.2.jar:?] at com.mongodb.client.internal.MongoCollectionImpl.createIndex(MongoCollectionImpl.java:811) ~[mongodb-driver-sync-4.4.2.jar:?] at org.springframework.data.mongodb.core.DefaultIndexOperations.lambda$ensureIndex$0(DefaultIndexOperations.java:131) ~[spring-data-mongodb-3.3.3.jar:3.3.3] at org.springframework.data.mongodb.core.MongoTemplate.execute(MongoTemplate.java:560) ~[spring-data-mongodb-3.3.3.jar:3.3.3] at org.springframework.data.mongodb.core.DefaultIndexOperations.execute(DefaultIndexOperations.java:214) ~[spring-data-mongodb-3.3.3.jar:3.3.3] at org.springframework.data.mongodb.core.DefaultIndexOperations.ensureIndex(DefaultIndexOperations.java:121) ~[spring-data-mongodb-3.3.3.jar:3.3.3] at org.springframework.data.mongodb.core.index.MongoPersistentEntityIndexCreator.createIndex(MongoPersistentEntityIndexCreator.java:156) ~[spring-data-mongodb-3.3.3.jar:3.3.3] at org.springframework.data.mongodb.core.index.MongoPersistentEntityIndexCreator.checkForAndCreateIndexes(MongoPersistentEntityIndexCreator.java:146) ~[spring-data-mongodb-3.3.3.jar:3.3.3] at org.springframework.data.mongodb.core.index.MongoPersistentEntityIndexCreator.checkForIndexes(MongoPersistentEntityIndexCreator.java:130) ~[spring-data-mongodb-3.3.3.jar:3.3.3] at org.springframework.data.mongodb.core.index.MongoPersistentEntityIndexCreator.onApplicationEvent(MongoPersistentEntityIndexCreator.java:114) ~[spring-data-mongodb-3.3.3.jar:3.3.3] at org.springframework.data.mongodb.core.index.MongoPersistentEntityIndexCreator.onApplicationEvent(MongoPersistentEntityIndexCreator.java:54) ~[spring-data-mongodb-3.3.3.jar:3.3.3] at org.springframework.context.event.SimpleApplicationEventMulticaster.doInvokeListener(SimpleApplicationEventMulticaster.java:176) ~[spring-context-5.3.18.jar:5.3.18] at org.springframework.context.event.SimpleApplicationEventMulticaster.invokeListener(SimpleApplicationEventMulticaster.java:169) ~[spring-context-5.3.18.jar:5.3.18] at org.springframework.context.event.SimpleApplicationEventMulticaster.multicastEvent(SimpleApplicationEventMulticaster.java:143) ~[spring-context-5.3.18.jar:5.3.18] at org.springframework.context.support.AbstractApplicationContext.publishEvent(AbstractApplicationContext.java:421) ~[spring-context-5.3.18.jar:5.3.18] at org.springframework.context.support.AbstractApplicationContext.publishEvent(AbstractApplicationContext.java:378) ~[spring-context-5.3.18.jar:5.3.18] at org.springframework.data.mapping.context.AbstractMappingContext.addPersistentEntity(AbstractMappingContext.java:391) ~[spring-data-commons-2.6.3.jar:2.6.3] at org.springframework.data.mapping.context.AbstractMappingContext.getPersistentEntity(AbstractMappingContext.java:266) ~[spring-data-commons-2.6.3.jar:2.6.3] at org.springframework.data.mapping.context.AbstractMappingContext.getPersistentEntity(AbstractMappingContext.java:209) ~[spring-data-commons-2.6.3.jar:2.6.3] at org.springframework.data.mapping.context.AbstractMappingContext.getPersistentEntity(AbstractMappingContext.java:92) ~[spring-data-commons-2.6.3.jar:2.6.3] at org.springframework.data.mapping.context.MappingContext.getRequiredPersistentEntity(MappingContext.java:73) ~[spring-data-commons-2.6.3.jar:2.6.3] at org.springframework.data.mongodb.repository.support.MongoRepositoryFactory.getEntityInformation(MongoRepositoryFactory.java:160) ~[spring-data-mongodb-3.3.3.jar:3.3.3] at org.springframework.data.mongodb.repository.support.MongoRepositoryFactory.getTargetRepository(MongoRepositoryFactory.java:134) ~[spring-data-mongodb-3.3.3.jar:3.3.3] at org.springframework.data.repository.core.support.RepositoryFactorySupport.getRepository(RepositoryFactorySupport.java:324) ~[spring-data-commons-2.6.3.jar:2.6.3] at org.springframework.data.repository.core.support.RepositoryFactoryBeanSupport.lambda$afterPropertiesSet$5(RepositoryFactoryBeanSupport.java:322) ~[spring-data-commons-2.6.3.jar:2.6.3] at org.springframework.data.util.Lazy.getNullable(Lazy.java:230) ~[spring-data-commons-2.6.3.jar:2.6.3] at org.springframework.data.util.Lazy.get(Lazy.java:114) ~[spring-data-commons-2.6.3.jar:2.6.3] at org.springframework.data.repository.core.support.RepositoryFactoryBeanSupport.afterPropertiesSet(RepositoryFactoryBeanSupport.java:328) ~[spring-data-commons-2.6.3.jar:2.6.3] at org.springframework.data.mongodb.repository.support.MongoRepositoryFactoryBean.afterPropertiesSet(MongoRepositoryFactoryBean.java:119) ~[spring-data-mongodb-3.3.3.jar:3.3.3] at org.springframework.beans.factory.support.AbstractAutowireCapableBeanFactory.invokeInitMethods(AbstractAutowireCapableBeanFactory.java:1863) ~[spring-beans-5.3.18.jar:5.3.18] at org.springframework.beans.factory.support.AbstractAutowireCapableBeanFactory.initializeBean(AbstractAutowireCapableBeanFactory.java:1800) ~[spring-beans-5.3.18.jar:5.3.18] ... 21 more ') error: org.apache.logging.log4j.core.appender.AppenderLoggingException: Error writing to stream ../logs/server.log org.apache.logging.log4j.core.appender.AppenderLoggingException: Error writing to stream ../logs/server.log at org.apache.logging.log4j.core.appender.OutputStreamManager.writeToDestination(OutputStreamManager.java:252) at org.apache.logging.log4j.core.appender.FileManager.writeToDestination(FileManager.java:277) at org.apache.logging.log4j.core.appender.rolling.RollingFileManager.writeToDestination(RollingFileManager.java:275) at org.apache.logging.log4j.core.appender.OutputStreamManager.flushBuffer(OutputStreamManager.java:283) at org.apache.logging.log4j.core.appender.OutputStreamManager.drain(OutputStreamManager.java:343) at org.apache.logging.log4j.core.layout.TextEncoderHelper.drainIfByteBufferFull(TextEncoderHelper.java:260) at org.apache.logging.log4j.core.layout.TextEncoderHelper.writeAndEncodeAsMuchAsPossible(TextEncoderHelper.java:199) at org.apache.logging.log4j.core.layout.TextEncoderHelper.encodeChunkedText(TextEncoderHelper.java:147) at org.apache.logging.log4j.core.layout.TextEncoderHelper.encodeText(TextEncoderHelper.java:58) at org.apache.logging.log4j.core.layout.StringBuilderEncoder.encode(StringBuilderEncoder.java:68) at org.apache.logging.log4j.core.layout.StringBuilderEncoder.encode(StringBuilderEncoder.java:32) at org.apache.logging.log4j.core.layout.PatternLayout.encode(PatternLayout.java:228) at org.apache.logging.log4j.core.layout.PatternLayout.encode(PatternLayout.java:60) at org.apache.logging.log4j.core.appender.AbstractOutputStreamAppender.directEncodeEvent(AbstractOutputStreamAppender.java:197) at org.apache.logging.log4j.core.appender.AbstractOutputStreamAppender.tryAppend(AbstractOutputStreamAppender.java:190) at org.apache.logging.log4j.core.appender.AbstractOutputStreamAppender.append(AbstractOutputStreamAppender.java:181) at org.apache.logging.log4j.core.appender.RollingFileAppender.append(RollingFileAppender.java:312) at org.apache.logging.log4j.core.config.AppenderControl.tryCallAppender(AppenderControl.java:161) at org.apache.logging.log4j.core.config.AppenderControl.callAppender0(AppenderControl.java:134) at org.apache.logging.log4j.core.config.AppenderControl.callAppenderPreventRecursion(AppenderControl.java:125) at org.apache.logging.log4j.core.config.AppenderControl.callAppender(AppenderControl.java:89) at org.apache.logging.log4j.core.config.LoggerConfig.callAppenders(LoggerConfig.java:542) at org.apache.logging.log4j.core.async.AsyncLoggerConfig.callAppenders(AsyncLoggerConfig.java:126) at org.apache.logging.log4j.core.config.LoggerConfig.processLogEvent(LoggerConfig.java:500) at org.apache.logging.log4j.core.config.LoggerConfig.log(LoggerConfig.java:483) at org.apache.logging.log4j.core.async.AsyncLoggerConfig.log(AsyncLoggerConfig.java:120) at org.apache.logging.log4j.core.async.AsyncLoggerConfig.logToAsyncLoggerConfigsOnCurrentThread(AsyncLoggerConfig.java:168) at org.apache.logging.log4j.core.async.AsyncLoggerConfigDisruptor$Log4jEventWrapperHandler.onEvent(AsyncLoggerConfigDisruptor.java:112) at org.apache.logging.log4j.core.async.AsyncLoggerConfigDisruptor$Log4jEventWrapperHandler.onEvent(AsyncLoggerConfigDisruptor.java:98) at com.lmax.disruptor.BatchEventProcessor.processEvents(BatchEventProcessor.java:168) at com.lmax.disruptor.BatchEventProcessor.run(BatchEventProcessor.java:125) at java.base/java.lang.Thread.run(Thread.java:833) Caused by: java.io.IOException: No space left on device at java.base/java.io.FileOutputStream.writeBytes(Native Method) at java.base/java.io.FileOutputStream.write(FileOutputStream.java:349) at org.apache.logging.log4j.core.appender.OutputStreamManager.writeToDestination(OutputStreamManager.java:250) ... 31 more
  23. Hallo zusammen, ich habe mir einen Access Point von TP-Link aus der Omada Reihe gekauft und möchte diesen ganz gerne über die Omada Controller Software steuern. Dazu habe ich aus dem Appstore den einzig verfügbaren Docker geladen und installiert. Im Prinzip genauso wie in diesem Video Tutorial. Meine Netzwerkeinstellungen stehen auf active-backup (1), da ich zwei Netzwerkkarten auf dem Mainboard habe, ich habe ebenso wie in dem Video als Netzwerktyp "br0" gewählt und habe dann entsprechend meines Subnet als Adresse 192.168.178.2 gewählt, der Router fällt auf ***.178.1. Der Controller startet aber wenn ich mit rechter Maustaste auf "WebUI" gehe, dann folgt er im neuen Tab zwar der Adresse und dem richtigen Port mit 192.168.178.2:18043 (Wie in den Einstellungen vorgegeben) aber die Seite kann nicht geladen werden. Wie kann ich die Fehlersuche angehen? Im Video scheint es ja bei gleichen Einstellungen sofort zu funktionieren. Vielen Dank und Gruß Syprix
  24. Hallo zusammen, ich hatte an meinem Unraid mittlerweile so viel rumgespielt, das ich das Gefühl hatte es war zu viel "verstellt" und habe daher ein blanko Unraid aufgesetzt um es neu auf dem alten USB-Stick einzurichten. Bevor ich den USB Stick gelöscht und wieder bespielt habe, habe ich ein Backup gemacht und mir auch aufgeschrieben welcher Datenträger im Array in welchen "Slot" eingebunden war. Diese Datenträgerstruktur möchte ich nun wieder herstellen aber sobald ich die Parity auswähle und eine Datenträger HDD in ihrem Slot auswähle, bekomme ich die Meldung bei der Parity das alle Daten überschrieben werden wenn ich das Array starte. Warum? Kann ich das irgendwie unterbinden? Die Parity bildet doch eigentlich das Array schon exakt ab wenn ich die Datenträger wieder an dem selben Ort einbinde. Vielen Dank für eure Hilfe. Würde dieses Häkchen eventuell Helfen? Die Meldung verschwindet bei Aktivierung des Hakens allerdings nicht: