Jump to content

saber1

Members
  • Posts

    811
  • Joined

  • Last visited

  • Days Won

    1

Everything posted by saber1

  1. Ja, für eth1 habe ich es anders umgesetzt. Weil ich eben in dem (scheinbar Irr-) Glauben war, das die feste IP gut wäre. Aber deswegen habe ich ja diesen Thread eröffnet, um erläutert zu bekommen, was Fix Common Problems meint. Danke
  2. Das ist klar. Im Router habe ich von 10.0.1.2 bis 50 die IP‘s statisch (MAC) vergeben. Die beiden NIC‘s, um die es geht, haben jeweils eigene MAC‘s und bekommen im Router je eine andere IP. Der Router vergibt erst ab 51 Adressen. Bis 150. Ab 150 übernimmt das Setting für den br1 (Screenshot oben > DHCP Pool 10.0.1.151/25). Das Ziel ist eigentlich Trennung. Würde gerne den Traffic von Jellyfin nur über eth1 laufen lassen. Sieht auch so aus, als ob es das so tut.
  3. Die Anregung zu den Settings, wie ich sie habe kommen übrigens hier her:
  4. Zwei Netze: Kann man da nicht einfach die Subnetzmaske auf 255.255.0.0 stellen? Ich habe aber irgendwie das Problem noch nicht erkannt. Jellyfin taucht auch im Router unter seiner IP-Adresse (10.0.1.151) auf. Und nur eth1 ist ja in den globalen Docker Settings für diese IP (oberhalb 10.0.1.150) eingestellt... Was ist hiermit gemeint?
  5. Hm, okay. VLAN unterstützt mein Router (Orbi RBR50) nicht. Also ist eine Trennung ohne VLAN nicht möglich? Wie geschrieben funktioniert es aktuell, wie gedacht: eth0 bekommt vom Router: 10.0.1.7 eth1 bekommt vom Router: 10.0.1.8 Das br1 ist so konfiguriert, das es ab 10.0.1.151 Adressen nutzt. Also besser wieder mit einem NIC arbeiten?
  6. Ich habe ne Blue NVMe seit Ende 2020 im Einsatz und kann nichts negatives Berichten. Wobei ich sie lediglich als Disk für VMs nutze.
  7. Hallo zusammen, da auf meinem Mainboard zwei Ethernet-Ports vorhanden sind, wollte ich sie auch beide nutzen. Allerdings nicht zum Bonding (greife eh nur über WLAN auf die Freigaben zu > Server im Keller), sondern damit ausgesuchte Docker quasi eine "eigene" Leitung bekommen. Zum Streamen mit Jellyfin beispielsweise. Also die beiden Ports folgendermaßen konfiguriert: eth0: eth1: Routing: Docker (custom br1): DHCP Pool ab soll ab 151 sein. Jellyfin hat auch, wie gewünscht 10.0.1.151 bekommen und funktioniert einwandfrei. DHCP im Router geht von Adresse 51 bis 150: Also kein Konflikt mit den Docker Custom Network settings. Was mich aber jetzt wundert ist, das Fix Common Problems einen Error erkannt haben will: Was soll mir das sagen? Jemand eine Idee?
  8. Ist bei mir als Mac User ebenfalls so. Habe allerdings auch nicht über die Terminal-Befehle das Verhalten deaktiviert (möchte die .DS_Store-Files behalten > da nur Macs im Netzwerk sind, kein Problem). Den Tipp von @MartinG mit Jellyfin (oder dergleichen) würde ich mir an Deiner Stelle mal anschauen. 😉
  9. Gut ist, das bei "Device Missing" 0.00B steht. Es ist also alles in Ordnung. Wie ich bereits schrieb, weicht die Art und Weise, wie BTRFS ein RAID behandelt, von der Konventionellen ab. Die einige im unRaid-Dashboard mit der Size bezieht sich auf den "Trivial bound" (siehe der obige Link zum alten Calculator). Dieser ist aber, irritierender Weise, nicht der maximal nutzbare.
  10. Kann es trotzdem kaum glauben. Hast Du es mal mit dem Tool GParted probiert? Gibt es auch als Live-System: https://gparted.org/livecd.php
  11. Es gibt übrigens noch eine alte Version des BTRFS-Calculators: https://carfax.org.uk/btrfs-usage-old/ Dort Deine Diskgrößen angegeben, findest Du unten im kleinen grauen Kasten beschrieben, was los ist. Wie genau sich das im Einzelnen zusammensetzt, weiß ich auch nicht. Aber BTRFS hat eine ganz eigene Art der Berechnung. Die 370 GB sind bei Deinen beiden Disks das "Trivial bound". Nutzbar sind die 240 GB. Die sich ja auch (fast) durch 180 + 56,8 ergeben.
  12. Okay, was sagt denn: btrfs fi usage /mnt/cache/ und: btrfs fi usage -T /mnt/cache
  13. Ist alles chic so. Siehe hier: https://wiki.unraid.net/Manual/Storage_Management#Pool_Modes
  14. Führe mal chown & chmod wie oben ohne anschließenden Neustart aus. Klappt dann der Zugriff?
  15. Besser über User Scripts manuell mounten, Backup ausführen lassen, und wieder unmounten. Ständig gemountet lassen birgt Gefahren…
  16. Ich sehe irgendwie nicht, wo wir uns, laut den Screenshots, befinden. Die Oberfläche „meines“ User Scripts Plugins sieht anders aus…
  17. So unterschiedlich sind eben die Menschen und Anforderungen. Ich habe z.B. noch nie verstanden, wie man einen Film, oder meinetwegen auch eine Serie, auf einem Tablet (es soll sogar Leute geben, denen ein Smartphone-Display ausreicht) schauen kann. Mir genügt auch der 15" Monitor des Laptops nicht. Je größer je besser. Für jeden gibt es halt die passenden Tools/Apps. Ist doch super. 😃
  18. Um auch diese Frage nicht unbeantwortet zu lassen: In den Einstellungen von Krusader hat man die Möglichkeit, gelöschte Objekte zunächst in einen Papierkorb zu schieben. Ist die Standard-Einstellung. Die Dateien landen dann im .trash-99 Verzeichnis Möchte man, wenn man mit Krusader Daten löscht, das sie direkt gelöscht werden, muss das in den Einstellungen festgelegt werden:
  19. Quasi: https://de.wikipedia.org/wiki/Selbsterfüllende_Prophezeiung 😁
  20. SSD's scheinen erstmal wieder teurer zu werden: Massive Produktionsausfälle dürften für steigende SSD-Preise sorgen
  21. Ist zwar aus 2019, aber ZFS ist aktuell ja noch nicht nativ in unRaid integriert. ZFS als Cache Pool scheint (noch) nicht zu gehen:
  22. Hilft das: https://knilixun.wordpress.com/zfs-pool-erstellen/
  23. Ich habe es so verstanden, das die Daten, die sich aktuell auf der Disk1 befinden, erhalten bleiben sollen. Und "nur" die Daten der Disk3 hinzukommen sollen. Dazu mal bitte das Plugin unBalance anschauen. Das verschiebt Daten von Disk zu Disk. Wenn die Disk3 leer ist, kannst Du sie entfernen und die SSD als Cache einbinden.
  24. Und ob 6.10 die letzte 6er-Version wird, ist doch auch nicht gesagt. Kann ja theoretisch bis 6.99 oder noch weiter gehen...
×
×
  • Create New...