Jump to content

In Benutzung befindliche Daten in den RAM oder aufs Cache-Laufwerk kopieren?


Thomas1978

Recommended Posts

Hallo,

 

da ich in meinem Array viele Filme und Serien liegen habe, und gerade diese eine längere Wiedergabedauer haben, frage ich mich gerade, ob es nicht eine Möglichkeit in Form eines Scripts oder Plugins gibt, das Dateien für die Zeit, in der sie in Verwendung sind, nicht in den RAM oder aufs Cache-Laufwerk kopieren können, und die Wiedergabe dann von dort aus fortsetzen.

 

Also idealerweise sollte es so laufen: Ich starte einen Film oder eine Serienfolge und die Wiedergabe startet. Während der Wiedergabe wird der Film / die Serie in den RAM oder aufs Cache-Laufwerk kopiert und nach Fertigstellung wird der Client dann von dort aus bedient. Die Festplatte(n) könnten nach erfolgreichem Kopiervorgang wieder in den Standby geschickt werden. Die Daten sollten dann mindestens für die Dauer der Wiedergabe im RAM bzw. auf dem Cache-Laufwerk verbleiben und bei Beendigung der Wiedergabe entweder sofort, oder aber nach einer bestimmten Zeit von dort wieder gelöscht werden.

 

Leider bin ich, was die Programmierung von Skripten angeht, nicht sehr bewandert, und wüsste auch erst einmal gar nicht, wo und wie ich da anfangen sollte. Aber die Wahrscheinlichkeit ist ja nicht gerade gering, das sich bereits jemand anderes diesbezüglich ebenfalls Gedanken gemacht hat.

 

Schönen Abend noch

Thomas

Link to comment

Müsste man mal testen, ob das unterbrechungsfrei geht. Ich würde dazu die Datei unsichtbar kopieren und erst sichtbar machen, wenn sie komplett da ist. Dann ist die Frage ob das Programm automatisch den Datenträger wechselt oder man das Original auf dem Array unsichtbar machen muss?!

 

Manuell könntest du es so testen:

- Film starten

- "cp -a /mnt/disk2/Filme/filmname.mkv /mnt/cache/Filme/.filmname.mkv && mv /mnt/cache/Filme/.filmname.mkv /mnt/cache/Filme/filmname.mkv" ausführen

 

Und dann schaust du im Dashboard ob er anfängt vom Cache zu lesen.

 

Wenn du genug RAM für den kompletten Film hast (bei Bedarf dirty ratio anheben), kannst du auch das machen:

- Film starten

- "cat /mnt/disk2/Filme/filmname.mkv >/dev/null" ausführen

- Disk2 in den Spindown schicken

 

 

  • Like 1
Link to comment

Hallo mgutt,

 

vielen Dank für die Antwort.

 

RAM ist mit 64 GB an sich ausreichend vorhanden - ich teste mal und gebe dann Rückmeldung.

 

Edit: Die Version mit dem RAM funktioniert schon einmal einwandfrei. Habe es mit einer Serienfolge und VLC getestet. Die Folge wird selbst dann noch unterbrechungsfrei wiedergegeben, während die Platte schon längst wieder im Standby ist (und bleibt!).

 

Wenn man das jetzt noch in ein Skript verpacken kann, dann wäre mein Wunsch schon restlos erfüllt 😃

Ich werde aber auch noch die Variante mit dem Cache-Laufwerk testen.

Edited by Thomas1978
Edit ergänzt
Link to comment
40 minutes ago, Thomas1978 said:

 

RAM ist mit 64 GB an sich ausreichend vorhanden

Denk an dirty ratio. Der Wert ist standardmäßig auf 20, also 20% des freien RAMs eingestellt. Also bei 64GB mit sagen wir mal 60GB frei, werden nur 12GB fürs Caching verwendet. Für Filme reicht das nicht und in 2 Stunden können auch noch andere Prozesse den RAM überschreiben. Daher möglichst viel für's Caching vorsehen.

  • Like 1
Link to comment

Auch die Variante mit dem Kopieren aufs Cache-Laufwerk funktioniert mit VLC einwandfrei und ohne Unterbrechung. Die HDD kann direkt nach dem Kopieren wieder in den Standby geschickt werden und der Film wird weiterhin vom Cache-Laufwerk abgespielt 😊👍🏼👍🏼👍🏼

Edited by Thomas1978
  • Thanks 1
Link to comment

Habe das Ganze jetzt auch mal mit anderen Szenarien abseits vom Abspielen von Filme und Serien getestet. Es funktioniert auch beim FTP-Transfer über den CrushFTP Docker. Nachdem seitens des Clients ein Download gestartet wurde, und dieses Datei während des Uploads auf den Client aufs Cache-Laufwerk verschoben wird, kann die HDD wieder schlafen gelegt werden und die Datenübertragung läuft trotzdem ungehindert und ununterbrochen vom Cache-Laufwerk weiter.

 

Wenn man das Ganze jetzt noch in ein Skript einbinden kann, welches zudem regelmäßig prüft, ob sich Dateien im Cache-Verzeichnis des Cache-Laufwerks noch in Verwendung befinden, bzw. das nach x Minuten ohne Zugriff auf eine Datei im Cache-Laufwerk diese Datei wieder vom Cache-Laufwerk löscht, dann hätte man neben dem Schreib-Cache auch einen wunderbaren Lese-Cache.

 

Beim Testen fiel mir auch auf, dass bei einem erneuten Aufruf der Datei, solange diese sich noch auf dem Cache-Laufwerk befindet, diese direkt vom Cache-Laufwerk bedient wird und die HDD nicht erneut anlaufen muss.

 

Vielleicht wäre das ja noch eine sinnvolle Funktion, die es in ein zukünftiges Unraid-Release schaffen könnte? 😉

Link to comment
8 hours ago, Thomas1978 said:

Während der Wiedergabe wird der Film / die Serie in den RAM oder aufs Cache-Laufwerk kopiert und nach Fertigstellung wird der Client dann von dort aus bedient.

Dies sehe ich eher als verschlechterung an, nim zB jemand her der sich gerne serien ansieht.

Wenn du es so einstellst wie du beschreibst und du hast beispielsweis einen spinndown von 15minuten dann hast du bei jeder folge wieder einen spinup der festplatte, das verbraucht wieder energie (erzeugt auch prozessorlast beim kopieren) und du nutzt statt einer festplatten gleich zwei ab.

 

Wo siehst du dir hier den vorteil oder warum möchtest du die datei kopieren?

Link to comment
9 hours ago, Thomas1978 said:

da ich in meinem Array viele Filme und Serien liegen habe, und gerade diese eine längere Wiedergabedauer haben, frage ich mich gerade, ob es nicht eine Möglichkeit in Form eines Scripts oder Plugins gibt, das Dateien für die Zeit, in der sie in Verwendung sind, nicht in den RAM oder aufs Cache-Laufwerk kopieren können, und die Wiedergabe dann von dort aus fortsetzen.

 

Was ist die Motivation? Stromsparen für 1:45h eines 2:00h Films? ~10W? 

 

Da gibt es so viele unbedachte Störfaktoren: Wer kümmert sich ums Aufräumen auf dem Cache? Wenn im RAM, Du pausierst den Film und andere Jobs kicken den Film raus oder Du denkst nach 15 Minuten "Was für ein beschissener Film" und löschst ihn, hast aber 30 GB zuvor nutzlos kopiert? Und zum Schluss läuft Docker nicht mehr, da doch etwas auf dem Cache vergessen wurde ...

 

Mehr esoterisches fällt mir im Moment nicht ein ...

 

Edited by hawihoney
Link to comment
6 hours ago, Thomas1978 said:

Es funktioniert auch beim FTP-Transfer über den CrushFTP Docker.

Sehr interessant.

 

6 hours ago, Thomas1978 said:

Beim Testen fiel mir auch auf, dass bei einem erneuten Aufruf der Datei, solange diese sich noch auf dem Cache-Laufwerk befindet, diese direkt vom Cache-Laufwerk bedient wird und die HDD nicht erneut anlaufen muss.

Ja, das liegt daran, dass auf dem Cache immer zuerst gesucht wird. Ich nutze das auch für Tricks. Zb habe ich manche Dateien permanent auf dem Cache, obwohl der Share an sich auf Yes steht. Der Mover kann nämlich Dateien, die auf Cache und Array liegen, nicht bewegen.

 

1 hour ago, ich777 said:

dann hast du bei jeder folge wieder einen spinup der festplatte

Das kann man umgehen, in dem man a) die komplette Serie auf den Cache kopiert oder b) es mit dieser Technik kombiniert:

https://forums.unraid.net/topic/97982-plex-preloader-avoids-hdd-spinup-latency-when-starting-a-movie-or-episode/

 

6 hours ago, Thomas1978 said:

Vielleicht wäre das ja noch eine sinnvolle Funktion, die es in ein zukünftiges Unraid-Release schaffen könnte?

Tatsächlich habe ich mal daran gedacht ein "Hot File Caching" zu realisieren. Aber für den Nutzer macht das nur Sinn, wenn er einen (sehr) großen Cache hat.

 

6 hours ago, Thomas1978 said:

Wenn man das Ganze jetzt noch in ein Skript einbinden kann, welches zudem regelmäßig prüft

Das ist der Knackpunkt. Es gibt das Kommando inotifywait um Verzeichnisse auf Zugriffe zu überwachen, aber ich glaube wenn das 24/7 läuft, kostet einen am Ende nur Strom bei der CPU. Allerdings könnte man das evtl optimieren, in dem man sich in den Cronjob von unRAID einklinkt, der überwacht, wenn eine HDD aufwacht. Dann könnte man mit der Überwachung erst anfangen, wenn die HDD läuft. Aktuelle Dateizugriffe kann man dann mit lsof auslesen. Ich mache mir dazu mal Gedanken.

 

  • Like 2
Link to comment
15 minutes ago, mgutt said:

Das kann man umgehen, in dem man a) die komplette Serie auf den Cache kopiert oder b) es mit dieser Technik kombiniert

Hierüber kann man diskutieren...

 

zu a) für mich Kontraproduktiv, stell dir nur mal vor du hast 5 Teilnehmer die eine Serie sehen die 80GB+ hat weil die 10+ Staffeln hat, du befüllst dir so deinen Cache und evtuell haben die die Serie nur mal angefangen um zu sehen wie es ihnen gefällt, das nächste wäre, wie lange behältst du diese Serie auf dem Cache? In diesem, ich nenn es mal worst case szenario, würdest du den Cache, wenn es denn eine SSD ist unnötig abnutzen (vermutlich gleich doppelt weil gespiegelt, wenn nicht gespiegelt riskierst du die ganze Serie zu verlieren wenn ein Ausfall passiert).

Ich bin mir eben nicht sicher ob es dann wirklich so viel einspart, wenn ich mir englische Posts durchles die 10+ Benutzer an ihrem Plex Server dran haben, aber naja.

 

zu b) ja interessantes Script aber was meinst du mit kombinieren? Kann könnte das script nicht auch kontraproduktiv sein? Beispiel: Ich lass das script 2 bis 3 mal pro Tag laufen, hab aber 3 VMs die ich ab und an starte, eine zum Arbeiten, eine zum Spielen, was auch immer. Jetzt läuft das script morgens und fetcht alle Dateien wie das script konfiguriert wurde, dann geht alles in den spindown, danach starte ich mein 1. VM (Arbeit) und beende diese wieder und dadurch wurde mir auch ein Teil der gefetchten Videoteile aus dem RAM gelöscht, jetzt läuft das Script mittags wieder und fetcht mir die Teile der fehlenden wieder in den RAM (weil diese ja teilweise gelöscht wurden weil die VM den RAM belegt hat wo teile der prefetched Videodateien waren), verursacht das nicht wieder einen Spinup der Platten? Bzw. was passiert wenn das Script 3 mal täglich läuft hab ich dann 3x täglich einen Spinup der Platten oder?

 

Ich will nix schlecht machen, ich denk nur von der anderen Seite.

Link to comment
1 hour ago, ich777 said:

Jetzt läuft das script morgens und fetcht alle Dateien wie das script konfiguriert wurde, dann geht alles in den spindown, danach starte ich mein 1. VM (Arbeit) und beende diese wieder und dadurch wurde mir auch ein Teil der gefetchten Videoteile aus dem RAM gelöscht

So ist das. Und die Leute die das nutzen juckt das nicht. Da sind welche mit 200 und mehr GB RAM dabei bzw gerade die Nicht-Deutschen lassen ihre VMs eh durchlaufen, weil die das Thema Stromverbrauch nicht interessiert. Die nutzen das auch gar nicht um Strom zu sparen, sondern damit es keine Wartezeiten mehr beim Abspielen gibt. Ist einfach eine andere Zielgruppe.

 

Mit kombinieren meine ich bezogen auf eine Serie. Das Auslesen von 100 Episoden dauert nur wenige Sekunden, da ja nur ein paar MB der MKV in den RAM geht. Wie oft man das macht spielt dabei sogar keine Rolle, denn er greift nicht mehr auf die Platte zu, wenn es noch im RAM liegt. Im Gegenteil. Durch das wiederholte Zugreifen schiebt Linux das in der Dirty Page nach oben. Es wird also als letztes überschrieben, wenn man neue Sachen in den RAM schaufelt.

 

Es gibt übrigens auch eine Möglichkeit das persistent in den RAM zu laden, aber da bin ich noch dran, weil das irgendwie buggy in unRAID ist.

 

  • Like 1
Link to comment
6 hours ago, ich777 said:

Dies sehe ich eher als verschlechterung an, nim zB jemand her der sich gerne serien ansieht.

Wenn du es so einstellst wie du beschreibst und du hast beispielsweis einen spinndown von 15minuten dann hast du bei jeder folge wieder einen spinup der festplatte, das verbraucht wieder energie (erzeugt auch prozessorlast beim kopieren) und du nutzt statt einer festplatten gleich zwei ab.

 

Wo siehst du dir hier den vorteil oder warum möchtest du die datei kopieren?

5 hours ago, alturismo said:

denke es kann hier nur um Lautstärke gehen, weil Abnutzung größer (Datei geht ja auch wieder retour, sprich nochmals HDD anfahren ...), Verbrauch des kopieren und wieder retour, usw usw ... also bliebe ja nur noch die Lautstärke über weil die Platte evtl. stört während der Wiedergabe.

Nein nein, die Lautstärke ist es nicht. Es ist einfach nur so, das ich zwischendurch schon den Fall hatte, das eine Wiedergabe anfing zu ruckeln wenn gleichzeitig größere Dateien aufs Array geschrieben wurden. Und Film/Serien müssten nach Beendigung ja auch nicht wieder auf die Platte zurückgeschrieben werden. Stromsparen ist zudem auch ein Hintergedanke, da die jeweilige Platte bei einem 1,5 stündigen Film nicht die komplette Zeit mitlaufen müsste, sondern nur solange, bis der Film aufs Cache-Laufwerk oder in den RAM kopiert wurde.

 

Bei den HDDs habe ich den SpinDown auf 15 Minuten eingestellt. Wäre so gesehen ja auch unnötig, da die Platten nach erfolgten Spindown wieder anlaufen müssten, wenn man nach mehr wie 15 Minuten erst wieder darauf zugreift. Das kann man nur verhindern, indem man die Platten 24/7 durchlaufen lassen würde, was aber aus Sicht des Stromverbrauchs bei mir nicht rentieren würde (ich hatte es jahrelang so gemacht und hatte dabei immer nur draufgezahlt). Dafür laufen die Platten einfach nicht oft genug als das sich das 24/7 lohnen würde.

 

Meine bevorzugte Variante wäre mittlerweile sogar tatsächlich das Cache-Laufwerk. Ein vorzeitiges Dahinscheiden wegen zu häufiger Inanspruchnahme bereitet mir jetzt keine Bedenken. Es wäre für mich z.B. auch kein Problem für diesen Fall eine extra SSD nur als Lesecache in den Server zu packen. Dann muss ich mir auch keine Gedanken um einen möglichen Datenverlust beim bisherigen Cache-Laufwerk fürs Schreiben aufs Array zu machen, dass dieses wegen zu vieler Zugriffe plötzlich am Lebensende angelangt sein könnte. Und seien wir mal ehrlich, der Stromverbrauch einer SSD liegt immer noch weit unter dem einer HDD.

 

4 hours ago, ich777 said:

...5 Teilnehmer die eine Serie sehen die 80GB+ hat weil die 10+ Staffeln hat, du befüllst dir so deinen Cache und evtuell haben die die Serie nur mal angefangen um zu sehen wie es ihnen gefällt, das nächste wäre, wie lange behältst du diese Serie auf dem Cache?

Für so einen Fall könnte man ja eine zeitliche Verzögerung festlegen, das z.B. nach 5 Minuten erst kopiert wird wenn sich die Datei bis dahin noch in Verwendung befinden sollte.

 

Btw., ich sehe da trotz allem ein Einsparpotential beim Strom. Ob und wann Festplatten wegen höherer Anlaufzyklen den Geist aufgeben, muss man dann mal sehen wenn es soweit kommen sollte. Mir ist jedenfalls in meinem bisherigen Leben noch nie eine Festplatte während des Betriebs ausgefallen oder kaputt gegangen. Die einzige Platte, die bei mir mal kaputt ging, rutsche vom Schreibtisch runter und fiel auf den Fußboden. Die war danach dann auch wirklich hinüber ...

Link to comment
7 minutes ago, Thomas1978 said:

Und seien wir mal ehrlich, der Stromverbrauch einer SSD liegt immer noch weit unter dem einer HDD.

Das ist leider teilweise Irrglaube, im Idle eventuell aber bei intensiven Schreib-/Lesevorgängen schießt du schnell mal über dem Verbrauch einer HDD hinaus, hier bist du wenn alles achief läuft gleich mal auf ca 15W.

Dazu gibt es eine studie von Facebook und von irgendeiner Uni, kann mich aber nicht mehr erinnern welche das war.

 

10 minutes ago, Thomas1978 said:

Es ist einfach nur so, das ich zwischendurch schon den Fall hatte, das eine Wiedergabe anfing zu ruckeln wenn gleichzeitig größere Dateien aufs Array geschrieben wurden.

Welche SSDs hast du den jetzt verbaut, das kann auch eine ander Ursache haben, hatte ich früher auch.

 

 

Link to comment
1 hour ago, ich777 said:

hier bist du wenn alles achief läuft gleich mal auf ca 15W.

Wie soll das bei einer NVMe ohne Kühlkörper und bei 3.3V überhaupt gehen? Eine Samsung zieht maximal 8W im active State:

https://www.anandtech.com/show/13761/the-samsung-970-evo-plus-ssd-review/9

 

Und PCIe 4.0 NVMes der schnellsten Klasse und dickem Kühlkörper, kommen auch "nur" auf 11W. Mehr habe ich jedenfalls noch nicht gesehen.

 

Und da die NVMe wegen der Container sowieso aktiv ist, ändert sich ja eigentlich nur eines, der Verbrauch der HDD fällt weg.

 

Allerdings kann man sehr wohl darüber diskutieren ob es sich überhaupt lohnt 8W pro Stunde und das vielleicht 1 Stunde pro Tag im Schnitt zu sparen. Das wäre nämlich nicht mal 90 Cent bei 30 Cent pro KWh pro Jahr.

 

 

Link to comment
13 minutes ago, mgutt said:

Wie soll das bei einer NVMe ohne Kühlkörper und bei 3.3V überhaupt gehen? Eine Samsung zieht maximal 8W im active State

Klick (ziemlich weit unten unter 5.2)

 

13 minutes ago, mgutt said:

Und PCIe 4.0 NVMes der schnellsten Klasse und dickem Kühlkörper, kommen auch "nur" auf 11W. Mehr habe ich jedenfalls noch nicht gesehen.

Sind dann wahrscheinlich genau solche Angaben wie bei den Lese und Schreib raten... :D

 

13 minutes ago, mgutt said:

Allerdings kann man sehr wohl darüber diskutieren ob es sich überhaupt lohnt 8W pro Stunde und das vielleicht 1 Stunde pro Tag im Schnitt zu sparen. Das wäre nämlich nicht mal 90 Cent bei 30 Cent pro KWh pro Jahr.

Mir stellt sich bei solchen Sachen hald immer auch der Kosten/Nutzen, weil wie der OP oben schreibt möchte er sich evtl sogar eine neue SSD nur für diesen Anwendungszweck anschaffen, das erhöht die Kosten nochmal und auch den Aufwand der betrieben werden muss mit User Skripten usw.

 

Ich kann hier nur für mich sprechen und wenn es so ist wie bei mir das die Platte bzw. Platten, meistens simultan maximal nur zwei, nur am Abend und am Wochende mal anspringt und für ein paar Stunden läuft weiß ich nicht ob sich das rentieren würde das ich mir eine extra Platte für diesen Zweck einbaue und das die Platte dann nicht für 1,5 Std läuft sonder nur für 15 Minuten.

Link to comment
3 hours ago, ich777 said:

Welche SSDs hast du den jetzt verbaut, das kann auch eine ander Ursache haben, hatte ich früher auch.

Aktuell habe ich eine kleine Intenso Top 128 GB als Cache-Laufwerk. Für mein derzeitiges 1 GbE LAN reicht die noch dicke aus. Ich hab hier zwar schon 10 GbE Netzwerkkarten (waren ein Geschenk), aber da aktuelle 10 GbE Switche für mich derzeit a) noch etwas zu teuer sind und b) diese meistens mit Lüfter daher kommen, sind die bei mir noch nicht im Einsatz. Zudem überlege ich wenn dann wohl eher komplett auf LWL zu wechseln, da diese deutlich weniger Strom brauchen.

 

Ich könnte stattdessen aber auch mein System umkonfigurieren und eine Crucial P1 500 GB NVMe als Cache-Drive nutzen, die dümpelt momentan als "Systemlaufwerk" mit den Verzeichnissen appdata, Docker und system bei mir rum. Für VMs ist die mir zu klein, dafür habe ich eine P1 mit 1 TB im System.

Link to comment
28 minutes ago, ich777 said:

Klick (ziemlich weit unten unter 5.2)

Die haben keine M.2 NVMe, sondern PCIe 1.0 und 2.0 SSD Karten getestet. Die haben eine 12V Stromversorgung und dürfen bis zu 75W ziehen.

 

39 minutes ago, ich777 said:

Sind dann wahrscheinlich genau solche Angaben wie bei den Lese und Schreib raten... :D

Anandtech hat alles selbst nachgemessen. Die haben einen speziellen Adapter um die Leistungsaufnahme zu prüfen:

https://www.anandtech.com/show/14313/2019-ssd-testing-with-quarch-hd-power-module

 

  • Like 1
Link to comment
12 minutes ago, Thomas1978 said:

Zudem überlege ich wenn dann wohl eher komplett auf LWL zu wechseln, da diese deutlich weniger Strom brauchen.

Hmmmm, gute Frage ob das stimmt, ich befasse mich mit dem Thema Verbrauch nicht so intensiv, was ich dir aber sagen kann das manche SFP+ Karten schon einiges an Saft benötigen.

Ich hab bei mir zu Hause alles auf LWL umgerüstet und läuft alles prima, bin voll zufrieden und meine MikroTiks funktionieren auch tadellos:

IMG_20211107_223111.thumb.jpg.a65a37c53ab2d5e02f9d6979eceae92b.jpg

 

Was du oben auf dem Bild siehst ist ein CRS309-1G-8S und solltest du eigentlich für kleines Geld bekommen, ca. ~230,- und Lüfterlos, 8SFP+ Ports und ein 1Gbit RJ45.

 

Du siehst hier einen Mix aus 10Gbit Multimode, 1Gbit Multimode, 1Gbit Singlemode BiDi und einem RJ45 1Gbit SFP Adapter.

 

Wenn ich nochmal die Möglichkeit haben würde ich nur mehr Singlemode BiDi verwenden, aber da zu der Zeit als ich umgerüstet hab Singlemode noch deutlich teurer war als Multimode war die Entscheidung für mich klar.

Auf dem Foto siehst du auch am 5ten SFP Modul (Singlemode BiDi) das eine Multimode Faser angschelossen ist was zwar nicht ideal ist aber auf diese Entfernung, ca 30 Meter überhaupt keine Probleme macht, bitte nicht falsch verstehen ich empfehle das nicht aber es funktioniert in meinem Fall.

  • Like 1
Link to comment

Die Mikrotiks sind sehr gute Router, und vor allem lüfterlos, was wirklich noch eine Seltenheit ist. Aber das gilt auch nur für die überwiegende Nutzung mit LWL. Möchte man die mit RJ45 SFP(+) Adapter nutzen, dann dürfen keine zwei Module nebeneinander gesteckt sein. Macht man das doch, dann dauert es nicht lange und eines der beiden Module wird wegen zu großer Hitzeentwicklung heruntergeregelt. Der Hersteller selbst hat das sogar im Handbuch vermerkt. Muss man trotzdem zwei RJ45 SFP(+) Adapter nebeneinander betreiben, dann muss man wieder für eine aktive Kühlung des Gerätes sorgen, da reicht es nicht den einfach irgendwo frei stehen zu haben.

 

Mal kurz gefragt, welchen Vorteil, außer der deutlich höheren maximalen Leitungslänge, hat man mit Singlemode gegenüber Multimode?

Edited by Thomas1978
Link to comment
12 minutes ago, ich777 said:

Ich hab bei mir zu Hause alles auf LWL umgerüstet und läuft alles prima, bin voll zufrieden

Sorry, das wollte ich eigentlich noch im vorherigen Post mit unterbringen, klappte aber im Nachhinein nicht mehr mit dem Zitat...

 

Wie hast du denn die Geräte ins Netz eingebunden, kein LWL können? Hast du dafür in der Nähe der/des jeweiligen Gerätes einen weiteren Switch, der ebenfalls beides kann (LWL und RJ45), oder arbeitest du mit Adapter, die RJ45 auf LWL umsetzen? Die Frage stellt sich mir nämlich noch wenn ich hier auch mal alles umrüsten will. Erstelle ich mir dann lieber ein gemischtes LAN oder gehe ich komplett auf LWL und nutze zusätzlich Umsetzer?

Link to comment
10 minutes ago, Thomas1978 said:

Möchte man die mit RJ45 SFP(+) Adapter nutzen, dann dürfen keine zwei Module nebeneinander gesteckt sein.

Deswegen findest du auch keine RJ45 10Gbit/s bei mir.

 

11 minutes ago, Thomas1978 said:

Mal kurz gefragt, welchen Vorteil, außer der deutlich höheren maximalen Leitungslänge, hat man mit Singlemode gegenüber Multimode?

Es gibt BiDi, das gibt es bei Multimode nicht, sprich eine Faser für Senden und Empfangen.

 

3 minutes ago, Thomas1978 said:

Wie hast du denn die Geräte ins Netz eingebunden, kein LWL können?

Ich hab einen Uplink (SM SFP BiDi) zu einem MikroTik hAP ac, in meinem Server werkelt eine Mellanox Connect X3, in den 2 PC's eine Mellanox Connect X2, dann hab ich noch einen Medienconverter (ich hab noch den alten) mit 2x RJ45 Ports, einmal einen TrendNet und dann hab ich noch einen USB zu SFP converter, verwende das Ding aber momentan nicht da es glühend heiß wird... :D

 

Den einen Medienconverter hab ich deswegen für Kodi und PC in einem Raum. Der Trendnet ist fürs Wohnzimmer um diverse Geräte mit Ethernet zu versorgen (Kodi, Xbox 1st Gen, Linux PC).

 

Kann wie gesagt auch FS.com voll und ganz empfehlen, die haben ein Lager in Deutschland und liefern extrem Schnell und vor allem haben auch was zum mechanischem Splicen (sollte ca. 30 Jahre halten).

Kann dir nur sagen das ich meine Verbindung zum Server mechnisch gespliced hab, aus Gründen die ich hier nicht näher erleutern möchte... :D, und das funktioniert perfekt.

  • Like 1
Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...