Jump to content

DataCollector

Members
  • Posts

    3,969
  • Joined

  • Last visited

  • Days Won

    20

Everything posted by DataCollector

  1. Auch wenn Du irgendwann vielleicht Raid1 machst, eine fehlbedienung oder Virus und die Daten auf den SSDs könnten in Mitleidenschaft gezogen werden. Ab und zu davon ein Backup kann bei einer Wiederherstellung/Wiederinbetriebnahme helfen. Vorteil würde ich nicht sagen, aber anders. Als UD (per UD Plugin und UD Plus Plugin) kann man das Device auch in der Regel im laufenden Betrieb unmounten und dann extern verwenden (wenn die 18TB Festplatte in irgendeiner Form an einem hotplugging fähigen Anschluß betrieben wird). Auch kann man mit den UD Plus mehr Filesysteme verwenden (falls man extern zu irgendetwas anderem kompatibel sein möchte). Ich habe ggf. etwas ähnliches vor. Da ich aber dabei mehrere SSD Datenträger bündeln möchte (2 oer 4Stück 2TB) werde ich es als Pool mit BTRFS oder vielleicht ZFS handhaben. Viel Erfolg!
  2. Leider hast Du die jeweiligen Komponenten nicht genauer benant, deshalb nur generelle Aussagen: Kleinere SSD (bei gleicher Bauart) haben oft auch eine kleinere TBW definiert. Wenn Du die kleinere SSD als Cache benutzt wird die gesamte SChreiblast der gecachten Shares über die SSD abgewickelt und sollte sie wirklich nur ihrem TBBW Wert lang halten verscxhleißt Du sie früher als eine größere SSD gleicher Bauart, welche in der Regel höhere TBW Angaben haben. Natürich ist dei TBW Angabe nur ein Wert der Hersteller und keine gesetzte Grenze bei der die SSD verstirbt. Aber man jann sagen, wenn Du im Laufe einiger Jahre 400TB ins Share schreibst wird die kleinere SSD dabei stärker ihre (leider nur endlich oft beschreibbaren) Zellen/Blöcke beschreiben müssen als eine (in diesem Fall mehr als) doppelt so große SSD welche dann (bei gleicher Technik) ihre Schreibzugriffe auf doppelt so viele Zellen verteilen und somit weniger schnell verschleißen kann. Auch stellt sich mir die Frage, warum 2 oder 3 VM zusammen 1TB SSD Platz brauchen sollten. Ich kenne Deine Anwendungen und OS in den VM nicht, aber selbst ein Windows kann mit 64GB gut laufen und wenn es mehr sein soll, gib jeder VM 100-150 GB und schon bist Du nur bei 300-450GB. Das paßt super auf die kleinere SSD. und die Größere kann sich beim Cachen etwas weniger "verschleißen". Beachte, daß die Parität dir nur bei einem Ausfall eine rFestplatte hilft. Backups werden dadurch nicht überflüssig. Bei 3*4TB Nutzkapazität solltest Du auch 12 oder mehr GB für ein Backup vorhalten. Pool oder als UD (unassigned Device). Du kannst es so machen. Ich würde es aber eben etwas ändern (480GB SSD für die 2-3 VM, 1TB SSD für Cache und Docker). Beachte, daß Du bei den Pool ohen Sicherung fährst. Bei der 18TB ist Dir das ja egal. Aber wenn die SSD mit den VM oder Cachedaten/Dockern flöten geht, kann es wichtige Daten treffen. Plane auch hier zumindest regelmäßige Backups auf ein unabhängiges Medium ein.
  3. Unraid aktuell stable macht das ja nur bei BTRFS. Würdest Du dem BTRFS in unraid einen solchen Verbund als stabilem Dauerbetrieb zutrauen? Ich frage, weil ich sowas ja mit vielen SSD vor habe, lese hier aber immer wieder von Problemen oder Mißtrauen in BTRFS mit Raid5/6, weshalb ich dafür regelmäßige Backups anstrebe.
  4. Hallo in die Runde. Ich gedenke mein Fujitsu D3644-B1 mit meinem I3-8100 wieder für unraid zu nutzen. Dies beherrscht laut UEFI-Setup ja Bifurcation 8x4x4x im ersten (oberen) x16 Slot. Für untere Frage beziffere ich diese Aufteilung mal: den ersten x4 bezeichne ich mal x4a und den zweiten mit x4b. In den beiden PCIe 3.0 x1 Slots habe ich ASM1064 Kontroller drin (mit je 4 SATA Ports). Nun habe ich im zweiten (unteren) X16 (elektrisch x4) Slot eine 10GBLanKarte drin (Mellanox SFP+) und vermute, der Slot wird durch x4b versorgt. Mir stellt sich nun folgende Frage - Wenn ich einen Bifurcation x16 zu x4x4x4x4 Adapter kaufe (Amazon/China für unter 40 Euro) https://www.amazon.de/gp/product/B09QWDCTRP und den in den ersten (oberen) PCIe x16 Slot stecke: Kann ich dann in diesem Adapter zumindest 2 Stück M.2 NVMe SSD betreiben? Einer würe (als x4) auf dem x8 Teil liegen, der zweite auf einem X4a Teil. Schaltet so eine Karte aber den x4b des zweiten PCIe x16 Slots ab, weil sie eben nur stumpf im Slot steckt oder bleibt der zweite PCIe x16 Slot aktiv, weil ich den X4b Teil im ersten PCIe x16 Slot 1 ja nicht benutze und sich somit elektrisch kein Device dort meldet und die MellanoxKarte im unteren Slot weiter versorgt wird? P.S.: Den vorhandenen M.2 wollte ich ebenfalls mit einer NVMe SSD bestücken, so daß im Endergebnis 3 flotte NVMe SSD im System sind und als Cache viel Puffern können. P.P.S.: ich weiß, daß es eine sehr technische Fragestellung ist. Wenn es keiner weiß, werde ich wohl kaufen und selber testen müssen. Aber vielleicht hat jemand sowas ja schon mal ausprobiert. Anbei zur Veranschaulichung ein kleines Bild des Board: nachträglicher EDIT!! Ich lag mit der Aufteilung der Lanes auf die beiden X16 Slots komplett falsch! Der untere PCIe x16 (elektrisch x4) Slot hängt gar nicht per Bifurcation am oberen PCIe x16 (elektrisch x16) Slot. Der untere Slot bleibt in Betrieb, auch wenn man im oberen Slot die hintersten 4 Lanes per Bifurcation nutzt!
  5. Zitat: "...min free space Wert so einstellen, dass er größer ist als die größte Datei..." Ich weiß, daß ich Dateien zwischen 1 Byte und 40GB später einkopieren werde. Somit setze ich Min free Space in meinem unraid durchgängig auf 80 oder gar 100GB min free Space. Edit: ich überlege zusätzlich ein zweites unraid System aufzusetzen,w elhes ganze Festplattenimages (Backups) halten soll. Da werde ich den min free Space zur Sicherheit wohl irgendwo um die 200 bis 300GB einstellen. Erwähnte ich schon, daß der Cache besser etwas üppiger ausgestaltet werden sollte, wenn es einem um Stromsparen geht? Unraid ist im Vergleich zu klassischen Systemen mit Raid gut, weil es durch seinen Ansatz die Festplatten lange im Spinoff halten kann. Dadurch verliert man PErformance und Bequemlichkeit. Aber wenn man eben viel Performance haben will, kann man es eben auch umstellen. Die Festplatten nicht schlafen legen, den Mover sehr häufig laufen lassen, etc.... Aber ob dann unraid noch wirklich für einen passt muß man selber entscheiden.
  6. Wie hast Du die SSD gekoppelt? Raid0 (= 2TB Nutzkapazität aber keine Ausfallsicherheit) Raid1 (=1TB Nutzkapazität und Daten gedoppelt) Gar nicht gekoppelt = 2x 1 TB in unabhändigen Caches? Dazu müßte man mehr zu Deiner Konfiguration wissen. Siehe auch oben. Der Mover springt nicht an, wenn es voll wird, sondern wenn der eingestellt Zeitintervall erreicht und die Bedingungen erfüllt sind. Wenn der Cache voll ist sollte unraid eigentlich auf das Array durch (also langsamer auf die Festplatten) schreiben. Es scheint aber so zu sein, daß unraid nicht auf das Array schreibt, sondern das schreibende Programm erkennt, daß nicht genug freier platz im Cache vorhanden ist und deshalb möglicherweise abbricht. Hast Du im Cache eingestellt, daß er etwas frei lassen soll? Ja, oder besser gesagt, ich habe nichts anderes bisher gelesen. Deshalb sollte der Cache ja auch üppig bemessen werden. Das steht Dir frei. Vielleicht macht es in Deinem Fall Sinn den Intervall stark zu reduzieren, so daß der Mover früher + häufiger anspringt.
  7. Hast Du im Scheduler irgendetwas für 3 Uhr eingestellt?
  8. Einen freundlichen gruß in die Runde. Ich bin zu der Erkenntniss gekommen, daß ich auch mit 30 Devices im Array nicht auskomme. Nun stellt sich mir die Frage: Zweite Pro Lizenz mit zweitem System aufsetzen oder warten auf Multi Array Feature. Da der Sprung von einer zur nächst höheren Lizenz bisher Extrakosten bedeutet, die größer sind, als der direkte Kauf der größeren Version bin ich unschlüssig und neugierig. Ich möchte ungerne jetzt 129 Dollar ausgeben, wenn ich später sowieso eine andere Lizenz für Multi Array brauche und diese sowieso vielleicht in nur wenigen Wochen vor der Tür steht. Deshalb mal eine Frage an die Leute, die es vielleicht genauer wissen/ahnen: Kann man grob abschätzen wann ein MultiArray Feature möglich sein sollte und ob dafür auch Pro Lizenz reicht oder wird dann eine neue Lizenz (ich nenn sie mal "Proplus") notwendig?
  9. Ein richtig eingerichetter Cache (mutmaßlich SSD, bevorzugt NVMe SSD) fängt Schreibzugriffe ab und hilft. Dann bremst die Paritätsfestplatte(n) erst, wenn vom ache auf die Festplatten geschrieben wird und das kann ja im Hintergrund passieren. Das wird mutmaßlich erst einmak im SSD Cache landen und dann wird es dort performant gelagert sein. Aber ob Deine klein bemessene SSD dafür ausreicht hängt stark von Deinem Downloadverhalten ab. Bei mr laufen täglich einige hundert GB bis knapp 1TB ein. Da wären ca. 240GB Cache etwas mager bemessen. Unraid ist eigentlich ein NAS mit Zusatzfunktionen. Ein (standard) NAS gibt seine Festspeicher immer als eine Art Freigabe/Share im Netz frei. Einen Datenträger direkt zu nutzen ist bei unraid nicht üblich. (Aber ich stehe auch noch am Anfang und habe so eine Funktion vielleicht noch nicht entdeckt). In der Regel auf einem performanten Datentraeger, der einen Share bereitsellt. Sinnvoll: auf einer SSD, die in einem Pool ist und auch als Cache in einem Share fungiert. Man kann BTRFS und CFS auch verschluesseln, so daß bei jedem Start des Array ein Passphrase/Key oder so vorliegen muß. Wenn Dir also eine festplatte aus dem verschlüsselten Array abhanden kommt (Diebstahl, Ausfall oder so), kann niemand ohne den Key/Passfile und das nötige KnowHow die Daten einsehen. Sollte zwischenzeitlich eine Festplatte ausfallen oder man sie verkaufen und so weiter ...., braucht man sich keine Gedanken darum machen, daß jemand in der Fabrik/Firma/ebay da etwas retten und Deine Familienvideos ins Netz stellen kann. Parität schützt gegen direkten Ausfall einer Festplatte (bei 2 Paritätsfestplatten gegen Ausfall von 2 Platten). Aber Parität schützt nicht gegen fremzugriff, Löschen, Totalschaden, fehlbedienung, Trojaner, etc... Wichtige Daten verdienen ein Backup. Ich habe mal ein paar TB Daten verloren, weil ich kein Backup hatte. Das war nicht schön. Ich nutze Plex nicht, aber der Cache kann ja Schreibzugriffe abfangen. Dann muß nur die Quellplatte derehen (wenn die Daten nicht im Cache liegen). Unraid ist ja so nutzbar, daß (mit einem gewissen Timeout) immer nur die Festplatte dreht, die wegen Anfragen gebraucht wird. Erst beim Schreiben kommt evtl. noch die Parity ins Spiel. Um den Cache zum lesen zu benutzen müssen die Daten im Cache liegen. Wenn Du die Daten/Video auf einer der Festplatten im Array hast muß die Festplatte anlaufen um davon zu lesen. Wenn Du die Daten/Video nur in den Cache und gar nicht erst auf die Festplatte gespeichert hast (und der Mover auch nicht dahin verschoben hat) fängt der Cache auch die Lesezugriffe ab und die Festplatte(n) können weiter schlafen. Aber bei einem kleinen Cache wird eben viel auf die Festplatten verschiben werden müssen und deshalb wird danach beim Lesen die Festplatte oft anlaufen. (maximal 28 im Array) Korrekt. Und bei 2 Paritätsfestplatten dürfen auch 2 Datenfestplatten gleichzeitig ausfallen. Ja, sie sind nicht mit normalen Daten nutzbar. Sie schützen eben nur die (max 28) Datenfestplatten. ...die sein System die überwiegende Ruhezeit erreicht. Wie lange (auch die Gesamtzeit bezogen) das System den jeweiligen Schlafzustand erreicht hat.
  10. Nein. Solange die Paritätsfestplatte(n) die größte Festplatte(n) ist(sind) kann unraid mit gleich grossen oder kleinern Festplatten als Datenfestplatten im Array umgehen. Bevorzugt sollten die Paritätsfestplatten auch die schnellsten Festplatten sein, da die Parität bei jedem Schreibvorgang auf das Array bremst. Zu Plex kann ich nichts sagen, aber in unraid kann man verschiedene Shares einrichten und diesen jeweils mitteilen auf welchen Datenfestplatten im Array diese laufen sollen. Allen gemein ist aber, daß jeder Schreibzugrioff auf das Array durch dei Paritätsfestplatte(n) gebremst wird. Das puffert man am Besten durch einen flotten (SSD) Cache (ebenfalls in den Shares einstellbar), so daß Schreibzugriffe erst einmal in dem Cache ablaufen und sie einen zwischenzeitlich nicht zum Warten zwingen. Viel Auswahl hat man im aktuellen standard unraid nicht. BTRFS soll nicht unbedingt das Stabilste sein (man liest immer mal wioeder von Faellen, bei denen BTRFS Probleme macht) und ansonsten bietet die stable Version bisher nur XFS (eventuell verschlüsselt) an. Die Fachleute hier (nicht ich) können da hoffentlich mehr zu sagen. Gerne werden mit DIversen Tools hier die C-States verglichen udn auch der S3 Modus kann beim Stromsparen helfen, wenn der Server gerade nicht gebraucht wird. Aber Deine Hardware ist schon recht alt (Sandy Bridge/2nd Gen). Ob sich da viel einsparen läßt, kann ich nicht sagen. Ein bestehendes Array kann man auch nachträglich erweitern. Maximal sind 2 Paritätsfestplatten und im Vollausbau 28 Datenfestplatten in einem Array möglich. Wenn Dir Deine Daten wichtig sind: Lagere sie zusätzlich in einem Backup! Es kann immer etwas schief gehen! Zu Deinem Ablauf: Ja, so macht man das. Daten auslagern (prüfen, daß sie auch dort korrekt angekommen sind), dann die 2TB in das Array aufnehmen, formatieren und dann die Daten auf das Array einspielen. Dann wieder kontrollieren, daß alles korrekt angekommen ist. Wenn Du gegen den Ausfall etwas besser absichern willst: Vergiss nicht das Array mit mindestens einer Paritätsfestplatte aufzubauen! Backups von wichtigen Daten sicher lagern!
  11. Wann Du den Mover laufen läßt und welche Daten Du moven läßt kannst Du einstellen und somit den Strombedarf der Festplatten durch lange Idle Zeit eingrenzen und auch Daten lange oder sogar permanent/bevorzugt im SSD-Cache belassen. Es hängt eben davon ab was man damit machen will.
  12. je nachdem, was man erreichen will und wie man den Cache realisiert: ja oder nein. Eine Cache SSD schluckt weniger Strom (da sie sich bei langeweile schon im Sekundenbereich schlafen legt), als eine laufende große Festplatte (welche von zu vielen Start/Stoopp-Zyklen schaden nehmen kann). Auch ir ein Paritätsgesichertes Array schreibend immer mit mindestens der Datenfestplatte und der/den Paritätsfestplatten dabei. Somit ist es in Summe sparsamer, wenn schreibende Zugriffe über Tag in den SSD Cache gehen und beispielsweis enur selten (nachts) gesammelt dann auf eine Festplatte umgeschaufelt werden. Wenn man hingegen sowieso primär Daten liest, kommt es davon ab, wo die Daten liegen. Im SSD-Cache - Stromsparender; im Festplattenarray mehr Stromverbrauch. Aus dem Grund gibt es bei den Freigaben EInstellmöglichkeiten um zu steuern, wie die Daten im zusammenhang mit einem Cache gehandhabt werden sollen. EIn unraid cachepool bestehend nur aus Festplatten ist hingegene ine eher spezielle Sache, die man je nach Anwendung genauer betrachten müßte. Ja, das ist das Maximum bei 1GBit/s Lan. Aber wenn jedesmal eine Festplatte bei Schreibzugriffen neu anlaufen muesste hast Du 10-15 Sekunden Zeitverzug, bis Festplatte(n) angelaufen und Ready sind. Der SSD Cache nimmt di eDaten hingegen schneller entgegen. Den RamCache lasse ich mal unberücksichtuigt, weil es da sehr stark von RamMenge und Schreibdatenmenge abhängt. Mindestens den SSD cache für Docker und VM macht sinn. Aber wenn der Docker oder VM auch häufiger Daten auf die Freigaben schreiben wollen, wäre die Nutzung des SSD-Cache in den Freigaben auch ratsam. Fazit: Es hängt also stark von weiteren Faktoren ab.
  13. Bei Standardmainboards sind die Standard 3 und 4pol Lüfteranschlüsse immer 12V basiert. 3polige koennen die Spannung etwas senken um den Lüfter zu steuern. Bei 4polige Lüfteranschlüssen wird permanent 12V geliefert und eine zustätzliche Verbindung liefert ein PWM Signal, anhand dessen die Drehzahl vorgegeben wird.
  14. Hier auch meine NUT EInstellungen fuer meine Eaton Ellipse 1600 DIN USB
  15. Also viele kleine Dateien. Das bremst zusätzlich. Das erscheint mir aber doch etwas langsam, wenn es ind en SSD Cache geschrieben hat. Ich kann aktuell nicht abschätzen wo da ein Problem sein könnte. Eigene UI? Ich habe NUT für meine UPS und der zeigt mir einen Footer unten. Mehr nicht. Aktuell ist mein Unraid down (abgeschaltet, weil Windows-QuellSysteme Probleme haben udn somit die Erstbefüllung von unraid hinten angestellt ist), deshalb kann ich aktuell keien Screenshots zu meinen NUT Einstellungen liefern. Ich hatte die aber schon mal im Forum als Bildschirmkopie beigelegt.
  16. Ja, der scheint zum Standardumfang zu gehören. Ich habe ihn nie nachinstalliert und benutze ihn dennoch.
  17. UD zeigt alles an, was noch nicht im Array ist. Thunderbolt, SAS, eSATA, SATA, und weiteres sind da alles möglich. Das es jetzt einige Anschlußarten herausfiltert und nicht anzeigt, damit man die nicht versehentlich sieht und ins Array einbindet ist nicht Aufgabe von UD. UD bietet einem eben Devices an, die nicht im Array oder Pool sind, damit man auf diese eben auch zugreifen kann. Ich habe mir beispielsweise ein externes SAS Gehäuse mit 8 Wechselrahmen/Einschüben zusammen gebaut. Damit kann ich dann bei Bedarf über SFF extern bis zu 8 Festplatten/SSD mit SATA oder SAS Anschluß temporär anstöpseln um auf die Daten zuzugreifen.
  18. Nur damit ich es nicht falsch verstehe, Du hast irgendwas zwischen 55 und 60TB Kapazität im Array, aber die betreffende Share "Movies" läuft ausschließlich auf Disk 8 mit nur 8TB Kapazität, von denen aber noch 2,1x TB frei sein sollten?
  19. https://geizhals.de/?cat=hde7s&xf=13810_16000 https://www.ebay.de/sch/i.html?_fsrp=1&rt=nc&_from=R40&_nkw=16tb&_sacat=0&_sop=1&LH_PrefLoc=1&LH_ItemCondition=1000|1500|2500|3000 Ich habe die Tage bei ebay mehrere ext WD Mybook ersteigert, geprüft und geshuckt. Sind zwar nur 5400 RPM aber als Backup/für Notfallauslagerung ausreichend.
  20. Host Bus Adapter. Das ist der Begriff, der einen Kontroller beschreibt, der Festplatten (oder so) ansteuern kann. Damit ist in der Regel eine extra Steckkarte gemeint. Diese Begriff wird gerne für SAS Kontroller verwendet, welche auch SATA Disks bedienen können. Reine SATA Kontroller werden hingegen oft nicht als HBA sondern wirklich nur als SATA Kontroller bezeichnet um eine einfachere Unterscheidung zu ermöglichen. Zu Deinem Kommentar zu einer wieteren bestellten Festplatte: Ich kann der Andeutung von mgutt nur zustimmen: Du solltest darüber nachdenken, Deine wichtigen Daten zusätzlich auf einem Backup abzuspeichern. Wenn die Daten auf nur einem System liegen, kann immer etwas schief gehen und dann sind die Daten weg/in Gefahr. Und ja, auch bei vielen TB Menge ist ein Backup anzuraten. Notfalls kann man ja alte und kleinere Festplatten einzeln benutzen und die dann nach Bespielen ins Regal legen. Ab und zu mal aktualisieren und auf Funktionsfähigkeit/Korrektheit zu prüfen macht auch Sinn.
  21. Eine Pechserie mit sehr schief gelaufenen Internetbestellungen habe ich auch gerade hinter mir. Du hast mein Mitleid! Auch Samstag hat mich eine Lieferung erreicht, bei der der Händler die Ware ohne Polsterung in den sehr knappen Karton gestopft hat. Natürlich mechanische Beschädigungen. Mutmaßlich Transportschaden, aber Karton drum herum war unbeschädigt. Also wieder mitd em Händler streiten.
  22. Nein. Die Zugriffts/Betriebs LEDs der Einschübe werden in der Regel über den Zugriff gesteuert und im SATA Stromanschluß registriert/an die LED übertragen. Der SGIOP ist für zusätzliche Verwaltung des Rahmens, wie zum beispielsweise zusätzliche/weitere LEDs, die dann beispielsweise den passenden Einschub besser lokalisieren lassen (durch regelmäßiges Blinken oder so). Bei nur 12 oder 24 Einschüben ist das alles noch übersichtich, aber ich habe gestern in einem System mit 51 Festplatten eine defekte Ironwolf gesucht. Das gab schon schwitzige Hände und 3 maliges nachprüfen ob ich die richtoge Festplate ziehe Danach habe ich mein noch größeres System mit 75 Festplatten wieder mal mit neuen Aufklebern versehen, damit ich den jeweiligen Einschub besser finden kann. Der normale Zugriff auf die Festplatte und bei einigen Rahmen auch die Stromversorgung/Bestückung des Einschubes wird problemlos signalisiert. Dafür ist SGPIO nicht erforderlich. Ja, das ist auch so. Mach Dir wegen dem SGPIUO keine Sorge! PCIe 8SAS/SATA ist gebraucht sehr günstig zu haben, schluckt aber auch mehr Strom. Das hängt vom Boarddesign ab. Leider ist beispielsweise Fujitsu bei vielen seiner Boards etwas sparsam mit Informationen, welcher Slot/Anschluß nun direkt an der CPU hängt und welcher an Bridge/Chip/-satz. Grundlegend kann man sagen: ja. Es hängt natürlich davon ab, wie der PCIe Slot oder auch der M.2 Steckplatz angeschlossen sind. M.2 oder PCIe die direkt an der CPU hängen, sind so schnell wie es eben geht. M.2 oder PCIe welche erst über die Bridge/Chip/-satz angebunden werden teilen sich alle die selbe schmale Verbindung (DMI) zwischen CPU und Bridge/Chip/-satz.
  23. Wieso das? Schließ diesen fünften Anschluss einfach nicht an. Der ist für Deinen Aufbau unnötig. Schließ die 4 SATA Stecker an die SATA Hostkontroller (Mainboard) Anschlüsse an und stecl den SFF-8087 Stecke rin die Backplane mitd en Disks. Laß den SGPIO Anschluß einfach unbenutzt herum baumeln. Wenn Du wirklich ein korrekte sKabel von SATA Host auf SFF Backplane gekauft hast, wird das so funktionieren. Eine Karte mit MiniSAS (meist als eine der verschiedenen SFF Anschlüsse ausgeführt) würde Kabel benötigen, die dann auf beiden Seiten SFF hätten. (Ja, ich weiß, dass der SATA Stecker mechanisch eigentlich auch einer SFF Spezifikation unterliegt, aber der einfachheit halber bleibe ich jetzt erst mal bei SATa Stecker.) Sag ich doch. Läuft. Den SGPIO baruchst Du für Deinen Aufbau nicht.
  24. An einem dafür vorgesehenen GPIO Anschluß. korrekt.
  25. Ich will nicht unerwaehnt lassen, daß ich grundlegend auch auf Benutzung diesee CD/DVDs verzichte. Doch bei diesem Board (Fujitsu D3644-B) war sie ausnahmsweise sehr hilfreich. Auf der Fujitsu Webseite fand ich mich nicht zurecht und entdecke somit nicht die passenden Treiber, die mein installiertes Windows vermisste. Die CD hat aber einen LAN Treiber eingespielt und dann mit einem Hilfsprogramm danach aus dem Internet alle Treiber nachgeladen und installiert. Und entgegen der Erfahrung mit anderer solcher Software wurde mit keine zusätzliche Werbesoftware aufgedrückt. Somit hätte mich ein verbot dieser CD massiv weiter ausgebremst.
×
×
  • Create New...