Ford Prefect

Members
  • Posts

    4307
  • Joined

  • Last visited

  • Days Won

    10

Everything posted by Ford Prefect

  1. Nein. Aber evtl. hast Du nicht die richtigen/alle Sites erwischt, welche die betreffende Anwendung braucht, damit sie läuft. Von hier aus schwwer zu sagen. Die offizielle ist diese hier: adguard/adguardhome ...warum eine andere nehmen? Edit: das ist aber auch der Docker, welches das Template von Siwat2545 nimmt, soweit ich sehe....also sollte alles passen.
  2. Wenn die Docker auf einem Pool/Primary-Storage liegen und nicht auf dem Array/Secondary Storage, sollte das auch kein Performance-Problem sein, es sei denn die CPU ist zu sehr beschäftigt (zB weil Array verschlüsselt und CPU zu schmalbrüstig).
  3. Das muss nicht so sein...ist "nur" ein Risiko...ein Cruzer Blade sollte auch gehen, aber eben Sandisk(-Risiko)
  4. USB3 liefert mehr Strom und daher wird ein USB3-Stick wärmer, was die Lebensdauer verkürzen kann. Die Geschwindigkeit spielt weniger die Rolle, da dies praktisch nur beim booten relevant ist (unraid läuft iim RAM). Ein USB3 Stick, der zuverlässig in einem USB2-Port läuft wäre evtl. auch eine Alternative. Der genannte Sandisk ist mein persönlicher Favorit...das Problem ist, heutzutage einen echten zu finden. Der USB Stick braucht eine echte, eindeutige GUID....Alternativen auch mal hier nachlesen: ...ich hab noch einige echte Cruzer-Fit in der Schublade und bin daher nich so up2date
  5. ...bitte verstehe den Unterschied zwischen einem zpool (ZFS-Raid) und einem unraid pool (zB dem cache -Pool, der auch mit ZFS formatiert werden kann). Ein unraid pool ist Teil der Array-Config. Du hast den Hinweis unter dem Link nicht durchgelesen oder eben die dort gegebenen Infos nicht beherzigt.
  6. Was willst Du denn erreichen? Docker, egal ob MACVLAN oder IPVLAN können kein DHCP. Die Migration des DHCP-Servers weg von der Fritz ist also in dem Kontext nicht wirksam. Wenn Du auf die Fritz als Router angewiesen bist, könntest Du einen Router, der mit IPVLAN keine Probleme hat zwischen Fritz und dein Netzwerk setzen und intern ein anderes, neues IP-Netz nutzen ....wenn dieser Router NAT in Richtung Fritz macht, sieht die Fritz nur diesen einen Host. Nachteil it Double-NAT, was aber nur normale I-Net Nutzung keine Probleme macht. Alternativ die Fritz degradieren und eben einen solchen Router direkt als WAN/I-Net Router nehmen (und die Fritz zB nur für Telefonie im IP-Client Modus.
  7. Ahhh...danke! Dann hatte ich das komplett missverstanden, dachte es wäre nur eine einzige Backplane, zB so wie in den grossen SuperMicro...da gibt es welche mit Expander drauf.
  8. Well, that recommendation has already been given. However, from a more distant view, it feels like the size of the problem on the side of AVM or ubiquity (or openWRT, who does the same thing) is too small, not speding up the process. Hence unraid users feel like Don Quixote, fighting the windmils As I am using mikrotik gear, I am not affected, but feel the pain of the others. With the introduction of v6.12 the problem became more and more apparent to users, hence the initial discussion here. But the problem is known since the move from macvlan to ipvlan had been introduced as the solution in unraid, I think. So maybe we should take this discussion to another, dedicaded thread if need be.
  9. The issue is only in the router, not other gear from unify. Even real VLANs work fine. AFAIU the "issue" is with people using local network names for different "machines/dockers". These routers "automagically collect" the different machines, based on MACs, not on IPs in their local DNS resolver / static table and once a new machine pops up in the network, people would assign it a proper name...now, where the static table gets messed up completely on a regular basis with ipvlan setups.
  10. ..staggered spin-up zu langsam eingestellt im Controller-Bios? Was anderes fällt mir nicht ein. ich hatte bis vor kurzem in einem Intertech/Norco mit 24 Bays einen LSI 9211-8i mit INtel RES240CV Expander...und kleinen Disks...lief Jahrelang einwandfrei (nachts / wenn nicht benötgt im sleep). P.S.: die Disks habe ich nun gegen wenige 20TB Disks getauscht und das MOnster-Ding ganz abgeschaltet... die neuen Disks sind jetzt ein Pool im "kleineren" 24x7 unraid und eben die meiste Zeit im spindown. Da ich ne grosse PV und Speicher habe, kümmern mich die 15W auch nicht mehr.
  11. Das Gehäuse hat doch schon eine Backplane mit Expander, wenn ich das richtig sehe (3x SFF für 3x12=36 Disks) Ohne Doku ist es schwer zu entscheiden ob sogar nur ein SFF Anschluss (dann -8i Controller) reichen würde....meist sind die weiteren SFF für Redundanz...evtl ist aber einer der drei für die Slots auf der Rückseite? Aber ganz ehrlich...wenn Du das Ding vollmachen willst und hinten, innen mit kleinen Lüftern und so...ich würde mal in ein Balkonkraftwerk investieren. Eines mit 2x400W Solar-Modulen und einem Micro-Wechselrichter liefert dir in DE etwa 650-900kWh p.a. ... kostet um die 750EUR....das sind Deine 80W, zumindest bilanziell auf kWh-Ebene...um die 80W auch in die Nacht zu verschieben gibt es inzwischen auch für kleine BKW Speicherlösungen (dann wird es aber teurer)...oder eine echte PV aufs Dach/die Garage...
  12. To clarify things a bit, here. I think that the majority of users is fine with the comment from @Kilrah, but another group of users Is having a problem with the "LT approved" solution, which is using/switching to IPVLANs. As stated by @Glassed Silver, the user group affected are the ones where their SoHo Router goes berserk with multiple IPs on the same MAC. These are approx 90% of the German users, who are using an AVM fritzbox (which is the default router provided by all german ISPs). Also I know of one user ( @warp760) , also from the German subforum, who reports the same Issue with a unify dream machine. If some of the internationl users , running a unify router box, could confirm this issue, it hopefully might push up the priority for LT?? P.S.: sorry for a bit of going OT here. RE v6.12.3, with all the various issues reported since v6.12 reaching GA, I am staying on v6.12RC2, which is running fine for me
  13. ....sind aber meist PCIe v2.0, nicht 3.0...brauchen mehr Strom. Die von mir verlinkte war eine mit 24Ports .. und noch der "altere 9300er Chip...Deine hat den 9400er Chip (ist der nicht sogar PCIe-v4.0???) Generell gilt eigentlich, dass neue, aus China oft Fakes sind...in der guten alten Zeit kamen auch die LSI 9211-8i PCIe-2.0 aus gebrauchten Servern. Meine Meinung ist, dass sich die Situation nicht geändert hat. Wenn Du was echtes willst, dann hole eine gebrauchte/refurbished von einem renommierten Verwerter. Da ist i.d. Regel auch 1 Jahr Garantie dabei...Manko ist oft, dass man sich die grösse des Slotblechs nicht immer aussuchen kann. Hier noch ein Beispiel: https://www.ebay.de/itm/134141912239?epid=15024796441&hash=item1f3b7b24af:g:UosAAOSwpxJkHBLQ
  14. Also SAS HBAs mit 16 internen Ports gibt es genug....ich würde generell zu denen mit LSI/Broadcom Chips raten.
  15. Ah, ok...wieder was gelernt....Disk Cache fürn HBA ist aber eher ungewöhnlich...wird der im HBA-Mode nicht abgeschalte, oder was meinst Du mit der "blumigen" Aussage?
  16. Raid-Controller und *kein* HBA, wie es scheint..das kann nicht gutgehen. ...einen echter HBA, also SAS Controller mit IT-Firmware. Dein Adaptec hat aber auch keine 36 Disks direkt versorgt, oder? Hat Du einen Expander extra oder einen in der Backplane des Gehäuses..oder willst Du nur zukünftig erweitern können? Ich kenne aus dem EffEff aktuell nur einen SAS Controller mit 24 direkten, internen Ports, also ohne Expander....für 36 drekte Ports, ohne Expander gibt es nix.
  17. When the array stops, also all primary storage (previously called (unraid-)pools) need to stop (all filesystems unmount) as well, not only filesysstems on disks from the array (secondary storage). Hence running dockers need to be shutdown/stopped before the array can be safely stopped. It's not amazing, it comes natural with it.
  18. Slot-Lüfter sind nicht leise. Ausserdem, da Deine Disks angemessen kühl bleiben, ist das evtl. nur eine Zonen-Problem in Deinem Gehäuse. ich würde mal schauen, ab nicht ein kleiner, flacher 40 oder 50mm auf den Kühlkörper des Controllers passt...da müsste eine einfache Blechschraube zwischen die Lamellen reichen, da der Lüfter kein signifikantes Drehmoment entwickelt. Sowas, hat 9db: https://geizhals.de/noiseblocker-nb-blacksilentfan-xm1-a409248.html?hloc=de
  19. Das ist kein gemessener Wert / Status der Platte, sondern charakterisiert den Typ des SMART-Wertes. Die ist OK...keine aktuellen Bad oder pending Sektors, aber UDMA/CRC Fehler - > Kabel und/oder Kontroller oder Stromversorgung , wie schon oben vermutet.
  20. ...was sagen denn die SMART-Werteder Disks? Gehen die defekten Sektoren hoch? Ich würde auch erstmal auf den LSI tippen... Die 2008er brauchen gut Strom und werden warm...Wie viele Disks hast Du schon am Start? Kannst Du die auf das MB umziehen (das hat zwar nur 4x SATA, aber zum Test)? Die Temperaturen der Disks sind OK. ...aber mit anderen Disks.
  21. Hast Du, wie unter dem o.g. Link beschrieben, auch den Z-Pool im Array als unraid Pool unter gleichem Namen konfiguriert? Hier sind die DIsks unter UAD zu sehen...Dann sind die eigentlich nicht dem unraid-pool zugewiesen, oder? Welche Topologie hat der Z-Pool?
  22. Welche Fehler sind das genau? Sieht man was in den Logs? Wie alt waren die betroffenen Disks?..und die auf welche die Wiederherstellung lief? Wie waren die Temperaturen der HDDs? Ein LSI 2008er Controller ist älter als 5 Jahre (ich habe welche, die sind 12 Jahre im Einsatz) oder ein China Fake....woher war der, neu oder refurbished aus einem echten Server, von einem guten Verwerter/renommierten Verkäufer? Was für Kabel sind da am Start? Du kannst die unassigned Devices Plugins installieren. Da ist dann auch das preclear dabei... Ich mache bei jeder neuen HDD ein preclear (1x Durchlauf, write/verify)...bei einer gebrauchten mache ich Minimum 2x ... es kommt durchaus vor, das neue Disks schnell kaputt gehen. Daher eben preclear. Wenn sie das überleben ist die Chance gut. Das ist kein unraid Problem....das Upgrade zur selben Zeit hat nix zu bedeuten/ist höchstens schlechtes Karma....Ursache ist wahrscheinlich die hohe Last durch die Transfers. Eine oder mehrere Komponenten haben halt aufgegeben. HDDs und oder Controller, oder auch das NT bzw Stromversorgung/Adapter zur Backplane. Ursachen können sein, zu hohe Temperaturen z.B. auch durch Lüfterausfall und es meldet sich ne kalte Lötstelle/eine schlechte Verbindung...Pech mit der Hardware, kommt uch bei Markenware vor oder China Fakes...die geben meist nach 1 Jahr Einsatz auf. Ich habe unraid Server mit jahrelanger Uptime... Du hat einfach Pech gehabt.
  23. Das hat nix mit der Auslastung des ZFS Pools zu tun. ZFS hat standardmässig einen Lese-Cache (ARC) im RAM. Unraid reserviert einen Anteil des RAM vom unraid Host dafür. Die Anzeige sagt, das dieser cache zu x% gefüllt/benutzt ist.....reine Information, nix kritisches, egal wie gross oder klein dieser %-Wert ist.
  24. OK, schade...war einen Versuch wert. Nebenbei: Wie gesagt, iperf ist single-threaded - auch wenn man mit -P x den Daten-Strom auf Sessions aufteilt. Daher würde man die Last eh nur auf einer CPU sehen. In der Dashboard Ansicht allerdings würde ich nicht schauen...die verbraucht ja allein schon viel Leistung. Ich würde im CLI mt htop nachsehen.
  25. Hast Du einen Adblocker (Adgurad, Pi-Hole, Blocky, ..) oder DNS - Proxy, wie unbound am Start? Wenn diese App (unraid Docker oder VM) ein Problem hat, dann sieht es meist so aus, als ob I-Net nicht geht. Daher für den unraid Host selbst, in der Netzwerk-Konfig, niemals einen DNS-Server eintragen der auf dem unraid Host selbst sitzt (zB als Docker) ... auch nicht wenn die DNS IP die Fritz/der Router ist, dieser aber wieder auf den DNS-Docker auf unraid verweist/nutzt. Nimm für den unraid Host einen externen DNS, wie 1.1.1.1 oder 8.8.8.8