Jump to content

ullibelgie

Members
  • Posts

    303
  • Joined

  • Last visited

Everything posted by ullibelgie

  1. Meine Uralt-Technik koennte ich auf Basis Serie 12 cpu fur unter 600Euro komplett ersetzen (ohne HDDs, die habe ich ja schon) - I3-12000 boxed - Gigabyte B660m - 32Gb Ram non-ECC - Fractal Design R5 - Corsair oder b-quite Netzteil Im Vergleich zu meiner heutigen Technik ein Riesen Fortschrit wahrscheinlich.... was meinen die Experten ? Warum ich es noch nicht getan habe ? Sparsamer Mensch... nutze Unraid nur wenn wirklich notig - ansonsten ist die Kiste aus... Eine "ECC Variante" kostet dann anstatt 600Euro gleich 2000Euro, allerdings auch mit wahrscheinlich mehr "unter der Haube", aber auch mehr Stromverbrauch. Gratis Luxus ist ein fur alle Male vorbei ("Zeitenwende")
  2. An den Preisen wird sich bei Xeon-Boards wohl auf absehbare Zeit nichts andern Entweder man akzeptiert das ECC memory superteuer ist und bezahlt den Preis, oder eben nicht. So geht Inflation... Der Kunde muss einfach seine Vorlieben anpassen - wenn Luxus sich extrem verteuert, ist die Frage eben, ob im Haushalt wirklich ECC notig ist. Der professionelle Kunde gibt Preise eben weiter... so geht Inflation... Fragen: z.B - Warum nicht ein B660m board mit I3-12100 preiswert, verfugbar und sicher in der Zukunft auch unterstutzt von Linux Alte Serie 8/9 Ware die zum Teil noch teurer angeboten wird und auch immer knapper wird im Angebot sollten nach meiner Ansicht bei neuen Anschaffungen keine Rolle mehr spielen. - 4x Sata reichen auch - HDDs mit 18TB und mehr machen es moeglich - ansonsten eben HBAs - Der Stromverbrauch der neuen cpu's ist IMO im gemittelten Betrieb kleiner geworden - gemessen an der Performance. - selbst ein i5-12600 im Extremfall auch in der k-Version waere eine Rakete die mit der alten 8/9 Serie ein unralistischer Wunschtraum war. Dabei verbrauchen diese CPUs im Idle keinesfalls mehr! Und auf jedenfall mit hoeherer Effizienz ( sind denn die ganzen Testdaten verkehrt, die ich lesen kann ???) z.B test resultate von Phoronics auf https://openbenchmarking.org/ Wegen der "Zeitenwende" finde ich deshalb die Hardware Empfehlungen hier im Forum zwar technisch nicht verkehrt, aber am Markt vorbei und daher z.Zt. leider ziemlich witzlos Wenn ich heute eine Intel 12er cpu verbaue, kann ich ziemlich sicher sein, das die Funktionsfaehigkeit in einem Linux-Rechner in der Zukunft eher noch verbessert. Warum soll das dann also eine schlechte Wahl sein, wenn der Preis fair ist, selbst wenn noch nicht alle technischen Moglichkeiten der CPU gebraucht werden koennen ? Funktioniert ein I3-12100 (ca 120Euro) und ein 100Euro B660m Board mit Unraid wirklich nicht ?? (Mini-Losungen mit Intel Atom und Celerons mal aussen vor) Ohne ECC gibt es viele Alternativen... Macht doch mal Vorschlaege zur Hardware, die der Marktlage gerecht werden! Die neuen Chipsets und CPUs sind durchaus lieferbar, IMO.
  3. Sorry - das hatte ich falsch verstanden. Um die Clients auf dem Unraid server zu sichern nutze ich das script von MGutt (rsync) Funktioniert seit ein paar Monaten problemlos - es werden hiermit aber sehr wohl Hardlinks erzeugt. das wolltest Du aber nicht...
  4. Ich nutze den rsync Docker container, wenn ich Rsync auf dem Client ausfuhre. Daten werden dann per SSH vom Server kopiert, aber der Docker hat nur Leserechte auf dem Unraidserver Der SSH management Server von Unraid bleibt dabei ausgeschaltet (Management settings)ib Solltest Du Hardlinks in den Unraid Shares haben, werden die beim Backup auch korrekt ubernomme Ich habe mir ein kleines script gemacht wodurch ich mit einem einzigen Befehl den ganzen Server nur mit Leserechten sichern kann. (einfach mehrere rsync Zeilen - geht sicher auch eleganter, aber ich bin kein Programmer) Das Script kannst Du naturlich auch als Cronjob laufen lassen... dann hast Du das Tool, was Du suchst... Schau mal bei den Unraid Apps unter "rsync-server"
  5. Vielleicht gibt es ja jemanden der interessiert ist. Das board soll lieferbar sein: https://geizhals.de/gigabyte-c246m-wu4-a2019282.html?hloc=at&hloc=de Ich kann es mir allerdings kaum vorstellen...
  6. Wunderbar - funktioniert alles incl Hardlinks, super
  7. Hab nochmal nachgedacht: Um ein komplettes Backup der Shares vom Unraid Server zu einem externen Speicher zu machen (grosse HDD) brauche ich ja nur eine 1:1 Kopie des Servers (mit Hardlinks! Das kann ich ja dann mit quasi 1 Zeile rsync machen wie im Support Thread von dem Rsync Server Container auch beschrieben...
  8. Um Dein Backup rsync script (Version 1.3) jetzt zusammen mit dem rsync server Docker zu nutzen, musste man jetzt noch den SSH zugang auf Zertifikate umstellen - momentan wird in dem Script sshpass verwendet (code line 127ff.) Wie muss ich den Code dann also anpassen um (wie im Support-Thread beschrieben) Dein Backupscript 1.3 mit den vorher erzeugten Zertifikaten benutzen zu konnen ?
  9. Toll, dass Du da gleich wieder einer so super Antwort drauf hast ! Habe den Container ausprobiert - funktioniert einwandfrei auf meiner alten Hardware. Jetzt muss ich mir mal uberlegen wie ich damit den workflow optimal gestalte - Cronjobs sind glaube ich bei meinem Gebrauch nicht so sinnvoll, denn ich nutze den Server ja nur sporadisch, sicher nicht jeden Tag - der Server ist dann auch meist ausgeschaltet. Ich werde die Backups vom Server also erstmal manuel machen mit einem kleinen Script auf dem Zielrechner Danke fur die tolle Arbeit hier !
  10. 2ter Nachtrag: Inzwischen denke ich, daß rsync auf dem Quellrechner ausgeführt werden muss, will man die Hardlinks der Quelldateien behalten auf den Backup-Dateien auf dem Zielrechner. Offenbar braucht es einige tiefgreifendere Anpassungen, um die Hardlinks wirklich zu kopieren auf einen anderen Rechner. Leider ist das zuviel für meine Anfängerkenntnisse... @mgutt Ist es irgendwie machbar, Dein rsync script so anzupassen, dass man Deinen guten Rat auch einhalten kann, nämlich ein Backup mit read only permission abzuholen anstatt vom Unraid server zu Pushen mit write permission ? Leider funktioniert das Script nur auf dem Unraid server selber (so war es ja auch gedacht) - aber wie soll ich dann sicher Backups von den Shares auf externe SMB-disks übertragen ? Oder was soll ich noch anderes veränderen, um den Schreibzugriff auf externe Remote disks von Unraid zu vermeiden, aber dennoch die Hardlinks zu sichern? Danke für Info!
  11. Nachtrag: Die Bestandsgrössen der Ordner habe ich auch mit dem Befehl im Terminal: "du -d1 -h /Zielverzeichnis" überprüft: es ist sonnenklar, das hardlinks nicht übernommen werden!
  12. Ich habe jetzt mal diesen kleinen share mit insgesamt 300kB Daten und vielen Hardlinks versucht manuell mit rsync vom Unraid server auf meinen Ubuntu Rechner zu bringen. Ich wollte wissen ob, die Hardlinks übernommen werden So sieht es auf Unraid aus: (siehe File grafik.png) Dann auf dem Ubuntu Rechner im Terminal ausgeführt: rsync -avh -H "/mnt/user/Ulli_Laptop" "/media/...." Resultat: HARDLINKS werden nicht übernommen, sondern die Daten neu geschrieben ! Welche Anpassungen muss ich tun, damit die Hardlinks doch übernommen werden. Ich habe bei SMB settings übrigens "unix extensions = yes" gesetzt - sowohl auf Unraid als auch im smb.conf file unter global auf dem Ubuntu Rechner Da bin ich mir nicht sicher ob das notwendig, oder gar verkehrt ist... Was tun ? Backup vom Unraidserver auf remote disks via Samba funktioniert also grundsätzlich nicht Ulli
  13. Danke für die Erklärung. Offenbar mache ich aber immer noch Anfängerfehler! Die Backup's von den Clients auf den Unraidserver funktionieren ja mit Deinem Script - auch mit den Hardllinks. Client--> Unraid ist also nicht das Problem Ich habe jetzt mal versucht diese Backups vom Unraid server auf eine externe USB Platte (ext4) am Ubuntu rechner auch mit Deinem Script zu transferieren (nicht mit Lucky Backup) - den Code vom Script V1.3 mit einem Texteditor auf den Ubuntu-Rechner übertragen und als "test.sh" gespeichert - dann im Terminal das file ausführbar gemacht mit "chmod u+x test.sh" - mit " ./test.sh' gestartet Ich hatte dazu wenige Daten mehrmals mit Deinem Script vom Client auf den Unraidserver in einen Test-Share übertragen. So hatte ich mehrere Unterfolder mit einer Menge von Hardlinks zum Testen Resultat: Wenn ich das Script wie beschrieben auf dem Ubuntu Rechner ausführe werden keine Hardlinks übernommen, sondern die Daten mehrmals geschrieben... Leider passiert genau das ! Was mache ich bloss falsch.... ?? Wie kann ich sicherstellen, daß mit dem Script auf dem Ubuntu 20.04LTS die Hardlinks mitgenommen werden - oder geht das gar nicht? ...bitte nicht lachen, bin eben kein "Experte".....
  14. Ich habe eine Frage zur richtigen Vorgehensweise bei meiner Backup strategie: Ich habe mehrere Clients (Windows und Ubuntu) am Unraid server. Der Unraidserver soll regelmässig mit dem Script vom MGutt backups nehmen von den wichtigen Daten der Clients Es gibt dazu auf dem Unraid server für jeden Client einen Share "Backup" - hier werden die Daten hingeschrieben mit dem Script vom MGutt... das funktioniert wunderbar. Jetzt will ich aber auch den Unraidserver selbst mit seinen Daten sichern. Dazu nutze ich externe Platten (auf einem Externen Ubuntu Rechner) der die Daten vom Unraid Server liest und wöchentlich eine andere HDD beschreibt - die nicht benutzte wird dann extern gelagert und so habe ich eine roulierendes System von mehreren Backups, die nie am selben Ort aufbewahrt sind. Die Unraid Backups vom Server selbst mache ich mit Luckybackup, ausgeführt auf dem Zielrechner (Ubuntu), der vom Unraid server die Daten liest, die gesichert werden sollen. Wie gehe ich aber mit den "Daten" um, die das Script von MGutt vorher von den Clients erzeugt hat und die sich bereits in den Backup-Shares in Unraid befinden - auch diese Daten würde ich gerne noch als Kopie an mehreren Orten auf verschiedenen Mediums haben Aber MGutt schreibt die Daten ja nur einmal - die Verzeichnisse sind ja nur Verweise nach den Daten und nicht die Daten selbst! Was passiert hier eigentlich, wenn ich ein Backup vom Backup mache - ist das dann überhaupt sinnvoll wenn die Verzeichnisse nur Hardlinks sind? Wie sichere ich die Daten die vom MGutt script auf den Unraid server geholt sind ein zweites Mal... kann ich das mit Luckybackup überhaupt machen, zumal die Daten ja auch von NTFS (Windows) kommen (Via Samba und MGUtt script auf Unraid ausgeführt) Ich habe nämlich auch offenbar ein Rechte problem: Auf dem Ubuntu Rechner der die Sharedaten von Unraid mittels Luckybackup ein zweites Mal extern sichern soll, kriege ich eine Fehlermeldung in Luckybackup: error 23 und permission error. Allerdings ausschliesslich bei den .log files die vom MGutt Script jeweils in die Backupverzeichnisse geschrieben werden. Lange Rede kurzer Sinn: Wie sichere ich das Backupverzeichnis mit den Daten vom MGutt script korrekt ein zweites Mal ? Danke für die Hilfe schonmal... Ulli
  15. Many thanks for information, @JeyP91 - If I only follow your explaination from the beginning of your post point 1.) to 4.) - is it possible to update the paperless-ngx, whenever there is a maintainance/functional update available - let's say from todays version 1.6.0 to 1.6.1 sometimes in the future - will I be alerted that my current version of paperless-ngx is outdated (when I manually check for update for all dockers), so that I know I need to update paperless-ngx with the newer version So what would be the possible advantage doing the optional changes you mentioned or even the alternative procedere point 1-4 from the end of your posting... Another concern: Is there a way for me to save the original paperless-ng docker, in case it is removed from the apps page. Because the original paperless-ng docker works at the moment for me, but if I find problems with paperless-ngx and at the same time the original docker-app is removed, there is no way for me to go back the the current state using paperless-ng.... With my current large archive (tens of thousands of docs), upgrading to ngx still seems to be a risk for me, if the original docker-app will be removed soon... (as announced) - so I could not fall back to the original paperless-ng Thanks for clearifing...
  16. I'm sorry, I do not understand how I can upgrade from the Unraid docker Paperless-ng to paperless-ngx using the Unraid web-Gui. What do I need to do in Unraid exactly to upgrade my working Paperless-ng docker to the Paperless-ngx docker ? The above documentation link how to upgrade, is NOT explaining how to upgrade within Unraid - so a step by step explanation using the Unraid web-Gui would be very useful I have a very large archive of documents with 10000++ documents, so I am hesitating to upgrade, without knowing and understanding exactly what I need to do. Thank you very much Do I simply need to remove the docker Paperless-ng and reinstall the Docker paperless-ngx ? What about the app-data ? What about the links to the current database (I use postgresql) What about parameters of the docker (old / new migration) Thank you for your kind understanding. P.S.: Please DO NOT eliminate the 'old' Paperless-ng docker from the app folder in the near future. If anything will go wrong with the upgrade, the current backup will only work with the old paperless-ng docker. If that is not available any more, some thousands of working hours would be damaged, if there is no source to reinstall the old docker image any more...
  17. In seinem ersten Post wurde ein Wert genannt für die Effizienz - ich weiss nicht welchen Stellenwert das haben soll. Aber wäre es nicht sowieso das beste ein Chipset auszusuchen welches - nur die wirklich wichtigen Features bietet, die Unraid in der gewünschten Form benötigt aber auch wirklich nicht mehr - Der Unraid server ist keine Workstation.. - das würde im Extremfall ja bedeuten, daß die einfachste Ausstattung auch den geringsten Stromverbrauch hat - kann man das so pauschal sagen ?! Ist vielleicht aber hier als Forderung nur ein Randaspekt - wenn ich einen Haufen Sonnen-Panele auf dem Hausdach hätte (was bei uns leider nicht möglich ist), wäre mir der Stromverbrauch vollkommen egal! Die Einspeisevergütung ist ja viel niedriger als der Strompreis - dann lieber selbst verbrauchen... so ein alter 4x Xeon schank in den Keller und gut ist....🤪
  18. Oh - ich war überrascht! Mit aufgesetztem Kopfhörer, konnte ich AC/DC gerade noch erkennen..... ;-)) Nein - der Server ist wirklich vergleichsweise leise ! Es ist enorm, wieviel Luft durch das Gehäuse gepumpt wird mit den 5 Lüftern hinter der Backplane...das Geräuch was entsteht ist wohl kaum leiser zu kriegen! Der Unterschied zwischen (Lüfter-)Full power und 'Ruhebetrieb' (ca 800touren) ist allerdings irre - wenn die Lüfter (nach dem Einschalten) kurzzeitig auf Vollast laufen (gut 3000touren) versteht man wirklich sein eigenes Wort nicht mehr... Bei mir ist der uralte Unraidserver allerdings in der Garage - da spielt ein leises Rauschen keine Rolle Man kann etwa sagen, daß der alte Tower-PC/Server mit den Dual Xeon's 5405 (s.u.) genauso laut ist, wie der Dell-Server (was für die Ruhe des Servers spricht) Allerdings darf man das nicht mit meinem Workstation PC vergleichen im beQuit 900 Tower... da hört man in 10cm Abstand keinen Mux auch nicht mit einer Geforce GTX 1070, die ordentlich was zu tun hat... Mit der alten Technik ist der heutige Unraidserver nur eingeschaltet, wenn ich neue Daten speichern muss - also ein reines Datengrab. (Kaum als server zu bezeichnen) Mir ist auch klar, das der Xeon 5405 PC wahrscheinlich nicht viel weniger Strom verbraucht... aber das Ding ist ja nur da, bis ich was besseres gefunden habe... Ich habe das allerdings noch nicht gemessen...
  19. Vor ein paar Tagen hat mir jemand (fast ungefragt und sowieso gratis) einen Dell R710 Rackserver in die Garage gestellt = geschenkt Ausstattung: 2x Intel Xeon E5620 (Quadcore) 64GB ECC RAM (DDR3) 2x Seagate 3.5zoll 460GB/15k7 SAS HDD's in RAID 0 (zum Spielen) (insgesamt können 6 HDDs in de front slots installiert werden eingebauter DVD spieler H700 Raid controller Fernwartungsmodul 2x redundante Server Powersupplies, je 875W Natürlich ist mir klar, das der Server nicht ohne weiteres für Unraid nutzbar ist. Hierzu müsste: - Controller H700 ausgebaut - Controller H200 eingebaut und in IT-mode geflashed (Kosten ca 50-70Euro Mich interessierte die Eingangsleistung/Energieverbrauch des Servers: Nach dem Einschalten ist der minimale Leistung bereits 140wtts (nach Installation von Ubuntu und keinerlei CPU Last) Bei CPU Last (Passmark CPU Performance software) steigt die Leistungsaufnahme etwa auf 400wtts !!! Diese Server sind hier schon seit längerem "im Umlauf" und werden sozusagen als Kiloware verschleudert... Ich wollte hier mal dokumentieren, was das für Stromfresser sind! Man muss dabei natürlich auch bedenken, welche "Rechenleistung" so ein altes Ding bereitstellt.. Grottenschlechte Performance: Ich konnte ein Single-Thread Rating von knapp über 1000 erreichen. Das wird bestätigt von diesen Werten: https://www.cpubenchmark.net/cpu.php?cpu=Intel+Xeon+E5620+%40+2.40GHz&id=1249 Also Finger weg, sollte jemand für den Schrott auch noch Geld verlangen! Vielleicht gibt es irgendwelche Componenten, die man aus dem Ding noch ausschlachten kann - und dann weg auf den Recyclinghof... Sollte es tatsächlich jemanden geben, der sowas einsetzt als Unraid Server???
  20. Ja, der Gesamtenergieverbrauch steigt und wird weiter stark steigen. Aber warum ich das erwähnte, war ja die Notwendigkeit der Hardware Hersteller, Ihre Systeme so effizient wie möglich zu entwickeln.... hoffentlich schlägt sich das dann auch auf den Produktkomponenten nieder, die wir Konsumenten kaufen können...
  21. @hawihoney Ein System, was ich im Wohnzimmer und auch im (nicht vorhandenen) Buro sicher nicht brauche... Aber die Messung von dem Motherboard bescheinigt ja durchaus hohe Effizienz - was will man da noch mehr ? Ich las vor kurzem einen Bericht über die Zukunft der Datencenter in Deutschland und deren zukünftigen Vorgaben, was Effizienz und den Weg zur Klimaneutralität angeht. Es wurde dort gesagt, daß man davon ausgeht, daß in neuen Ausschreibungen Effizienz der Systeme einen sehr grossen Stellenwert bekommen wird. Das würde bedeuten, daß Stromschlucker-Systeme vom kleinsten Motherboard bis zu grossen Servern der Vergangenheit angehören werden (Effizienz) - na hoffentlich!
  22. Sehe gerade, das @mgutt das Supermicro X12SCA-F ja gemessen hatte..... alles klar, sorry
  23. @hawihoney Was ist der Stromverbrauch von Deinem System ?! Man könnte dann ja mal auf eine minimal-Version (nur mit 2 Platten im Ruhezustand) und ohne die HBAs runterrechnen, wenn der dicke Xeon im idle ist... einfach nur um mal einen Effizienzvergleich zu den Angaben zu haben die hier so genannt werden.... (rund 15wtts bei den sparsamen Systemen) Dabei ist mir völlig klar, daß "Ausgangsleistung" und viele HDDs/SSDs auch "Eingangsleistung' braucht.... die Effizienz wäre aber mal interessant um abzuschätzen. Nach dem was ich so gelesen habe, muss man pro HBA mit ca 10w rechnen und pro (laufender HDD) nochmal 5-10w . im Idle wohl eher 1w Also - hast Du Daten für Dein system ? Danke... Muss mir hier erst noch ein Messgerät kaufen - Unsere Netzstecker sind ja anders als in Deutschland, deswegen funktionieren die deutschen Fabrikate nicht.
  24. Hallo @JoergHH Ja, ans Ausbauen habe ich auch schon gedacht... aber ich habe hier noch allerlei andere HDDs - ist also nicht schlimm, wenn ich diese beiden Lacies von 1TB einfach zur Seite lege. Die sind vielleicht nochmal hilfreich für meine Frau mit Ihrem Windows Laptop. Ich habe schon eine andere Lacie mal ausgebaut (anderer Typ)- die hatte noch so einen alten Spezialstecker für die Stromversorgung, aber das zugehörige Netzteil war defekt... kein Problem - da war ne WDC Disk drin - aber nur 500GB (noch älter)... Aber soll ich ne HDD wegschmeissen die tatsächlich nur 5Std gelaufen ist ? Auch wenn das 10 Jahre her ist ? Ich glaube ehrlich gesagt nicht, das bei der 1TB Lacie "EXTRA" was eingebaut ist, um Linux zu verhindern - aber Linux war deutlich NICHT der Zielmarkt, wohl vermutlich auch weil man um die Inkompatibilität wusste, aber vielleicht aus Kostengründen auf Linux verzichteten wollte... Es sollte mich nicht wundern, wenn in der Anfangszeit von USB2 hier viel billigere controller chips im Umlauf waren, die eben aus irgendeinem Grund nur Windows konnten... Scheinbar ist es ja auch nur bei dieser 1TB Lacie-Serie der Fall - interne Hitachi Deskstar Platten... jedenfalls deutet meine Internet Recherche darauf hin. Wenn man sieht das die Bedienungsanleitung in 20 Spachen beigelegt ist, dürfte da eine deftige Stückzahl von hergestellt sein - meine Exemplare stammen hier aus einer örtlichen Mediamarkt Filiale (ja haben wir auch in Belgien).
  25. Tja, ich kann nur sagen, daß ich dieses Tool natürlich auch versucht habe - genau wie derjenige, in dem Link oben... Gerechterweise muss man sagen, daß Lacie auf der Verpackung und beiliegenden Betriebsanleitung die Verwendung mit Linux mit keinem Wort erwähnt. Es kann ja durchaus sein, daß aus irgendwelchen Hardware-"Problemen" des controller-chips damals nur Windows und Apple garantiert werden konnte, wollte man von Herstellerseite keine höheren Zulieferpreise akzeptieren ... wer weiss! USB 2 war damals noch relativ neu... und 'high-speed'... Lassen wir es dabei - Linux NICHT möglich !
×
×
  • Create New...