Jump to content

ullibelgie

Members
  • Posts

    304
  • Joined

  • Last visited

Posts posted by ullibelgie

  1. Offenbar ist IPMI inzwischen Standard bei den Xeon-Boards... na ok - kenn mich noch zu wenig aus...

     

    Aber gibt es denn Infos/Messungen zu dem Unterschied im Stromverbrauch zwischen dem Gigabyte C246m WU4 und dem Gigabyte W480m ?

    Und wieviel mehr würde dann die ATX Version vom Gigabyte W480 "fressen"....

     

    Das Intel und das Supermicro wären dann die einzigen uATX Alternativen, wenn ich das richtig sehe...

  2. Entweder man baut die Parity neu (und hat währenddessen keine Redundanz) oder man schreibt durchgehend nullen auf die leere Datandisk bevor man diese dem Array entnimmt.

    So wie ich es verstehe behält man im letzteren Fall die Parity-Integrität und muss diese nicht neu erstellen.

     

    Meine Uberlegung war auch, daß Nullen schreiben auf 1TB disk hoffentlich doch etwas schneller geht als Parity bauen auf 12TB (gut 19Stunden auf meiner 'Mühle')

    Ausserdem bleibt die Parity dann eben durchgehend erhalten während des ganzen Prozesses...

  3. 19 minutes ago, hawihoney said:

    Zur Erläuterung: Eine durch Unbalance geleerte Festplatte ist im Sinne der Parity-Kalkulation nicht leer. Nur eine komplett mit 0 gefüllte Festplatte wirkt auf die Parity-Kalkulation neutral und kann entfernt werden. Also erst Daten z.B. via Unbalance/Midnight Commander/rsync verschieben, dann Platte komplett löschen. Hierzu gibt es eine in-offizielle Vorgehensweise im Unraid Wiki (Alternative Method):

     

    https://wiki.unraid.net/Manual/Storage_Management#Removing_data_disk.28s.29

     

     

    Ja, mir ist klar, daß ich nach dem Move der Daten, die (vermeintlich) leere Disk3 nicht einfach rausziehen darf, wenn ich die Parity nicht verlieren will.

    Ich hatte gerade auch im wiki das gefunden:

    https://wiki.unraid.net/Shrink_array#Procedure_2

    Das scheint mir dasgleiche zu sein, wenn es um clearing der 'leeren' Disk3 geht... aber ich lese mir beide Anleitungen nochmal durch... das Verschieben der Daten wird ja sowieso noch eine weitere Stunde dauern.

    Danke für den wichtigen Hinweis!

  4. Aha - habe ich mir gerade angesehen - in der Tat, will ich die Daten des Arrays in Ihrer Gesamtheit erhalten und einfach die 280GB von disk3 verteilen auf disk1 und/oder disk2... denn ich will ja nur Disk3 durch die SSD Cache disk ersetzen.

    Das Unassigned Plug in scheint genau zu machen, was ich zunächst benötige (Moven der Data)...

     

  5. Ich habe eine Frage, wo ich im Forum keine richtige Antwort drauf gefunden habe:

     

    Mein Server hat 4 HDDs Slots - diese sind aktuell bereits voll.

    Die Belegung sieht so aus:

    grafik.thumb.png.ed644f02994d0040c90335127b4ccc1f.png

     

    Jetzt habe ich mir überlegt, daß ich ja von der Data-Disk3 die dort befindlichen 280GB auf die Disk1 verschieben könnte und die Disk3 komplett löschen und aus dem Array entfernen. Damit hätte ich wieder einen freien (mechanischen) Platz im Gehäuse, wo ich stattdessen eine noch unbenutzte SSD (Samsung Evo 850) reinstecken könnte, om diese als Cache zu gebrauchen. Diese SSD habe ich hier noch aus altem Fundus...

    Mir stellt sich zwar die Frage, ob das bei meinem uralt PC Sinn macht (nur Sata2) aber probieren könnte ich es mal

     

    Jetzt meine Frage:

    Wie müsste ich mit den Mitteln die Unraid mir bietet genau vorgehen, um diesen Wechsel im Array zu vollziehen. (Moven der Daten, Andern des Arrays von 3disks auf 2Disks)

    Gibt es eine Möglichkeit die Parity durchgehend zu erhalten ? Also ohne diese neu zu erstellen ?

    Ich würde gerne eher Bordmittel von Unraid benutzen, als im Terminal irgendwelche Befehle einzugeben, die ich dann doch nicht verstehe...;-(

     

    Was ist der schnellste und sicherste Weg für diese gewünschte Serververänderung?

  6. Mal konkret gerechnet:

    Wenn man im 24/7 Betrieb im Schnitt 35w Leistung benötigte, ware das ein Energiebedarf von  840W/h pro Tag also  306.6kW/h pro Jahr

    In 2022 muss man hier in Belgien mit mindestens 50 Eurocent Kosten pro kWh rechnen - d.h ca 150Euro kosten pro Jahr

    10W mehr oder weniger Leistungsbedarf ware pro Jahr ein Kosten Unterschied von knapp 44Euro...

     

    Es wäre dann auch interessant zu wissen, ob man im Vergleich zu dem Supermicro uATX Motherboard nicht auch ein full-ATX board nehmen könnte vom Stromverbrauch her. Also anstatt IPMI (beim Supermicro) dann ohne IPMI, aber weniger Stromverbrauch - die Fernwartung hat man doch nicht wirklich nötig, wenn der Server im eigenen Haus/Wohnung ist - oder nicht?

    Ein ATX board würde, was die Auswahl angeht die "Angebotsvielfalt" zumindest etwas erweitern. Z.B. das Gigabyte ATX board mit W480 chipsatz:

    https://geizhals.de/gigabyte-w480-vision-w-a2350852.html?hloc=de

     

     

  7. 28 minutes ago, Ford Prefect said:

    Ich würde, wenn ich müsste, dann immer noch das X11SCH-F oder X11SCH-4LF nehmen...siehe:

     

    Wobei das Supermicro zwar teurer ist, aber die beiden M2 Anschlüsse schon on-board hat. Die Adapterkarte für die M2-SSDs könnte man sich damit sparen...

     

    Hoffentlich hält meine Uraltkiste noch ein bisschen durch... damit ich nicht Ersatz was kaufen MUSS....

     

  8. Ich habe mal einen extended Smart test gemacht - der wurde irgendwann abgebrochen mit einem defecten Sector  und 'critical error'.... leider keinen Screenshot gemacht.

    Ich befürchte also, das die Platte eher auf den Schrott muss ?

     

    Ich nehme jetzt erstmal ne andere HDD (von meinen vielen alten Sachen) und probier mein Glück auf's neue.... Backup vom Server

  9. Ich habe wieder mal eine unassigned disk die einen Fehler zeigt im Log:

     

    grafik.thumb.png.3bcb60652bf63043b81664c8ad1f134f.png

     

    Was sagt mir das jetzt ?

    Critical medium error klingt wie: sollte der Sector  angesprochen werden, ist die Datei 'im Eimer' ?!

     

    Also Disk besser nicht mehr gebrauchen und neue kaufen ?!

  10. Denkt mal an die Anfänger die hier mitlesen, so wie ich...

    Rein psychologisch verlasse ich mich dann lieber und eher auf die 'eingebauten Unraid out-of-the-box tools'... und bin ich deshalb dankbar, daß auch ein  Weg aufgezeigt wurde, der auf den 'manuellen' Weg verzichtet und eben 'eingebaute Tools' benutzt...

    Ich bin schon froh, daß ich die Konsequenzen des Grossgeschriebenen D begriffen habe... die Gefahr das Terminalfenster zu schliessen, war mir z.B. nicht bewusst!

    • Like 1
    • Thanks 1
  11. Das rebooten hat es in der Tat gebracht....

    Da die Daten der Platte nur mein letztes Backup hatten ist es nicht schlimm, daß ich die Daten nicht mehr lesen kann - ich mache einfach ein neues Backup - dann sehen wir weiter...

     

    Danke für den Tip mit Neustart - Ich mache zwar den Server immer Abends aus und schalte Ihn irgendwann wieder ein, wenn ich Ihn brauche - ein Reboot habe ich noch nie gemacht.... bei mir dauert das eine Ewigkeit.... der hat bis 200 gezählt oder so....😜

  12. Mal wieder ein Unfall:

    Ich hatte eine externe USB Platte am Unraidserver angeschlossen und ein Backup gemacht.

    Ich Idiot hatte aber vergessen, die Platte zu unmounten als ich die USB-Platte vom Rechner trennte um sie in den Schrank zu stellen

     

    Resultat ist, daß die Platte unbrauchbar geworden ist:

    grafik.thumb.png.b64a52dcfd02a7b9d3dfce2161ad7ff4.png

     

    Die Platte bleibt im gemountet, ist aber nur in grau und damit nicht mehr ansprechbar.

    Wenn ich auf das Label 'schijf14' klicke, bekomme ich das:

    grafik.thumb.png.2bc4b6bf71f7d2e19a226354b0d906c0.png

     

    Die Daten auf der Platte sind nicht wichtig, da ich ja die Originaldaten noch habe und auf der USB Platte nur das gerade genommene Backup drauf ist. Aber die Platte ist nicht mehr erreichbar!

     

    Wie kann ich die Daten löschen und das Backup erneut nehmen ?

     

    Im Dashbord sehe ich:

    grafik.png.acf7ccb0b5a3df594d06c8a2756d956a.png

     

    Anstatt sdg steht da Div 1

    Ich nehme an, das Dev 1 = sdf ist, denn der Buchstabe F (für sdf) fehlt ja irgendwie....

     

    Allerdings habe ich auch mehrfach die Platte ein und ausgeschaltet... aber ich will ja auch nur die Platte 'neu' benutzen - die Daten sind ja erstmal völlig unwichtig...

     

    Danke für einen TIp, was zu tun ist...

  13. Mgutt empfiehlt ja (und wohl nicht nur er), daß man Unraid am Besten nur mit Leserechten für die Client computer betreiben sollte.
    Also alle Shares für alles Users nur auf Lesen setzen....

     

    Aber hilft das wirklich ?
    Denn es kommt ja wohl auf die Programmierung des Virus an - wenn sich das in den korrekten Daten inaktiv "versteckt",
    bis es "abgeholt" wird und dadurch auf neue Hardware übertragen wird und erst dann aktiv wird....
    Dann würde auch durch einen Lesevorgang der Verschlüsselungsprozess eingeleitet...
    Das virus wäre dann kaum abzuwehren...
    Oder ist das Fiktion ?!

     

    Aber mir ist die Logik nur Leserechte zu vergeben schon einleuchtend - das ist etwas was einfach zu machen ist und hilft zumindest.

     

    Jetzt meine Frage:
    Man könnte die Leserechte doch immer bestehen lassen. Wenn man dann doch mal irgendetwas von einem Client übertragen will und auf den Server schreiben will, dann geht man über das WebGui von Unraid (starkes Password) in den Docker Krusader und veranlasst den Datenübertrag von Client auf Server mit dem Krusader-Docker.
    Unter welchem User arbeitet Krusader eigentlich ? Unter root ?! Und wäre das dann ein halbwegs sicherer Datenübertrag vor Ransomware... ?!

    Zumindest wenn die Datei selbst nicht das Virus enthält (Antivirusprogramme auf den Clients)

     

    Und:

    Wenn man mit einem Docker wie Paperless-ng arbeitet und von einem Share auf Unraid (die Daten befinden sich also schon auf dem Server) dann in die Doc-Datenbank von Paperless-ng importiert:
    Unter welchem User passiert das ? Auch hier sind doch für irgendwen Schreibrechte nötig ?
    Wenn man das unterbinden wollte funktioniert die ganze Dokumentenverwaltung nicht mehr !

     

    Auch lucky-Backup als Docker auf dem Server:
    - lucky-Backup liest vom Client computer mit lese Rechten dort.
    - Lucky-Bachup schreibt aber auf dem Server - mit welchem User-account dann ?! Root ?

     

    Wieder einen Haufen Fragen... so geht das eben mit den Hobby-IT'ern... (anderes Wort für Anfänger) - sorry!

     

    Ich will eben keine törichten Fehler machen...

  14. Danke für die zahlreichen Reaktionen !

    Vor dem Plugin habe ich tatsächlich 'etwas Respekt' als Beginner... denn ich verstehe nicht viel von den CLI Sachen...

     

    Das Deinstallieren hat aber funktioniert, obgleich es vielleicht nicht nötig gewesen wäre und ein simples Deaktivieren gereicht hätte.

    Habe mir aber zur Angewohnheit gemacht bei meinem alten System, wirklich nur installiert zu halten, was wirklich gebraucht wird. Sonst funktioniert irgendwann gar nix mehr...

  15. Leider mal wieder eine Anfängerfrage:

    Ich habe einmal testen wollen, ob powertop auf meiner Uralt-Hardware irgendetwas an Stromersparnis bringt, wenn der Server länger durchläuft - meist schalte ich den ja aus, wenn ich Ihn nicht brauche...

     

    Also habe ich das Nerdpack plug-in installiert und Powertop in der ganz rechten spalte 'eingeschaltet'.

    Ich konnte im log auch sehen, das Powertop installiert wurde, was dann auch korrekt in der Nerdpack Ubersicht angezeigt wurde.

     

    Leider glaube ich nicht, dass meine alte Hardware bei spin-down aller HDDs unter C3 kommt - mit powertop (nach der Anleitung im Englischen Teil des Forums von MGutt) ändert sich in de C-states und sonstigen Anzeigen gar nichts.... meine Hardware ist dafür wohl nicht geeignet.

     

    Jetzt die Frage:

    Wie muss ich powertop dann wieder sauber deinstallieren im Unraid Terminal , ohne hier irgendwas 'kaputt' zu machen?

     

    Danke für kurze Info...

    P.S.: powertop ist mal was für später, wenn die Hardware "stimmt"....

  16. Habe eine Frage zum live-TV Empfang.

     

    Z.Zt. habe ich ein Problem mit meiner SAT-TV Empfangsanlage. Möglicherweise ist mein SAT-IP Tuner kaputt (Telestar Digibit R1). Diese Anlage funktioniert also nicht mehr und hatte bisher nix mit Unraid zu tun.

    Das bedeutet, daß ich hier in Belgien (Ausland!) schauen muss, wie ich die deutschen Sender anderweitig von meiner Schüssel ins Heimnetz bringe. IPTV ist leider sehr unsicher - die deutschen URLs der streams verändern laufend und es macht keinen spass da ständig hinterher zu hecheln...

    Pay-TV provider will ich keine, denn wofür gibt es Astra?

     

    Es gäbe ja die Möglichkeit einen neuen DVB -S2 Tuner als Karte an den Unraid-Server anzuschliessen.

    Damit müsste wohl ein Docker (oder VM) die Aufgabe übernehmen das TV-signal als Stream auf das Netzwerk zu bringen. (TVHeadend ?!)

     

    Kann mir jemand Tips geben:

    - welcher Sat-IP Tuner die beste Empfangsqualität bietet

    - wie ich unter Unraid einen TV-Stream auf's Netzwerk bekommen (eben am besten im Sat-IP Standard)

    - welche Möglichkeit gibt es, das Unraid einen EPG mit in den SAT-IP stream encodiert (over-the-air EPG)

     

    Ich habe keinen Mediaserver wie Plex nötig, sondern nur die Umsetzung SAT-Schüssel-Koaxkabel auf LAN - also eigentlich nur einen klassischen SAT-IP Empfänger -

    Grund ich nutze auf einem speziellen Home-cinema PC bereits Jriver und will dabei bleiben, wegen meiner komplexen Audioinstallation mit real-time Convolution, etc..

     

    Vielleicht gibt es aber eben triftige Gründe den SAT Tuner mit Unraid zu verbinden, für Features, die mir jetzt gar nicht bewusst sind.

    Ansonsten ginge es natürlich auch ohne Unraid - und Unraid ist nur der FIleserver für evlt gelegentlich aufgenommene Episoden - oder eben für Offline TV-schauen, wenn man mal nicht zu Hause ist zur richtigen Zeit...

     

    Beizeiten muss ich ja sowieso den alten Supermicro-Server für Unraid  mal upgraden - dann ist es vielleicht eine gute Idee, den TV-Empfang hier gleich mit in die Uberlegungen einzubeziehen...

     

    Ich bin kein Film-Sammler, sondern hier im Ausland nur interessiert in die deutschen LiveTV-Programme

    Diese sind hier in Belgien leider nur in sehr teuren Kabel-Abo's enthalten .... also lieber Astra

     

    Gerne Tips von den Experten...

  17. Zu dem nachträglichen Bearbeiten der Tags für bereits im System befindliche Dokumente:

     

    Natürlich kann man Dokumente auch nachträglich weiter MANUELL klassifizieren auch neue Tags definieren usw... (s.o.)

     

    Die Frage ist aber, ob eben auch für alte Dokumente eine Neuklassifizierung automatisch erzeugt werden könnte, unter zu Hilfename des neuronalen Netzwerks, was sich hinter dem Algorithmus 'Auto' verbirgt. Ich könnte mir vorstellen, das in diese Richtung die Frage von Smolo geht ?!

     

    Man müsste mal einen Test machen mit doch mindestens 500 Dokumenten im System:

    Beispiel - man hat den Tag 'Zahnarzt' bereits vergeben im system

    Ausserdem den Tag 'Rechnung'

    Nun geht man in die Konfiguration unter Tags und definiert einen neuen Tag 'Zahnarztrechnung' mit dem Algorithmus 'Auto' ohne Dokumente manuell mit dem Tag zu versehen.

     

    Wahrscheinlich wird das System nichts veränderen auch nicht nachdem der Docker ein paar Stunden läuft, aber das müsste man ausprobieren...

    Ich habe nämlich irgendwo gelesen, daß der Algorithmus ständig aktiv ist und regelmässig irgendwas verfeint ?! Weiss aber nicht mehr wo ich das gelesen habe ...

     

    Interessant ist, wenn man eine bereits verarbeitetes Dokument nochmals durch den 'consume' ordner ins system einfügt (ein Doppel) - es könnte sein, dass das Doppel/Neueingabe jetzt anders als im 'ersten Durchlauf' zusätzlich den Tag Zahnarztrechnung bekommen hat... eben mit dem Auto Ordner. Wenn das alte Dokument den neuen Tag nicht hat, wissen wir, dass der Algorithmus wirklich NUR für Neueingaben läuft. Das ist für mich aus der Dokumentation nicht ganz sonnenklar...

     

    Hier geht offenbar 'Probieren über Studieren' - mit dem Lesen der Doc ist es da (bei mir jedenfalls) nicht getan - aber ich muss hier auch noch einiges Testen, bevor ich mehr dazu sagen kann... die Eingabe des Archivs mach einfach noch zu viel Arbeit (alte Handschriften müssen noch erst eine Abschrift bekommen für die OCR Erkennung und weiteres mehr...)

     

    Also evtl. bitte mal selbst probieren.

    • Like 1
  18. Fragen zur Notwendigkeit/Vorteilhaftigkeit von iGPU:

     

    Wie ist das bei den iGPUs und VM's eigentlich ?

    Die iGPU hilft doch nur bei Grafikaufgaben, oder nicht ?

    Ich habe z.B. öfter (bis regelmässig!) sehr komplizierte statistisch, mathematische Berechnungen, Signalprocessing und -Analyse zu machen auf meinem Desktop PC. Hier kommt Grafik überhaupt nicht vor, sondern die Analyse ist in C programmiert zur Ausführung auf der CPU - dann ist eine iGPU doch nicht beschleunigend ?! Oder doch? (Also wenn ich mir vorstelle, daß ich die Berechnungen in eine VM auf Unraid auslagern würde...)

     

    Ich habe auch Anwendungen, wo die Rechenpower programmtechnisch via Cuda auf NVidea Grafikkarten ausgelagert wird.

    In dem Fall ist aber zwingend NVidea vorgeschrieben und die iGPU eines Processors kann doch auch nicht helfen ?!?

     

    Natürlich ist Grafik bei Anwendung von Unraid als Mediaserver (Plex, TV) ein wichtiger Gesichtspunkt - aber ich nutze JRiver auf einem speziellen externen Client, der alle Grafikpower zur Verfügung stellt...

     

    Bin ich dann ein typischer Fall, der eine iGPU NICHT braucht - oder gibt es auf OS-Ebene eben doch vielerlei Gründe eine VM immer mit iGPU Beschleunigung zu betreiben?

    Anders ausgedrückt: Hängt es vom OS der VM ab, oder von der App, die auf dem OS läuft, ob man Vorteile hat mit iGPU im Vergleich zu ohne?

     

    Ich versuche abzuschätzen, wie wichtig eine durchschleifbare iGPU für meine Anwendungsfälle sein dürfte...

     

    Da Do Ron hat ja das wohl auch abschätzen müssen - ich bin dann Nutzniesser von seinem Thread.... danke ;-)

  19. On 1/23/2022 at 7:10 PM, Smolo said:

    "Verwendest du die Tags? Gibst du den Dokumenten noch einen Namen oder ziehst du die tatsächlich blind rein?"

     

    Ja natürlich verwende ich die Tags (siehe oben) - blind geht das nicht wirklich vernünftig - das System ist zwar lernwillig und lernbereit, aber wie auch wir Menschen nicht von Geburt allwissend.

    Machine-learning (die Technologie, die sich hier verbirgt in der Programmierung) ist auch nur so effizient, wie die einzelnen logischen Bausteine, die man vorgibt.

     

    Beispiel oben:

    Die Maschine lernt so für die Zukunft, das der Zahnarzt eben privat ist und das die Firma X eben geschäftlich ist. Nur aus der Kombination von Rechnung und Zahnarzt weiss Paperless-ng, dass DIESE Rechnung eben privat ist, aber es gibt auch Rechnungen die eben geschäftlich sind (Firma X)

     

    Es ist also besonders wichtig, dass man Paperless-ng so effizient wie möglich mit Regeln und Eingaben füttert und "trainiert"

     

    Ich habe heute mit meinem Uraltcomputer (siehe unten) einmal einen Search auf mehrere tausend Dokumente losgelassen - die Sucheingabe war nur einen Teil eines Wortes im Dokument...   Also z.B wenn ich Zahnarzt suche habe ich nur Arzt eingegeben.....

    Resultat: beim Search in Titel und Content (Standardsuchleiste): in einem Bruchteil einer Sekunde wurden mir genau die 2 (Zwei!) Dokumente ausgeworfen (von mehreren tausend!), die ich suchte....

    Also Paperless-ng kann nach einiger Lernzeit unglaublich effizient und 'schlau' werden...

     

    Aber am Anfang ist es leider ziemlich strohdumm - wir müssen es 'trainieren'...

  20. 16 minutes ago, Hoddl said:

    Doch wie würdet ihr die Abgrenzung zu meiner Selbständigkeit einbeziehen?

    Alles was ich so rein bekomme gehört entweder ins private oder eben in die firma und bei der firma sollte man evtl. noch unterscheiden Jahr/Quartal/Monat

     

    wie würdet ihr das umsetzen? kann man das mit den Tags erledigen?

     

    Mach doch einfach einen Tag Privat, wenn es sicher Privat ist.

    Du musst die Tags verstehen als eine Art Uberschrift der Eigenschaft für alles was sich darunter befindet.

    Wenn Du zwei Tags zu gleicher Zeit vergibst für ein Dokument gelten eben beide Eigenschaften...

     

    Du musst mal überlegen:

    z.B. ein wichtiger Lieferant wird Dir wahrscheinlich nur geschäftliche Vorgänge und Dokumente liefern.

    Was immer auch im Scanner als diese "Firma X" erkannt wird, sollte also automatisch den Tag "geschäftlich" erhalten - das kannst Du als Automatismus in Paperless NG angeben. Vielleicht sind noch andere Eigenschaften die von Firma X immer dieselben sind - dann kannst Du auch das gleich als Tag zusätzlich eingeben....

     

    Deine beste liebe Freundin "Lieschen Müller", ist aber ein privat Kontakt, die holde Dame wird Dir wohl (hoffentlich!) niemals geschäftliche Dokumente zuschicken. Auch Dein Zahnarzt schickt Dir zwar "Rechnung" - aber es ist ein privater Vorgang.

     

    Wenn der Scanner also das Wort "Lieschen Müller" entdeckt, kannst Du automatisch einen Tag "Privat" setzen. Auch wenn der Firmenname Deines Zahnarzts erscheint soll Paperless-ng den Tag 'Privat' setzen. Andererseits ist das erkannte Wort "Rechnung" im Scanner nicht ausreichend. um nur auf Der Basis die Entscheidung für den Tag "geschäftlich" zu treffen, denn die Rechnung könnte ja auch privater Natur sein... (Zahnarzt)

     

    Es ist wichtig die Tags möglichst spezifisch zu setzen - bei einer Suche und Eingabe der Tags wird dann die Schnittmenge gesucht...

     

    Keine Sorge - Du kannst später noch Tags zufügen - allerdings ist es hilfreich schon am Anfang automatische Tags setzen von Paperless-ng durch entsprechende Regeln setzen zu lassen - siehe Beispiel oben... dann brauchst Du nicht alles per Hand eingeben....

     

    Ich mache es mir zur Angewohnheit im Titel eine Kurzbeschreibung des Vorgangs einzugeben ein Betreff, wenn Du so willst. Das hilft später in der Suche der Trefferlisten, die bei einem Search von 10000 Dokumenten ausgegeben wird...die kann durchaus noch 100 Treffer ergeben - wenn aber im Titel der betreff/Umschreibung des Inhalts steht - ist das Dokument schnell gefunden - bei mir eine Seriennummer.

    Nur wenn ich sicher das Originaldokument nötig habe, muss ich an die Papierboxen um das Originaldokument zu entnehmen - ansonsten reicht die Ansicht des digitalen Scans - wir wollen ja nix neu ausdrucken, sondern gerade das Gegenteil - Papier sparen!

     

    Wenn Du eine Weile mit dem System gearbeitet hast, versuche mal nach bestimmten Vorgängen zu suchen - dann bekommst Du ein Gefühl, wie Du vielleicht noch spezifische Tags zusätzlich angeben kannst.

     

    Viel Erfolg weiterhin...

  21. Ich sehe gerade, daß das ASRock B365M Pro4 auch nur für 68Euro angeboten wird...

    https://geizhals.de/asrock-b365m-pro4-90-mxb9t0-a0uayz-a1963468.html?v=k&hloc=at&hloc=de

     

    Das ist ja dann auch im Vergleich zu dem Gigabyte mit dem C246 Chipsatz ein Board was nur einen Bruchteil kostet !

    Scheinbar hat es sogar 2 gleichzeitig nutzbare M2 slots für NVMe Disks und zusätzlich 6 Sata Anschlüsse...  wenn mann dann wirklich ein riesiges Array nötig hat, kann man ja eine Sata Erweiterungskarte verwenden und dort das Array anschliessen - die Pools kommen dann an die Internen Sata/M2 Anschlüsse (SSDs)

    Wer derartig viel Storage benutzt wird sich über drei Watt mehr oder weniger doch nicht beschweren können ? Zumal das Motherboard weniger als die Hälfte kostet als das C246 Board ?!

     

    Passt auf das AsRock ein I3-9100 ? Der ist offenbar auch verfügbar z.Zt....

    der hat auch die iGPU und kostet ca 120 Teuros...

     

    Oder sehe ich das falsch ?

    Es hat doch keinen Zweck für ein Motherboard, was wohl nicht mehr zu kaufen ist, teure Sammlerpreise zu zahlen , oder nicht ?!

×
×
  • Create New...