Fistudio

Members
  • Posts

    284
  • Joined

  • Last visited

Everything posted by Fistudio

  1. Server wieder eingeschalten da hier wohl anscheinend schon alle im Urlaub sind, mal die Lösung Habe vor dem Array Starten die Platte eine andere zugewiesen jetzt stellt Unraid die Daten auf die Platte wieder her.. mal schauen ob das dann auch gelingt, dauert mehr als 1Tag steht hier ich berichte
  2. Ich hab mal den Server abgeschaltet, und warte hier auf Anweisungen wie ich die den Datenträger wieder reanimieren kann
  3. Servus Miteinander Ich habe inzwischen einen Neustart gemacht, weil ich eine LSI Karte nicht per PCI durchreichen kann...so wollte ich ein ZFS Drive aus den restlichen HDs machen nach dem Neustart muss ich den Fehlenden Schlüssel eingeben.. und siehe da?!?! 2 der Festplatten im Array haben aufeinmal ein Unsupportet partition Layout was soll ich nun jetzt davon halten? Ich schicke mal ein screenshot mit Datenträger 2 ist normal voll... Datenträger 4 ist nicht wichtig, die kann ich neu machen... wieso NUN das rote Schlösschen da? der Datenträger Schlüssel vor dem Array Starten ist immer der gleiche seit Monaten: und wieso sind die anderen Beiden Offen, aber genau der Datenträger 2 nicht? wie soll ich nun vorgehen? vielen Dank
  4. Ich hab mir mal das Spaceinvader Video angeschaut, da steht was von einen Eintrag wegen der IOMMU... Und zwar beim Start von dem Unraid Server... Kennt jemand das? Was genau muss man da eintragen... Vielleicht ist das der Fehler?
  5. jetzt isses gelaufen, man muss wirklich zuerst die Vm erstellen. dann nochmals editieren und dann kann ich erst die PCI karte hinzufügen beim Starten der VM kommt dann dieser Fehler ...zumindest bin ich ein schritt weiter; Ich habe die PCI karte drinnen aber startet trotzdem nicht was soll ich nun machen?
  6. <?xml version='1.0' encoding='UTF-8'?> <domain type='kvm'> <name>DS3622xs+</name> <uuid>ed14615e-ea74-c8af-c302-95196500da72</uuid> <metadata> <vmtemplate xmlns="unraid" name="CentOS" icon="centos.png" os="centos"/> </metadata> <memory unit='KiB'>16777216</memory> <currentMemory unit='KiB'>16777216</currentMemory> <memoryBacking> <nosharepages/> </memoryBacking> <vcpu placement='static'>12</vcpu> <cputune> <vcpupin vcpu='0' cpuset='10'/> <vcpupin vcpu='1' cpuset='26'/> <vcpupin vcpu='2' cpuset='11'/> <vcpupin vcpu='3' cpuset='27'/> <vcpupin vcpu='4' cpuset='12'/> <vcpupin vcpu='5' cpuset='28'/> <vcpupin vcpu='6' cpuset='13'/> <vcpupin vcpu='7' cpuset='29'/> <vcpupin vcpu='8' cpuset='14'/> <vcpupin vcpu='9' cpuset='30'/> <vcpupin vcpu='10' cpuset='15'/> <vcpupin vcpu='11' cpuset='31'/> </cputune> <os> <type arch='x86_64' machine='pc-q35-7.1'>hvm</type> <loader readonly='yes' type='pflash'>/usr/share/qemu/ovmf-x64/OVMF_CODE-pure-efi.fd</loader> <nvram>/etc/libvirt/qemu/nvram/ed14615e-ea74-c8af-c302-95196500da72_VARS-pure-efi.fd</nvram> <boot dev='hd'/> </os> <features> <acpi/> <apic/> </features> <cpu mode='host-passthrough' check='none' migratable='on'> <topology sockets='1' dies='1' cores='6' threads='2'/> <cache mode='passthrough'/> </cpu> <clock offset='utc'> <timer name='rtc' tickpolicy='catchup'/> <timer name='pit' tickpolicy='delay'/> <timer name='hpet' present='no'/> </clock> <on_poweroff>destroy</on_poweroff> <on_reboot>restart</on_reboot> <on_crash>restart</on_crash> <devices> <emulator>/usr/local/sbin/qemu</emulator> <disk type='file' device='disk'> <driver name='qemu' type='raw' cache='writeback'/> <source file='/mnt/cache/VM/DS3622xs+/arc.img'/> <target dev='hdc' bus='sata'/> <address type='drive' controller='0' bus='0' target='0' unit='2'/> </disk> <disk type='block' device='disk'> <driver name='qemu' type='raw' cache='writeback'/> <source dev='/dev/sdj'/> <target dev='hdd' bus='sata'/> <address type='drive' controller='0' bus='0' target='0' unit='3'/> </disk> <disk type='block' device='disk'> <driver name='qemu' type='raw' cache='writeback'/> <source dev='/dev/sdk'/> <target dev='hde' bus='sata'/> <address type='drive' controller='0' bus='0' target='0' unit='4'/> </disk> <disk type='block' device='disk'> <driver name='qemu' type='raw' cache='writeback'/> <source dev='/dev/sdd'/> <target dev='hdf' bus='sata'/> <address type='drive' controller='0' bus='0' target='0' unit='5'/> </disk> <disk type='block' device='disk'> <driver name='qemu' type='raw' cache='writeback'/> <source dev='/dev/sdi'/> <target dev='hdg' bus='sata'/> <address type='drive' controller='1' bus='0' target='0' unit='0'/> </disk> <controller type='pci' index='0' model='pcie-root'/> <controller type='pci' index='1' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='1' port='0x10'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x0' multifunction='on'/> </controller> <controller type='pci' index='2' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='2' port='0x11'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x1'/> </controller> <controller type='pci' index='3' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='3' port='0x12'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x2'/> </controller> <controller type='pci' index='4' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='4' port='0x1c'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x03' function='0x4'/> </controller> <controller type='pci' index='5' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='5' port='0x13'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x3'/> </controller> <controller type='pci' index='6' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='6' port='0x14'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x4'/> </controller> <controller type='pci' index='7' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='7' port='0x16'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x6'/> </controller> <controller type='pci' index='8' model='pcie-to-pci-bridge'> <model name='pcie-pci-bridge'/> <address type='pci' domain='0x0000' bus='0x01' slot='0x00' function='0x0'/> </controller> <controller type='pci' index='9' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='9' port='0x17'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x7'/> </controller> <controller type='pci' index='10' model='pcie-root-port'> <model name='pcie-root-port'/> <target chassis='10' port='0x18'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x03' function='0x0' multifunction='on'/> </controller> <controller type='virtio-serial' index='0'> <address type='pci' domain='0x0000' bus='0x03' slot='0x00' function='0x0'/> </controller> <controller type='sata' index='0'> <address type='pci' domain='0x0000' bus='0x00' slot='0x1f' function='0x2'/> </controller> <controller type='sata' index='1'> <address type='pci' domain='0x0000' bus='0x08' slot='0x02' function='0x0'/> </controller> <controller type='usb' index='0' model='ich9-ehci1'> <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x7'/> </controller> <controller type='usb' index='0' model='ich9-uhci1'> <master startport='0'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x0' multifunction='on'/> </controller> <controller type='usb' index='0' model='ich9-uhci2'> <master startport='2'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x1'/> </controller> <controller type='usb' index='0' model='ich9-uhci3'> <master startport='4'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x2'/> </controller> <interface type='bridge'> <mac address='00:11:32:fa:6c:d6'/> <source bridge='br0'/> <model type='e1000'/> <address type='pci' domain='0x0000' bus='0x08' slot='0x01' function='0x0'/> </interface> <serial type='pty'> <target type='isa-serial' port='0'> <model name='isa-serial'/> </target> </serial> <console type='pty'> <target type='serial' port='0'/> </console> <channel type='unix'> <target type='virtio' name='org.qemu.guest_agent.0'/> <address type='virtio-serial' controller='0' bus='0' port='1'/> </channel> <input type='tablet' bus='usb'> <address type='usb' bus='0' port='2'/> </input> <input type='mouse' bus='ps2'/> <input type='keyboard' bus='ps2'/> <graphics type='vnc' port='-1' autoport='yes' websocket='-1' listen='0.0.0.0' keymap='de'> <listen type='address' address='0.0.0.0'/> </graphics> <audio id='1' type='none'/> <video> <model type='qxl' ram='65536' vram='65536' vgamem='16384' heads='1' primary='yes'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x0'/> </video> <hostdev mode='subsystem' type='pci' managed='yes'> <driver name='vfio'/> <source> <address domain='0x0000' bus='0x04' slot='0x00' function='0x0'/> </source> <address type='pci' domain='0x0000' bus='0x02' slot='0x00' function='0x0'/> </hostdev> <memballoon model='none'/> </devices> </domain>
  7. Ja das weiß ich, ich kann da nix erstellen weil im XML Ansicht nix drinne steht
  8. hier gibt es kein Formular Ansicht.. ich kann ja keine VM erstellen? was kann ich noch Probieren? vielen Dank
  9. nun habe die PCI um VM umgestellt auf VFIO, habe Server neugestartet.. dann die LSI Megaraid Karte angeklickt...und siehe da...immer dieser komischer Fehler. muss ich da unten was eintragen?
  10. aha, Danke für die Tips, ich werde das so machen die immou ua sind aktiv...
  11. habe eine satt karte eingebunden...und in der VM ausgewählt.. mit einem Start kommt das da: was soll ich machen?
  12. ich kann die sata karte durchschleifen, aber wie mache ich das, wenn ich in die werkzeuge gehe und Systemgeräte das Päckchen mache, dann sieht Unreid die HDs ja nimmer.. wie kann ich dann die Karte mit all den Platten in Syno aktivieren?
  13. beim /dev/sdh sehe ich darunter nix...ich muss keine GB Anzahl einfügen, /dev/disk/by-id/ata-SA400S3_50026B7784DD062E aber das hier funktioniert nicht...denn da muss ich GB eintragen , vielleicht muss ich die ID Nummer einfügen damit das im Unraid-VM weitergetragen wird ? mache ich da was falsch?
  14. hm....ist schwer zum erklären eine Syno, (Synology) hat ja einen Bootloader, den ich mit dem ARC erstelle...so halb Automatisiert...einfach Genial aber sehr sehr Hilfreich. in einer VM wähle ich den ARC.img als reines Sata Laufwerk aus...so kann das teil mal starten darunter dann in den VM Einstellungen kann ich die zusätzlichen Festplatten mithilfe von sdh oder sdu zuweisen...jenachdem Platte man haben will.. die Festplatten sind 8TB; und 4 Stück davon Startet ganz normal...ganz normal Installieren und die Daten sind schon vorhanden.. Emuliert wird ein 3622xs+ oder eine 4022xs+ Rock version läuft auch wie geschmiert...bin ja auch zufrieden nun das Problem an sich, wenn man mehrere Dateien hat, ich rede von xxxx Tausende Fotos usw, wird das ganze eher Lahm, dh ich schalte in der VM das APF und SMB ein, und so kann ich die Dateien ihm die Freigegebenen Ordner Anschauen-Kopieren-Suchen Aber Laaaannngsam!! eine Abhilfe von dem ganzen wären die SSDs, wie schon im Unraid, als Cache für Geschwindigkeit nutze, möchte ich das auch hier nutzen.. indem ich 250GB x2 in der Syno in die mit VM dazu nehme.. müssten eigentlich als SSDs erkannt werden...tut es aber nicht Ich reiche die SSDs direkt durch, indem ich die Unassignet Services als PASSED markieren lasse...und so erkennt die Syno die Laufwerke, aber nicht SSD; sondern alle HDD...also 8x4TB und 250GBx2 als HHD, nicht SSD beim Kollegen der den gleichen Bootloader nimmt, aber Proxmox als HypertV nutzt, der hat damit keinerlei Probleme... die SSDs werden erkannt als SSDs. bei dem AuxXillium Forum, YouTube usw, klappt das auch alles ohne Probleme... SSDs gelten als SSDs, die HDD gelten als HDDs... Ich habe beim meinem Server schon die Karten so zugewiesen, dass Genau die Platten und SSDs am gleichen Kontrolle hängen.. 6Port Sata Dann habe ich ein Sata-RAID Karte reingetan, mit 2,5Zoll Festplatten und SSDs, und so Probiert...und als SCSI oder als Sata hinzugefügt.. leider immer das gleiche die SSD sind HDDs und die HDs sind HHDs meine Frage wieso sieht das ein XSCI oder ein Proxmox und Unraid nicht?!? muss ich da was spezielles einstellen? damit die SSDs so direkt als SSDs weitergereicht werden? vielen Dank
  15. Laaaange nix mehr hier gepostet...Server Lief und Lief und Lief... Dank euch mit eurer Hilfe mal eine besondere Frage kennt das jemand ein Teilautomatisierter Synology Bootloader der ARC,... für mich das absoluter Top Favorit als langjähriger Synology Original Software mit Liz und Originaler Hardware... Habe 4x 8TB Platten als HDD und 2x 250GB SSD als Durchreichen für die Synology 3622xs+ VM Starten soweit alles OK, bis auf die Tatsache dass die SSD nicht als SSDs erkannt sondern als HDD erkannt werden... mit dem ARC Entwickler habe ich schon gesprochen ihm geschrieben...er hatte auch Zugang zu meinem Server...kann sich aber kein Reim machen. sein XCSI aber macht das alles Ohne Probleme.... mit dem HPgen8 (gleiche Hardware) kann das sein dass Unraid hier Probleme macht? eine Fehlermeldung kommt ja beim 1. Starten beim 2. starten ist die dann weg... hat jemand eine Idee?!? wie man das gebacken bekommt zum dass die Synology VM die beiden SSDs erkennt... vielen Dank
  16. Fistudio

    Motioneye

    Fall selber Gelöst eine Datei mit den Namen : motioneye.conf in die .conf Path reinkopieren muss aber leer sein...es darf nix in der Datei stehen, da Docker-Motioneye selber reinschreibt und voala, das App Startet 🙂
  17. Servus Miteinander.. Manche von uns haben sehr viel vom Unifi, Protect - Camera, Firewall die UDM Pro, ua dinge wie Wlan ua sachen... Die unifi, Geräte wie die Kameras und der DVR sind gesperrt, dh NUR Unifi Kameras können dort eingebunden werden... Jemand hat einen Proxy gemacht, der dem unifi-System andere Kameras oder Hersteller vorgaukelt er sei eine Unifi-Kamera die Webseite dazu: https://github.com/keshavdv/unifi-cam-proxy https://forums.unraid.net/forum/76-german-deutsch/?do=add es steht da auch, dass man einen Docker Container machen könnte... jetzt ist meine Frage.. kann das jemand machen? einen Unraid Docking für den Unifi - Proxy?? Ich habe einen Proxy Laufen mit dem ich schon 4 Kameras Importiert habe Linux System als VM - Ubuntu; vielen Dank
  18. Fistudio

    Motioneye

    Servus Miteinander habe schon so mancher erlebt mit dem Unraid.. aber irgendwie startet das Motioneye nicht mehr.. hier gibt die Log immer den gleichen Fehler aus RITICAL:root:failed to read settings from "/etc/motioneye/motioneye.conf": [Errno 2] No such file or directory: '/etc/motioneye/motioneye.conf' CRITICAL:root:failed to read settings from "/etc/motioneye/motioneye.conf": [Errno 2] No such file or directory: '/etc/motioneye/motioneye.conf' CRITICAL:root:failed to read settings from "/etc/motioneye/motioneye.conf": [Errno 2] No such file or directory: '/etc/motioneye/motioneye.conf' INFO: hello! this is motionEye server 0.42 CRITICAL: config directory "/data/etc" does not exist or is not writable INFO: hello! this is motionEye server 0.42 CRITICAL: config directory "/data/etc" does not exist or is not writable INFO: hello! this is motionEye server 0.42 CRITICAL: config directory "/data/etc" does not exist or is not writable wo ist denn /etc/ die .config Datei hätte ich aber wo soll ich das reinkopieren? vielen Dank
  19. Welche Grafikkarte arbeitet mit dem Unraid zusammen? Ich habe 3 Grafikkarten zur verfügung eine Nvidia 1050ti, 4GB eine Nvidia GT 730, 4GB und die grosse Amd Radeon 580 mit 8GB mein System nimmt die 1050ti automatisch...die Grafikkarte sehe ich in den Einstellungen mit dem Treiber die anderen beiden sind in (Systemgeräte) ersichtlich, Grafik wie das Audio nur einbinden kann ich keine,...ich täte gerne bisschen Gamen, Grafikkarte gibt immer Fehler...Fehler...egal welche ich nehme VNC geht,!! VNC mit Grafikkarte geht Schu Nummer... wieso?
  20. Dann müsste ich bei meinen ganzen shares die Namen eintragen #unassigned_devices_start #Unassigned devices share includes include = /tmp/unassigned.devices/smb-settings.conf #unassigned_devices_end [global] vfs objects = catia fruit streams_xattr fruit:nfs_aces = no fruit:zero_file_id = yes fruit:metadata = stream fruit:encoding = native spotlight backend = tracker [data01] path = /mnt/user/data01 veto files = /._*/.DS_Store/ delete veto files = yes spotlight = yes
  21. Servus Miteinander, habe seit einigen Tagen das Protokoll voll.... hat das mit dem Docker zum tun? bei einem Neustart ist der Wert wieder so gut wie leer? wie kann man das im Laufenden Betrieb leeren? was macht den Wert da voll?
  22. Servus Miteinander Ich bin noch nicht ganz so alt mit einem Unraid, habe aber einen sehr grossen und Schnellen Server zusammengebaut.. 140GB EEC Ram, 3Ghzx4 mit jeweils 16 Kerne a 128 Threads....2x 10GBE Dual Karte und überall Glasfaser im Haus, mit dem unifi als Router und Firewall mit 6Ghz WLan. dennoch ist der Mac Langsam wirklich Langsam....Sau Langsam...Extrem Langsam mein Mac hat USB 3 to 2,5 Lan zu dem unifiXg Switch mein Anliegen SMB, von Mac zum Unraid Array nur Angucken kostet mindestens 15-20 Sekunden bis ich da mal was sehe...wenn mehrere Ordner drinnen sind dauert das Minuten...teilweise nicht machbar. SMB, von Mac zum Unrauf ZFS gleicher server ist im Augenblick da... SMB von meinem iPad zum Unraid Server über Wlan ist Superschnell...Array sowie ZFS Samsung Telefon über Wlan zum Unraid-Array geht augenblicklich... aber alle Macs hier haben ihre Probleme mit dem SMB zum Unraid. NUR wenn ich das APP Fileexplorer Pro starte, den Unraid als SMB Mounte und Dort dann was Kopiere isses Schnell im Array sowohl auch im ZFS.. habe ich bei meinem Mac was falsch eingestellt? Wlan und LAN gleichermaßen Probiert... habe versucht 3 LanBundle Ports zu machen...gleiches Ergebnis...extremst Langsam!! Ich weis nicht mehr weiter... Momentan mal nutze ich das App Fileexplorer Pro, um auf meine Fotos oder sonstiges zu bearbeiten... hat jemand eine Idee?