Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
darf der Hersteller einfach Passthrough entfernen?
darf der Hersteller einfach Passthrough entfernen?
Hallo,
wir haben aktuell das Problem, dass VMWare anscheinend die Pass-Through-Funktion von Grid Karten (echtes vDGA kein vGPU Profil), einfach durch ein vGPU Profile ersetzt hat.
In keinem Dokument oder Release Notes wurde dieser, für uns sehr tiefgreifende, Eingriff in die Funktion erwähnt.
In der HCL steht der ESXi ebenfalls in Version 6U1 unter vDGA mit Grid K1 Karten.
Wir können mit unserer Essentials Lizenz die vGPU Treiber nicht nutzen - vDGA (Passthrough der Kerne) hat bis Version 5.5 immer ohne Probleme funktioniert.
Der Hersteller kann doch nicht einfach aus vDGA > vGPU machen... Haben vielleicht noch andere hier dieses Problem? Ich gehe davon aus, dass die betroffene Anzahl an Kunden sehr klein ist, da kaum jemand mit Essentials Lizenz GRID Karten besitzt.
Grüße
Alex
wir haben aktuell das Problem, dass VMWare anscheinend die Pass-Through-Funktion von Grid Karten (echtes vDGA kein vGPU Profil), einfach durch ein vGPU Profile ersetzt hat.
In keinem Dokument oder Release Notes wurde dieser, für uns sehr tiefgreifende, Eingriff in die Funktion erwähnt.
In der HCL steht der ESXi ebenfalls in Version 6U1 unter vDGA mit Grid K1 Karten.
Wir können mit unserer Essentials Lizenz die vGPU Treiber nicht nutzen - vDGA (Passthrough der Kerne) hat bis Version 5.5 immer ohne Probleme funktioniert.
Der Hersteller kann doch nicht einfach aus vDGA > vGPU machen... Haben vielleicht noch andere hier dieses Problem? Ich gehe davon aus, dass die betroffene Anzahl an Kunden sehr klein ist, da kaum jemand mit Essentials Lizenz GRID Karten besitzt.
Grüße
Alex
Eigentlich müsste das nach wie vor beides gehen. Allerdings musst Du bei nem Host-Update schon die Karten wieder als PCI-Passtrough auf dem Host freigeben und den VM's neu zuweisen. Würde ich jetzt zumindest behaupten, weil ich keine Grid-Karten habe.
Ansonsten: Wie hat sich das bewährt? Habe mir das schon öfter für CAD-Maschinen überlegt.
Ansonsten: Wie hat sich das bewährt? Habe mir das schon öfter für CAD-Maschinen überlegt.
in 5.5 waren die VMs mit PCoIP durchaus auf dem Stand von nem FatClient!
Habe seit November einen Case bei VMWare auf - man kann sich nicht erklären, warum die VMs nicht starten können, wenn Pass-Through an ist.
Bekomme immer "Device already in use" - die haben im Eifer des Gefechts, die Essentials-Kunden schlichtweg vergessen...

Habe seit November einen Case bei VMWare auf - man kann sich nicht erklären, warum die VMs nicht starten können, wenn Pass-Through an ist.
Bekomme immer "Device already in use" - die haben im Eifer des Gefechts, die Essentials-Kunden schlichtweg vergessen...

Irgendwie glaube ich das nicht. PCI-Passtrough hat eigentlich wenig bis nix damit zu tun ob Essentials oder Enterprise ist.
Hast die Angaben mal geprüft?
1. Schauen ob der Host tatsächlich für PCI-Passtrough eingeschalten ist und die GPU auch tatsächlich für PT freigegeben ist
2. Falls nicht, entfernen der GPU's aus den VM's, Host durchstarten und Freigabe von Anfang an durchspielen.
Halt immer unter der Voraussetzung, dass die GRID's auf die gleiche weise wie andere PCI Geräte durchgereicht werden wenn es um Direktnutzung geht.
Hast die Angaben mal geprüft?
1. Schauen ob der Host tatsächlich für PCI-Passtrough eingeschalten ist und die GPU auch tatsächlich für PT freigegeben ist
2. Falls nicht, entfernen der GPU's aus den VM's, Host durchstarten und Freigabe von Anfang an durchspielen.
Halt immer unter der Voraussetzung, dass die GRID's auf die gleiche weise wie andere PCI Geräte durchgereicht werden wenn es um Direktnutzung geht.
OK also hier die Einstellungen des ESXi und der VMs:
Hier die Logs dazu:
http://pastebin.com/jXGg1VdS
Um 2016-02-08T14:54:50.251Z starte ich Test-VM1
Um 2016-02-08T14:55:18.697Z starte ich Test-VM2
Wie man sieht, startet die erste normal, die zweite nicht mehr:
2016-02-08T14:55:18.983Z info hostd[49AC2B70] [Originator@6876 sub=Vimsvc.ha-eventmgr] Event 400 : Cannot power on test2 on esxi-06 in ha-datacenter. A general system error occurred:
2016-02-08T14:55:18.983Z info hostd[49AC2B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/5253cf40-7249c04e-152e-90b11c590262/test2/test2.vmx] State Transition (VM_STATE_POWERING_ON -> VM_STATE_OFF)
2016-02-08T14:55:18.983Z info hostd[49AC2B70] [Originator@6876 sub=Vimsvc.TaskManager] Task Completed : haTask-459-vim.VirtualMachine.powerOn-267993 Status error
vSphere Client:
Beim ESX-Host ist ein Fehler beim Einschalten der virtuellen Maschine test2 aufgetreten.
Das Starten der virtuellen Maschine ist fehlgeschlagen.
Das Gerät 8:0.0 wird bereits verwendet.



Hier die Logs dazu:
http://pastebin.com/jXGg1VdS
Um 2016-02-08T14:54:50.251Z starte ich Test-VM1
Um 2016-02-08T14:55:18.697Z starte ich Test-VM2
Wie man sieht, startet die erste normal, die zweite nicht mehr:
2016-02-08T14:55:18.983Z info hostd[49AC2B70] [Originator@6876 sub=Vimsvc.ha-eventmgr] Event 400 : Cannot power on test2 on esxi-06 in ha-datacenter. A general system error occurred:
2016-02-08T14:55:18.983Z info hostd[49AC2B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/5253cf40-7249c04e-152e-90b11c590262/test2/test2.vmx] State Transition (VM_STATE_POWERING_ON -> VM_STATE_OFF)
2016-02-08T14:55:18.983Z info hostd[49AC2B70] [Originator@6876 sub=Vimsvc.TaskManager] Task Completed : haTask-459-vim.VirtualMachine.powerOn-267993 Status error
vSphere Client:
Beim ESX-Host ist ein Fehler beim Einschalten der virtuellen Maschine test2 aufgetreten.
Das Starten der virtuellen Maschine ist fehlgeschlagen.
Das Gerät 8:0.0 wird bereits verwendet.
Nun, soweit mir bekannt, musst Du einzelne Partien der Karte durchreichen. Es müsste also jeder Prozessor einen eigenen Adressbereich haben. Dieser kann dann auch nicht mehr als einmal zugeteilt werden sonst wäre es ja wieder vGPU.
Sprich: Weist Du zweimal die gleiche PCI Adresse zu, gibts nen Fehler. Gab grad letzhin mal jemand der was ähnliches hatte. Auf einer Maschine klappte es, auf der anderen nicht. Baugleich.
Sprich: Weist Du zweimal die gleiche PCI Adresse zu, gibts nen Fehler. Gab grad letzhin mal jemand der was ähnliches hatte. Auf einer Maschine klappte es, auf der anderen nicht. Baugleich.
UrsDerBär hat geschrieben:Nun, soweit mir bekannt, musst Du einzelne Partien der Karte durchreichen. Es müsste also jeder Prozessor einen eigenen Adressbereich haben. Dieser kann dann auch nicht mehr als einmal zugeteilt werden sonst wäre es ja wieder vGPU.
Sprich: Weist Du zweimal die gleiche PCI Adresse zu, gibts nen Fehler. Gab grad letzhin mal jemand der was ähnliches hatte. Auf einer Maschine klappte es, auf der anderen nicht. Baugleich.
Sieht man in den Screens oben eigentlich. Device 0000:08:00.0 und Device 0000:07:00.0 sind den beiden VMs zugewiesen. Analog dazu nochmal ein weiterer Screenshot:

Wir haben das Szenario bereits min. 5 mal durchgespielt und auch in einer Remote-Session zusammen mit VMWare - Ergebnis war immer das gleiche: Ahnungslosigkeit komplett.
Das Ganze liegt jetzt seit 2 Monaten beim VMWare Engineering - es tut sich aber absolut nichts!
Dieses Screenshot wollte ich... Sieht leider alles normal aus.
Da ist guter Rat wirklich teuer. Meist ist es aber leider so, dass der PCI-Passthrough-Kram in dem ersten oder den ersten beiden Releases einer Version nicht wirklich gscheit funktionieren. War fast immer so. Eventuell muss man da einfach wieder abwarten
Keine Ahnung was die immer daran rumschrauben, dass es erstmal nimmer funktioniert. Schient als würden Sie jedes mal nen alten Modulstand mit reinnehmen.
Da ist guter Rat wirklich teuer. Meist ist es aber leider so, dass der PCI-Passthrough-Kram in dem ersten oder den ersten beiden Releases einer Version nicht wirklich gscheit funktionieren. War fast immer so. Eventuell muss man da einfach wieder abwarten

Keine Ahnung was die immer daran rumschrauben, dass es erstmal nimmer funktioniert. Schient als würden Sie jedes mal nen alten Modulstand mit reinnehmen.
Moin,
bei unseren Tests mit ESXi 6.0 vor einigen Monaten bezüglich vDGA und vCPU gab es keinerlei Probleme. Ich glaube kaum, dass mit Update 1b auf einmal die Funktion verändert wurde.
Hast du evtl. noch eine VIB auf dem Host installiert? Passiert sehr gerne im Eifer des Gefechts.
Ansonsten nimm allen VMs die Pass-Through-GPU weg, starte den Host neu und weise dann danach einer VM wieder eine GPU zu.
bei unseren Tests mit ESXi 6.0 vor einigen Monaten bezüglich vDGA und vCPU gab es keinerlei Probleme. Ich glaube kaum, dass mit Update 1b auf einmal die Funktion verändert wurde.
Hast du evtl. noch eine VIB auf dem Host installiert? Passiert sehr gerne im Eifer des Gefechts.
Ansonsten nimm allen VMs die Pass-Through-GPU weg, starte den Host neu und weise dann danach einer VM wieder eine GPU zu.
Whitemoon hat geschrieben:Moin,
bei unseren Tests mit ESXi 6.0 vor einigen Monaten bezüglich vDGA und vCPU gab es keinerlei Probleme. Ich glaube kaum, dass mit Update 1b auf einmal die Funktion verändert wurde.
Hast du evtl. noch eine VIB auf dem Host installiert? Passiert sehr gerne im Eifer des Gefechts.
Ansonsten nimm allen VMs die Pass-Through-GPU weg, starte den Host neu und weise dann danach einer VM wieder eine GPU zu.
Mit den nVidia Treibern läuft vSGA und vGPU (Testzeitraum mit Enterprise Plus) - die VIBs sind nicht installiert. Dein Workaround haben wir als erste Maßnahme bereits getestet.
Hast du Grid Karten in Dell Servern? Wenn ich jemanden finde, bei dem es läuft, wäre mir schon sehr geholfen.
UrsDerBär hat geschrieben:Auch nicht wenn Du keine Lizenz eingibst und so im Demo Enterprise modus bist? Dann hat es nämlich definitiv nix mit der Version zu tun.
Jop - war alles im Testzeitraum und komplett ohne Treiber. Da muss das Durchreichen der Kerne 100% laufen... also ist nun entweder die Karte defekt oder es ist n Software-Problem. Leider hab ich nicht mal eben n paar Grid-Karten hier liegen.
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 2 Gäste