Ich habe seit längerem eine ziemlich performante Maschine im Einsatz
Ziel war:- Möglichst schnelle Arbeits-Desktops
- Mindestens einen GPU-Arbeitsplatz (weniger weil ich viel GPU-Performance wirklich brauche sondern einfach weil OpenGL gebraucht wird)
- Möglichst performante Anbindung an eine spezielle Anwendung welche von tiefer Latenz enorm profitiert (Inter-Host-Kommunikation ist um ein vielfaches schneller als über LAN)
- Entlastung der USV durch eine performante Maschine weniger
Aufbau:
- ESXi 6.5 u(irgendwas)
- Supermicro Barbone
- XEON E5 v3 Plattform (Single CPU-Board,1650 v3 3.5GHZx6)
- AMD GPU --> Durchgereicht an W10
- Teradici Tera2 Hostcard
- Intel P4800X als Datenspeicher
- spärter noch RAID-Karte als High-Speed Local-Backup+Test-VMS's etc.
Meine Erfahrungen sind etwas durchzogen.Das austesten in welche Steckplätze nun was rein kommen muss war super nervig. Irgendwann habe ich zum Glück eine Kombi gefunden die tut.
Die Performance ist grandios sowohl der GPU-VM als auch die VM's, abartig was die intel mit der hochtaktenden CPU an "gefühlter" Performance rausballert (Programmstarts usw.).
Ursprünglich wollte ich die P4800X durchreichen um Dedupe zu nutzen und wieder dem Host als NFS zu Verfügung stellen.
Ergebnis: Das frisst die ganze CPU-Leistung, auch ohne Dedupe. Das Ding bringt einfach zu viel Leistung. Skaliert aber wunderschön mit der Anzahl Kerne. Vielleicht kommen ja in kürze mal performante RAID-Systeme oder ich muss vSAN nehmen oder mit dem Risiko leben (kann ich bei Desktops mittlerweile gut, bei X-Gigabyte pro Sekunde Restore-Geschwindigkeit bei Backups auf Local-Storage kann ich persönlich damit leben. Wenn der Host abraucht dauerts mit 10Gbit halt etwas länger)
Es gibt allerdings einen ultra-nervigen Cave-Eat. Und zwar wird sporadisch (mehrmals am Tag bis stündlich) die Verbindung getrennt. Die üblichen Verdächtigen wie Energiespareinstellungen auf ZeroClient, Bildschirm, VM, Host (also überall) natürlich schon getätigt. Wäre alles noch tolerierbar wenn es mit Neuverbindung des Zero mit der Tera2 Karte getan wäre. Aber er stellt dann auch auf eine Standard-Auflösung auf 640x480 um, das Bild ist dann völlig unbrauchbar auf dem Screen. Das Umstellen auf die korrekte Auflösung ist dann ein Blindflug
Auch schaltet es sehr selten auf die GPU vom ESXi um (als Zweitbildschirm konfiguriert). Entfernen lässt sie sich ja nicht. Man muss dann wieder via HostClient auf die Maschine drauf und umstellen oder umstöpseln. Ist natürlich prickelnd wenn der Server im Rack ca. 100m weiter weg ist.
Naja, mittlerweile habe ich die Geduld fast verloren. Die Kiste steht schon Monate rum. Werde maximal noch einen Tag investieren. Wenn der Corana-Krempel so weiter geht, legen wir bald die Firma lahm, dann habe ich Zeit zum erneuten testen. Bis jetzt fehlte mir dazu die Lust.
Wens dann nicht klappt, wird die Kiste die Arbeitsplatz-Desktops ablösen und ich kaufe für mich einen neuen und lebe weiterhin mit der lahmen Performance einer Anwendung. Oder beisse in den sauren Apfel und kaufe ne Grid oder etwas vergleichbares sowie PCoIP Offload. Da nerven aber die Mietkosten.
Eigentlich warte ich ja noch auf vSphere 7 bevor ich es produktiv nehmen möchte, aber die Verzögerungen sind irgendwie einfach zu lang.
Auf alle Fälle würde ich ausschliesslich Server-Hardware verwenden, ist da schon mühsam genug. Die halten sich in der Regel aber an Spezifikationen. Ich persönlich habe schon lange keinen Nerv (mehr) für Consumer-Hardware.