Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

WS10 und SSD

Hilfe bei Problemen mit der Installation und Benutzung der VMware Workstation und VMware Workstation Pro.

Moderatoren: Dayworker, irix

Member
Beiträge: 155
Registriert: 31.01.2014, 12:08

WS10 und SSD

Beitragvon lord_icon » 31.01.2014, 13:25

Moin,

ich habe auf einen Server mit 64GB RAM und 2 pys. CPU´s (2x Intel Xeon 6-Core E5-2440 2,4GHz).

Leistung ist also da.
von den allgemeinen Magnet-Platten ist auch noch eine SSD verbaut.
Auf den Host-System bringt diese mittels AS SSD die erwünschten Werte von ca. 500MB/250MB Lesen/Schreiben.

In Workstation10 hab ich nun ein Win7 Gast angelegt, wo dessen Festplatte (vmdk-Datei) auf der SSD liegt. Alleine. Sprich. Keine weiteren Datein die ggf. den Gast die Leistung klauen könnte.

vllt. sollte ich hier noch hinzufügen das die vmdk mittels "VMware vCenter Converter Standalone Client" vom laufendem System erzeugt worden ist.
Die Datei/Festplatte ist somit eine Spare-Platte (wächst also mit) und als Singel-File.
Vllt. ist diese Konstellation für eine SSD schon ungünstig (?).
Mehrere Datei = mehrere Zugriffe = schnelle Datentransferraten ???
Das entzieht sich aktuell so meiner Kenntnis und würde auch sehr viel Zeit kosten, das produktiv testen zu können. Aber vllt. kennt sich ja da schon jemand aus, sodass ich mir das sparen kann.

Also:
Der Gast ist ein Win7-Pro System mit 8GB Ram und 1 x 6Core CPU.
Bei den CPU-menge liegt aber schon ein Problem vor. mit 6 Core ruckelt die Maus. Springt also und die Maschine läuft merklich langsamer. Je mehr ich reingebe (8Cores bis 16 Cores) desto schlimmer wird es.
Aktuell bin ich nun bei 1 x 3Cores, was zwar immer noch kleinere Hänger verursacht... aber es wenigsten ein Benchmarktest zulässt.
K.a. wo hier das Problem liegt. Ursprünglich lief Windows auf 8GB RAM und 1 x 4Core CPU. Aktuell bin ich also langsamer als das ursprüngliche System.

Letztendlich liegt mein größtest Problem aber bei dem Datendurchsatz von der SSD.
Eingestellt ist SCSI also Controller. In der config-File von der Maschine hab ich auch schon den Eintrag mit der scsi0:0.virtualssd = 1 drin.
Das hat schon mal einen gehören Schub gegeben. Von ca. 160/84 auf 250/116. von 470/225 aber noch weit entfernt. Die 4K-64Thread sind sogar noch unterirdischer. Und letzendlich sind das ja die wichtigsten/auschlaggebendens werte.

Hat einer eine Idee was ich noch testen könnte ?

Da ich die SSD eh nur für diesen einen Gast vorgesehen habe, wäre es noch eine Möglichkeit, die Platte direkt einzureichen und die vmdk Datei damit zu umgehen.
Nur hier fragt mich ja WS10 aber nach einen Speicherort. Ich vermute für die Auslagerung oder Dateiveränderungen. Nur die müsste ich ja dann wieder auf eine langsame Magnet-Platte legen... k.,a. wie sich das auf die Performace auswirkt.

So... dann lass ich euch mal zu Wort kommen ;-)

King of the Hill
Beiträge: 13656
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 31.01.2014, 17:26

In der VMware-Welt erhält eine VM nur in zwei Fällen ihre Rechen- bzw entsprechende Laufzeit:
  • die für die VM konfigurierte Kernanzahl ist auf dem Host auch frei und nicht durch andere Prozesse belegt
  • die VM erhielt aufgrund unzureichend freier CPU-Kerne auf dem Host einen Bonus für den nächsten RR-Durchlauf
Die Chancen für eine performante VM-Ausführung steigt also mit einer vCPU-Verringerung. In der Virtualisierung mit VMware ist es daher absolut kein Fehler, eine VM nur mit Single- oder maximal Dualcore zu konfigurieren.

Als weitere Besonderheit von VMware-Produkten ist die vollständige Virtualisierung der Gast-HW zu nennen. In der VM kommt deshalb als kleinster, gemeinsamer Nenner noch der Pentium3-Chipsatz BX440 mit seiner PIIX4E-Southbridge und mehreren Erweiterungsslots für Netzwerk und SCSI/SAS/Sata-Controller zum Einsatz. Die Massenspeicher-Controller in der VM werden nur in SW abgebildet werden und ihre Transferleistung ist damit hochgradig von der weiteren Host/Gast-Auslastung abhängig. Speziell beim Schreiben innerhalb der VM sind deshalb dauerhafte Datenraten von 20-33% Prozent der Nominalrate auf dem Host als völlig normal zu nennen.

Nicht vergessen sollte man beim Einsatz von SSDs, daß deren IOPS meist nur durch hohe Threadwerte erreicht werden können und die treten in der Realität nur selten auf. Für Sata mit aktivem NCQ wurde meines Wissens im Gegensatz ohne NCQ, sprich IDE mit Queuetiefe=1, immerhin eine maximale Queuetiefe von 32 spezifiert. Wenn deine SSD also ihre fabelhaften Werte nur mit 64 Threads erreicht, wird diese immer langsamer als angegeben sein.

Der VMX-Eintrag "scsi0:0.virtualssd = 1" bzw SSD-Setting in den VM-Einstellungen soll eigentlich weniger der Geschwindigkeit in der VM sondern eher dem Gast-OS zur Aktivierung entsprechender SSD-Optionen bewegen. Ab Win7 (eventuell auch schon mit Vista) wird daher beispielsweise automatisch die Defragmentierung abgeschaltet, da SSD-Zellen bekanntlich nur eine begrenzte Anzahl von Schreibzyklen verkraften und bei einer SSD durch das "Wear-Leveling" sowieso keine feste Zuordnung von Plattensektor zu Flashzelle besteht.

Wenn du einen Datenträger als "physical Device" verwenden willst, darf das Host-OS darauf keinen Zugriff haben. Das mußt du manuell in der Win-Datenträgerverwaltung oder auf der CMD vornehmen, ansonsten würden Host und Gast gleichzeitig auf diesen Datenträger zugreifen können und dadurch im günstigsten Fall nur für Störungen oder auch Datenverlust sorgen.
Mit aktiver Einstellung "physical Device" würden alle Einstellungs- und Log-Dateien dieser VM auf einem anderen Datenträger gespeichert werden und das "physical Device" selbst würde ausschließlich dem Gast zur Verfügung stehen.


Abschließend stellt sich mir die Frage, weshalb man Server-HW mit Hexacore-Xeons E5-2440 nicht unter ESXi5.x laufen läßt. Der ESXi umgeht viele Probleme schon allein dadurch, daß der ESXi selbst das Betriebssystem ist und nicht noch auf irgendwelche Nicklichkeiten des Linux- oder Windowskernels Rücksicht nehmen muß. Während beim ESXi für gewöhnlich im Gast 95% der Systemleistung erreichbar sind, kann bei den Desktopprodukten höchstens 75% erreicht werden, den Rest schluckt immer das Host-OS.

Member
Beiträge: 155
Registriert: 31.01.2014, 12:08

Beitragvon lord_icon » 01.02.2014, 13:52

vCPU:
Das ist Interessant. Ich bin wie bei XEN davon ausgegangen, dass je mehr vCPU's durchgereicht werden... dessto mehr CPU-Zeit bekommt der Gast.
Der Gast der hier nun betrieben werden soll, braucht aufgund seiner Berechnungsprogramme viel CPU Leistung.
Ursprünglich war es vorgesehen, dass der gesamte Server nur das normale BS drauf hat und dann die Vektorenberechnungssoftware. Dies hatte ich auch schon so weit umgesetzt. Alle CPU's waren im vollen Anschlag wenn ein Job abgesetzt worden war.
Es zeigte sich aber nach 1 Woche Probezeitraum, dass diese Berechnungen in der Stunde evtl. mal für 2-5 Minuten einen 100%tigen Peak bekommen. Rest der Zeit pennt der Server.
Also sollte dieser besser ausgenutzt werden indem er Virtualisiert wird.
VM Workstation war hier der naheliegenster Vertreter, da a: Lizenz bereits durch anderen Server vorhanden(nur zum Test, ob ausreichend) und b: ausreichend Erfahrung mit Umgang dieser Software vorhanden ist.

Deshalb mal Frage 1:
Wie kann ich die Maximale CPU Leitung an den Gast durchreichen.
1 CPU mit 2 Cores?
Dieser Gast soll abolute Priorität bekommen. Deine beiden Punkte

die für die VM konfigurierte Kernanzahl ist auf dem Host auch frei und nicht durch andere Prozesse belegt
die VM erhielt aufgrund unzureichend freier CPU-Kerne auf dem Host einen Bonus für den nächsten RR-Durchlauf

sind klar/logisch. Wobei mir das mit den Bonus aus neu ist.

Oki. Zu deiner 2ten Frage:
weshalb man Server-HW mit Hexacore-Xeons E5-2440 nicht unter ESXi5.x laufen läßt.

Preislich ein Problem. Für letztes Jahr wurde halt nur ein gewisser Buget für die IT vorgesehen. Dieses wurde zu 95% in den Server gesteckt. Prinzipell wurde das gewünschte ja auch erreicht, da die Software wie ursprünglich geplant auf den Host laufen sollte.
Nur jetzt ist 2014... neue Investitionen stehen an und da versucht man mal in die Richtig Green-IT zu gehen... mittels Virtualisierung.
ESXi hab ich gestern von VMWare aber mal angefordert und heute auch schon bekommen. Hab jetzt 60 Tage Trail zu der Testphase. Da werd ich mir das mal anschauen wie das läuft.

Dumm ist halt nur der sehr hohe Preis... und das aktuell keinerlei Erfahrung mit dieser Software besteht. d.h. für mich als Admin heißt das: Wochenendarbeit + 2 neue Platten die dann am Montag das alte System wieder anfahren. Auf den neuen 2 Platten läuft grad ESXi.
Den ersten negativen Punkt hab ich aber schon gefunden, der vvlt. schon das k.o kriterium bedeutet. Ich habe (bzw. ich finde) aktuell keine Möglichkeit die Raid-Controller Software einzuspielen. Ausfälle werden mir also nicht mitgeteilt... und das kann/draf nicht sein. Wobei ich hier vvlt. mal ein Ticket an Vmware eröffne, ob es nicht ein howto hierzu gibt.[/quote]

King of the Hill
Beiträge: 13058
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 01.02.2014, 15:58

ESXi installiert man auf einem USB/SD Karten oder schneidet sich aus seiner vorhandenen Diskgroup eine 10GB Partition. Zur Laufzeit laeuft der Hypervisor in einer RAM Disk und somit spielt die Geschwindigkeit des Installationsmedium keine Rolle.

Der Spass beginnt bei 389,- + 58,- fuer das obligatorische erste Jahr an Softwarepflege. Gemessen an den normalen Lizenzkosten verschenkt der Hersteller hier seine Software :). Aber wenn man 0,- Euro hat dann ist 1,- zum ausgeben halt viel.

Nach vielen Jahren kann ich sagen um mir Virtualsierung Geld zu sparen muss erstmal investiert werden.

Gruss
Joerg

King of the Hill
Beiträge: 13656
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 02.02.2014, 13:31

Verstehe ich deine Postings richtig, daß du ein im Thread Newbie: im vSpare Client keine Plugins wie Updatemanager genanntes SuperMicro-MB (http://www.supermicro.com/products/motherboard/Xeon/C600/X9DBL-iF.cfm) zum Stückpreis von gut 300Euro vorliegen hast, in dieses dann zwar 2 CPUs zum Stückpreis von ~800Euro bei nur 64GB RAM steckst und dann hohe Preise für vSphere ansprichst? :roll:


Um dir deine Vorstellungen mal etwas zu richten. Bei Virtualisierung geht es vorrangig um Konsolidierung also Zusammenlegen von bisher nur im Leerlauf befindlicher Rechner/Server auf wenige verbleibende Rechner, die dann mit höherer Auslastung und einem dadurch bedingten, höheren Energiebedarf betrieben werden oder um die Unabhängigmachung von älterer HW. Von der Warte währest du mit einer Hexacore-CPU und dafür 96 bis 128GB RAM wesentlich besser aufgestellt, denn im Leerlauf befindliche VMs benötigen kaum CPU-Leistung und du könntest mit mehr installiertem RAM auch wesentlich mehr VMs gleichzeitig laufen lassen, was die Konsolidierungsrate deutlich positiver beeinflußt.
Wenn du dagegen SW hast, die zwingend Multicore benötigt oder auf maximale Rechenleistung aus ist, bist du an die virtuellen Welt leider mit falschen Voraussetzungen herangetreten. Hier im Forum sind auch mehrere User, die bei Systemen mit mehr als Quadcore-Bedarf diese inzwischen garnicht mehr virtualisieren sondern nur noch als Echtblech laufen lassen.

Virtualisierung hat halt ihre Grenzen, aber man kann damit auch gut leben. Ich hatte häufiger mal mehrere Singlecore-VMs unter einem älteren, inzwischen eingestellten VMware-Produkt für BOINC rechnen lassen, dabei aber keine direkten Vergleiche zwischen Host und Guest gemacht. Wozu das Host-OS verwüsten bzw mit SW-Tests belasten, wenn man das ganz gefahrlos auch in einer VM machen kann und Vergleichswerte zur zu erwartenden Rechenperformance findet man in den BOINC-Projekten genug. Die VMs waren und sind jedenfalls immer deutlich langsamer. Den Rest hatten zu gleichen Teilen sowohl das damalige 32bittige XP als Host-OS als auch ein nicht nativ vorliegender Quadcore (Core2Quad) verschlungen. Auch eine neuere CPU wird daran nichts richten, da sich einige die Performance wesentlich verbessernde CPU-Funktionen nur mit neueren Betriebssystem aktivieren lassen und diese Betriebssysteme ihrerseits auch mehr Grundlast erzeugen.

Member
Beiträge: 155
Registriert: 31.01.2014, 12:08

Beitragvon lord_icon » 02.02.2014, 13:42

Dayworker hat geschrieben:Verstehe ich deine Postings richtig, daß du ein im Thread Newbie: im vSpare Client keine Plugins wie Updatemanager genanntes SuperMicro-MB (http://www.supermicro.com/products/motherboard/Xeon/C600/X9DBL-iF.cfm) zum Stückpreis von gut 300Euro vorliegen hast, in dieses dann zwar 2 CPUs zum Stückpreis von ~800Euro bei nur 64GB RAM steckst und dann hohe Preise für vSphere ansprichst? :roll:


Korrekt. Das sind die Basiselemente... Platten+Controller mal aussen vor gelassen.

Der von mir "bemängelte" hohe Preis von vSphere war in relation zum Buget gemeint.
Denn aktuell lässt sich das nicht mit einbringen.
Den Post von irix hab ich zwar gelesen... aber nicht wirlklich nachvollziehen um welche Version es hier geht. Aktuell bin ich bei der Enterprise Plus-Variante die 4stellig ist.
Aber hier werde ich Montag mal den Vertrieb anrufen und mich mal beraten lassen.

Als neuling in VMWare ist die HP mit Ihren hunderten Produkten mehr als unübersichtlich. Zumal man erstmal beim urschleim anfängt und sich einlesen muß, was z.b. TF im unterschied zum HA macht.

P.s. Was Virtualsierung macht und wofür es eingesetzt wird, ist bekannt. Aktuell fahren wir mit XEN.

King of the Hill
Beiträge: 13058
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 02.02.2014, 13:45

Die Gruende fuer oder gegen Virtualisierung sind so vielfaeltig das man da pauschal garnichts sagen sollte.

- Ich hab Hosts mit einer VM
- Ich kenne Kunden welche HPC VMs haben
- Wir evaluieren gerade eine Loesung da rennt eine VM auf dem Hobel und bekommt knapp 40 Cores.

Wie gehabt.. jeder kann und keiner muss.

Gruss
Joerg

Member
Beiträge: 155
Registriert: 31.01.2014, 12:08

Beitragvon lord_icon » 02.02.2014, 13:52

lord_icon hat geschrieben:
Dayworker hat geschrieben: bei nur 64GB RAM steckst


Nachtrag... DAS MB kann ja mehr fressen. Aktuell sind mehr als 64GB nicht notwendig. Sollte es irgendwann mal so sein, dass der Server wirklich zur Virtualisierung eingesetzt wird, kann man da recht einfach nachrüsten.

Zur Erinnerung. Der KAsten war ursprünglich nie zur Virtualisierung angedacht. Es hatte nur eine einzige Aufgabe: Ein sehr CPU lastigen Prozess schnellstmöglich abwickeln.
Hat sicherlich jeder schon mal im TV gesehen... so ne Vektorprogramme, wo man einen Schraubendreher oder ein Flugzeug oder ähnliches proektieren kann.
Die Software wird hier auf einen Sever installiert... die Clients schicken die Anfragen zum Server und erhalten die Berechnungssummen zurück. Ähnlich ThinkClients... halt nur auf einen prozess bezogen.

Der Server wird hier aber nur kurzfristig belastet... sodass ich die geplanten PC-Clients Rollouts ggf. nicht umsetzen muß sondern nur Think-Client Software kaufe und die alten Client PC's per RPD zum Server verbinden lasse.
Das würde Preislich wieder machbar sein... Server aufstocken .... VWMare kaufen und ab geht die Virtualisierung.

Nur muß ich halt einige Dinge sicherstellen. Da die Firma wo ich zuarbeite dann auch noch 3 Standorte hat, gefällt mir die FT-Funktion recht gut.
Aber hier reden wir dann von 2015 und mehr.

King of the Hill
Beiträge: 13058
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 02.02.2014, 13:53

lord_icon hat geschrieben:Den Post von irix hab ich zwar gelesen... aber nicht wirlklich nachvollziehen um welche Version es hier geht. Aktuell bin ich bei der Enterprise Plus-Variante die 4stellig ist.


Wenn du was nicht verstehst dann frag halt nach. Der Spass beginnt mit dem vSphere Essentials und 389,- Alles drueber hinaus benoetigt einen Shared Storage bzw. macht nur in besonderen Faellen Sinn. Hast du kein Shared Storage dann bleibt als Grund fuer eine Enterprise Plus Lizenz einzig und alleine der Einsatz von bis zu 64vCPU. Aber soviel gibt deine Hardware nicht her und muss somit hinterfragt werden.

Aber hier werde ich Montag mal den Vertrieb anrufen und mich mal beraten lassen.


Guter Ansatz.... VMware wird dich an einen VMware Partner weiterreichen.

Als neuling in VMWare ist die HP mit Ihren hunderten Produkten mehr als unübersichtlich. Zumal man erstmal beim urschleim anfängt und sich einlesen muß, was z.b. TF im unterschied zum HA macht.


Ja in der Tat nicht Einfach daher mein Rat einfach jemanden Fragen welcher sich in dem Thema besser auskennt bzw. es tagtaeglich macht. Das man ein Grundwissen haben sollte um die richtigen Fragen zustellen steht ausser Frage. Aber da bist du ja auf dem besten Wege hin.

Gruss
Joerg

King of the Hill
Beiträge: 13656
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 02.02.2014, 14:20

Das man mit VMware auch HPC machen kann, hatte ich bereits mit BOINC angedeutet. Bei mir liefen mehrere VMs über mehrere Jahre im 24/7-Volllastbetrieb für diverse Boinc-Projekte, die sich neben mathematischen, auch mit physikalischen oder chemischen Problemstellungen beschäftigten. Der BOINC-Kosmos umfaßt aber noch viel mehr Richtungen mit noch mehr Projekten. War halt ein Hobby, aber schön das das mit VMware so reibungslos abgelaufen war und immer noch läuft. Die bei "irix" erworbene HW tut ihr übriges dazu und schnurrt wie ein Kätzchen.


Wie du an "irix" letztem Posting entnehmen kannst, beschäftigt er sich neben Dell-Produkten auch mit VMware und für beides und noch weit mehr Produkte hat die Firma den Partner-Status.

King of the Hill
Beiträge: 13058
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 02.02.2014, 14:30

OffTopic:
Hatte Boinc auf meinen alten SGIs laufen und hab SETI mitgerechnet.

Gruss
Joerg

King of the Hill
Beiträge: 13656
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 02.02.2014, 14:38

OffTopic 2:
Ich hatte nur am Anfang noch für Seti gerechnet, aber Mathematik, Chemie, Biologie und Physik erschienen mir greifbarere Ziele als die Suche nach Ausserirdischen. Die gibt es mit 100%iger Sicherheit, aber wenn man die Nachrichten weltweit mal näher betrachtet, tut E.T. wohl weiterhin gut daran, sich vor der Menschheit zu verstecken... :D

Member
Beiträge: 155
Registriert: 31.01.2014, 12:08

Beitragvon lord_icon » 02.02.2014, 14:40

irix hat geschrieben:OffTopic:
Hatte Boinc auf meinen alten SGIs laufen und hab SETI mitgerechnet.


So OffTopic ist das garnicht.
Aktuell versuche ich einfach nur mal eine Windows Version zum laufen zu bringen um dort dann endlich dieses Vektorisierungsprogramm zu installieren.
Erst danach kann ich einschätzen ob VMware überhaupt zum Einsatz kommt.

Schlägt dieser Test fehl... sprich: der Gast bringt nur eine ungenügende Leistung, dann wird dieser Server wohl als Singel-Server bestehen bleiben... oder aber ne neue VM-Workstation Lizenz muß her wo man dann nebenbei Virtualisiert.

Aber wenn ich SETI lese... dann denk ich an meine Kindheit zurück. Mit n 4x86 und ner TurboTaste... womit SETI zumindest kurzfristig richtig rannte... bis der CPU zu heiß wurde und die Taste wieder rausflog ;-)

Hab also gute Hoffnung, dass die Performance ausreichend sein wird.

King of the Hill
Beiträge: 13656
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 02.02.2014, 15:08

Wie bereits geschrieben, lief und läuft das unter VMware. Wieviele Workunits ich aber mehr auf Echtblech hätte berechnen können, wenn die Virtualisierung nicht dazwischen gewesen wäre, steht auf einem ganz anderen Blatt. Bei 25% längeren Rechenzeiten aufgrund der Virtualisierung werden bei meinen bis zu 10tägigen Berechnungen jedenfalls so einige WUs zusammengekommen sein. :roll:


Zurück zu „VMware Workstation und VMware Workstation Pro“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 30 Gäste