Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
iO Werte
Garkeine
ich beobachte die Auslastung ein bisschen nebenher im Veeam Monitor
Will nur hier mal ein bisschen die Verteilung der VMs optimieren. Das wäre meine nächste Frage gewesen, was ich für einen sinnvollen test verwenden kann, auch um die Geschwindigkeit von Storage zu Storage zu messen, oder von Host zu Storage.
Mit dem iO Analyser von VM, also diese seperate virtuelle Maschine komme ich nich klar, dafür bin ich zu dumm.
ich beobachte die Auslastung ein bisschen nebenher im Veeam Monitor
Will nur hier mal ein bisschen die Verteilung der VMs optimieren. Das wäre meine nächste Frage gewesen, was ich für einen sinnvollen test verwenden kann, auch um die Geschwindigkeit von Storage zu Storage zu messen, oder von Host zu Storage.
Mit dem iO Analyser von VM, also diese seperate virtuelle Maschine komme ich nich klar, dafür bin ich zu dumm.
Schau Dir doch mal folgenden Link an:
http://faqde.sanbarrow.com/index.php?action=artikel&cat=13&id=16&artlang=de
http://faqde.sanbarrow.com/index.php?action=artikel&cat=13&id=16&artlang=de
Re: iO Werte
heldchen hat geschrieben:...
Was wäre für diesen Bund denn an Durchschnittlichen leistbaren iOs bzw Maximalwert anzunehmen?
Naja, die Frage ist immer, wo man guckt
Die Fakten sind klar: 10 Platten bringen maximal 1.500 IOs. (10 x 150). Mehr sollten wahrscheinlich nur unter Laborbedingungen gemessen werden. Jetzt wird durch das unterschiedliche Raid mehr oder weniger Leistung - ja nach Sicherheitslevel - ausgebremst.
Lässt man jetzt einen Benchmark im virtuellen OS laufen, schalten sich alle möglichen Caches dazwischen (vom OS, Hypervisor, Storage- (Raid-) Controller, evtl. noch der des virtuellen Storage (Cluster), etc...) und man erhält völlig unrealistische Werte.
Bei uns ist es z.B. manchmal so, dass ich einen komplexen Datenbankjob starte und am Storage fast keine zusätzlichen IOs ankommen.
Ich finde die Performancemessung nur an einer Größe gesehen recht schwierig. Man muss irgendwie alles berücksichtigen (z.B. CPU ready Zeit, Hauptspeicher, ...)
Mal ein Beispiel: Es gab bei uns einen Notesserver mit etwas über 1.000 Usern, der lief auf 3 (!) SAS 15k Platten im Raid 5 (!) und zwar einigermaßen performant (Dauerlast von 300 IOs). Jeder hat behauptet, dass 3 Platten viel zu wenig seien. Aber es hat funktioniert, weil alles andere dazu passte...
Also es zeigt schonmal ne Tendenz.... iOs sind nich wirklich mein problem, mein problem is der Durchsatz wie es ausschaut.
Konfig: Host jeweils eine Doppel 8GB FC Karte Jeder Port hängt an einem 8 Port FC 8GB Switch. Jedes der beiden Storages hängt ebenfalls mit jeweils einem Port an einem der Switches.
An einem der Switches hängt noch ein altes 4GB/s Storage.
Jetzt das seltsame: Erstellung der VMDK auf den beiden Storages je knapp 10 min. Auch jeweils mal einen der Switches ausgeschaltet, auch andere Hosts probiert, alle Kombinationen durch, immer 9:30-10:30min.
Mal Spasseshalber auf das Altstorage 0:37
Das ist doch pervers.....
Irgendwo hab ich da nen Bock drin. Storages sind Fujitsu DX90 , jeweils 10 HDDS(eigentlich 12 aber 2 sind Spares, bin n Schisser) 15k sas. Switches sind Brocade Silkworm 300. Fibrechannelkarten sind von Emulex passend mit den Fujitsu primergy RX300S6 Servern gekauft.
Es gibt auf den Storages jeweils ein Raid 50 über 10 HDDS. Darauf eine produktiv und eine Backup Lun mit jeweils der selben Größe. Backuplun ist leer und ungenutzt während der Tests. Virtuelle Maschinen waren gestern Nacht alle ausgeschaltet um nix zu beeinträchtigen.
Vsphere Server zeigt auch brav 2 Pfade an zu jeder Lun. Filesystem is VMFS5, nicht migriert sondern vor 2 Wochen neu angelegt. Ich dachte dass da irgendetwas Schuld an meiner miesen Performance ist, und hab die ganze Config mal sauber neu hochgezogen. Das einzige Upgrade waren die Hosts von 4 auf 5 mittels CD update. Aktuelleste Updates hab ich vor ner Woche nachgeschoben.
Irgendwelche Ideen?
Konfig: Host jeweils eine Doppel 8GB FC Karte Jeder Port hängt an einem 8 Port FC 8GB Switch. Jedes der beiden Storages hängt ebenfalls mit jeweils einem Port an einem der Switches.
An einem der Switches hängt noch ein altes 4GB/s Storage.
Jetzt das seltsame: Erstellung der VMDK auf den beiden Storages je knapp 10 min. Auch jeweils mal einen der Switches ausgeschaltet, auch andere Hosts probiert, alle Kombinationen durch, immer 9:30-10:30min.
Mal Spasseshalber auf das Altstorage 0:37
Das ist doch pervers.....
Irgendwo hab ich da nen Bock drin. Storages sind Fujitsu DX90 , jeweils 10 HDDS(eigentlich 12 aber 2 sind Spares, bin n Schisser) 15k sas. Switches sind Brocade Silkworm 300. Fibrechannelkarten sind von Emulex passend mit den Fujitsu primergy RX300S6 Servern gekauft.
Es gibt auf den Storages jeweils ein Raid 50 über 10 HDDS. Darauf eine produktiv und eine Backup Lun mit jeweils der selben Größe. Backuplun ist leer und ungenutzt während der Tests. Virtuelle Maschinen waren gestern Nacht alle ausgeschaltet um nix zu beeinträchtigen.
Vsphere Server zeigt auch brav 2 Pfade an zu jeder Lun. Filesystem is VMFS5, nicht migriert sondern vor 2 Wochen neu angelegt. Ich dachte dass da irgendetwas Schuld an meiner miesen Performance ist, und hab die ganze Config mal sauber neu hochgezogen. Das einzige Upgrade waren die Hosts von 4 auf 5 mittels CD update. Aktuelleste Updates hab ich vor ner Woche nachgeschoben.
Irgendwelche Ideen?
-
kastlr
- Profi
- Beiträge: 993
- Registriert: 31.03.2008, 17:26
- Wohnort: Einzugsbereich des FC Schalke 04
- Kontaktdaten:
Hallo,
überprüfe mal die verwendeten Brocade Port Fillword Settings.
Mit der Einführung von 8GBit sollten diese auf allen mit 8GBit betriebenen Ports auf Mode 3 stehen.
Der Standard Wert ist aber immer noch 0, und damit kann es zu einigen Problemen kommen.
Bei einem unserer Kunden brach z. B. immer eine svMotion Operation ab und brachte seine ganze Umgebung zum Einfrieren, nach der Umstellung lief alles problemlos.
Viel Erfolg,
Ralf
überprüfe mal die verwendeten Brocade Port Fillword Settings.
Mit der Einführung von 8GBit sollten diese auf allen mit 8GBit betriebenen Ports auf Mode 3 stehen.
Der Standard Wert ist aber immer noch 0, und damit kann es zu einigen Problemen kommen.
Bei einem unserer Kunden brach z. B. immer eine svMotion Operation ab und brachte seine ganze Umgebung zum Einfrieren, nach der Umstellung lief alles problemlos.
Viel Erfolg,
Ralf
-
MarcelMertens
- Member
- Beiträge: 360
- Registriert: 13.07.2011, 15:33
-
MarcelMertens
- Member
- Beiträge: 360
- Registriert: 13.07.2011, 15:33
geht bei meinem scheinbar nicht
Code: Alles auswählen
HMBFCS01:root> portCfgFillWord 0 3
exec error: 2, No such file or directory
HMBFCS01:root> portCfg
Usage: portCfg <action> [Slot/]Port[-Range] <Args>
Range: Specify a range of port in the same slot to apply
Action:
rscnsupr -- RSCN suppression
ipif -- IP Interface
iproute -- IP Routes
fciptunnel -- FCIP Tunnel
fcipcircuit -- FCIP Circuit
arp -- ARP Entry
mirrorport -- Mirror Port
fastwrite -- Fastwrite
ficon -- FCIP FICON
ftrace -- FTRACE
vlantag -- VLAN Tag Entry
inbandmgmt -- Inband Management
Args: Action specific arguments
HMBFCS01:root>
-
MarcelMertens
- Member
- Beiträge: 360
- Registriert: 13.07.2011, 15:33
Also die Einstellung an sich noch nicht. Die Einstellung auf 3 hat er brav auf allen 8gb Ports gemacht, ich merke allerdings nichts an Verbesserung.
Ich habe jetzt mal an einem der Hosts folgendes gemacht :
http://kb.vmware.com/selfservice/micros ... Id=1033665
Das senkt die Erstellungszeit von 10:30 auf 0:56
Ich habe jetzt mal an einem der Hosts folgendes gemacht :
http://kb.vmware.com/selfservice/micros ... Id=1033665
Das senkt die Erstellungszeit von 10:30 auf 0:56
-
kastlr
- Profi
- Beiträge: 993
- Registriert: 31.03.2008, 17:26
- Wohnort: Einzugsbereich des FC Schalke 04
- Kontaktdaten:
Hallo,
dann solltest du mal unter Verwendung der VMware HCL sowie des Herstellers überprüfen, ob dein Storage Array überhaupt VAAI unterstützt.
Vielleicht brauchst du ja nur eine neuere FW Version oder einen Patch.
Denn falls es sich als VAAI fähig ausgibt, wird ESX auch versuchen,die entsprechenden SCSI Befehle zu verwenden.
Wenn das Array damit Probleme hat, muß der Host erstens immer wieder warten um dann doch wieder auf die alte Methode umzuschwenken.
Nach einer Weile probiert er es erneut und das Spiel geht von vorne los.
Gruß
Ralf
dann solltest du mal unter Verwendung der VMware HCL sowie des Herstellers überprüfen, ob dein Storage Array überhaupt VAAI unterstützt.
Vielleicht brauchst du ja nur eine neuere FW Version oder einen Patch.
Denn falls es sich als VAAI fähig ausgibt, wird ESX auch versuchen,die entsprechenden SCSI Befehle zu verwenden.
Wenn das Array damit Probleme hat, muß der Host erstens immer wieder warten um dann doch wieder auf die alte Methode umzuschwenken.
Nach einer Weile probiert er es erneut und das Spiel geht von vorne los.
Gruß
Ralf
Zurück zu „vSphere 5 / ESXi 5 und 5.1“
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 5 Gäste
