Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

RR iSCSI verteilt IOS auf zwei Kanäle statt sie zu erhöhen?

Hilfe bei Problemen mit Installation & Benutzung des VMware ESX Server 4/VMware vSphere 4.0.

Moderatoren: Dayworker, irix

Member
Beiträge: 5
Registriert: 23.09.2011, 01:48

RR iSCSI verteilt IOS auf zwei Kanäle statt sie zu erhöhen?

Beitragvon casyopaya » 23.09.2011, 02:18

Grüßt Euch :)

Ich habe ein recht merkwürdiges Problem.
Ich habe zwei VMware ESXi 4.1 Hosts die über jeweils zwei Kanäle mit einem SAN Fujitsu Eternus DX80 verbunden sind.
Die Kanäle haben eine Bandbreite von jeweils 1GBit/s und laufen über zwei separate Switches. Ich konfigurierte das Round Robin Protokoll und Jumbo Frames (natürlich end to end) . Alles wäre schön aber anstatt jetzt ca. 200 MB/s zu erreichen (zuvor war es auf einem Kanal mit 100MB/s gelaufen) wurden die 100MB/s nun auf zwei Kanäle aufgeteilt also ca. 50MB/s pro Kanal wobei die IOS bei ca. 2500 pro Kanal liegt.
Alle gemessenen Werte ergeben sich aus einer Messung mit I/O Meter und einer Standard Konfiguration Datei aus dem VMware Forum wie auch auf dem SAN selbst da es über detaillierte Messmechanismen verfügt die den Durchsatz pro Kanal anzeigen.

Hardware:

2x Fujitsu Primergy RX300 S6 Maschinen mit jeweils 72 GB RAM
2x Netgear GBit Switch
1x Fujitsu Eternus DX80 SAN mit RAID 5 – 7 NearlineSAS Platten a 1TB


Hat jemand von Euch eine Idee was falsch gelaufen ist und was ich ausprobieren könnte? Ich bitte Euch um Hilfe den es ist ein Produktives System und die Performance ist zur Zeit recht schlecht.

Noch etwas,
kann mir bitte einer sagen ob wenn ich mich über SSH auf den ESXi Host verbinde ich die iSCSI Modul Queue Depth mit dem Befehl:
"esxcfg-module -s iscsi_max_lun_queue=value iscsi_mod" einstellen kann?
Oder muss ich das über einen anderen Weg machen z.B. vMA oder so? Die JUMBO Frames habe ich auch über SSH konfiguriert und es funktioniert. Ich bin nämlich etwas verwirrt viele schreiben es gibt keine Shell in ESXi wie es bei ESX der Fall ist aber es gibt doch eine, habe ich selbst mit gearbeitet....

VG.
Casyopaya

Benutzeravatar
Moderator
Beiträge: 3476
Registriert: 23.02.2005, 09:14
Wohnort: Burgberg im Allgäu
Kontaktdaten:

Beitragvon Tschoergez » 23.09.2011, 08:39

Hi!
Bist Du denn sicher, dass die Netzwerkverbindung überhaupt der Flaschenhals ist?
So, wie sich das anhört, liefert das Storage einfach nicht mehr performance....

Zum ESXi: Da gibts den sog. Tech Support Mode (local oder über SSH) mit dem Du wieder eine Konsole bekommst (eingeschränkt zwar, aber die esx-spezifischen Befehle sollten da sein). Alternative: vMA

Viele Grüße,
Jörg

Guru
Beiträge: 2082
Registriert: 21.10.2006, 08:24

Beitragvon bla!zilla » 23.09.2011, 08:48

Warum sollte RR die Performance erhöhen? Da fliegen sieben NL Platten, dafür sind 100 MB/s schon ganz okay. Hsat du mal mit größeren IOs experimentiert? Weil 50 MB/s und 2500 IOPS pro Path sprechen nicht gerade für große IOs.

Member
Beiträge: 5
Registriert: 23.09.2011, 01:48

Beitragvon casyopaya » 23.09.2011, 13:51

Gott sei Dank endlich Leute die wissen wovon die rede ist :) schaut mal bitte was für komische Antworten ich auf einem anderen „profi Admin“ Forum bekommen habe:
http://www.administrator.de/index.php?c ... 541#700394
Frustrierend oder?

Aber nun zurück zum Thema.

Wenn ich ehrlich sein soll hatte ich bereits die Vermutung dass das Storage nicht mehr hergibt weil die Geschwindigkeit eben gleich geblieben ist aber auf zwei Kanäle aufgeteilt wurde.
Was die IO’s angeht wollte ich die Max Que Depth mit folgendem Befehl einstellen:
„esxcfg-module -s iscsi_max_lun_queue=value iscsi_mod“ und das ist bei rausgekommen:

~ # esxcfg-module -s iscsi_max_lun_queue=64 iscsi_vmk
Unable to set module parameters the following params are invalid: iscsi_max_lun_queue
~ # Write failed: Broken pipe

wobei ich nicht sicher bin ob ich das richtige Modul (iscsi_vmk) angegeben habe, hier die Modul Liste vielleicht könnt Ihr mir etwas weiter helfen, ich bräuchte ein paar Tipps was die IO Optimierung angeht, was sollte ich am besten machen ?

~ # esxcfg-module –list

Name Used Size (kb)
vmkernel 58 10995
procfs 2 16
vmkapiv1_0_0_0_vmkernel_shim0 32
vmklinux 29 644
random 1 32
usb 4 112
ehci-hcd 0 36
usb-uhci 0 24
hid 0 24
dm 2 12
nmp 33 120
vmw_satp_local 13 8
vmw_satp_default_aa 0 8
vmw_psp_lib 8 12
vmw_psp_fixed 13 12
vmw_psp_rr 3 16
vmw_psp_mru 0 12
vmw_psp_fixed_ap 0 12
vmw_satp_alua 3 20
vmw_satp_cx 0 28
libata 1 92
usb-storage 0 60
vfat 1 36
mask_path_plugin 0 8
vaai_filter 0 16
vmw_vaaip_emc 0 8
vmkapiv1_0_0_0_nmp_shim 0 8
vtddmar 0 8
vmci 0 112
iscsi_trans 6 52
hub 1 8
netsched 1 16
e1000e 0 116
igb 0 96
iscsi_linux 0 16
ata_piix 4 16
megaraid_sas 2 48
lvmdriver 0 80
deltadisk 0 40
multiextent 0 12
dvsdev 0 12
etherswitch 5 180
shaper 0 28
cdp 7 100
tcpip3 8 816
dvfilter 2 72
vmkapiv1_0_0_0_dvfilter_shim0 8
vmkibft 0 16
iscsi_vmk 4 196
vmfs3 0 252
nfsclient 0 96
ipmi_msghandler 2 40
ipmi_si_drv 0 40
ipmi_devintf 2 16
vmkstatelogger 1 116
migrate 2 248
cbt 0 12

Was könnte ich machen um den Datendurchsatz zu erhöhen außer Platten auf 15K SAS wechseln. Würden mehr Platten im Array deutlich helfen.

Noch eine Sache in meinem SAN gibt es zwei Target NIC’s und drei LUN’s die über beide Targets sichtbar sind.

Noch eine wichtige Frage, wie kann ich die Latenzen beeinflussen den beim Lesen liegen die recht hoch 14-20 ms, schreiben ist ok 2-3 ms ?

VG
casyopaya

Guru
Beiträge: 2082
Registriert: 21.10.2006, 08:24

Beitragvon bla!zilla » 23.09.2011, 14:18

Lesen ist in der Tat ein wenig hoch, versuch mal einen Test mit drei oder vier VMs und IOmeter. Dann ruhig 100% lesen und große IOs (min. 64 KB, besser 256 KB oder mehr). Dann noch mal 100% schreiben. Die Werte hier mal posten.

Member
Beiträge: 5
Registriert: 23.09.2011, 01:48

Beitragvon casyopaya » 23.09.2011, 16:49

O man das ist schreklich:


Messung 100% Read mit 256kb:

'Results
'Target Type,Target Name,Access Specification Name,# Managers,# Workers,# Disks,IOps,Read IOps,Write IOps,MBps,Read MBps,Write MBps,Transactions per Second,Connections per Second,Average Response Time,Average Read Response Time,Average Write Response Time,Average Transaction Time,Average Connection Time,Maximum Response Time,Maximum Read Response Time,Maximum Write Response Time,Maximum Transaction Time,Maximum Connection Time,Errors,Read Errors,Write Errors,Bytes Read,Bytes Written,Read I/Os,Write I/Os,Connections,Transactions per Connection,Total Raw Read Response Time,Total Raw Write Response Time,Total Raw Transaction Time,Total Raw Connection Time,Maximum Raw Read Response Time,Maximum Raw Write Response Time,Maximum Raw Transaction Time,Maximum Raw Connection Time,Total Raw Run Time,Starting Sector,Maximum Size,Queue Depth,% CPU Utilization,% User Time,% Privileged Time,% DPC Time,% Interrupt Time,Processor Speed,Interrupts per Second,CPU Effectiveness,Packets/Second,Packet Errors,Segments Retransmitted/Second
ALL,All,Max Throughput-100%Read (128kb),1,1,1,30.730855,30.730855,0.000000,7.682714,7.682714,0.000000,30.730855,0.049969,1873.488623,1873.488623,0.000000,1873.488623,17706.237812,10904.124341,10904.124341,0.000000,10904.124341,17706.237812,0,0,0,161218560,0,615,0,1,500,,,,,,,,,,0,8000000,64,19.703852,1.288487,13.939083,1.815595,7.652830,,326.853932,1.559637,369.934680,0.000000,0.000000
MANAGER,GEBIT-AFARIA,Max Throughput-100%Read (128kb),,1,1,30.730855,30.730855,0.000000,7.682714,7.682714,0.000000,30.730855,0.049969,1873.488623,1873.488623,0.000000,1873.488623,17706.237812,10904.124341,10904.124341,0.000000,10904.124341,17706.237812,0,0,0,161218560,0,615,0,1,500,2615483791567,0,2615483791567,40193159834,24752362253,0,24752362253,40193159834,45428283328,0,8000000,64,19.703852,1.288487,13.939083,1.815595,7.652830,2270000000.000000,326.853932,1.559637,369.934680,0.000000,0.000000
PROCESSOR,CPU 0,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,8.790760,1.093261,8.199461,0.390451,3.123604,2270000000.000000,72.217727,,,,
PROCESSOR,CPU 1,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,39.792531,0.390451,26.862995,4.685406,19.991066,2270000000.000000,117.497492,,,,
PROCESSOR,CPU 2,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,13.476167,1.717982,9.995533,1.171352,2.498883,2270000000.000000,63.621568,,,,
PROCESSOR,CPU 3,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,16.755951,1.952253,10.698344,1.015171,4.997767,2270000000.000000,73.517146,,,,
WORKER,Worker 1,Max Throughput-100%Read (128kb),,,1,30.730855,30.730855,0.000000,7.682714,7.682714,0.000000,30.730855,0.049969,1873.488623,1873.488623,0.000000,1873.488623,17706.237812,10904.124341,10904.124341,0.000000,10904.124341,17706.237812,0,0,0,161218560,0,615,0,1,500,2615483791567,0,2615483791567,40193159834,24752362253,0,24752362253,40193159834,45428283328,0,8000000,64,,,,,,2270000000.000000,,,,,
DISK,C:,,,,,30.730855,30.730855,0.000000,7.682714,7.682714,0.000000,30.730855,0.049969,1873.488623,1873.488623,0.000000,1873.488623,17706.237812,10904.124341,10904.124341,0.000000,10904.124341,17706.237812,0,0,0,161218560,0,615,0,1,500,2615483791567,0,2615483791567,40193159834,24752362253,0,24752362253,40193159834,45428283328,0,8000000,64,,,,,,2270000000.000000,,,,,

Messung 100% Read mit 128kb:

Target Type,Target Name,Access Specification Name,# Managers,# Workers,# Disks,IOps,Read IOps,Write IOps,MBps,Read MBps,Write MBps,Transactions per Second,Connections per Second,Average Response Time,Average Read Response Time,Average Write Response Time,Average Transaction Time,Average Connection Time,Maximum Response Time,Maximum Read Response Time,Maximum Write Response Time,Maximum Transaction Time,Maximum Connection Time,Errors,Read Errors,Write Errors,Bytes Read,Bytes Written,Read I/Os,Write I/Os,Connections,Transactions per Connection,Total Raw Read Response Time,Total Raw Write Response Time,Total Raw Transaction Time,Total Raw Connection Time,Maximum Raw Read Response Time,Maximum Raw Write Response Time,Maximum Raw Transaction Time,Maximum Raw Connection Time,Total Raw Run Time,Starting Sector,Maximum Size,Queue Depth,% CPU Utilization,% User Time,% Privileged Time,% DPC Time,% Interrupt Time,Processor Speed,Interrupts per Second,CPU Effectiveness,Packets/Second,Packet Errors,Segments Retransmitted/Second
ALL,All,Max Throughput-100%Read (128kb),1,1,1,271.503326,271.503326,0.000000,33.937916,33.937916,0.000000,271.503326,0.519624,154.908453,154.908453,0.000000,154.908453,1861.592797,2563.690077,2563.690077,0.000000,2563.690077,7561.118059,0,0,0,1369702400,0,10450,0,20,500,,,,,,,,,,0,8000000,64,24.050219,0.942280,21.875077,2.472218,14.124066,,491.369957,11.289017,380.043951,0.000000,0.000000
MANAGER,GEBIT-AFARIA,Max Throughput-100%Read (128kb),,1,1,271.503326,271.503326,0.000000,33.937916,33.937916,0.000000,271.503326,0.519624,154.908453,154.908453,0.000000,154.908453,1861.592797,2563.690077,2563.690077,0.000000,2563.690077,7561.118059,0,0,0,1369702400,0,10450,0,20,500,3674660857011,0,3674660857011,84516312979,5819576475,0,5819576475,17163737993,87370936923,0,8000000,64,24.050219,0.942280,21.875077,2.472218,14.124066,2270000000.000000,491.369957,11.289017,380.043951,0.000000,0.000000
PROCESSOR,CPU 0,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,50.798808,0.851091,50.092812,8.105633,31.855138,2270000000.000000,103.933669,,,,
PROCESSOR,CPU 1,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,11.121734,0.526866,9.402534,0.202641,6.768204,2270000000.000000,127.692900,,,,
PROCESSOR,CPU 2,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,18.052050,0.770035,14.833308,0.770035,9.929400,2270000000.000000,137.393722,,,,
PROCESSOR,CPU 3,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,16.228283,1.621127,13.171654,0.810563,7.943520,2270000000.000000,122.349667,,,,
WORKER,Worker 1,Max Throughput-100%Read (128kb),,,1,271.503326,271.503326,0.000000,33.937916,33.937916,0.000000,271.503326,0.519624,154.908453,154.908453,0.000000,154.908453,1861.592797,2563.690077,2563.690077,0.000000,2563.690077,7561.118059,0,0,0,1369702400,0,10450,0,20,500,3674660857011,0,3674660857011,84516312979,5819576475,0,5819576475,17163737993,87370936923,0,8000000,64,,,,,,2270000000.000000,,,,,
DISK,C:,,,,,271.503326,271.503326,0.000000,33.937916,33.937916,0.000000,271.503326,0.519624,154.908453,154.908453,0.000000,154.908453,1861.592797,2563.690077,2563.690077,0.000000,2563.690077,7561.118059,0,0,0,1369702400,0,10450,0,20,500,3674660857011,0,3674660857011,84516312979,5819576475,0,5819576475,17163737993,87370936923,0,8000000,64,,,,,,2270000000.000000,,,,,

Messung 100% Read 64kb:

'Results
'Target Type,Target Name,Access Specification Name,# Managers,# Workers,# Disks,IOps,Read IOps,Write IOps,MBps,Read MBps,Write MBps,Transactions per Second,Connections per Second,Average Response Time,Average Read Response Time,Average Write Response Time,Average Transaction Time,Average Connection Time,Maximum Response Time,Maximum Read Response Time,Maximum Write Response Time,Maximum Transaction Time,Maximum Connection Time,Errors,Read Errors,Write Errors,Bytes Read,Bytes Written,Read I/Os,Write I/Os,Connections,Transactions per Connection,Total Raw Read Response Time,Total Raw Write Response Time,Total Raw Transaction Time,Total Raw Connection Time,Maximum Raw Read Response Time,Maximum Raw Write Response Time,Maximum Raw Transaction Time,Maximum Raw Connection Time,Total Raw Run Time,Starting Sector,Maximum Size,Queue Depth,% CPU Utilization,% User Time,% Privileged Time,% DPC Time,% Interrupt Time,Processor Speed,Interrupts per Second,CPU Effectiveness,Packets/Second,Packet Errors,Segments Retransmitted/Second
ALL,All,Max Throughput-100%Read (128kb),1,1,1,765.001273,765.001273,0.000000,47.812580,47.812580,0.000000,765.001273,1.516874,75.226743,75.226743,0.000000,75.226743,655.704540,1260.280873,1260.280873,0.000000,1260.280873,1954.192875,0,0,0,1916993536,0,29251,0,58,500,,,,,,,,,,0,8000000,64,9.037246,0.388337,8.328799,0.286143,4.670259,,980.956397,84.649819,402.862907,0.000000,0.000000
MANAGER,GEBIT-AFARIA,Max Throughput-100%Read (128kb),,1,1,765.001273,765.001273,0.000000,47.812580,47.812580,0.000000,765.001273,1.516874,75.226743,75.226743,0.000000,75.226743,655.704540,1260.280873,1260.280873,0.000000,1260.280873,1954.192875,0,0,0,1916993536,0,29251,0,58,500,4995038463625,0,4995038463625,86330059736,2860837582,0,2860837582,4436017826,86796940568,0,8000000,64,9.037246,0.388337,8.328799,0.286143,4.670259,2270000000.000000,980.956397,84.649819,402.862907,0.000000,0.000000
PROCESSOR,CPU 0,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,0.790202,0.040878,0.981061,0.163510,0.490531,2270000000.000000,78.040136,,,,
PROCESSOR,CPU 1,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,3.120222,0.000000,2.820551,0.245265,2.166510,2270000000.000000,133.267332,,,,
PROCESSOR,CPU 2,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,4.550936,0.081755,4.128632,0.204388,3.311081,2270000000.000000,146.923702,,,,
PROCESSOR,CPU 3,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,27.687626,1.430714,25.384955,0.531408,12.712916,2270000000.000000,622.725227,,,,
WORKER,Worker 1,Max Throughput-100%Read (128kb),,,1,765.001273,765.001273,0.000000,47.812580,47.812580,0.000000,765.001273,1.516874,75.226743,75.226743,0.000000,75.226743,655.704540,1260.280873,1260.280873,0.000000,1260.280873,1954.192875,0,0,0,1916993536,0,29251,0,58,500,4995038463625,0,4995038463625,86330059736,2860837582,0,2860837582,4436017826,86796940568,0,8000000,64,,,,,,2270000000.000000,,,,,
DISK,C:,,,,,765.001273,765.001273,0.000000,47.812580,47.812580,0.000000,765.001273,1.516874,75.226743,75.226743,0.000000,75.226743,655.704540,1260.280873,1260.280873,0.000000,1260.280873,1954.192875,0,0,0,1916993536,0,29251,0,58,500,4995038463625,0,4995038463625,86330059736,2860837582,0,2860837582,4436017826,86796940568,0,8000000,64,,,,,,2270000000.000000,,,,,


Messung 100% Write 32kb:

'Results
'Target Type,Target Name,Access Specification Name,# Managers,# Workers,# Disks,IOps,Read IOps,Write IOps,MBps,Read MBps,Write MBps,Transactions per Second,Connections per Second,Average Response Time,Average Read Response Time,Average Write Response Time,Average Transaction Time,Average Connection Time,Maximum Response Time,Maximum Read Response Time,Maximum Write Response Time,Maximum Transaction Time,Maximum Connection Time,Errors,Read Errors,Write Errors,Bytes Read,Bytes Written,Read I/Os,Write I/Os,Connections,Transactions per Connection,Total Raw Read Response Time,Total Raw Write Response Time,Total Raw Transaction Time,Total Raw Connection Time,Maximum Raw Read Response Time,Maximum Raw Write Response Time,Maximum Raw Transaction Time,Maximum Raw Connection Time,Total Raw Run Time,Starting Sector,Maximum Size,Queue Depth,% CPU Utilization,% User Time,% Privileged Time,% DPC Time,% Interrupt Time,Processor Speed,Interrupts per Second,CPU Effectiveness,Packets/Second,Packet Errors,Segments Retransmitted/Second
ALL,All,Max Throughput-100%Read (128kb),1,1,1,1541.558803,0.000000,1541.558803,48.173713,0.000000,48.173713,1541.558803,3.073728,39.102683,0.000000,39.102683,39.102683,324.640030,561.769872,0.000000,561.769872,561.769872,2442.006266,0,0,0,0,2990997504,0,91278,182,500,,,,,,,,,,0,8000000,64,7.793443,0.468925,7.317876,0.647249,3.328709,,1257.410797,197.802022,395.995889,0.000000,0.000000
MANAGER,GEBIT-AFARIA,Max Throughput-100%Read (128kb),,1,1,1541.558803,0.000000,1541.558803,48.173713,0.000000,48.173713,1541.558803,3.073728,39.102683,0.000000,39.102683,39.102683,324.640030,561.769872,0.000000,561.769872,561.769872,2442.006266,0,0,0,0,2990997504,0,91278,182,500,0,8102117385872,8102117385872,134121781953,0,1275217610,1275217610,5543354223,134410091657,0,8000000,64,7.793443,0.468925,7.317876,0.647249,3.328709,2270000000.000000,1257.410797,197.802022,395.995889,0.000000,0.000000
PROCESSOR,CPU 0,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,1.221885,0.184928,1.347335,0.369857,0.634040,2270000000.000000,92.350008,,,,
PROCESSOR,CPU 1,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,24.681357,1.241661,23.274544,1.479426,10.197473,2270000000.000000,1017.625404,,,,
PROCESSOR,CPU 2,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,3.678789,0.079255,3.434382,0.739713,2.271976,2270000000.000000,71.891658,,,,
PROCESSOR,CPU 3,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,1.591741,0.369857,1.215243,0.000000,0.211347,2270000000.000000,75.543727,,,,
WORKER,Worker 1,Max Throughput-100%Read (128kb),,,1,1541.558803,0.000000,1541.558803,48.173713,0.000000,48.173713,1541.558803,3.073728,39.102683,0.000000,39.102683,39.102683,324.640030,561.769872,0.000000,561.769872,561.769872,2442.006266,0,0,0,0,2990997504,0,91278,182,500,0,8102117385872,8102117385872,134121781953,0,1275217610,1275217610,5543354223,134410091657,0,8000000,64,,,,,,2270000000.000000,,,,,
DISK,C:,,,,,1541.558803,0.000000,1541.558803,48.173713,0.000000,48.173713,1541.558803,3.073728,39.102683,0.000000,39.102683,39.102683,324.640030,561.769872,0.000000,561.769872,561.769872,2442.006266,0,0,0,0,2990997504,0,91278,182,500,0,8102117385872,8102117385872,134121781953,0,1275217610,1275217610,5543354223,134410091657,0,8000000,64,,,,,,2270000000.000000,,,,,

Benutzeravatar
Moderator
Beiträge: 3476
Registriert: 23.02.2005, 09:14
Wohnort: Burgberg im Allgäu
Kontaktdaten:

Beitragvon Tschoergez » 23.09.2011, 17:42

OT:
Gott sei Dank endlich Leute die wissen wovon die rede ist Smile schaut mal bitte was für komische Antworten ich auf einem anderen „profi Admin“ Forum bekommen habe:
http://www.administrator.de/index.php?c ... 541#700394
Frustrierend oder?

frustrierend.... aber amüsant zu lesen :grin:
Da verwechseln die Leute Netzwerk und IO-Stack, und Spanning Tree beim ESX: köstlich.

Profi
Beiträge: 993
Registriert: 31.03.2008, 17:26
Wohnort: Einzugsbereich des FC Schalke 04
Kontaktdaten:

Beitragvon kastlr » 23.09.2011, 18:33

Hallo,

die verwendete NMP Policy hat normalerweise kaum Auswirkungen auf die Performance, sofern man beim Einrichten nicht gerade einen kapitalen Bock eingebaut hat.
Und das ist bei RR eigentlich nicht möglich.

In deinem Fall ist der Unterschied sicher nur marginal, liegt einfach in der Funktion von NMP begründet.
NMP kümmert sich ausschließlich darum, den/die IO's über die vorhandenen Pfade zu einer LUN zu verteilen.
Bei RR wird dieser Pfad bei Verwendung der Standardeinstellungen nach 1000 IO's gewechselt, und das deckt sich ziemlich genau mit deiner Beobachtung.
Du kannst zwar noch ein bisschen an den Einstellungen spielen, aber ich würde mir davon nicht zu viel versprechen.

Gleiches gilt für deinen Versuch, die Queue Depth zu verändern.
Damit wird dein System auch nicht zwingend schneller, denn damit nimmt der HBA Treiber erst einmal nur mehr IO Requests vom Kernel an.
Sofern dein Array mit dieser erhöhten Anzahl von Requests kein Problem hat, wird sich das positiv auf die Performance (Durchsatz) auswirken, geht dabei aber üblicherweise zu Lasten der Responsezeit.
Allerdings kommt dieser Effekt nur dann zum Tragen, wenn du aktuell permanent die Queue des iSCSI Adaptertreiber komplett füllst und der Kernel auf einen freien Slot warten muß.
Falls du das Array aber schon am Limit hast bringt dir das auch nichts mehr.

Aber du kannst ja mal mit folgendem Befehl die möglichen Parameter des iSCSI Treiber abfragen.

Code: Alles auswählen

vmkload_mod -s iscsi_vmk

Denn so wie es aussieht, verwendest du einen nicht vorhandenen Parameter, zumindest sagt das die Fehlermeldung.

Auf meinem System existieren folgende Parameter, mit denen kannst du ja mal experimentieren, aber auf eigenes Risiko.

Code: Alles auswählen

iscsivmk_LunQDepth:  int    Maximum Outstanding Commands Per LUN
iscsivmk_HostQDepth: int    Maximum Outstanding Commands Per Adapter


Viel Erfolg und halt uns auf dem laufenden.

Guru
Beiträge: 2082
Registriert: 21.10.2006, 08:24

Beitragvon bla!zilla » 23.09.2011, 18:34

Das is extrem schwer zu lesen und ich habe jetzt wenig lust per Excel zu hantieren. Kannst du die Werte für IOPS, MB/s und IO Latency kurz posten?

Aber auf den ersten Blick: Das was ich bei sieben NL Platten und RAID 5 erwarten würde - eben keine Rakete.

OT:

Und poste evtl. mal den Link zu dem Thread hier bei administrator.de. Ist ja grausam...

Member
Beiträge: 5
Registriert: 23.09.2011, 01:48

Beitragvon casyopaya » 23.09.2011, 20:33

Ja ich werde die Werte lesbarer Posten, ich war mitten bei der Arbeit deshalb habe ich das nicht formatieren können, entschuldige bitte.
Die Werte die ich gepostet habe sind aus einem Produktiv System mit locker 10 belasteten VM's SQL, Notes, CVS usw. Morgen kann ich die Infrastruktur Herunterfahren und dann gebe ich dir bessere Messergebnisse.

Ich bin noch im Serverraum, wenn ich fertig bin werde ich euch noch einige konkrete Fragen stellen, es ist eine wirkliche Freude mit euch zu kommunizieren.

Den Link zu diesem Thread werde ich auf jeden Fall im Administrator.de Forum posten vielleicht lernen die mal was dazu. Ich denke einfach das es Leute sind die auf dem Forum schlau erscheinen wollen und schreiben was ihnen gerade einfällt und ungefähr zum Thema passt.

Nochmal Danke Danke Danke ich dachte schon ich bin auf mich selbst gestellt oder auf die "Profis" von Administrator.de :)

ps. inzwischen denke ich auch das 100MB einfach die grenze für diese Konfig. ist aber die Latenzen müssen sich noch verbessern lassen da bin ich sicher den ich habe bei kleiner Belastung werte von 30ms gesehen. Und die IO's müssten auch noch ein wenig raufgehen. Ich werde auch die Messergebnisse von dem SAN Posten den die sagen etwas anderes und scheinen vertrauenswürdiger.

Member
Beiträge: 5
Registriert: 23.09.2011, 01:48

Beitragvon casyopaya » 23.09.2011, 21:00

Ich habe jetzt ein Paar Worte an die Leute auf dem Admin.de Forum geschrieben, ich hoffe die ändern jetzt Ihre Taktik. Denn so kommt man zu garnichts im gegenteil es ist absolut kontraproduktiv.


Zurück zu „vSphere 4 / ESX 4“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 3 Gäste