Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

Storage Performance verbessern

Moderatoren: Dayworker, irix

Member
Beiträge: 77
Registriert: 27.08.2008, 17:13

Storage Performance verbessern

Beitragvon pauLee » 11.06.2012, 11:06

In Anlehnung an den Thread "LUN-Aufteilung MD3220 und Sicherung" will ich auch mal ein paar Frage in die Runde werfen ...

Folgende Konstellation:

IBM System x3650 M2 Server und ein IBM DS3512 mit 4x1TB NL SAS im Raid 5 (3+1) via SAS (in Planung ist noch ein IBM x3650 für Redundanz)

Über die letzten 3 Jahre war die Performance gut bzw. gab es keine spürbaren Einbußen. Was vielleicht auch daran lag, dass VMs die vielleicht etwas mehr IO brauchten auf schnelleren 10K Platten im Server lagen.

In der letzten Zeit haben wir aber Performance Probleme mit VMs die auf dem Storage liegen. Zum einen DB-Server und WebServer (ca. 10 VMs, haupsächlich Linux WebServer). Die Antwortzeiten stimmen einfach nicht mehr. Es fühlt sich an, als würden die Anfragen in einer Queue stecken. Sobald die Queue abgearbeitet ist, stimmt die Performance wieder.
Ich denke also es ist nicht der Duchsatz, sondern die Response Time die wir verbessern müssen.

Meine konkreten Fragen:

1. ab wieviel 15k Platten (300GB) würdet ihr anfangen ein einigermaßen performantes Array aufzubauen?
2. lässt sich die Response Time durch mehr Platten verbessern?
3. sollte das Array in mehrere LUNs aufgeteilt werden?
4. wie messt ihr IO und Response Time bzw. was sind gute Werte?

Sollten meine Infos zu wenig sein, um die Fragen zu beantworten, dann mir bitte noch einen Hinweis geben.

Ich danke Euch schonmal!

Experte
Beiträge: 1337
Registriert: 25.04.2009, 11:17
Wohnort: Thüringen

Beitragvon Supi » 11.06.2012, 11:12

Lese ich aus R5 (3+1) richtig Raid-5 mit 3 Platten und 1 Hotspare? Nunja, auch mit NL SAS sinds nur 7200 U/min und da kommen nicht viel I/O rum.
Ist das Storage Dual oder Single Controller? Siehe hier : http://www.thomas-krenn.com/de/wiki/Sch ... 00_beheben

Member
Beiträge: 77
Registriert: 27.08.2008, 17:13

Beitragvon pauLee » 11.06.2012, 11:20

Supi hat geschrieben:Lese ich aus R5 (3+1) richtig Raid-5 mit 3 Platten und 1 Hotspare? Nunja, auch mit NL SAS sinds nur 7200 U/min und da kommen nicht viel I/O rum.
Ist das Storage Dual oder Single Controller? Siehe hier : http://www.thomas-krenn.com/de/wiki/Sch ... 00_beheben

Ja, es ist ein Raid 5 mit Hotspare. Das DS3512 ist ein Dual Controller Storage.

Im übrigen ein interessanter Link- vielen Dank!

Member
Beiträge: 490
Registriert: 26.05.2008, 15:52

Beitragvon deathrow » 11.06.2012, 11:23

1. ab wieviel 15k Platten (300GB) würdet ihr anfangen ein einigermaßen performantes Array aufzubauen?
2. lässt sich die Response Time durch mehr Platten verbessern?
3. sollte das Array in mehrere LUNs aufgeteilt werden?
4. wie messt ihr IO und Response Time bzw. was sind gute Werte?

Nur so meine Gedanken:

1.) So ab acht Platten
2.) Denke ja, wobei ich auch schon gelesen habe, daß es ab zwölf wieder abwärts gehen soll
3.) Musst Du ja, LUN darf max 2TB-512kb groß sein
4.) mit ESXTop: http://www.yellow-bricks.com/esxtop/

Member
Beiträge: 360
Registriert: 13.07.2011, 15:33

Beitragvon MarcelMertens » 11.06.2012, 11:24

1* NL SAS liefert etwa 70 IOps. Bei 3 Disks macht das ganze 210 Read IOps, Write IOps sind ~ 52 IOps. Heißt du hast für die Virtualisierungsumgebung die Schreibperformance von nicht mal einer NL SAS Platte die sich 10 VMs teilen.
Dass da nix bei rum kommt wundert mich nun gar nicht, gerade bei Web und Datenbankservern die viele kleine Schreib und Leseanforderungen haben.

Response Time und Durchsatz(IOps) stehen im direkten zusammenhang.
Der DS Controller hat einen gewissen cache. Kommt in diesen Cache mehr rein als er auf die Platten schreiben kann nimmt der Controller nix mehr an. -> Response Time (DAVG) steigt. Schnelleres Raid -> Der Controller kann schneller auf die Platten schreiben -> DAVG bleibt klein.

- Grundstäzlich sind NL SAS Platten (das sind nix anderes als SATA Platten mit SAS Interface) in der mittleren Zugriffszeit etwa doppelt so langsam wie FC/SAS Platten.
- Raid5 ist ein Write IO Killer und macht erst ab 6-7 Platten Sinn (Archiv o.ä. mal ausgenommen)
- Der DAVG (mit ESX Top) sollte <20ms sein (siehe http://www.yellow-bricks.com/esxtop/)

Nachtrag zum "Dual Controler System". Die DS ist ein Active/Passiv System. Heißt eine LUN wird immer nur über einen Controller präsentiert.
LUN Size kann bei ESXi5 nun bis zu 64TB sein. VMDK File size bleibt weiterhin bei 2TB.
Aufgrund des SCSI Locking sollten nicht zu viele VMDKs je DataStore liegen (6-8)

Member
Beiträge: 77
Registriert: 27.08.2008, 17:13

Beitragvon pauLee » 11.06.2012, 12:08

MarcelMertens hat geschrieben:1* NL SAS liefert etwa 70 IOps. Bei 3 Disks macht das ganze 210 Read IOps, Write IOps sind ~ 52 IOps. Heißt du hast für die Virtualisierungsumgebung die Schreibperformance von nicht mal einer NL SAS Platte die sich 10 VMs teilen.
Dass da nix bei rum kommt wundert mich nun gar nicht, gerade bei Web und Datenbankservern die viele kleine Schreib und Leseanforderungen haben.

Kennst du einen Wert für IOps 15k SAS Platten?

Da du von viele kleinen Schreib und Leseanforderungen sprichst. Wir haben aktuell eine Segment Size der LUNs von 128KB. Sollte das i.O. sein oder kleiner gewählt werden?

- Raid5 ist ein Write IO Killer und macht erst ab 6-7 Platten Sinn (Archiv o.ä. mal ausgenommen)

Besser Raid 10?

- Der DAVG (mit ESX Top) sollte <20ms sein (siehe http://www.yellow-bricks.com/esxtop/)

Wenn ich mit esxtop die View mit u = disk device ändere, sehe ich in der Spalte DAVG/cmd Werte <0,5. Auch andere Ansichten zeigen nur DAVG/cmd an.
Welche Ansicht liefert mir denn einen Wert in ms?

Nachtrag zum "Dual Controler System". Die DS ist ein Active/Passiv System. Heißt eine LUN wird immer nur über einen Controller präsentiert.
LUN Size kann bei ESXi5 nun bis zu 64TB sein. VMDK File size bleibt weiterhin bei 2TB.
Aufgrund des SCSI Locking sollten nicht zu viele VMDKs je DataStore liegen (6-8)

Also lieber mehrere LUNs im gleichen Array, um die VM zu verteilen, sprich vielleicht 2-3 VMs pro LUN?

Member
Beiträge: 360
Registriert: 13.07.2011, 15:33

Beitragvon MarcelMertens » 11.06.2012, 13:49

Kennst du einen Wert für IOps 15k SAS Platten?


SAS Plattenwerte und Raid Penalty
http://sudrsn.wordpress.com/2010/12/25/ ... erization/

Raid IO Calculator
http://www.wmarow.com/strcalc/

Das sind alles Pi X Daumen Werte ohne Cache, die aber aus der Erfahrung +/- 10% passen.


Besser Raid 10?

Die Frage nach dem Raidlevel ist immer die Frage zwischen Sicherheit, Kapazität und Performance.
Ein RAID5 ist ein Mittelweg aus allem, mit dem Malus der sehr schlechten Schreibperformance bei kleinen RaidSets. Kapazität und Leseperformance sind dagegen gut.
Wenn du deine 4 Platten in ein RAID10 umbaust (ohne HotSpare) hast du sogar die selbe Kapazität (~1,9TB) und selbe Lese IO Leistung. Die Schreib IO Leistung steigt aber von ~52 IOps auf etwa 140 IOps.
Vorraussetzung ist aber, dass du im Falles eines HDD Ausfalls schnell an eine Ersatzplatte kommst (4h VorOrt etc).


Wenn ich mit esxtop die View mit u = disk device ändere, sehe ich in der Spalte DAVG/cmd Werte <0,5. Auch andere Ansichten zeigen nur DAVG/cmd an.
Welche Ansicht liefert mir denn einen Wert in ms?

Die DAVG/rd (Read) und DAVG/wr (Write) Werte bekommst du mit: esxtop -> 'd' (Disk View) -> 'f' und dann mit 'H' und 'I' die Stats einblenden

Also lieber mehrere LUNs im gleichen Array, um die VM zu verteilen, sprich vielleicht 2-3 VMs pro LUN?

Optimal 1 LUN = 1 VM / VMDK. Je mehr LUNs desto mehr IO Queues und weniger SCSI Conflicts (wobei die bei VMFS5 deutlich besser gehandled werden)
Da die DS allerdings kein ThinProvisioning kanns hast du dadurch einen großen Verschnitt. Ich würde wenn es Platzmäßig passt 6-8 VMs je LUN Planen.


Du solltest herausfinden wie viele Write / Read IOs deine VMs derzeit brauchen (auch hier sehr hilfreich-> http://www.yellow-bricks.com/esxtop/ READS/s, WRITES/s).
Zu der Hauptzeit 3-4h Aufzeichnen. Mit den Werten kann man dann eine vernünftige Raid Planung machen

Member
Beiträge: 77
Registriert: 27.08.2008, 17:13

Beitragvon pauLee » 12.06.2012, 10:50

Nehmen wir mal ein Raid 10 Array mit 6x300GB (+1 HS).

Wenn ich das Array jetzt in verschiedene LUNs aufteile, sagen wir mal 4 oder 6 LUNs. Ist es dann aus Performance-Gründen sinnvoll die LUNs auf die beiden Controller zu verteilen (Preferred Path)?

Member
Beiträge: 359
Registriert: 28.11.2011, 09:46

Beitragvon weigeltchen » 12.06.2012, 11:21

Das sind 900 GB netto. Wieviele VM und wie groß? Snapshotreserve muß auch noch berücksichtigt werden. Das werden kleine LUNs.

Member
Beiträge: 480
Registriert: 03.08.2010, 11:13
Wohnort: Sauerland

Beitragvon stahly » 12.06.2012, 12:28

Bei der DS 3500 kann man den Cache auch noch von 1GB auf 2GB erhöhen. Ich weiß allerdings nicht, ob man nachträglich machen kann.

Dort wäre auch noch ein wenig Optimierungspotenzial.

Member
Beiträge: 77
Registriert: 27.08.2008, 17:13

Beitragvon pauLee » 12.06.2012, 12:41

weigeltchen hat geschrieben:Das sind 900 GB netto. Wieviele VM und wie groß? Snapshotreserve muß auch noch berücksichtigt werden. Das werden kleine LUNs.

7 VMs zwischen 10 und 70GB (Schnitt 30GB).

Member
Beiträge: 77
Registriert: 27.08.2008, 17:13

Beitragvon pauLee » 12.06.2012, 12:46

stahly hat geschrieben:Bei der DS 3500 kann man den Cache auch noch von 1GB auf 2GB erhöhen. Ich weiß allerdings nicht, ob man nachträglich machen kann.

Dort wäre auch noch ein wenig Optimierungspotenzial.

Wie und wo kann man das machen?

Member
Beiträge: 480
Registriert: 03.08.2010, 11:13
Wohnort: Sauerland

Beitragvon stahly » 12.06.2012, 12:57

pauLee hat geschrieben:Wie und wo kann man das machen?


Dein IBM Dealer Deines Vertrauens wird Dir das Feature gegen ein paar Doppelmark gerne zur Verfügung stellen ;)

Member
Beiträge: 77
Registriert: 27.08.2008, 17:13

Beitragvon pauLee » 12.06.2012, 13:46

stahly hat geschrieben:
pauLee hat geschrieben:Wie und wo kann man das machen?


Dein IBM Dealer Deines Vertrauens wird Dir das Feature gegen ein paar Doppelmark gerne zur Verfügung stellen ;)

Meinst du das "High Performance Tier" Premium Feature für viele 5 €-Münzen?

Profi
Beiträge: 877
Registriert: 18.03.2005, 14:05
Wohnort: Ludwigshafen

Beitragvon Martin » 12.06.2012, 14:46

68Y8434 - 2GB Cache Upgrade
Listenpreis war im Januar EUR 799,- (pro Controller)


Zurück zu „vSphere 5 / ESXi 5 und 5.1“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 2 Gäste