Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
Storage Performance verbessern
Storage Performance verbessern
In Anlehnung an den Thread "LUN-Aufteilung MD3220 und Sicherung" will ich auch mal ein paar Frage in die Runde werfen ...
Folgende Konstellation:
IBM System x3650 M2 Server und ein IBM DS3512 mit 4x1TB NL SAS im Raid 5 (3+1) via SAS (in Planung ist noch ein IBM x3650 für Redundanz)
Über die letzten 3 Jahre war die Performance gut bzw. gab es keine spürbaren Einbußen. Was vielleicht auch daran lag, dass VMs die vielleicht etwas mehr IO brauchten auf schnelleren 10K Platten im Server lagen.
In der letzten Zeit haben wir aber Performance Probleme mit VMs die auf dem Storage liegen. Zum einen DB-Server und WebServer (ca. 10 VMs, haupsächlich Linux WebServer). Die Antwortzeiten stimmen einfach nicht mehr. Es fühlt sich an, als würden die Anfragen in einer Queue stecken. Sobald die Queue abgearbeitet ist, stimmt die Performance wieder.
Ich denke also es ist nicht der Duchsatz, sondern die Response Time die wir verbessern müssen.
Meine konkreten Fragen:
1. ab wieviel 15k Platten (300GB) würdet ihr anfangen ein einigermaßen performantes Array aufzubauen?
2. lässt sich die Response Time durch mehr Platten verbessern?
3. sollte das Array in mehrere LUNs aufgeteilt werden?
4. wie messt ihr IO und Response Time bzw. was sind gute Werte?
Sollten meine Infos zu wenig sein, um die Fragen zu beantworten, dann mir bitte noch einen Hinweis geben.
Ich danke Euch schonmal!
Folgende Konstellation:
IBM System x3650 M2 Server und ein IBM DS3512 mit 4x1TB NL SAS im Raid 5 (3+1) via SAS (in Planung ist noch ein IBM x3650 für Redundanz)
Über die letzten 3 Jahre war die Performance gut bzw. gab es keine spürbaren Einbußen. Was vielleicht auch daran lag, dass VMs die vielleicht etwas mehr IO brauchten auf schnelleren 10K Platten im Server lagen.
In der letzten Zeit haben wir aber Performance Probleme mit VMs die auf dem Storage liegen. Zum einen DB-Server und WebServer (ca. 10 VMs, haupsächlich Linux WebServer). Die Antwortzeiten stimmen einfach nicht mehr. Es fühlt sich an, als würden die Anfragen in einer Queue stecken. Sobald die Queue abgearbeitet ist, stimmt die Performance wieder.
Ich denke also es ist nicht der Duchsatz, sondern die Response Time die wir verbessern müssen.
Meine konkreten Fragen:
1. ab wieviel 15k Platten (300GB) würdet ihr anfangen ein einigermaßen performantes Array aufzubauen?
2. lässt sich die Response Time durch mehr Platten verbessern?
3. sollte das Array in mehrere LUNs aufgeteilt werden?
4. wie messt ihr IO und Response Time bzw. was sind gute Werte?
Sollten meine Infos zu wenig sein, um die Fragen zu beantworten, dann mir bitte noch einen Hinweis geben.
Ich danke Euch schonmal!
Lese ich aus R5 (3+1) richtig Raid-5 mit 3 Platten und 1 Hotspare? Nunja, auch mit NL SAS sinds nur 7200 U/min und da kommen nicht viel I/O rum.
Ist das Storage Dual oder Single Controller? Siehe hier : http://www.thomas-krenn.com/de/wiki/Sch ... 00_beheben
Ist das Storage Dual oder Single Controller? Siehe hier : http://www.thomas-krenn.com/de/wiki/Sch ... 00_beheben
Supi hat geschrieben:Lese ich aus R5 (3+1) richtig Raid-5 mit 3 Platten und 1 Hotspare? Nunja, auch mit NL SAS sinds nur 7200 U/min und da kommen nicht viel I/O rum.
Ist das Storage Dual oder Single Controller? Siehe hier : http://www.thomas-krenn.com/de/wiki/Sch ... 00_beheben
Ja, es ist ein Raid 5 mit Hotspare. Das DS3512 ist ein Dual Controller Storage.
Im übrigen ein interessanter Link- vielen Dank!
1. ab wieviel 15k Platten (300GB) würdet ihr anfangen ein einigermaßen performantes Array aufzubauen?
2. lässt sich die Response Time durch mehr Platten verbessern?
3. sollte das Array in mehrere LUNs aufgeteilt werden?
4. wie messt ihr IO und Response Time bzw. was sind gute Werte?
Nur so meine Gedanken:
1.) So ab acht Platten
2.) Denke ja, wobei ich auch schon gelesen habe, daß es ab zwölf wieder abwärts gehen soll
3.) Musst Du ja, LUN darf max 2TB-512kb groß sein
4.) mit ESXTop: http://www.yellow-bricks.com/esxtop/
2. lässt sich die Response Time durch mehr Platten verbessern?
3. sollte das Array in mehrere LUNs aufgeteilt werden?
4. wie messt ihr IO und Response Time bzw. was sind gute Werte?
Nur so meine Gedanken:
1.) So ab acht Platten
2.) Denke ja, wobei ich auch schon gelesen habe, daß es ab zwölf wieder abwärts gehen soll
3.) Musst Du ja, LUN darf max 2TB-512kb groß sein
4.) mit ESXTop: http://www.yellow-bricks.com/esxtop/
-
MarcelMertens
- Member
- Beiträge: 360
- Registriert: 13.07.2011, 15:33
1* NL SAS liefert etwa 70 IOps. Bei 3 Disks macht das ganze 210 Read IOps, Write IOps sind ~ 52 IOps. Heißt du hast für die Virtualisierungsumgebung die Schreibperformance von nicht mal einer NL SAS Platte die sich 10 VMs teilen.
Dass da nix bei rum kommt wundert mich nun gar nicht, gerade bei Web und Datenbankservern die viele kleine Schreib und Leseanforderungen haben.
Response Time und Durchsatz(IOps) stehen im direkten zusammenhang.
Der DS Controller hat einen gewissen cache. Kommt in diesen Cache mehr rein als er auf die Platten schreiben kann nimmt der Controller nix mehr an. -> Response Time (DAVG) steigt. Schnelleres Raid -> Der Controller kann schneller auf die Platten schreiben -> DAVG bleibt klein.
- Grundstäzlich sind NL SAS Platten (das sind nix anderes als SATA Platten mit SAS Interface) in der mittleren Zugriffszeit etwa doppelt so langsam wie FC/SAS Platten.
- Raid5 ist ein Write IO Killer und macht erst ab 6-7 Platten Sinn (Archiv o.ä. mal ausgenommen)
- Der DAVG (mit ESX Top) sollte <20ms sein (siehe http://www.yellow-bricks.com/esxtop/)
Nachtrag zum "Dual Controler System". Die DS ist ein Active/Passiv System. Heißt eine LUN wird immer nur über einen Controller präsentiert.
LUN Size kann bei ESXi5 nun bis zu 64TB sein. VMDK File size bleibt weiterhin bei 2TB.
Aufgrund des SCSI Locking sollten nicht zu viele VMDKs je DataStore liegen (6-8)
Dass da nix bei rum kommt wundert mich nun gar nicht, gerade bei Web und Datenbankservern die viele kleine Schreib und Leseanforderungen haben.
Response Time und Durchsatz(IOps) stehen im direkten zusammenhang.
Der DS Controller hat einen gewissen cache. Kommt in diesen Cache mehr rein als er auf die Platten schreiben kann nimmt der Controller nix mehr an. -> Response Time (DAVG) steigt. Schnelleres Raid -> Der Controller kann schneller auf die Platten schreiben -> DAVG bleibt klein.
- Grundstäzlich sind NL SAS Platten (das sind nix anderes als SATA Platten mit SAS Interface) in der mittleren Zugriffszeit etwa doppelt so langsam wie FC/SAS Platten.
- Raid5 ist ein Write IO Killer und macht erst ab 6-7 Platten Sinn (Archiv o.ä. mal ausgenommen)
- Der DAVG (mit ESX Top) sollte <20ms sein (siehe http://www.yellow-bricks.com/esxtop/)
Nachtrag zum "Dual Controler System". Die DS ist ein Active/Passiv System. Heißt eine LUN wird immer nur über einen Controller präsentiert.
LUN Size kann bei ESXi5 nun bis zu 64TB sein. VMDK File size bleibt weiterhin bei 2TB.
Aufgrund des SCSI Locking sollten nicht zu viele VMDKs je DataStore liegen (6-8)
MarcelMertens hat geschrieben:1* NL SAS liefert etwa 70 IOps. Bei 3 Disks macht das ganze 210 Read IOps, Write IOps sind ~ 52 IOps. Heißt du hast für die Virtualisierungsumgebung die Schreibperformance von nicht mal einer NL SAS Platte die sich 10 VMs teilen.
Dass da nix bei rum kommt wundert mich nun gar nicht, gerade bei Web und Datenbankservern die viele kleine Schreib und Leseanforderungen haben.
Kennst du einen Wert für IOps 15k SAS Platten?
Da du von viele kleinen Schreib und Leseanforderungen sprichst. Wir haben aktuell eine Segment Size der LUNs von 128KB. Sollte das i.O. sein oder kleiner gewählt werden?
- Raid5 ist ein Write IO Killer und macht erst ab 6-7 Platten Sinn (Archiv o.ä. mal ausgenommen)
Besser Raid 10?
- Der DAVG (mit ESX Top) sollte <20ms sein (siehe http://www.yellow-bricks.com/esxtop/)
Wenn ich mit esxtop die View mit u = disk device ändere, sehe ich in der Spalte DAVG/cmd Werte <0,5. Auch andere Ansichten zeigen nur DAVG/cmd an.
Welche Ansicht liefert mir denn einen Wert in ms?
Nachtrag zum "Dual Controler System". Die DS ist ein Active/Passiv System. Heißt eine LUN wird immer nur über einen Controller präsentiert.
LUN Size kann bei ESXi5 nun bis zu 64TB sein. VMDK File size bleibt weiterhin bei 2TB.
Aufgrund des SCSI Locking sollten nicht zu viele VMDKs je DataStore liegen (6-8)
Also lieber mehrere LUNs im gleichen Array, um die VM zu verteilen, sprich vielleicht 2-3 VMs pro LUN?
-
MarcelMertens
- Member
- Beiträge: 360
- Registriert: 13.07.2011, 15:33
Kennst du einen Wert für IOps 15k SAS Platten?
SAS Plattenwerte und Raid Penalty
http://sudrsn.wordpress.com/2010/12/25/ ... erization/
Raid IO Calculator
http://www.wmarow.com/strcalc/
Das sind alles Pi X Daumen Werte ohne Cache, die aber aus der Erfahrung +/- 10% passen.
Besser Raid 10?
Die Frage nach dem Raidlevel ist immer die Frage zwischen Sicherheit, Kapazität und Performance.
Ein RAID5 ist ein Mittelweg aus allem, mit dem Malus der sehr schlechten Schreibperformance bei kleinen RaidSets. Kapazität und Leseperformance sind dagegen gut.
Wenn du deine 4 Platten in ein RAID10 umbaust (ohne HotSpare) hast du sogar die selbe Kapazität (~1,9TB) und selbe Lese IO Leistung. Die Schreib IO Leistung steigt aber von ~52 IOps auf etwa 140 IOps.
Vorraussetzung ist aber, dass du im Falles eines HDD Ausfalls schnell an eine Ersatzplatte kommst (4h VorOrt etc).
Wenn ich mit esxtop die View mit u = disk device ändere, sehe ich in der Spalte DAVG/cmd Werte <0,5. Auch andere Ansichten zeigen nur DAVG/cmd an.
Welche Ansicht liefert mir denn einen Wert in ms?
Die DAVG/rd (Read) und DAVG/wr (Write) Werte bekommst du mit: esxtop -> 'd' (Disk View) -> 'f' und dann mit 'H' und 'I' die Stats einblenden
Also lieber mehrere LUNs im gleichen Array, um die VM zu verteilen, sprich vielleicht 2-3 VMs pro LUN?
Optimal 1 LUN = 1 VM / VMDK. Je mehr LUNs desto mehr IO Queues und weniger SCSI Conflicts (wobei die bei VMFS5 deutlich besser gehandled werden)
Da die DS allerdings kein ThinProvisioning kanns hast du dadurch einen großen Verschnitt. Ich würde wenn es Platzmäßig passt 6-8 VMs je LUN Planen.
Du solltest herausfinden wie viele Write / Read IOs deine VMs derzeit brauchen (auch hier sehr hilfreich-> http://www.yellow-bricks.com/esxtop/ READS/s, WRITES/s).
Zu der Hauptzeit 3-4h Aufzeichnen. Mit den Werten kann man dann eine vernünftige Raid Planung machen
-
weigeltchen
- Member
- Beiträge: 359
- Registriert: 28.11.2011, 09:46
Zurück zu „vSphere 5 / ESXi 5 und 5.1“
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 2 Gäste