Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

ISCSI Storage Performance Probleme

Moderatoren: Dayworker, irix

Member
Beiträge: 12
Registriert: 27.10.2007, 13:45

ISCSI Storage Performance Probleme

Beitragvon Friedrich.T » 26.03.2015, 12:21

Hallo,

ich habe zwei Systeme übernommen die nicht stabil laufen.
Die Zugriffszeiten auf das San über iSCSI werden immer schlechter bis das System fast steht (derzeit ca. alle zwei Wochen). Ich spreche hier nicht von ms sondern Zugriffszeiten im mehrstelligen Sekundenbereich.

Bei einer Anlage sind es:
3x Server sind HP DL360 mit je drei Cat Leitungen auf
3x Switch auf
2x NAS Deluxe

Hat jemand Erfahrungen mit dem Storage?

Habe noch nie Probleme mit iSCSI gehabt. Wie soll man das Einkreisen?

Bin kurz davor alles zu ersetzten. Da bisher von allen Seiten nix brauchbares raus gekommen ist.
Habt Ihr eine Idee wie ich kurzfristig durch ausleihen / Kaufen ... eine brauchbare Zwischenlösung erstellen kann?

King of the Hill
Beiträge: 13063
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 26.03.2015, 12:52

Was must du dann tun damit sich das Problem entspannt?

So aus meiner Erwahrung gibts zwar 1-2 Raedchen auf Host Seite aber keine Fehlfunktion welche sich so auswirken wie du es beschreibst.

Was ich kenne sind Probleme mit pSwitchen nach einer gewissen Laufzeit oder das sie nie geignet waren fuer ISCSI Traffic.

Nungut.. ein linux basiertes Einstiegstorage muss nicht schlecht sein und auch da wuerde ich erwarten das es laenger als 2 Wochen durchlaufen kann.

- Syslog konfigurieren um zusehen wann es los geht und in welcher Ablauf Reihenfolge
- ESXi/FW und SAN Software auf den aktuellen Stand bringen

Da wo Hersteller Support vorhanden ist diesen bemuehen.

Gruss
Joerg

Member
Beiträge: 12
Registriert: 27.10.2007, 13:45

Beitragvon Friedrich.T » 26.03.2015, 15:03

Zum Beseitigen hilft derzeit nur alles runterfahren VM - ESXi und Storage.
Dann alles neu starten und es läuft wieder besser.

Habe jetzt die HP Switche durch Cisco ersetzt. Das macht allerdings keinen Unterschied.
Jumbo Frame ist aktiviert

King of the Hill
Beiträge: 13063
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 26.03.2015, 15:10

Wenn es mal wieder soweit ist ein vmkernel.log von den Hosts sichern und dann mal nur Hosts oder nur Storage rebooten um zu gucken ob man es einkreisen kann.

Jeder Hersteller hat ISCSI Ungeeignete Switche im Programm und nur der "Name" macht nichts aus.

Gruss
Joerg

Profi
Beiträge: 993
Registriert: 31.03.2008, 17:26
Wohnort: Einzugsbereich des FC Schalke 04
Kontaktdaten:

Beitragvon kastlr » 26.03.2015, 16:25

Hallo,

sonst schau doch mal in die folgende Log Datei.

/var/log/vobd.log

Dort sollten sich eigentlich Hinweise finden lassen.

Gruß,
Ralf

Experte
Beiträge: 1337
Registriert: 25.04.2009, 11:17
Wohnort: Thüringen

Beitragvon Supi » 26.03.2015, 16:51

Die Frage ist ja auch welches NAS Deluxe System ist das?
Die scheinen mir ja Thecus Grundhardware zu verwenden.

Sind die Jumbo-Frames denn auch überall aktiv?
Liefen die "übernommenen" denn je stabil? Vielleicht lässt sich das ja über ein Log des NAS rausfinden, wie oft die rebooted wurden.
Wofür hier eigentlich 3 Switche? Sind die nur für ISCSI oder auch normales NW?

Schon mal probiert "nur" Vm herunter zu fahren und danach die Storageeinheiten zu "rebooten" ?
Dann könnte man ja schon mal die ESX Server ausklammern.

Member
Beiträge: 12
Registriert: 27.10.2007, 13:45

Beitragvon Friedrich.T » 01.04.2015, 11:53

Habe den Support vom Storage und auch jemand für VMware aktiviert.

Der Storage Support hat was gefunden:

The storage performance values are still miserable :

A0051013:
/dev/sda:
Timing buffered disk reads: 2 MB in 5.69 seconds = 360.05 kB/sec
/dev/sdb:
Timing buffered disk reads: 2 MB in 6.08 seconds = 336.81 kB/sec
/dev/sdc:
Timing buffered disk reads: 24 MB in 3.17 seconds = 7.57 MB/sec
/dev/sdd:
Timing buffered disk reads: 26 MB in 3.19 seconds = 8.15 MB/sec
/dev/sde:
Timing buffered disk reads: 54 MB in 3.14 seconds = 17.17 MB/sec

Also there are some errors on network interfaes :

eth6 Link encap:Ethernet HWaddr A0:36:9F:1A:34:26
inet addr:192.168.6.230 Bcast:192.168.6.255 Mask:255.255.255.0
UP BROADCAST RUNNING MULTICAST MTU:9000 Metric:1
RX packets:39584323 errors:5 dropped:266340 overruns:0 frame:5
TX packets:15597267 errors:0 dropped:0 overruns:0 carrier:0

eth7 Link encap:Ethernet HWaddr A0:36:9F:1A:34:24
inet addr:192.168.7.230 Bcast:192.168.7.255 Mask:255.255.255.0
UP BROADCAST MULTICAST MTU:9000 Metric:1
RX packets:24218823 errors:5 dropped:266412 overruns:0 frame:5
TX packets:226119 errors:0 dropped:0 overruns:0 carrier:0

A0051014

/dev/sdb:
Timing buffered disk reads: 6 MB in 3.76 seconds = 1.60 MB/sec
/dev/sdc:
Timing buffered disk reads: 14 MB in 3.01 seconds = 4.65 MB/sec

eth6 Link encap:Ethernet HWaddr A0:36:9F:1A:24:3A
inet addr:192.168.6.240 Bcast:192.168.6.255 Mask:255.255.255.0
UP BROADCAST RUNNING MULTICAST MTU:9000 Metric:1
RX packets:3505822862 errors:5 dropped:266342 overruns:0 frame:5
TX packets:5357264344 errors:0 dropped:0 overruns:0 carrier:0
eth7 Link encap:Ethernet HWaddr A0:36:9F:1A:24:38
inet addr:192.168.7.240 Bcast:192.168.7.255 Mask:255.255.255.0
UP BROADCAST MULTICAST MTU:9000 Metric:1
RX packets:24227597 errors:5 dropped:266482 overruns:0 frame:5
TX packets:225516 errors:0 dropped:0 overruns:0 carrier:0


Da fand ich die Frage mit. Warum eigentlich drei Switche berechtigt. Es würden ja auch zwei reichen. Das kläre ich auch mal ab.

King of the Hill
Beiträge: 13063
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 01.04.2015, 12:01

Bei 40mio Paketen 5 Errors wuerde mich nun noch nicht wirklich erschrecken. Die Frage was die 240k dropped Pakets aussagen koennte da interessanter sein.

3 vSwitche waere nicht ungewoehnlich. Dedizierte pSwitche nur fuer Storage waere sogar BestPractice. Aber du hast uns deinen Aufbau nicht naeher beschrieben. Der "normale" Standard welchen ich so antreffe in kleineren Umgebungen waere ein Stack von gleichen Switchen und je nach Portverbrauch dann halt 2 oder mehr Stck.

Gruss
Joerg

Guru
Beiträge: 2770
Registriert: 23.02.2012, 12:26

Beitragvon ~thc » 01.04.2015, 12:13

@Friedrich.T

Hat der Storage-Support auf dem ESXi eine Linux-VA installiert, um die Plattenleistung zu messen, oder sind die Werte vom Storage direkt?

1% dropped Packets sind kein gutes Zeichen - kommen die Storage-Uplinks nicht mit den Switches zurecht?

Member
Beiträge: 12
Registriert: 27.10.2007, 13:45

Beitragvon Friedrich.T » 01.04.2015, 12:47

Hier der Aufbau vom System:

Bild

Member
Beiträge: 243
Registriert: 27.03.2012, 15:03
Wohnort: Würzburg

Beitragvon Gad » 01.04.2015, 12:55

Upload im Forum gehen nicht, nimm einen externen Anbieter (ohne Login)

z.B. http://imageshack.com

King of the Hill
Beiträge: 13063
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 01.04.2015, 12:55

Verlinke das Bild von einem Freehoster oder deinem Webspace. Hier im Forum kann man technisch keine Attachements machen.

Gruss
Joerg

King of the Hill
Beiträge: 13063
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 01.04.2015, 13:02

Single 10GbE Switch und davon getrennt 2 1GbE Switche und alle machen iSCSI?

Hmmmm. Komisches Setup.

Gruss
Joerg

Guru
Beiträge: 2770
Registriert: 23.02.2012, 12:26

Beitragvon ~thc » 01.04.2015, 13:16

Sieht für mich nach einem redundanten 1Gbit-Storage-Setup aus - bei dem "nachträglich 10GBit rangeschraubt" wurden.

Experte
Beiträge: 1848
Registriert: 04.10.2011, 14:06

Beitragvon JustMe » 01.04.2015, 14:50

Mal ganz vorsichtig gefragt:

Werden da auf allen ETHxIP jeweils alle LUNs praesentiert, oder gibt es da eine getrennte Zuweisung, LUNa,b,c auf 1Gbit, LUNx,y,z auf 10GBit?

Wie ist dann der iSCSI auf den Hosts konfiguriert?


Zurück zu „vSphere 5.5 / ESXi 5.5“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 2 Gäste