Hallo,
ich habe zwei Systeme übernommen die nicht stabil laufen.
Die Zugriffszeiten auf das San über iSCSI werden immer schlechter bis das System fast steht (derzeit ca. alle zwei Wochen). Ich spreche hier nicht von ms sondern Zugriffszeiten im mehrstelligen Sekundenbereich.
Bei einer Anlage sind es:
3x Server sind HP DL360 mit je drei Cat Leitungen auf
3x Switch auf
2x NAS Deluxe
Hat jemand Erfahrungen mit dem Storage?
Habe noch nie Probleme mit iSCSI gehabt. Wie soll man das Einkreisen?
Bin kurz davor alles zu ersetzten. Da bisher von allen Seiten nix brauchbares raus gekommen ist.
Habt Ihr eine Idee wie ich kurzfristig durch ausleihen / Kaufen ... eine brauchbare Zwischenlösung erstellen kann?
Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
ISCSI Storage Performance Probleme
-
Friedrich.T
- Member
- Beiträge: 12
- Registriert: 27.10.2007, 13:45
-
irix
- King of the Hill
- Beiträge: 13063
- Registriert: 02.08.2008, 15:06
- Wohnort: Hannover/Wuerzburg
- Kontaktdaten:
Was must du dann tun damit sich das Problem entspannt?
So aus meiner Erwahrung gibts zwar 1-2 Raedchen auf Host Seite aber keine Fehlfunktion welche sich so auswirken wie du es beschreibst.
Was ich kenne sind Probleme mit pSwitchen nach einer gewissen Laufzeit oder das sie nie geignet waren fuer ISCSI Traffic.
Nungut.. ein linux basiertes Einstiegstorage muss nicht schlecht sein und auch da wuerde ich erwarten das es laenger als 2 Wochen durchlaufen kann.
- Syslog konfigurieren um zusehen wann es los geht und in welcher Ablauf Reihenfolge
- ESXi/FW und SAN Software auf den aktuellen Stand bringen
Da wo Hersteller Support vorhanden ist diesen bemuehen.
Gruss
Joerg
So aus meiner Erwahrung gibts zwar 1-2 Raedchen auf Host Seite aber keine Fehlfunktion welche sich so auswirken wie du es beschreibst.
Was ich kenne sind Probleme mit pSwitchen nach einer gewissen Laufzeit oder das sie nie geignet waren fuer ISCSI Traffic.
Nungut.. ein linux basiertes Einstiegstorage muss nicht schlecht sein und auch da wuerde ich erwarten das es laenger als 2 Wochen durchlaufen kann.
- Syslog konfigurieren um zusehen wann es los geht und in welcher Ablauf Reihenfolge
- ESXi/FW und SAN Software auf den aktuellen Stand bringen
Da wo Hersteller Support vorhanden ist diesen bemuehen.
Gruss
Joerg
-
Friedrich.T
- Member
- Beiträge: 12
- Registriert: 27.10.2007, 13:45
Die Frage ist ja auch welches NAS Deluxe System ist das?
Die scheinen mir ja Thecus Grundhardware zu verwenden.
Sind die Jumbo-Frames denn auch überall aktiv?
Liefen die "übernommenen" denn je stabil? Vielleicht lässt sich das ja über ein Log des NAS rausfinden, wie oft die rebooted wurden.
Wofür hier eigentlich 3 Switche? Sind die nur für ISCSI oder auch normales NW?
Schon mal probiert "nur" Vm herunter zu fahren und danach die Storageeinheiten zu "rebooten" ?
Dann könnte man ja schon mal die ESX Server ausklammern.
Die scheinen mir ja Thecus Grundhardware zu verwenden.
Sind die Jumbo-Frames denn auch überall aktiv?
Liefen die "übernommenen" denn je stabil? Vielleicht lässt sich das ja über ein Log des NAS rausfinden, wie oft die rebooted wurden.
Wofür hier eigentlich 3 Switche? Sind die nur für ISCSI oder auch normales NW?
Schon mal probiert "nur" Vm herunter zu fahren und danach die Storageeinheiten zu "rebooten" ?
Dann könnte man ja schon mal die ESX Server ausklammern.
-
Friedrich.T
- Member
- Beiträge: 12
- Registriert: 27.10.2007, 13:45
Habe den Support vom Storage und auch jemand für VMware aktiviert.
Der Storage Support hat was gefunden:
The storage performance values are still miserable :
A0051013:
/dev/sda:
Timing buffered disk reads: 2 MB in 5.69 seconds = 360.05 kB/sec
/dev/sdb:
Timing buffered disk reads: 2 MB in 6.08 seconds = 336.81 kB/sec
/dev/sdc:
Timing buffered disk reads: 24 MB in 3.17 seconds = 7.57 MB/sec
/dev/sdd:
Timing buffered disk reads: 26 MB in 3.19 seconds = 8.15 MB/sec
/dev/sde:
Timing buffered disk reads: 54 MB in 3.14 seconds = 17.17 MB/sec
Also there are some errors on network interfaes :
eth6 Link encap:Ethernet HWaddr A0:36:9F:1A:34:26
inet addr:192.168.6.230 Bcast:192.168.6.255 Mask:255.255.255.0
UP BROADCAST RUNNING MULTICAST MTU:9000 Metric:1
RX packets:39584323 errors:5 dropped:266340 overruns:0 frame:5
TX packets:15597267 errors:0 dropped:0 overruns:0 carrier:0
eth7 Link encap:Ethernet HWaddr A0:36:9F:1A:34:24
inet addr:192.168.7.230 Bcast:192.168.7.255 Mask:255.255.255.0
UP BROADCAST MULTICAST MTU:9000 Metric:1
RX packets:24218823 errors:5 dropped:266412 overruns:0 frame:5
TX packets:226119 errors:0 dropped:0 overruns:0 carrier:0
A0051014
/dev/sdb:
Timing buffered disk reads: 6 MB in 3.76 seconds = 1.60 MB/sec
/dev/sdc:
Timing buffered disk reads: 14 MB in 3.01 seconds = 4.65 MB/sec
eth6 Link encap:Ethernet HWaddr A0:36:9F:1A:24:3A
inet addr:192.168.6.240 Bcast:192.168.6.255 Mask:255.255.255.0
UP BROADCAST RUNNING MULTICAST MTU:9000 Metric:1
RX packets:3505822862 errors:5 dropped:266342 overruns:0 frame:5
TX packets:5357264344 errors:0 dropped:0 overruns:0 carrier:0
eth7 Link encap:Ethernet HWaddr A0:36:9F:1A:24:38
inet addr:192.168.7.240 Bcast:192.168.7.255 Mask:255.255.255.0
UP BROADCAST MULTICAST MTU:9000 Metric:1
RX packets:24227597 errors:5 dropped:266482 overruns:0 frame:5
TX packets:225516 errors:0 dropped:0 overruns:0 carrier:0
Da fand ich die Frage mit. Warum eigentlich drei Switche berechtigt. Es würden ja auch zwei reichen. Das kläre ich auch mal ab.
Der Storage Support hat was gefunden:
The storage performance values are still miserable :
A0051013:
/dev/sda:
Timing buffered disk reads: 2 MB in 5.69 seconds = 360.05 kB/sec
/dev/sdb:
Timing buffered disk reads: 2 MB in 6.08 seconds = 336.81 kB/sec
/dev/sdc:
Timing buffered disk reads: 24 MB in 3.17 seconds = 7.57 MB/sec
/dev/sdd:
Timing buffered disk reads: 26 MB in 3.19 seconds = 8.15 MB/sec
/dev/sde:
Timing buffered disk reads: 54 MB in 3.14 seconds = 17.17 MB/sec
Also there are some errors on network interfaes :
eth6 Link encap:Ethernet HWaddr A0:36:9F:1A:34:26
inet addr:192.168.6.230 Bcast:192.168.6.255 Mask:255.255.255.0
UP BROADCAST RUNNING MULTICAST MTU:9000 Metric:1
RX packets:39584323 errors:5 dropped:266340 overruns:0 frame:5
TX packets:15597267 errors:0 dropped:0 overruns:0 carrier:0
eth7 Link encap:Ethernet HWaddr A0:36:9F:1A:34:24
inet addr:192.168.7.230 Bcast:192.168.7.255 Mask:255.255.255.0
UP BROADCAST MULTICAST MTU:9000 Metric:1
RX packets:24218823 errors:5 dropped:266412 overruns:0 frame:5
TX packets:226119 errors:0 dropped:0 overruns:0 carrier:0
A0051014
/dev/sdb:
Timing buffered disk reads: 6 MB in 3.76 seconds = 1.60 MB/sec
/dev/sdc:
Timing buffered disk reads: 14 MB in 3.01 seconds = 4.65 MB/sec
eth6 Link encap:Ethernet HWaddr A0:36:9F:1A:24:3A
inet addr:192.168.6.240 Bcast:192.168.6.255 Mask:255.255.255.0
UP BROADCAST RUNNING MULTICAST MTU:9000 Metric:1
RX packets:3505822862 errors:5 dropped:266342 overruns:0 frame:5
TX packets:5357264344 errors:0 dropped:0 overruns:0 carrier:0
eth7 Link encap:Ethernet HWaddr A0:36:9F:1A:24:38
inet addr:192.168.7.240 Bcast:192.168.7.255 Mask:255.255.255.0
UP BROADCAST MULTICAST MTU:9000 Metric:1
RX packets:24227597 errors:5 dropped:266482 overruns:0 frame:5
TX packets:225516 errors:0 dropped:0 overruns:0 carrier:0
Da fand ich die Frage mit. Warum eigentlich drei Switche berechtigt. Es würden ja auch zwei reichen. Das kläre ich auch mal ab.
-
irix
- King of the Hill
- Beiträge: 13063
- Registriert: 02.08.2008, 15:06
- Wohnort: Hannover/Wuerzburg
- Kontaktdaten:
Bei 40mio Paketen 5 Errors wuerde mich nun noch nicht wirklich erschrecken. Die Frage was die 240k dropped Pakets aussagen koennte da interessanter sein.
3 vSwitche waere nicht ungewoehnlich. Dedizierte pSwitche nur fuer Storage waere sogar BestPractice. Aber du hast uns deinen Aufbau nicht naeher beschrieben. Der "normale" Standard welchen ich so antreffe in kleineren Umgebungen waere ein Stack von gleichen Switchen und je nach Portverbrauch dann halt 2 oder mehr Stck.
Gruss
Joerg
3 vSwitche waere nicht ungewoehnlich. Dedizierte pSwitche nur fuer Storage waere sogar BestPractice. Aber du hast uns deinen Aufbau nicht naeher beschrieben. Der "normale" Standard welchen ich so antreffe in kleineren Umgebungen waere ein Stack von gleichen Switchen und je nach Portverbrauch dann halt 2 oder mehr Stck.
Gruss
Joerg
-
Friedrich.T
- Member
- Beiträge: 12
- Registriert: 27.10.2007, 13:45
Zurück zu „vSphere 5.5 / ESXi 5.5“
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 7 Gäste
