Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

Durchsatz mit NFS-Datastores auf NetApp optimieren

Alles zum Thema vSphere 6, ESXi 6.0 und vCenter Server.

Moderatoren: irix, continuum, Dayworker

Profi
Beiträge: 900
Registriert: 12.02.2005, 13:57
Wohnort: Süd-Niedersachsen

Durchsatz mit NFS-Datastores auf NetApp optimieren

Beitragvon GTMK » 04.08.2016, 11:46

Moin,

bislang betreibe ich eine ESX-Farm mit einem iSCSI-Storage von LeftHand auf einer dedizierten Switch-Infrastruktur. Alle ESXe sind mit jeweils zwei (1 GbE-) NICs über zwei unterschiedliche Switche angebunden, die LeftHand-Knoten ebenfalls. Auf dem iSCSI-vSwitch sind 2 VMkernel-Ports im gleichen Subnetz konfiguriert, von denen einer an die eine und der andere an die andere NIC gebunden ist. Auf diese Weise kann ich auf jedem ESX einen Durchsatz von 2 Gbit zum Storage erreichen. Bislang reicht das auch.

Jetzt soll die LeftHand durch eine NetApp abgelöst werden (die selbst mit 10 GbE angebunden ist) und NFS eingesetzt werden, wo obige Konstruktion nicht mehr funktioniert. Bei meinen bisherigen Versuchen ist es mir nicht gelungen, einen Durchsatz von mehr 1 Gbit zu erreichen.

Wie muss ich vSwitch, VMkernel Ports und NICs konfigurieren, um auf 2 Gbit zu kommen?

Das Argument für die Verwendung von NFS-Datastores ist, dass es schlicht einfacher sei... Wir haben auch eine iSCSI-Lizenz für die NetApp. Sollten wir vielleicht doch lieber weiter iSCSI machen?

Viele Grüße

Georg.

Member
Beiträge: 243
Registriert: 27.03.2012, 15:03
Wohnort: Würzburg

Beitragvon Gad » 04.08.2016, 12:24

Wie misst du den Datendurchsatz zum Storage?

Profi
Beiträge: 900
Registriert: 12.02.2005, 13:57
Wohnort: Süd-Niedersachsen

Beitragvon GTMK » 04.08.2016, 13:15

IOmeter in den beteiligten VMs.

Member
Beiträge: 94
Registriert: 18.10.2015, 18:15

Beitragvon Whitemoon » 04.08.2016, 15:52

Alle ESXe sind mit jeweils zwei (1 GbE-) NICs über zwei unterschiedliche Switche angebunden, die LeftHand-Knoten ebenfalls. Auf dem iSCSI-vSwitch sind 2 VMkernel-Ports im gleichen Subnetz konfiguriert, von denen einer an die eine und der andere an die andere NIC gebunden ist

Ich dachte immer, bei iSCSI ist aus Gründen der Reduanz und Pfade zwei unterschiedliche Subnetze notwendig.

Jetzt soll die LeftHand durch eine NetApp abgelöst werden (die selbst mit 10 GbE angebunden ist) und NFS eingesetzt werden, wo obige Konstruktion nicht mehr funktioniert. Bei meinen bisherigen Versuchen ist es mir nicht gelungen, einen Durchsatz von mehr 1 Gbit zu erreichen.

Warum? Gerade mit NFS und LACP reicht ein Subnet völlig aus. Die Ports auf der Netapp bzw. SVM (unter C-Mode) zu Multimode LACP konfigurieren. Auf den ESXi-Servern alle Netzwerkkarten für das Subntz in einem vSwitch zusammenfassen und Lastausgleich auf IP-Hash einstellen. Wobei echtes LACP steht nur über Dist. Switches zur Verfügung.

Das Argument für die Verwendung von NFS-Datastores ist, dass es schlicht einfacher sei...

Und auch schneller... weil einfach ein Layer weniger dazwischen ist. Du kannst auch das NFS Volume auch einfach freigeben und direkt auf die Verzeichnisse zugreifen. Des Weiteren wird es dir die Netapp Deduplikationsfunktion danken... dies kann noch effektiver sein.

Profi
Beiträge: 900
Registriert: 12.02.2005, 13:57
Wohnort: Süd-Niedersachsen

Beitragvon GTMK » 04.08.2016, 16:47

Danke für die Anmerkungen...

Ich dachte immer, bei iSCSI ist aus Gründen der Reduanz und Pfade zwei unterschiedliche Subnetze notwendig.

Nö, ist es nicht. Ich habe deine Anmerkung zum Anlass genommen, es zu überprüfen ;-)

Gerade mit NFS und LACP reicht ein Subnet völlig aus.

Ich bilde mir ein, dass LACP Endpunkte auf _einem_ Switch benötigt. Die beiden NICs des ESX gehen aber auf zwei unterschiedliche Switche.

Und auch schneller... weil einfach ein Layer weniger dazwischen ist.

Ich war immer der Meinung, das Block Storage eigentlich schneller sein müsste - eben wegen des fehlenden Overhead. Oder meist du damit, dass bei der NetApp der Block Storage ja auf ein Filesystem abgebildet werden muss?

Profi
Beiträge: 993
Registriert: 31.03.2008, 17:26
Wohnort: Einzugsbereich des FC Schalke 04
Kontaktdaten:

Beitragvon kastlr » 05.08.2016, 01:51

Hallo zusammen,

ich will jetzt keinen Glaubenskrieg starten, aber warum NFS einen Layer weniger als Block Storage hat erschließt sich mir nicht.

Schließlich muss der NFS Server die Daten schlussendlich auch auf seine Platten schreiben, und da wird wieder SCSI verwendet.

Also findet auch zweimal eine "Konvertierung" statt, denn die "Payload" muss in IP Packete eingepackt werden.
Bei Block Storage ist dass bei FC/FCoE/iSCSI auch erforderlich.

Das Protokoll ist eigentlich Nebensache, denn aus Performance Sicht hat es kaum Einfluss.
Man sollte also das wählen, was am besten in die Umgebung passt bzw. womit man sich persönlich am besten "fühlt".

In Enterprise Umgebungen war/ist Blockstorage aktuell immer noch sehr stark vertreten, NFS findet sich verstärkt im Mid Market Bereich.
Unter anderem deshalb, weil die meisten Hersteller dort Multiprotokoll Arrays verkaufen.

Gruß,
Ralf

Member
Beiträge: 44
Registriert: 05.12.2006, 07:43
Wohnort: Saarland

Re: Durchsatz mit NFS-Datastores auf NetApp optimieren

Beitragvon rziwin » 06.08.2016, 16:07

GTMK hat geschrieben:Das Argument für die Verwendung von NFS-Datastores ist, dass es schlicht einfacher sei... Wir haben auch eine iSCSI-Lizenz für die NetApp. Sollten wir vielleicht doch lieber weiter iSCSI machen?


In der genannten Konstellation dürfte nfs gegenüber iSCSI langsamer sein, da nur ein vmkernel auf die nfs Datastores je ESXi zugreifen kann. Multipath funktioniert erst mit ESXi 6.0 und nfs 4.1, welches wiederum NetApp nur im C-DOT Mode neuerer Versionen kann.

Des Weiteren sollte man zwischendurch auch im Kleingedruckten bei Firmen wie Microsoft lesen - bestimmte Server Applikationen werden nur Supported auf Block-Device (FC oder iSCSI) und nicht auf File-Device!

Deduplication funktioniert übrigens auch mit iSCSI.

Profi
Beiträge: 900
Registriert: 12.02.2005, 13:57
Wohnort: Süd-Niedersachsen

Beitragvon GTMK » 08.08.2016, 16:47

Ich habe vSphere 6 im Einsatz, auch NFS 4.1 mit einer NetApp mit cDOT 8.3.2P1 - da sollten alle Voraussetzungen stimmen.

Auf der NetApp sind in der SVM zwei Data-LIFs konfiguriert, deren physikalische Interfaces mit unterschiedlichen Switches verbunden sind. Muss ich auf der NetApp noch mehr konfigurieren?

Wie muss das Load Balancing auf dem vSwitch definiert sein? Dieser hat je einen aktive Uplink auf die beiden Switches, mit denen auch die NetApp verbunden ist.

Member
Beiträge: 94
Registriert: 18.10.2015, 18:15

Beitragvon Whitemoon » 08.08.2016, 21:48

Auf der NetApp sind in der SVM zwei Data-LIFs konfiguriert, deren physikalische Interfaces mit unterschiedlichen Switches verbunden sind. Muss ich auf der NetApp noch mehr konfigurieren?

Bilden die Switches eine logische Einheit ab, sprich unter einer IP-Adresse erreichbar?

Profi
Beiträge: 900
Registriert: 12.02.2005, 13:57
Wohnort: Süd-Niedersachsen

Beitragvon GTMK » 09.08.2016, 09:42

Nein, das sind zwei separate Switches. Aber was hat die IP-Adresse des Switches damit überhaupt zu tun?

Profi
Beiträge: 900
Registriert: 12.02.2005, 13:57
Wohnort: Süd-Niedersachsen

Beitragvon GTMK » 15.09.2016, 11:34

Der Thread ist zwar schon etwas älter... Ich habe gerade von unserem NetApp-Partner die Information bekommen, dass NetApp auch mit cDOT Session Trunking mit NFS 4.1 (noch?) nicht unterstützt. Mehr als die Geschwindigkeit eines Interfaces erreiche ich in meiner Konfiguration nicht. Daher werde ich wieder iSCSI machen...

Viele Grüße, Georg.


Zurück zu „vSphere 6.0“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast