Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

traffic separation advice needed

Hilfe bei Problemen mit Installation & Benutzung des VMware ESX Server 4/VMware vSphere 4.0.

Moderatoren: Dayworker, irix

traffic separation advice needed

Beitragvon uLmi » 29.02.2012, 14:28

Hallo Zusammen,

ich bin ganz neu hier im Forum. Ich beschäftige mich seit einem jahr sehr grundlegend mit VMware und brauche daher eure Unterstützung. Ich habe bereits etwas zu meinem Anliegen verfasst aber es ist in english. Ich denke aber ihr solltet alle damit zurecht kommen... ihr könnt ruhig in deutsch antworten.

los gehts:

Dear Community,
I’m currently studying the NetApp and VMware best practices in order to implement changes that improve stability, performance and security to our System. At the moment the IP-Based storage traffic, such as the public IP network traffic is mixed up within one subnet.

I figured out three “easy to pick” topics and want to get them done very soon:

    1. VLAN (traffic separation)
    2. S-flow
    3. Jumbo Frames

The first topic (traffic separation) is definitely the most urgent and important section but unfortunately it also tends to be quite complicated. That’s why I hope to get some help from you guys. The two other topics are to be implemented later on, seem to by very straight forward and don’t require further clarification.

Existing Hardware and cabling:

    1 x NetApp FAS 2020 (active/active Cluster)
    2 x HP 2910al-48G switches
    3 x ESXi Hosts (with dual LAN onboard and dual LAN PCIe Intel Server NICs)

Each Storage controller is connected to switch01 and to switch02; the trunks are configured as single mode with VIF1 and VIF2. The Onboard NIC of each ESXi Host is connected to switch01 and to switch02. The additional PCIe NIC of each ESXi Host is also connected to switch01 and to switch02.

I’m not sure if I really need the additional PCIe NICs but my initial though was to use a dual NIC for redundant storage traffic and a dual NIC for redundant public traffic. However If I don’t need them I don’t use them, if I need them I have them.

Now to get back to the main question:
At the moment the storage, the ESXi Hosts, such as the Windows servers are all on the same Subnet. Let’s say this “all-in-one” subnet is 10.10.10.0/24. According to the white papers I have to:

    - Create a separate VMKernel for each storage protocol
    - Place each VMkernel on a different subnet
    - VMkernel ports can be in the same switch
    - For NFS datastores each VMport has only one active VMnic and one or more standby VMnics
Further I want to keep my Windows Servers on the 10.10.10.0/24 subnet and if I look at these two pictures:


Bild
Bild


I question myself the following things:

    - If the VMkernels for NFS/iSCSI are configured to 192.168.x.x, what will happen to the public traffic of my Windows VMs on 10.10.10.0/24?
    - Are these pictures only showing the storage traffic settings?
    - Are there more configurations required on the VMKernel for the 10.10.10.0 subnet?
    - Especially the Exchange Server is critical, because it is still physical (not yet migrated into Vsphere) but its Databases are lying on the filer (10.10.10.x) and mounted via iSCSI raw device mapping.


Maybe I’m not deep enough into this material but from my perspective it’s not clearly stated in the documents.

Please give me some advice.

Kind Regards,
Michael

Benutzeravatar
UNSTERBLICH(R.I.P.)
Beiträge: 14759
Registriert: 09.08.2003, 05:41
Wohnort: sauerland
Kontaktdaten:

Beitragvon continuum » 29.02.2012, 14:41

sagtest du nicht du haettest 4 nics ? - ich sehe nur 2

Beitragvon uLmi » 29.02.2012, 14:53

Hallo Ulli,

die Grafik ist auf den best practise von NetApp und VMware. die eigentliche IST-Konfiguration ist so wie beschrieben nur das von allen 4 NICs jeweils nur eine wirklich benutzt wird. halt auf dem 10.10.10.0 Netz ... die anderen ideln nur


oder soll ich einfach pro ESXi host einen NIC für das Storage Netz erstellen und einen für das Public netz ?

Die grafik bezieht sich vielleicht nur auf die konfiguration für das Storage netz ?

King of the Hill
Beiträge: 13063
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 29.02.2012, 16:26

Hier treffen mind. 2 Dinge aufeinander.

1. Lastverteilung bei Verwendung von NFS Datastores
2. Abgrenzung von Traffic

Jeder Host der Teil eines HA Cluster ist und IP basieren Storage verwendet und NUR 4 pNICs hat ist falsch konzipiert, sprich hat zuwenige Netzwerkkarten.

Minimale Umsetzung:
1. 2 pNICs fuer MGMT + vMotion. Jeweils eine aktiv und die andere als Standby "ueber Kreuz"
2. 2 pNICs fuer LAN Traffic
3. 2 pNICs fuer VMKs

Hierbei faellt vSphere FT sowie die Moeglichkeit mit vSphere 5 mehere pNICS bei vMotion verwenden zukoennen noch heraus.

Die obige Teilung wird schon ganz automatisch eine Aufteilung auf min. 4 Netzwerkarten gemacht und die Gefahr das mal keine Bandbreite fuer MGMT bzw. Heartbeats bleibt wird reduziert. Ob hier VLANs zum Einsatz kommen ist optional. Sind aber zuempfehlen und tun ja auch nicht weh.

Was im NetApp Guide ja schon zusehen ist das die NFS Shares ueber unterschiedliche IPs angesprochen werden und somit mehre pNICs verwendung finden. Da es bei NFS kein MultiPathing in dem Sinne wie bei FC und iSCSI gibt ist sowas notwendig. In einem der Blogs war neulich zu lesen das per RR DNS eine Verteilung erreicht werden sollte.... dum nur wenn DNS vollstaendig virtualisiert ist und man ein Henne-Ei Problem hat.


PS: Ein ESX Build 140815 ist auch schon etwas aelter oder?

Gruss
Joerg

Beitragvon uLmi » 29.02.2012, 17:31

Es gibt Blades die nur 2 lans haben ... dafür gibt es doch VLANs

es steht in den whitepapers das VMotion und irgendwas anderes mit über eine pnic laufen kann in getrennten VLANs..

nehme aber morgen detailierter stellung dazu ich muss jetzt los.

King of the Hill
Beiträge: 13063
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 29.02.2012, 17:40

uLmi hat geschrieben:Es gibt Blades die nur 2 lans haben ... dafür gibt es doch VLANs



Darum sind Blades mit nur 2x1GbE ungeeignet wenn man IP basierten Storage hat. Hat schon seinen Grund warum andere Hersteller Unified Umgebungen mit 10GbE realisiert haben welche sich dann entsprechend unterteilen lassen.

Gruss
Joerg

Beitragvon uLmi » 01.03.2012, 08:20

also hier ist das was NetApp dazu schreibt:

VLAN TAGGING OR 802.1Q
When segmenting network traffic with VLANs, interfaces either can be dedicated to a single VLAN or can support multiple VLANs with VLAN tagging.

For systems that have fewer NICs, such as blade servers, VLANs can be very useful. Channeling two NICs together provides an ESX server with physical link redundancy. By adding multiple VLANs, you can group common IP traffic onto separate VLANs for optimal performance. It is recommended that service console access with the virtual machine network should be on one VLAN, and the VMkernel activities of IP storage and VMotion should be on a second VLAN.

VLANs and VLAN tagging also play a simple but important role in securing an IP storage network. NFS exports can be restricted to a range of IP addresses that are available only on the IP storage VLAN. NetApp storage appliances also allow the restriction of the iSCSI protocol to specific interfaces and/or VLAN tags. These simple configuration settings have an enormous effect on the security and availability of IP-based datastores. If you are using multiple VLANs over the same interface, make sure that sufficient throughput can be provided for all traffic.


Zurück zu „vSphere 4 / ESX 4“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 19 Gäste