Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

Konzeption Zugriff auf iSCSI LUN von dem virtuellen Server

Hilfe bei Problemen mit Installation & Benutzung des VMware ESX Server 4/VMware vSphere 4.0.

Moderatoren: Dayworker, irix

Member
Beiträge: 36
Registriert: 10.12.2009, 15:04

Konzeption Zugriff auf iSCSI LUN von dem virtuellen Server

Beitragvon facebraker » 05.05.2010, 16:14

Hallo,

ich betreibe eine vSphere 4.0 Umgebung mit einer iSCSI-SAN und habe ein Konzeptions-Problem,
ich hoffe ihr könnt mir weiterhelfen.

Hardwaregegebenheiten:
Ich habe 2 ESX4 Server, die zusammen in 2 getrennten Netzen sind, d.h. jeder Server hängt im
LAN-Netzwerk und getrennt davon nochmal im SAN-Netzwerk.
(Insgesamt 6 NW-Ports, 2 im SAN-Netz und 4 im LAN-Netz)
Vorschriftsmäßig verkabelt ;-)

Ich möchte nun einen File-Server migrieren. Die Daten des File-Servers liegen auf getrennten Festplatten, z.B. Freigabe "A" auf LW D: ; Freigabe "B" auf LW E:.

Meine Überlegung war, den Server ohne Daten per VMWare-Converter zu migieren.
Er befindet sich dann auf einer eigenen LUN , dem VMware Datastore auf der SAN.
Dann wollte ich noch eigene LUNs für die Daten anlegen und dann den migrierten Server
(virtuelle Maschine) mit den LUNs per iSCSI Initiator verbinden und dann damit die Freigaben
realisieren.

Meine Frage, wie kann ich das umsetzen, oder kann ich das überhaupt umsetzen, ich habe ja
2 getrennte Netze, die 2 Ports die im SAN-Netz sind, sind ja VMKernel-Ports für die SAN-Kommunikation.

Muss ich 1 Port von den LAN-Ports noch ins SAN-Netz bringen als VM Network, funktioniert das?

Kann ich dann in der virtuellen Maschine auf dieses Netz zugreifen und die LUNs "mounten"?

Alternativ müßte ich den Server komplett samt Daten migrieren, aber ca. 700GB an Daten mit in
die VM schleppen, denke ich ist auch nicht richtig?

Ich hoffe ihr könnt mir helfen!!!

Ich hoffe ich habe es nicht zu kompliziert erklärt :-(

Gruss ALex

Member
Beiträge: 485
Registriert: 13.01.2005, 13:29
Wohnort: CH

Beitragvon riddley » 06.05.2010, 09:03

Hallo Alex

Ich verstehe das mit den "getrennten Festplatten" nicht ganz. Wo stehen denn diese? Und was meinst du mit "SAN-Kommunikation" --> iSCSI von einem SAN (bsp. NetApp oder EMC)?

PS: Sofern ich dich richtig verstanden habe am Schluss (Alternativ müßte ich den Server komplett samt Daten migrieren, aber ca. 700GB an Daten mit in
die VM schleppen, denke ich ist auch nicht richtig?
) könntest du auch einfach den kompletten Server migrieren und angeben, dass er dir für jede Partition ein eigenes .vmdk macht. Sobald der Server migriert ist kannst du dann die "Daten vmdk" auf die getrennte LUN verschieben und hast so auch deine Trennung zwischen Daten und OS.

Gruss, Stefan

Member
Beiträge: 36
Registriert: 10.12.2009, 15:04

Beitragvon facebraker » 06.05.2010, 11:14

Hi Stefan,

danke für deine Antwort.
Ich versuch mal Klarheit in die Sache zu bringen.

Die Konstellation ist, eine DELL Eqallogic, und 2 DELL PowerEdge Server als ESX Server.
Zusätzlich habe ich noch einen Server (so geplant) für den vCenter-Server.

Um HA nutzen zu können, liegen die VMs ja auf einer LUN des Storage.

Ich möchte nun aber nicht die einzelnen Partition in ein eigenes vdmk-Datei migrieren, sondern die Daten so wie sie sind Verzeichnisse/Dateien auf ein eigenes LUN speichern. (nicht als vdmk-Datei- ich erkläre gleich warum nicht).
Dann möchte ich den Server migrieren (mit VMware Converter) und in der virtuellen Maschine dann per iSCSI-Initiator die LUNs mit den Daten drauf verbinden.

Meine Gedanken dabei sind , bitte berichtigt mich wenn ich mich irre.

Ich habe meine Daten noch nativ auf dem Storage liegen, bei Problemen verbinde ich mich mit einen beliebigen Rechner mit dem LUN und kann auf die Daten zugreifen.

Ich kann sie z.B. auf einer anderen Maschine die Daten-LUNs einbinden und dann die Daten auf USB-HDD sichern, kann ich ja so nicht (wenn ich mich nicht verlesen habe) das ich die USB-HDD nciht an die virtuelle Maschine durchreichen kann.

EHRLICH gesagt ist der Hauptgrund, zu wissen das die Daten da sind und nicht in einer VDMK-Datei versteckt. Klar kann ich die irgendwo noch einbinden und mounten, aber ich bilde mir ein, dass es aufwendiger ist,oder?

Zu der Kommunikation, wenn ich das Szenario so umsetzen will, muss ich ja die VM in das SAN-Netz bringen, sonst kann ich ja nicht die LUNs anbinden, wie mache ich das am geschicktesten? Verbinde ich eine Netzwerkkarte des Servers mit dem SAN-Switch und bringe sie in das Netz? Als was für eine Port-Group binde ich das ein ???

Bild

Ich habe mal einen groben, handgezeichneten Plan des Netzes gemacht mit verschiedenen Farben für die Netze. Die blauen Kabel sind die Management-Ports der SAN.Die EQL ist die Equallogic SAN von DELL.

Bei dieser Konfiguration sind die iSCSI-Port per VMKernel-Port-Group verbunden, kann ich dann damit auch aus der VM heraus auf LUNs zugreifen und verbinden?
Oder muss ich einen onBoard-Port (sie Server) noch ins SAN-Netz bringen um das SAN-Netz an die VM zu binden?

Wenn ich einen Gedankefehler habe, immer raus damit, ich freue mich über Verbesserungsvorschläge !

Gruss Alex

Member
Beiträge: 485
Registriert: 13.01.2005, 13:29
Wohnort: CH

Beitragvon riddley » 06.05.2010, 11:25

Hallo Alex

Jetzt verstehe ich deine Bedenken etwas. Hierfür gibt es die RDMs (RAW Devices). Wenn du einer VM eine LUN (beispielsweise später die Partition D:\ deines FileServers) als RAW- Device präsentierst, hast du den Vorteil, dass du diese LUN im Notfall auch einem physischen Server präsentieren und anhängen kannst. So wären deine Bedenken und dein Desaster Recovery abgedackt oder?!

PS: Korrigiert mich, falls ich nun gerade etwas falsches gesagt habe?! Jedoch habe ich dies in beiden VMware Kursen (VI3 und vSphere) so gelernt. Selbst habe ich eine RAW-LUN noch nie einem physischen Server zugewiesen, jedoch müsste dies funktionieren (laut Theorie).

Gruss, Stefan

Benutzeravatar
Profi
Beiträge: 743
Registriert: 23.07.2008, 14:09
Wohnort: Usa
Kontaktdaten:

Beitragvon mangold » 06.05.2010, 11:36

vmdks sind der "Standard Speicher Container" in einer virtuellen Umgebung, performancetechnisch gibt es da mittlerweile eh keine Unterschiede mehr ( von Sonderfällen abgesehen). Eine vmdk kann doch jeder beliebigen VM zugewiesen werden, genauso wie eine Lun einem anderen Rechner zugewiesen werden kann. Die Zuverlässigkeit in Punkto Datenkonsistenz bei vmdks an zu zweifeln ist im Grunde das komplette VMware Szenario anzuzweifeln. Anders ausgedrückt, ich denke die Sorge ist einfach übertrieben

M.E. ist das Risiko von Datenverlust bei raw Devices oder VMDKs nicht unterschiedlich, schlagt mich wenn es anders ist.

Ausserdem sollte eine USB Platte nicht als Backupsystem laufen :), deshalb lassen ich das direkte Anschließen eines USB Drives auch nicht als Argument gelten, das bringt dir auch nichts, wenn dir eine Partition auf einem Raw Device um die Ohren fliegt.

Member
Beiträge: 36
Registriert: 10.12.2009, 15:04

Beitragvon facebraker » 06.05.2010, 12:00

Hallo,

@Stefan, das klingt sehr gut, unabhängig davon ob ich es mit RDMs löse oder als VDMK-Datei (das muss ich noch entscheiden)
Wie würde die Kommunikation ablaufen, wird das RDM- Device über die VMKernel-Port-Group angesprochen? Also um bildlich zu sprechen über die roten Netzwerkpfade in meiner Zeichnung?

@Mangold, das stimmt schon das ich die VDMK-Dateien in jede virtuelle Maschine einbinden kann, aber ich gehe vom Fehlerfall aus das die komplette Virtuelle Umgebung nicht funktioniert und ich keine VM habe um die vdmk-Datei anzubinden, da ist es ein beruhigender Gedanke, dass ich die LUN noch an einen physischen Rechner mounten kann.
Aber wie gesagt, ich überlege noch welche Lösung am besten passt, aber stimmt schon vielleicht bin ich ein wenig übervorsichtig :-/

Das stimmt mit der USB-HDD du hast völlig recht, aber der Finanz-Entscheider hat technisch keine Ahnung und ich bekomme kein Budget frei für eine Streamer-Lösung :-/
Wenn das Problem nicht wäre, würde hier das Beste vom Besten hier stehen ;-)

Gruss Alex

King of the Hill
Beiträge: 13063
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 06.05.2010, 12:26

facebraker hat geschrieben:..
Bei dieser Konfiguration sind die iSCSI-Port per VMKernel-Port-Group verbunden, kann ich dann damit auch aus der VM heraus auf LUNs zugreifen und verbinden?


Nein, dazu must du ein normale PG vom Typ "Virtual Machine Netzwork" erstellen. Deine VMs bekommen dann eine 2. vNIC welche dann diesem Network zugeordnet werden. Das ist Notwendig wenn eine Guest VM selber per iSCSI Initiator mit dem Storage sprechen will. Wer 2vNICs fuer iSCSI nimmt koennte auch MPIO aus dem Guest heraus machen was ich aber durchdacht werden sollte ob es noetig ist.

Deine Skizze ist sowei i.O.

Ich bin auch Mitglied in der EQL und PE Fraktion und den Rest deiner Frage schau ich mir heute abend an.

Zum Thema vCenter:
Wenn ihr vMotion hab dann MIT IN den ESX Cluster und ins SAN. Hab ihr das nicht muesste man ueberlegen was die Vor- bzw. Nachteile sind.
Nachteil ist das das Patchen mit VUM nicht geht solange eine vCenter VM auf dem Host verweilt.

Gruss
Joerg

Benutzeravatar
Profi
Beiträge: 743
Registriert: 23.07.2008, 14:09
Wohnort: Usa
Kontaktdaten:

Beitragvon mangold » 06.05.2010, 12:29

facebraker hat geschrieben:Hallo,

@Mangold, das stimmt schon das ich die VDMK-Dateien in jede virtuelle Maschine einbinden kann, aber ich gehe vom Fehlerfall aus das die komplette Virtuelle Umgebung nicht funktioniert und ich keine VM habe um die vdmk-Datei anzubinden, da ist es ein beruhigender Gedanke, dass ich die LUN noch an einen physischen Rechner mounten kann.
Aber wie gesagt, ich überlege noch welche Lösung am besten passt, aber stimmt schon vielleicht bin ich ein wenig übervorsichtig :-/


Der Finanentscheider sollte mal drüber nachdenken wie lange er damit leben kann, dass sein IT Systeme nicht laufen oder was es ihn kostet, wenn er Daten verliert weil er sich kein vernünftiges Backup leisten wollte. :) Aber ich kenne diese Probleme auch...

Deine VM Umgebung sollte UNBEDINGT Redundant sein, es gibt bestimmte SPOFs die sind nur für viel Geld lösbar, das gilt aber im traditionellen Server Umfeld genauso.

Wer sich eine Virtualisierungsumgebung z.B. nur mit einem Host anschafft und dort keine Redundanz schafft, ist selber schuld wenn nichts mehr geht. Sorry für die harten Worte, aber ich bin selbst durch dies harte Schule gegangen, und nach den ersten "angedrohten" Ausfällen war das Geld für Redundanz auch wieder da.

Member
Beiträge: 36
Registriert: 10.12.2009, 15:04

Beitragvon facebraker » 06.05.2010, 13:07

Hallo,

irix hat geschrieben: Wer 2vNICs fuer iSCSI nimmt koennte auch MPIO aus dem Guest heraus machen was ich aber durchdacht werden sollte ob es noetig ist.


Das verstehe ich jetzt nicht, heißt das, ich kann die normale Virtual Maschine -PG auf eine der 2 pNICS (roter Netzwerkpfad an den Servern) schlüsseln, oder muss ich eine pNIC (oder mehr?) von den LAN-Ports (grüne Pfade) mit auf die Switche im für das SAN klemmen?
Sorry dass ich so dumm frage, aber ich möchte halt total sicher gehen :?
Umgangsprachlich gefragt, wo bekomme ich die pNIC für die neue Virtual Maschine-PG her :-D bzw. welche pNIC kann ich verwenden?

Oh ich glaube ich habe jetzt deine obige Aussage gerafft (hat ein bisschen gedauert) du schlägst vor 2 vNICs für das SAN-Netz für Load-Balancing?

irix hat geschrieben:Ich bin auch Mitglied in der EQL und PE Fraktion und den Rest deiner Frage schau ich mir heute abend an.

Vielen dank für deine Hilfe! Bei DELL war halt eine gutes Preis/leistung-Verhältnis bei der Solution, bei Problemen wird sich zeigen ob die Entscheidung gut war ;-)

@Mangold
Ich war eigentlich der Meinung, das ich halbwegs redundant bin? Ich habe 2 ESX-Server, 2 Switche für das SAN-Netz , einzigst die Equallogic ist SPOF, aber da ist auch fast alles redundant , bzw bei einen GAU = 4h Mission Critical Support.
Aber das hätte das Budget gesprengt die Equallogic redundant zu machen ;-)

Kurz gesagt man muss das beste aus seinem Budget machen :-( Leider!
Ich denke erst wenn es einmal "weh getan hat" bekommt man dann Budget für noch mehr Sicherheit ;-)

Danke schön für die Tipps!

Gruss Alex

Member
Beiträge: 36
Registriert: 10.12.2009, 15:04

Beitragvon facebraker » 06.05.2010, 15:20

Hallo,

ich hab mir das grad noch einmal verinnerlicht ;-)

Ich glaube ich habe Äpfel und Birnen verglichen. :oops:

So wie Jörg mir das empfohlen hat, wenn ich in der VM per iSCSI verbinde, brauche ich eine pNIC in dem SAN-Netz, klar.

Wenn ich über RDM gehe, reicht ja die VMKernel-PG aus, worüber der Datastore auf der SAN verbunden ist (Datastore der VMs), darüber kann ich ja dann auf die LUN zugreifen wo die Daten liegen, oder?

Folgendes habe im Admin-Manual gefunden:

    6 If you selected Mapped SAN LUN:
    a Select the LUN that you want to use for the raw disk, and click Next.
    b Select a datastore and click Next.
    c Select the compatibility mode: physical to allow the guest operating system to access the hardware
    directly or virtual to allow the virtual machine to use VMware snapshots and other advanced
    functions. Click Next.


Ich find das echt kompliziert, da muss man wirklich einen klaren Kopf behalten.

@Mangold, was mir auch noch Bauchschmerzen berreitet: dauert eine Migration eines vollen Servers mit knapp 1TB nicht sehr lange?

Einzeln die Daten kopieren geht dann einfacher, ich kopiere sie einmalig auf das LUN und am Tag der Umstellung gleiche ich nur noch die Änderungen ab?

Gruss ALex

Benutzeravatar
Profi
Beiträge: 743
Registriert: 23.07.2008, 14:09
Wohnort: Usa
Kontaktdaten:

Beitragvon mangold » 06.05.2010, 15:36

Eine Migration einer VM von einem Host zu einem anderen dauert nicht lange. Dabei ist nicht die Größe der Platte ausschlaggebend, sondern der zugewiesene Hauptspeicher, denn nur dieser wird über das Netzwerk übertragen, wenn vmotion verwendet wird, deshalb ist es m.E. unabdingbar das VMotion Netzwerk performant auszustatten, zumindest Gigabit wenn nicht sogar dedizierte NICs. Ist die Maschine sogar aus, geht das innerhalb weniger Augenblicke, das hier keine Daten übertragen werden müssen.

Die 1 TB die du meintest wäre nur dann von Belang, wenn die VM von einem Datastore zu einem anderen migriert werden soll.

Zur Redundanz: Ich hatte nur den Eindruck - durch deinen Einwand des Finanzentscheiders - ihr spart an der falschen Stelle. Wie schon geschrieben, ist in meiner Augen ein System auf RAW Devices auszulegen, weil man befürchtet sonst nicht an die Daten ran zu kommen extrem Übervorsichtig, vielleicht sogar kontraproduktiv. Und nochmals - sich auf eine USB Platte als Backup zu verlassen, halte ich für sträflich :) natürlich weiß ich nicht wie eure backuplösung sonst aussieht, ich hoffe es ist aber nicht nur diese USB Platte :)

Unsere VM werden täglich als Image auf Band gezogen - wir verwenden hierzu IcCider von MySoftIT - oder wenn nötig, mittels BackupAgent (in diesem Fall TSM) direkt als Filesicherung auf der VM installiert. Ist aber schon ne größere Umgebung mit mehr als 100 VMs, die Backuplösung TSM ist schon im Einsatz gewesen als wir noch kein VMware hatten.

Lass dich durch mein rumgeunke nicht verunsichern, ich drücke das anders aus: Sollte meine Virtualisierungslösung so die Grätsche gemacht haben, dass ich überhaupt nicht an die Daten komme, weil ich nicht mehr auf die Vdisk zugreifen kann, dann habe ich mein normales Backup. Das ist dann aber eigentlich Kategorie Desaster Recovery, so ein Problem hatte ich in sechs Jahren mit ESX nicht. Was nicht heisst, dass es sowas nicht gibt.

Member
Beiträge: 36
Registriert: 10.12.2009, 15:04

Beitragvon facebraker » 06.05.2010, 16:07

Hallo Mangold,

finde ich gut so, was nützt mir das ganze wenn keiner was kritisches schreibt, wenn ich Mist bauen will ;-) Mir ist Ehrlichkeit am wichtigsten :-D

Jetzt bitte nicht schlagen!!! Ich habe vor, den laufenden Server mittels VMware-Converter in eine VM zu migrieren. ich weiss ist nicht supportet und nur im äußersten Notfall sinnvoll.

Daher auch die Bauschmerzen die ich bei der Migration erwähnte, keine VMotion-Migration sondern die Converter-Migration. ;-)
Da hätte ich vorher die ganzen Daten auf eine LUN gepackt und vor der Konvertierung in eine VM nochmal die Daten gesynct und dann nur das OS (Partition) mit dem Converter migriert, darum Zeit sparen!
Wenn ich den Server dann als VM habe, mounte ich dann nur noch die LUNs mit den Daten.

Mal ganz anders gefragt wie würde es sonst ablaufen, ich installiere händisch den Server als VM neu, richte alles ein, aber wie bekomme ich die Daten in die VM? USB kann ich nicht anschliessen, bleibt mir nur per NEtzwerk übertragen und bei knapp 1TB finde ich das nicht lustig.

Da stellt sich doch das Problem erneut ein, oder? Da würd eich auch zu RDM greifen, eventuell nur als Zwischenspeicher?

Ich hoffe ich reiße nicht zu viele Baustellen auf, aber es ist wie beim Brainstorming, man hat immer andere Gedanken ;-)

Danke Dir Mangold!

Gruss Alex

Benutzeravatar
Profi
Beiträge: 743
Registriert: 23.07.2008, 14:09
Wohnort: Usa
Kontaktdaten:

Beitragvon mangold » 06.05.2010, 18:25

erstmal muss ich mich mal richtig entschuldigen. Ich habe hier wohl für einiges an Verwirrung gesorgt, weil ich mir dein Anliegen nicht genau durchgelesen habe. Dadurch habe ich deine letzte Frage auch falsch verstanden.

Du meintest Migration im Sinne von physisch nach virtuelle, ich habe das auf Migration zwischen zwei Hosts oder Datastore im Sinne von VMware. Also sorry nochmal.

Natürlich ist das bei einem 1 TB Fileserver was ganz anderes...DAS ist mitunter ein Grund erstmal mit RAW Devices zu arbeiten. Also das bestehende Datenlaufwerk (als LUN) direkt der VM zuzuweisen. So weit das die Technik hergibt, keine Ahnung wie das mit iSCSI geht.

Wir haben letzens eine Migration von knapp 4 TB über ne 100 MBit Leitung machen müssen, freilich nicht am Stück. Unser Fileserver ist ca. 600 GB groß.

Ich hab aber das ganze mit Robocopy vorbereitet und den Job erstmal täglich laufen lassen, so das wir erstmal einen Mirror am neuen Standort hatten. Am Tag der Umschaltung musste nur die Differenz kopiert werden, was natürlich je nach Datenmenge, Änderung und Art der Daten auch ziemlich lang dauern kann. Aber auf jeden Fall besser als alles auf einmal kopieren zu müssen. Aber mit einer Gigabit Verbindung ließen sich die 1 TB evtl doch noch schnell kopieren.

Du kannst natürlich auch die LUN als RAW Device erstmal mappen und wenn du sich dann doch nicht behalten möchtest, dann eine zweite LUN als VMFS Volume und vDisk der VM zur Verfügung stellen und dann die Daten direkt kopieren, dann gehts nicht übers LAN sondern direkt übers SAN.

Zur Migration im Laufenden Betrieb: Wenn du die Maschine neu aufsetzen kannst, würde ich diesen Weg immer dem Converter im laufenden Betrieb vorziehen. So nimmst du keine Altlasten mit. Ausserdem geht eine hot-migration mit dem Converter meiner Meinung nach oftmals gar nicht, muss man eben probieren, wozu es leider häufig keine Zeit gibt. Wenn es mit einem Server geht, heisst das nicht, dass es mit dem anderen auch geht.

Benutzeravatar
Member
Beiträge: 187
Registriert: 26.11.2008, 23:45
Wohnort: CH

Beitragvon ch-hunn » 06.05.2010, 20:22

Hallo zusammen

Entschuldigt, wenn ich mich da in Eure Diskussion einmische :D

Der Ansatz, die Daten in eine eigene LUN zu packen, damit diese von einem anderen Client aus mit einem Initiator angesprochen werden können, um dann so die Daten in ein Backup (welcher art auch immer) abzuziehen finde ich persönlich brandgefährlich!
NTFS ist kein Dateisystem um gleichzeitig von mehreren Hosts angesprochen zu werden. Aber genau das hast Du ja vor :!: Dieser Daten LUN gebe ich keinen Tag Überlebenschance.

Ich würde das ganze wie folgt machen:

- Der VM eine weitere vNIC verpassen. Diese vNIC auch an den gleichen vSwitch binden wie auch der ESX Host die Verbindung zum EQL bekommt.
(- Alternativ zwei zusätzliche pNICs für VM-ISCSI einbauen)
- Die Daten LUN mit dem ISCSI Initiator (und den EQL DSM) aus der VM heraus ansprechen
- Auf der EQL genau dieser und nur dieser IP Adresse Zugriff erlauben.
- Datensicherung mit einer richtigen Backup-Software in die VM machen.

So ist gewährleistet, dass jeweils nur 1 Host Zugriff auf die LUN hat.
Die Datensicherung wird auch Applikationskonsistent durchgeführt.
Du hast aber immer noch die Möglichkeit, an die Daten zu kommen, wenn Dir beide ESX abrauchen.

Schau Dir mal den EQL Snapshotmanager an. Ist bei Deinem EQL dabei. Mit dem kannst Du vom Management Server in die VM einen VSS Snapshot triggern. Ist dieser dann bereit, macht der Snapshotmanager auf der EQL einen Snapshot der LUN. Diesen Snapshot könntest Du dann im Management Server automatisch mounten und diesen sichern.

Eine Datensicherung ist aber auch mit Bordmitteln möglich:
Auf dem Management Server halt eben USB Disks anschliessen und freigeben.
In der VM diese Freigabe mounten und mit NTBackup oder bei 2008 mit der Windowssicherung in die Freigabe sichern.
Ob die Nacht aber auch lange genug ist, um diese Datenmenge auf USB Disks zu sichern, ist ein anderes Thema...

hth
Chregu

King of the Hill
Beiträge: 13063
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 06.05.2010, 22:28

facebraker hat geschrieben:Hallo,

ich hab mir das grad noch einmal verinnerlicht ;-)

Ich glaube ich habe Äpfel und Birnen verglichen. :oops:

So wie Jörg mir das empfohlen hat, wenn ich in der VM per iSCSI verbinde, brauche ich eine pNIC in dem SAN-Netz, klar.


Stopp... das hat der Joerg nicht empfohlen und von einer weiteren pNIC war auch nicht die Rede da du ja schon 2 fuer iSCSI hast. Ich habe lediglich gesagt wie man es machen wuerde wenn du eine LUN direkt in den VM Gast bringen willst und nicht an den ESX. Es gibt auch Gruende [1] wo das Sinnvoll ist und man es macht.

Ich habe mir auch nochmal das Bild angeschaut. Es fehlt der Trunk(LCAP) swichen den beiden Switchen. Schau die mal das kleine blaue Buechlein an was deiner EQL beilag denn da sind ja nun alle Verkabelungsoptionen aufgefuehrt. Es waere besser gewesen anstelle der DUAL eine QUAD Port Karte zunehmen weil bitte dran denken das fuer die Service Console eine Redundante Anbindung erforderlich ist wenn VMware HA aktiviert werden soll. (Ja ich weis das man es zu ESX 3.5 Zeiten mit einer zweiten SC und den pNICS fuer die iSCSI Anbindung erschlagen haette). In deinem Fall wird der vSwitch1 die SC sowie die Virtual Machine Port Group "LAN" enthalten damit du der SC eine 2. pNIC zuweisen kannst.

Anbei mal ein Bild wie es gemeint ist und zusaetzlich von der CMD aus weil die GUI ein falsches Bild wiederspiegelt bei vSwitchen wo bei den Portgruppen die pNIC Verteilung ueberschrieben worden ist.
Bild
Dieser vSwitch hat im Moment mehr pNICs (6)als noetig was uns nicht stoeren sollte. Brauchen tue ich nur 4 und in deinem Fall sind es nur 2. Fuer jeden VMK Port ist explizit eine pNIC zugeordnet in einer 1:1 Beziehung. Diese sind dann alle an den vmhbaXX gebunden welcher fuer das swISCSI auf ESX Seite zustaendig ist.

Dazu kommt ein normale Virtual Machine Port Group welche hier alle 6 (2 bei dir) pNIC hat. Das sind die gleichen pNICs welche auch die VMKs benutzen!

Die VM "tansanit" welche du dort siehst hat 2 vNICs und du siehst hier die zweite welche diesen bng-vswitch-ISCSI-1 PG benutzt. Mit dem ersten Beinchen haengt sie im "LAN" Netz.

Code: Alles auswählen

Switch Name    Num Ports   Used Ports  Configured Ports  MTU     Uplinks
vSwitch1       256         12          256               9000    vmnic19,vmnic18,vmnic15,vmnic14,vmnic11,vmnic7

  PortGroup Name      VLAN ID  Used Ports  Uplinks
  bng-vswitch-iSCSI-1 0        1           vmnic19,vmnic18,vmnic15,vmnic14,vmnic11,vmnic7
  iSCSI-4             0        1           vmnic15
  iSCSI-3             0        1           vmnic14
  iSCSI-2             0        1           vmnic11
  iSCSI-1             0        1           vmnic7


Auf deinen Fall gemuenzt geht jeder iSCSI Traffic ueber deine roten Linien.

[1]
- Man moechte eine Server virtualisieren welche schon das SAN benutzt
- Man will MS Cluster Geschichten oder der gleichen machen und braucht RDMs
- Man hat mehr als 2TB Bedarf fuer eine vDisk.
- Man hat spezielle Moeglichkeiten auf SAN Ebene fuer Snapshots bzw. Anwendungkonsistenz (Bei EQL durch HIT fuer Exchange, MSSQL).
- Man will die SAN Replikation nutzen oder aber den Snapshot zwecks Datensicherung an eine andere Maschine haengen

Trotzdem haben wir uns entschlossen solange wie moeglich VMDKs zuverwenden und und wenig oder besser keine Ausnahmen dieser Regel zuhaben.

Hier sind auch 1-1.5TB Server per Converter an einem WE virtualisiert worden. Eine andere Moeglichkeit waere es mittels Backup/Restore die Datenpartitionen zubewegen.

Gruss
Joerg

Benutzeravatar
Profi
Beiträge: 743
Registriert: 23.07.2008, 14:09
Wohnort: Usa
Kontaktdaten:

Beitragvon mangold » 07.05.2010, 07:34

ne, also so war das auch nicht gemeint, das mehrere Hosts auf die selbe LUN zugreifen und Daten aus der NTFS Partition auslesen. Es ging ja um die Migration, da könnten man UMschwenken, also von einem ZU dem Anderen. Aber niemals gleichzeitig. Ansonsten meinte er ja - wo ich dann wieder skeptisch wurde - dass er, wenn er an die VM nicht mehr rankommt (warum auch immer), die LUN wieder einem physischen Rechner zuweisen möchte, von gleichzeitig war nicht die Rede.

Member
Beiträge: 36
Registriert: 10.12.2009, 15:04

Beitragvon facebraker » 07.05.2010, 10:00

Guten Morgen,

erst einmal SORRY, dass ich so für Verwirrung gesorgt habe.

@Mangold, du musst dich nicht entschuldigen, es war mein Fehler ich habe, auch durch unwissenheit, mich falsch ausgedrückt.

Ich hatte 2 Sachen:

1.) wollte ich den Weg der direkten Verbindung (VM ist direkt mit dem Daten-LUN verbunden) gehen,
weil ich genauso wie du, erst alle Daten auf die LUN kopieren wollte und dann vor der Converter-Migration nocheinmal die Daten mit robocopy syncronisieren. Dann wollte ich den pServer ohne Daten konvertieren(VMware Converter) und dann den vServer(VM) per iSCSI-Initiator mit der Daten-LUN verbinden.(WICHTIG: DAS WAR MEIN PLAN, OB ES LOGISCH/RICHTIG IST SEI DAHIN GESTELLT)
Dann wollte ich es so laufen lassen.

2.) Ich dachte (IMHO) der Plan (siehe 1.)) hat noch den Vorteil, ich könnte von einen anderen pServer auch auf die LUN zugreifen und es so für eine USB-Sicherung nutzen (der GF möchte wöchentl.die Daten per USB mit nachhause nehmen) auf dem Server selber läuft noch Acronis Echo Server. (Bänder die er mitnimmt wären mir auch lieber)

DAS DAS SO NICHT GEHT HABT IHR MIR ERKLÄRT, wenn ich von 2 Servern auf ein NTFS-Dateisystem zeitgleich zugreifen will, geht das in die Hose.

Nun hat mich Chregu auf die Idee gebracht, ich muss ja garnicht gleichzeitig auf die LUN zugreifen, ich lasse die EQL einen Snapshot der LUN machen, diesen Snapshot "mounte" ich dann an dem pServer(Backup) per iSCSI Initiator und sichere die Daten auf USB-HDD.

Wäre ja sinnvoll und klingt, für mich, gut, da ich da die Funktionen der EQL besser nutzen kann.

Nun die nächste Baustelle:

Wie bekomme ich die Daten-LUN mit dem vServer(VM) verbunden?

Ich habe es so verstanden, das es 2 Unterschiedliche Wege sind.

a) ich nutze RDM und binde die dann die gemappte Festplatte an die VM, da hat die VM eine zusätzliche vHDD.Ich mappe dann also die Daten-LUN.

b) ich füge dem vServer(VM) eine zusätzliche vNIC hinzu, die im SAN-Netz ist, damit bin ich mit dem Server mit im SAN-Netz und kann mit Windows Server Boardmitteln: iSCSI-Initiator mich mit der Daten-LUN verbinden?
Dabei hat mir bauchschmerzen bereitet, wie der SAN-Netz-Traffic geroutet wird, ob der Traffic über die beiden iSCSI-pNICs (rot) läuft und ich die 4 onBoard pNICs (grün) für den LAN-Traffic nutzen kann.
@Joerg, du hast jeden VMK-Port 1 pNIC zugewiesen, ist das pflicht, weil meine Planung war die 2 pNICs (rot) sind ja für den Datastore oder sehe ich das zu engstirnig?
Okay jetzt habe ich es nochmal und nochmal gelesen *lach*

irix hat geschrieben:Dazu kommt ein normale Virtual Machine Port Group welche hier alle 6 (2 bei dir) pNIC hat. Das sind die gleichen pNICs welche auch die VMKs benutzen!


Ich kann also meine 2 pNICs im SAN-Netz(rot) einmal für den VMK-Port nutzen und für die Virtual Maschine Port-Group auch die selben 2 pNICs? Sorry wenn ich mich zu doof anstelle.

@Joerg, diese Lösung, die du mir beschreibst ist ja der Anwendungsfall b) oder? Ohne RDM?

irix hat geschrieben:Ich habe mir auch nochmal das Bild angeschaut. Es fehlt der Trunk(LCAP) swichen den beiden Switchen.


Wie bekomme ich das hin?

So jetzt versuche ich nochmal eine klare Frage zu stellen:-(

Kann ich die Verkabelung ( das Trunk(LCAP) muss noch rein) wie sie auf meinen Bild ist, kann ich sie so lassen um den Anwendungsfall a) oder b) zu realisieren?

Anwendungsfall c) (HABE ICH NICHT BESCHRIEBEN) ist ja dass ich die den kompletten Server konvertiere und lasse die Daten in der vmdk-Datei(en).

Jedenfalls ist der Anwendungsfall c) ja auch mit meiner Verkabelung abgedeckt.


Bitte seht mir die Verwirrung nach, und ich bedanke mich recht herzlich für Eure Hilfe!

Gruss ALex

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 07.05.2010, 12:21

Ich kann also meine 2 pNICs im SAN-Netz(rot) einmal für den VMK-Port nutzen und für die Virtual Maschine Port-Group auch die selben 2 pNICs? Sorry wenn ich mich zu doof anstelle.

Das geht problemlos. Funktioniert es mittlerweile bei mir. Du brauchst zwei VmNetwork (Portgruppe) im iSCSI Netz. Der VM teilst du dann von beiden Portgruppen je eine Nic zu.

Ich habe zum Beispiel
- einen vSwitch für iSCSI erstellt
- darin nach Handbuch VmWare einzelne VmKernelPorts für jeden Nic erstellt (bei mir 4 pro Server, 2 auf jeden Switch), das heisst also eine aktive Nic und 3 inaktive pro Kernel-Port.
- zwei Portgruppen welche jeweils jene zwei pNics zugeteilt bekommt, welche auf dem gleichen physischen Switch liegen
- dem Windows Server jeweils eine vNic aus beiden Portgruppen zugeteilt

Die vNics erkennen so physisch und auch virtuell nur jeweils Ports welche sie auch sollen, da es keine 'interne' Vermischung durch den ESX gibt und Windows dann nur jeweils auf eine Seite was erkennen konnte und das ned mal konstant mit der selben. keine Ahnung wie es bei einem Failover ausgesehen hätte, aber ich glaube kaum, dass es automatisch und ohne Unterbruch geswitcht hätte. Aber durchaus möglich, dass Windows zumindest auf manuellen Anstoss dann die andere Seite erkannt hätte.

Klar das man die Verkabelung der Server absolut identisch halten muss auf die Switches, sonst geht das möglicherweise bei einem vMotion schief, wenn man plötzlich die verkehrten Ports der Storage erreicht. Aber das sollte ja eh klar sein.

Member
Beiträge: 36
Registriert: 10.12.2009, 15:04

Beitragvon facebraker » 07.05.2010, 12:30

Hallo Urs,

UrsDerBär hat geschrieben:Du brauchst zwei VmNetwork (Portgruppe) im iSCSI Netz. Der VM teilst du dann von beiden Portgruppen je eine Nic zu.
I


Ne ganz dumme Frage, warum brauche ich 2 vNICs im iSCSI-Netz für die Windows-Maschine? Wenn ich logisch ran gehe, brauche ich 1vNIC im iSCSI-Netz und eine vNIC im Firmen-LAN?
Aus welchen Grund 2 Stück? Ich glaub ich steh grad auf der Leitung :-?

Gruss Alex

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 07.05.2010, 13:58

Ganz einfach, weil du Multipathing haben möchtest, wenn deine Storage-Einheit dies bietet. ;)

Sprich wenn du nicht mit virtuellen Discs arbeiten möchtest, aus welchen Gründen auch immer, ist das Multipathing mehr oder weniger Sache von Windows weil es eben anscheinend nicht zuverlässig funktioniert, wenn man eine Portgruppe erstellt mit den Ports aus beiden physischen Switches.

Man erkennt in Windows jeweils nur die Ports der Storageeinheit welche auf dem gleichen physischen Switch liegen und von diesen Pärchen jeweils nur eines und auch nicht immer das selbe nach einem Neustart der VM.

Verbindet man die Switches also nicht miteinander, was ich für eine saubere Trennung nicht als sauber empfinde und in meinen Manuals (Storage von Fujitsu) auch von abgeraten wird, wirst du nur zwei Ports erkennen. Fällt nun dieser Switch aus, guckt dein Server erstmal dumm in die Röhre und findet die Luns nimmer. Wie schnell er sie wiederfindet, weil er ja nun über den anderen Switch muss, weiss ich ned, aber du kannst im Software-Initiator von Windows das Szenario ja gar ned wirklich vorbereiten, weil du vorher die Ports nicht siehst. Auch vergibts du die hälfte der möglichen Bandbreite.

Deshalb brauchst eine vNic pro physischem Switch. Wieviele pNics du einem vNics zuteilst ist am Ende egal, hauptsache sie liegen auf dem gleichen physischen Switch. Sind es zwei pNics muss dann entweder der physische Switch oder zwei pNics der gleichen Seite ausfallen, damit zwei Pfade verloren gehen.

Hoffe das war einigermassen verständlich.

Member
Beiträge: 36
Registriert: 10.12.2009, 15:04

Beitragvon facebraker » 07.05.2010, 14:48

Hallo Urs,

ich habe es verstanden, mit deiner Erklärung wird es logisch warum.

Aber:

Wenn ich es über RDM lösen würde, hätte ich das Problem ja nicht, das ich eine Virtual Maschine Port-Group für iSCSI Netz bräuchte? Oder?

Sorry, wenn ich noch ein bissel herum tänzele, aber ich bin noch am Schwanken, wie ich es umsetze, entweder alle Daten in vdmk-Dateien, Raw Device Mapping oder direktes verbinden über iSCSI Initiator. :? :?

Ich weiß, meine Entscheidung ...

Aber darum hinterfrage ich alle Lösungen, damit ich die Pro & Contras herausfiltern kann.

Danke!

Gruss Alex

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 08.05.2010, 15:10

Kann ich dir so nicht sagen, weil ich mit VmWare auch noch ned so die Erfahrung habe.

Ich hab MS-Initiator gewählt damit ich mit der grossen Datenmenge machen kann was ich will. Abkoppeln von einer VM, ankoppeln an eine physische, eine VM auf Xen oder gar auf Hyper V ohne irgendwelche Konvertierungen vornehmen zu müssen. Sprich die Daten bleiben auf der SAN immer auf der gleichen Lun und gut ist. Nicht jeder hat den Konfort, beliebig viel Platz zu Verfügung zu haben. ;)

Member
Beiträge: 36
Registriert: 10.12.2009, 15:04

Beitragvon facebraker » 11.05.2010, 16:22

Hi, kurze Zwischenfrage, kann mir jemand

Trunk(LACP) erklären?

Ich habe es theoretisch gelesen, aber noch nicht verstanden, wie verbinde ich Switche per LACP?
Ich verbinde doch mehrere Ports auf Switch a mit Ports auf Switch b, aber wie wissen die Switche voneinander?

Hat jemand ein Beispiel für mich, oder weiß jemand wie ich das bei PowerConnect Switchen von DELL einrichte?

Danke schon einmal.

Gruss Alex


Zurück zu „vSphere 4 / ESX 4“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 16 Gäste