Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

mehrere vCenter und Lenovo EMC px12-400r als Datastore

Moderatoren: Dayworker, irix

Member
Beiträge: 34
Registriert: 21.07.2014, 08:44
Wohnort: Nürnberg

mehrere vCenter und Lenovo EMC px12-400r als Datastore

Beitragvon werner » 06.05.2015, 10:52

Hallo zusammen,
wir haben 2 vCenter mit je 3 ESXi 5.5 Servern und ein weiteres vCenter das 6 HP ESXi Server managen soll. Diese Umgebung ist Lizenzbedingt. Jeder Server hat eigene Platten und somit einen eigenen Datastore.
An das Ganze soll ein Lenovo EMC px12-400r als Datastore angebunden werden, der dann von allen ESXi Server genutzt werden soll. Dieser gemeinsamme Datastore soll allerdings nur von einigen wichtigen virtuellen Hosts verwendet werden (damit man sie schnell auf alternativen Server starten kann). Die Masse der VMs werden den jeweiligen Server-Datastore benutzen.

Was mir jetzt fehlt ist das Wissen, wie ich das Lenovo EMC an VMware angebunden bekomme. Über NFS oder iSCSI ? Was iSCSI betrifft, fehlt alleine schon das Basis Wissen, wie man sowas überhaupt macht. Ist iSCSI überhaupt dafür geeignet ?
NFS ist nicht so das Problem, aber ist es schnell genug?
Bei google habe ich nichts brauchbares bisher gefunden.

Die Server sind jeweils mit je 4x1GB LANs und das EMC mit 3x1GB LANs mit einem 1GB Switch verbunden.

Hat bitte jemand Info für mich ?

Danke, Werner

King of the Hill
Beiträge: 13063
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 06.05.2015, 11:11

Wir haben die kleineren Einheiten fuer Backup bei Kunden im Einsatz gehabt und damals hiessen sie noch Iomega->EMC->Lenovo. Mal gucken wo die naechsten Jahr sind. Fuer unseren Einsatzweck damals ungenuegend weil unzuverlaessig.

Ob iSCSI oder NFS macht aus reiner Performance Sicht nun keinen so grossen Unterschied. Fuer beides gilt das du minium. 2x NICs aus Redundanz und Performancegruenden haben moechtest. Mit iSCSI und dem eingebauten LB Moeglichkeiten auf vSphere Seite bekommt man einfacher eine bessere Auslastung hin als bei NFS wo dann mehr Aufwand zugehoert.

- Beide Arten moechten geeignete Switche sehen
- Ein Storage welches ein hohen Patchbedarf hat aber keinen Transparenten FW Update Prozess hat macht definitiv keinen Spass
- Guck auf die HCL obs drauf steht und fuer welche Protokolle

Gruss
Joerg

Member
Beiträge: 34
Registriert: 21.07.2014, 08:44
Wohnort: Nürnberg

Beitragvon werner » 06.05.2015, 15:01

Hallo Joerg,

danke für deine Antwort.
Was ist ein eingebauter LB und was ist ein HCL.

Aber unabhängig davon, nachdem du geschrieben hast, dass aus reiner Performance Sicht NFS und iSCSI keinen so grossen Unterschied macht, werde ich wahrscheinlich NFS nehmen.
Da weiss ich wenigstens etwas Beescheid. Bei iSCSI Null.

Und in der Zwischenzeit habe ich in VMware einen NFS Datastore auf dem Lenovo hinbekommen.

Gruss Werner

King of the Hill
Beiträge: 13063
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 06.05.2015, 15:09

werner hat geschrieben:Hallo Joerg,

danke für deine Antwort.
Was ist ein eingebauter LB und was ist ein HCL.


Mit LB meinte ich LoadBalancing und da hat VMware fuer iSCSI ein paar Policies. mit der HCL ist die Hardware Compatibilty List (Name von Frueher) gemeint.

Dein Storage wurde mit NFS und iSCSI zertifiziert
http://www.vmware.com/resources/compati ... tOrder=Asc

http://www.vmware.com/resources/compati ... tOrder=Asc


Aber unabhängig davon, nachdem du geschrieben hast, dass aus reiner Performance Sicht NFS und iSCSI keinen so grossen Unterschied macht, werde ich wahrscheinlich NFS nehmen.
Da weiss ich wenigstens etwas Beescheid. Bei iSCSI Null.

Und in der Zwischenzeit habe ich in VMware einen NFS Datastore auf dem Lenovo hinbekommen.

Gruss Werner


Bei NFS ist die Anfangshuerde immer das ESXi als "root" Zugreift und damit dies passt brauchts auf Storage Seite immer eine Einstellung welche unter Linux/Unix no_root_squash heist. Wie das in der GUI deines NAS heist muss man gucken.

Dann hat man bei NFS das "Problem" das der ESXi das Share mit SYNC mountet. Das ist eigentlich kein Problem sondern bringt Sicherheit zu Lasten der Performance. Braucht dann halt ein gutes NAS.

Gruss
Joerg

Benutzeravatar
UNSTERBLICH(R.I.P.)
Beiträge: 14759
Registriert: 09.08.2003, 05:41
Wohnort: sauerland
Kontaktdaten:

Beitragvon continuum » 06.05.2015, 15:55

Über NFS oder iSCSI ?


<Humor an>
Mir persönlichg wäre es lieber wenn du dich für iSCSI und damit auch für VMFS entscheidest.
Nimmst du statt dessen NFS kann ich dich als potentiellen Kunde meiner Recoverydienste abschreiben - denn du wirst wahrscheinlich nie bei mir anrufen.
<Humor aus>

Ich habe natürlich eine etwas verzerrte Sicht - aber ich sehe bei Verwendung von VMFS - egal ob über iSCSI, Fibrechannel oder als Blockdevice über lokale Raidcontroller ein eindeutig höheres Betriebsrisiko als bei Verwendung eines NFS-storagesystems.

Member
Beiträge: 47
Registriert: 12.04.2010, 13:40

Beitragvon Virtuozzi » 06.05.2015, 17:24

continuum hat geschrieben:
Ich habe natürlich eine etwas verzerrte Sicht - aber ich sehe bei Verwendung von VMFS - egal ob über iSCSI, Fibrechannel oder als Blockdevice über lokale Raidcontroller ein eindeutig höheres Betriebsrisiko als bei Verwendung eines NFS-storagesystems.


Was ist gemäss deinen Erfahrungen den "verkehrt" an vmfs?
Wo happert es noch, resp. siehst du Verbesserungspotential und wurden dort von deiner Seite aus auch Verbesserungen von vmware umgesetzt?

Gruss

Experte
Beiträge: 1006
Registriert: 30.10.2004, 12:41

Beitragvon mbreidenbach » 06.05.2015, 19:39

Ich habe hier ein iomega NAS und das hängt sich alle 2 Wochen auf. Aber die Qualität der Dinger ist bestimmt besser wenn da statt iomega Lenovo draufsteht. Vielleicht sollte ich mal meinen Labeldrucker bemühen...

Für Produktiveinsatz würde ich die Dinger in der Kategorie 'grober Unfug' einordnen.

Daß da EMC draufsteht macht die Sache auch nicht bessser; ich hab ja ein paar NetApp Zertifizierungen und das hat das Ding wohl gemerkt und ärgert mich jetzt extra.

Guru
Beiträge: 3114
Registriert: 27.12.2004, 22:17

Beitragvon rprengel » 06.05.2015, 20:57

mbreidenbach hat geschrieben:Ich habe hier ein iomega NAS und das hängt sich alle 2 Wochen auf. Aber die Qualität der Dinger ist bestimmt besser wenn da statt iomega Lenovo draufsteht. Vielleicht sollte ich mal meinen Labeldrucker bemühen...

Für Produktiveinsatz würde ich die Dinger in der Kategorie 'grober Unfug' einordnen.

Daß da EMC draufsteht macht die Sache auch nicht bessser; ich hab ja ein paar NetApp Zertifizierungen und das hat das Ding wohl gemerkt und ärgert mich jetzt extra.


Wenn es tröstet:
ich habe hier eine Qnap 859 für 1500 Euro die nicht in der Lager ist eine neue 4 TB Platte in ein Raid 6 aufzunehmen. Das Teil hat nur 2 GB Ram und fällt schon bei einem fsck auf die Nase.
Lösung:
2 HP Microserver mit einem einfachen Debian und fertig sind die NFS Backup-Storages.

Gruss

King of the Hill
Beiträge: 13063
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 06.05.2015, 21:42

mbreidenbach hat geschrieben:Für Produktiveinsatz würde ich die Dinger in der Kategorie 'grober Unfug' einordnen.


Ich wuenschte so manch Kunde wuerde das lesen. Aber er moechte ja nur die wichtigen VMs drauf ablegen.

Ich kann ueber VMFS nichts schlechtes sagen. Aber da darf gerne jeder seine eigene Meinung haben. Mich wuerde mal eine % Verteilung Interessieren was Kunden so nutzen sprich Block oder File.

Gruss
Joerg

Experte
Beiträge: 1337
Registriert: 25.04.2009, 11:17
Wohnort: Thüringen

Beitragvon Supi » 06.05.2015, 21:49

Also ich habe seit letztem Jahr als Backup und ausweich- Storage ein PX6-300D. Das läuft bisher sehr stabil, ist sowohl als ISCSI als auch NFS Target eingebunden. Performance für ein 6-Disk R5 auch ok.
Aber hatte damals auch nur 350€ bezahlt mit 6x1Tb. Dafür bin ich sehr zufrieden.

Die VMware Zertifizierungen bieten diese zumindest. Dauerhaft produktive würde ich wohl auch keine meiner VM's drauf laufen lassen.

Aber was sollte hier weniger gut als bei synology oder Qnap laufen?
Das sind nun mal keine dualcontroller Kisten.

Einziger Bug den ich aktuell feststellen musste: als Cifs speicher belegen kleine Dateien immer 1-2MB. Da können 80gb mal schnell 3-400gb belegen?!

Member
Beiträge: 34
Registriert: 21.07.2014, 08:44
Wohnort: Nürnberg

Beitragvon werner » 07.05.2015, 13:51

Hallo zusammen,

sehr interressante Beiträge für mich hier. Danke.
Vielleicht sollte ich noch hinzufügen, dass VMware für mich relativ neu und somit viele Dinge unbekannt ist. Ich mache gerade: learning by doing.

iSCSI vs. NFS:
Einen Datastore über NFS habe ich relativ schnell hinbekommen. Bei ISCSI weiss ich nicht mal wie ich Anfangen soll.
Komischerweise hatte ich gestern überhaupt nichts zu dem Thema bei google gefunden, aber heute gleich mehrere Beiträge. Hatte das Phänomän schon öfters.

http://pubs.vmware.com/vsphere-51/index ... 40EA8.html
https://www.thomas-krenn.com/de/wiki/IS ... t_anbinden

Eventuell schau ich mir iSCSI doch nochmal genauer an.

Danke und Gruss
Werner

King of the Hill
Beiträge: 13063
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 07.05.2015, 14:27

Wenn du vSphere 5.5 einsetzt dann solltest du keine Manuals zum 5.1 lesen oder halt im Hinterkopf haben das sich da was geaendert haben koennte (sollte nicht aber kann ja immer sein).

1. swISCSI aktivieren
2. Min. 2 VMKs erstellen mit je einer aktiv NIC, die anderen auf Nicht zugordnet. Ob ein Subnet oder anderes pro VMK gibt das Storage vor
3. die VMKs an das swISCSI binden
4. Dynamic Target angeben
5. Unter Storage gucken ob LUNs sichtbar geworden sind und diese dann mit einem VMFS begluecken

Es steht ausserfrage das zwischen drin jemand kontrolliert das die VMKs das storage anpingen koennen und man jeden VMK als Absender testet genau wie jeden Port am Storage. Das Thema ACL/Chap sowie JumboFrames (kein genereller Segen) sowie die passende PathPolicy kommt dann noch.

Auf jeden Fall mehr Schritte als Husch, Husch nen NFS Mounten. Wobei wenn man es richtig macht man vorher gegruebelt hat ob das Storage mehre IPs bereitstellen kann und man Bandbreite per Etherchannel/LAG(LACP) vergroessert hat. Des weiteren gibts Adv. Parameter zum Anpassen je nach Umgebungsgroesse. Aber mal gucken was NFSv4 bringt.

Gruss
Joerg


Zurück zu „vSphere 5.5 / ESXi 5.5“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 11 Gäste