Seite 1 von 1

File Server auf ESXi empfehlenswert?

Verfasst: 12.11.2008, 13:04
von iworks
Hi,
wir liebäugeln auf einem ESXi 3.5 Update 3 einen Linux oder Windows als reiner File Sevrer einzurichten. Gibt es schon Erfahrungswerte für ein solches Szenario?
Wie sieht es performancetechnisch aus mit VMFS gegenüber NTFS oder ext3?
Würde man in diesem Fall eher auf Raw Device Mapping zurückgreifen und dann auf eine physikalische "RAID5 ca 1.8TB" Umbegung lokal?

Mir geht es hauptsächlich darum dass die Leistung beim Lesen/schreiben von Daten nciht geringer ist als die aktuelle Lösung (einfacher Windows 2003 auf einem PowerEdge 1900 mit Raid 5 ca 350GB).

Dann stellt sich auch noch die Frage, lassen sich auf ESXi problemlos LTO Laufwerke für Backups einrichten?

Freue mich auf jede Hilfestellung dazu.....
vielen Dank!

Re: File Server auf ESXi empfehlenswert?

Verfasst: 13.11.2008, 07:29
von echt_weg
ich sehe keine probleme beim virtualisieren von fileservern (btw. ntfs oder ext3 bleibt ja auch erhalten wenn das ganze auf nem vmfs liegt...). ich würde nicht per rdm arbeiten.

iworks hat geschrieben:Hi,
Dann stellt sich auch noch die Frage, lassen sich auf ESXi problemlos LTO Laufwerke für Backups einrichten?

kann gehen, muß aber nicht

Verfasst: 13.11.2008, 17:20
von lumpi_
hallo,

also zur bandsicherung kann ich nur sagen, JA es geht sogar ganz gut, wenn der SCSI controller unterstützt wird! wenn diesen der ESXi nicht kennt, gehts nicht.

grüsse
lumpi_

Verfasst: 13.11.2008, 22:45
von echt_weg
lumpi_ hat geschrieben:hallo,

also zur bandsicherung kann ich nur sagen, JA es geht sogar ganz gut, wenn der SCSI controller unterstützt wird! wenn diesen der ESXi nicht kennt, gehts nicht.

grüsse
lumpi_

klar kann das gehen aber supportet ist es nicht und evtl. endest du mit nem psod. habs auch schon laufen gehabt und ging von der performance sehr gut aber drauf verlassen würd ich mich nicht

Verfasst: 26.11.2008, 11:45
von bauers
Bei 350GB kann man es noch virtualisieren. Ab 500GB sollte man sich aber langsam über alternatice Lösungen Gedanken machen.
Kommt natürlich auch immer auf die bestehende Infrastruktur an. Wenn man schon ein FC SAN hat ist es relativ einfach und relativ preiswert eine performante Lösung zu implementieren. Wenn man das noch nicht hat wirds schnell teuer.

RDM würde ich auch nicht zwingend einsetzten. In einer FC/iSCSI SAN Umgebung könnte man allerdings relativ schnell die LUN mit den Daten an einen physikalischen Server klemmen falls es in der VM zu Performance Engpässen kommen sollte.
Falls man das nicht hat/braucht ist man mit der VMFS Lösung flexibler, da man sich mit RDM so nette Features wie Storage vMotion verbaut :)

Sebastian

Verfasst: 26.11.2008, 12:17
von bla!zilla
RDM macht gerade bei sowas noch Sinn, da der Fileserver die gesamten IOPS, welche das logische Laufwerk liefert, für sich nutzen kann. Wenn ich den Fileserver komplett in einem VMFS realisiere, muss der sich die IOPS mit allen anderen teilen.

Verfasst: 26.11.2008, 15:28
von echt_weg
bla!zilla hat geschrieben:RDM macht gerade bei sowas noch Sinn, da der Fileserver die gesamten IOPS, welche das logische Laufwerk liefert, für sich nutzen kann. Wenn ich den Fileserver komplett in einem VMFS realisiere, muss der sich die IOPS mit allen anderen teilen.

das hat ja damit zu tun wie man den plazt verteilt bzw wieviele vms man auf die lun legt. sehe ich nicht als nachteil an schließlich brauchst das ja nicht machen

Verfasst: 26.11.2008, 22:20
von bla!zilla
Du willst also sagen, dass ein VMFS auf einem logischen Laufwerk, in dem nur eine VM liegt nicht langsamer ist, als ein RDM?? Also wenn ich einen großen Fileserver habe, dann würde ich mir das mit dem RDM allein wegen der IOPS überlegen. Zudem kann ich damit auch Funktionen vom Storagesystem nutzen (Snapshots, Mirroring).

Verfasst: 26.11.2008, 23:17
von echt_weg
bla!zilla hat geschrieben:Du willst also sagen, dass ein VMFS auf einem logischen Laufwerk, in dem nur eine VM liegt nicht langsamer ist, als ein RDM?? Also wenn ich einen großen Fileserver habe, dann würde ich mir das mit dem RDM allein wegen der IOPS überlegen. Zudem kann ich damit auch Funktionen vom Storagesystem nutzen (Snapshots, Mirroring).

doch natürlich ist es langsamer als ein rdm das bestreite ich ja nicht. du argumentierst aber damit dass sich die virtuelle hdd die iops mit anderen (vms?) teilen muß - das stimmt ja nicht bzw hat damit nichts zu tun.

performance geht durch die zwischengeschaltete vmfs schicht verloren aber nicht dadurch, dass sich die vm mit anderen um die storage ios streiten muß (bzw nicht mehr oder weniger als beim rdm).

Ich würde grundsätzlich immer auf vmfs setzen und nur in ausnahmen rdm nutzen (z.b. bei nem datenbankserver der an der absoluten lastgrenze was io betrifft läuft). bei nem fileserver ist es oft wichtiger datendurchsatz zu haben ios wie man es bei stark belasteten datenbanken braucht gibts da meist weniger

Verfasst: 26.11.2008, 23:18
von Tschoergez
Hi,

letzteres stimmt so (das mit den Storage funktionen).
Bei der reinen Performance ist VMFS nicht langsamer als RDM... Es gibt da ein Whitpaper auf der VMware-Homepage, da wurde das recht ausfürhlich untersucht, mit dem Ergebnis, das der unterschied marginal ist.

Gilt aber natürlich nur, wenn die VM alleine ist auf der VMFS-Partition.

Viele Grüße,
Jörg

Verfasst: 26.11.2008, 23:51
von echt_weg
Tschoergez hat geschrieben:Bei der reinen Performance ist VMFS nicht langsamer als RDM... Es gibt da ein Whitpaper auf der VMware-Homepage, da wurde das recht ausfürhlich untersucht, mit dem Ergebnis, das der unterschied marginal ist.

Gilt aber natürlich nur, wenn die VM alleine ist auf der VMFS-Partition.

ich kenn das whitepaper und hab auch schon oft diese aussage gehört - stimmen tut sie trotzdem nicht. gerade wenn es um random zugriff geht der hohen io verursacht hängt ein rdm eine vmfs absolut in der performance ab. Ich hab echt richtig viel versucht und bin sämtlichen möglichen und unmöglichen einstellungen durchgegangen aber es kam immer das gleiche dabei raus: rdm ist schneller!

oftmals kommt es halt nicht drauf an aber von den ca. 70 vms in der farm die ich betreue haben wir einen extrem io lastigen db-server. der hat als einziger server rdm's weil die performance sonst zu schlecht war (mehrfach getestet auch mit unterstützung von vmware selbst)

Verfasst: 27.11.2008, 08:35
von bla!zilla
Ich glaube wir reden aneinander vorbei: Wenn ich eine VM habe, die auf einem VMFS liegt, und auf diesem VMFS liegen auch noch andere VMs, dann habe ich grundsätzliche zwei Probleme: SCSI Reservations und IOPS. Unter dem VMFS liegt eine LUN, die alle IOPS der des darüberliegenden Dateisystems abfrühstücken muss. Angenommen VMFS und RDM liegen auf einem logischen Laufwerk, unter dem die gleichen Platten liegen. Dann hast du Recht. Ich habe aber nun mal die Möglichkeit, das RDM auch auf andere Platten zu legen, und damit die Performance dieser Platten dediziert an die VM weiterzugeben.

Verfasst: 27.11.2008, 08:54
von Tschoergez
satanarchäolügenalkohöllischer Vortrag dadrüber:
http://www.vmware-tsx.com/download.php?asset_id=40

(leider gabs glaub ich nicht viel zu performance, ich meine mich zu erinnern, dass solche Fragen vom Vortragenden immer ziemlich schnell abgewiesen wurden mit: "It depends :grin:" )

Die SCSI-Reservation werden übrigens zum Problem, wenn man mehrere ESX hat, und sich Dateigrößen ändern auf der VMFS-PArtition (stichwort snapshots), weil Die nur gebraucht werden, um die VMFS-Metadaten zu verändern.

@echt_weg: Könntest Du bitte mal kurz Deinen damaligen Testaufbau beschreiben? Würde mich interessieren, das im Lab nachzustellen (wenns die Zeit dazu gibt, irgendwann ende des Jahrzents :grin: )

Viele Grüße,
Jörg

Verfasst: 27.11.2008, 20:40
von echt_weg
bla!zilla hat geschrieben:Ich habe aber nun mal die Möglichkeit, das RDM auch auf andere Platten zu legen, und damit die Performance dieser Platten dediziert an die VM weiterzugeben.

kann ich auch ohne rdm. ich kann doch eine vm ihre virtuellen hdds auf verschiedenen datastores ablegen

@Tschoergez
öhmmm ich kann das zumindest mal grundlegend machen...aber im moment fehlt mir da auch die zeit zu war relativ viel was wir probiert haben

Verfasst: 27.11.2008, 21:16
von bla!zilla
Schon klar, dass ich verschiedene Datastores verwenden kann. Aber warum sollte ich das tun?? Ein logisches Laufwerk anlegen, ein VMDK für meinen Fileserver da rein und fertig? Sobald ich da mehr reinlege, blockiere ich im Zweifelsfall wieder IOs. Wie man es dreht und wendet, RDMs machen weiterhin Sinn. Auch wenn VMware das gerne verneint.

Verfasst: 27.11.2008, 23:46
von echt_weg
klar rdm macht sinn aber in dem fall würde ich halt doch bei vmfs bleiben...ist halt letzendlich eher ne geschmacksfrage

Verfasst: 01.02.2009, 09:43
von Kampfwurst
Hallo

Ich hätte zu diesem Thema eine frage.

Ich habe bei mir zuhause einen Virtuelle Fileserver erstellt. Nun habe ich das Problem das wenn ich die Daten per Gb Netzwerk kopiere der Virtuelle Fileserver in stocken kommt. Das heist er hängt sich immer wieder für eine sec.

Die Anderen 3 VMs sind davon nicht betroffen. Was kann man dagegen machen.

DIe VMs sind auf einer andern Platte als die Daten. Die Datenplatte ist 800GB und läuft im Raid 1

MFG Christoph

Verfasst: 01.02.2009, 11:33
von bla!zilla
Schau doch mal mittels perfmon oder vmstat nach, was da so los ist. Möglicherweise bringt die Platte nicht genug oder du hast Probleme mit SCSI Reservations.

Verfasst: 01.02.2009, 12:10
von Kampfwurst
Der Raid Controller sollte nicht das Problem sein. Der hat 512MB Cache und 1,2Ghz.

Die Platten sind neu.

Mal schauen was das Logfile sagt

Verfasst: 01.02.2009, 12:29
von bla!zilla
Der Controller kann Vmax-1 bringen - wenn da zwei Platten dranhängen, welche die ganzen IOs nicht wegschaufeln können.

Verfasst: 01.02.2009, 13:47
von Kampfwurst
ich kopieren von einer USB Platte über das Netzwerk. Ich denke nicht das es an den Platten liegt. Die sollten locker die IOs von der USB Platte wegschreiben können

Verfasst: 01.02.2009, 16:22
von bla!zilla
Na ja, "denken" und "wissen" sind zwei paar Schuhe. Teste doch mal mittels IOmeter was die Platten so hergeben.