Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

vSphere Szenario so sinnvoll?

Hilfe bei Problemen mit Installation & Benutzung des VMware ESX Server 4/VMware vSphere 4.0.

Moderatoren: Dayworker, irix

Member
Beiträge: 34
Registriert: 15.11.2009, 14:14

vSphere Szenario so sinnvoll?

Beitragvon cibomato » 15.11.2009, 15:35

Hallo zusammen,

ich bin Admin (und "nebenberuflich" noch Lehrer) an einer beruflichen Schule und es steht die Anschaffung neuer Serverinfrastruktur an, wobei wir aus folgenden Gründen u.a. an VMWare vSphere denken, wozu ich gerne Eure Meinung hören würde, da ich in dem Thema noch nicht so tief drin stecke und einige Fragen dazu habe:

Vorrangige Ziele:
1. I/O:
Auf dem Server liegen die Homes von ca. 900 Usern. Sehr heterogener Zugriff, während der Unterrichtszeiten natürlich deutlich höhere Last. Noch wichtiger: Wir arbeiten bei den Clients mit einer Imaging-Lösung (Rembo/mySHN), bei der die Images der Clients neben einer Cache-Partition auf den Clients auch auf dem Server vorgehalten werden. Bei einer Imageaktualisierung müssen die kompletten Images (möglichst schnell!) über's Netz auf die Clients transferiert werden, dadurch - und weil nicht alle Clients multicastfähig sind - entsteht eine hohes Datenvolumen über's Netz (die Clients sind per Gbit/s angebunden, Switches sind HP ProCurve, auch beim Coreswitch leider ohne 10Gbit/s).

2. Verfügbarkeit
Auch wenn wir keine Bank und Versicherung sind, zieht ein Ausfall des Servers einen ganzen Rattenschwanz nach sich, so dass wir eine möglichst hohe Verfügbarkeit (HW und SW) anstreben. Zum Einen realisiert durch redundante HW, zum Anderen durch eine automatisierte Failover-Lösung und ein automatisiertes Backup-Konzept mit möglichst einfacher und zuverläassiger Disaster-Recovery-Funktion.

3. Preis
Da wir 'nur' eine Schule sind, ist das Budget leider sehr begrenzt. Ich nehme an, dass wir für Hardware und Lizenzen max. um die 20 k€ liegen dürfen. Kosten für (professionelle) Einrichtung, Wartung und Support kommen aus einem anderen Topf.


Folgende Server sind vorhanden und müssen in dieser Lösung laufen:

1. paedML Linux (Linuxmusterlösung des Landes Baden-Württemberg für Schulen):
- OS: Debian 4 (evtl. demnächst Ubuntu 10.4 LTS Server?)
- Authentifizierung: OpenLDAP
- Webserver: Apache
- Datenbanken: mySQL, PostgreSQL
- Druckserver: CUPS
- Fileserver: Samba 3.4.2
- Mailserver: Postfix / CyrusIMAP
- Groupware: n.n. (wahrscheinlich irgendwann eGroupware)
- Client-Imaging (PXE): Rembo2/mySHN4
- ...

2. Firewall (IPCop 1.4.21):
- LFS mit 2.4er Kernel (!)
- Proxy (Squid)
- OpenVPN
- ...

3. Backupserver für dateibasiertes Backup (NFS-Share)

Darüber hinaus evtl (irgendwann) noch:

4. Nagios Server (evtl auf weiterer physikalischer 08/15-Maschine)
5. Testserver
6. irgendwann MS Lizenzserver (zur Aktivierung von Win 7, s. geklonte Images)


Meine Idee wäre nun Folgende:

- 2 physikalische Server, jeweils mit ESX / vSphere, die sich gegenseitig über HA /FT absichern
- je 1 Quadcore CPU, 2,5 GHz
- genügend RAM (24 GB)
- Verbindung direkt über 10 Gbit/s-Link
- Verbindung in's LAN je über 4*1Gbit/s-Trunk
- 1 (oder 2?) FC-Storages für die Nutzdaten
- 1 USV


Fragen:

- was haltet Ihr von diesem Szenario?
- welche VM-Lizenzen brauchen wir und was kosten entsprechende (Academic) vSphere Lizenzen?
- Mit welchen Kosten würdet Ihr bei diesem Paket insgesamt rechnen? Wo kann man geg.falls sparen?
- kann es SATA oder sollte es SAS (a. in den Servern, b. im Storage) sein?
- Sollte die HA-Verbindung zwischen den Servern 10Gbit/s sein oder reicht hier 1Gbit/s?
- wie viel Platz sollte auf den Servern vorgehalten werden und wie hochverfügbar sollten die Platten dort sein, a. wenn die Nutzdaten doch eh auf dem Storage liegen und b. durch HA bereits Redundanz gewährleistet ist?
- ich habe gehört, dass mit vSphere HA keine Snapshots möglich sein sollen!? Da wäre ein Riesenvorteil von virtualiserten Maschinen doch gleich dahin!?
- Müssen die Daten bei HA unbedingt auf einem externen Storage liegen? Das wäre dann ja wieder ein single point of failure!? Und ein zweites Storage aus Redundanzgründen mit entsprechender redundanter Anbindung (HBAs, FC-Switches etc) sprengt wahrsch. den finanziellen Rahmen!?

Fragen über Fragen ;) . Ich hoffe, Euch nicht erschlagen zu haben!

Vielen Dank im Voraus und viele Grüße,

cibomato

Member
Beiträge: 339
Registriert: 12.04.2009, 20:21

Beitragvon JMcClane » 15.11.2009, 17:00

Allein die VMWare Enterprise Lizenz um FT nutzen zu können liegt bei ~3000€ pro Sockel. FC für 2 Server gibt es sicher auch nicht unter 10k. Da wird man mit 20k nicht wirklich hinkommen.

King of the Hill
Beiträge: 13063
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 15.11.2009, 17:40

JMcClane hat geschrieben:Allein die VMWare Enterprise Lizenz um FT nutzen zu können liegt bei ~3000€ pro Sockel. FC für 2 Server gibt es sicher auch nicht unter 10k. Da wird man mit 20k nicht wirklich hinkommen.


Meine kleinen grauen Zellen wollen mit sagen das FT schon mit Advanced zur Verfuegung stehen und nicht unbeding Enterprise oder besser benoetigt wird.

Der Listpreis fuer eine Academic vSphere Adv. ist 1095,- pro Sockel. Wenn er mit einem Sockel pro Server hinkommt ist das also ueberschaubar. Das vCenter Foundation schlaegt dann mit 730,- zu Buche. Das SnS lassen wir mal aussen vor weil geht ja in einen anderen Topf laut OP.

@cibomato
- Das VMware FaulTolerance (VT) ist das wo man keine Snapshots machen kann.
- HA selber benoetigt keine Grosse Bandbreite da hier nur die Statusinfos/Heartbeats uebertragen werden. Ein 10GB ist hier also komplett ueberfluessig.
- HA und FT benoetigen immer ein Shared Storage.
- Ja, ein einzelnes Storagesystem ist hier ein SPOF. Dieses Risiko wird minimiert indem die Hersteller das System intern Redundant auslegen mit 2 Controller, mehreren Hostchannels und PSU.
- Ist dein IPcop eine interne FW oder auch nach extern? Wenn ja laesst sich hier streiten was das Konzept einer Firewall angeht im Hinblick auf Anzahl Dienste bzw. minimalisierte Form.
- Weder paedLM Linux noch IPcop sind supporte OSs aus sicht von VMware. Gab hier doch neulich einen Thread zum Thema IPcop
- Sparen koennte man beim Supportlevel fuer die ESX Hosts sofern man 2 oder mehr davon hat und von einer HA Konfig ausgeht. Es reicht IMHO ein Next Day und nicht ein 4h Mission Critical oder Call to Repair.
- Ich wuerde evtl. den Server mit den Images weiterhin als Blechfahren und dort ein LCAP/BOND ueber 2 NICs machen und gucken das ich ein RAID 0 mit 3-4 Spindel fuer die Images habe. Die Sicherheitskopie dann auf einem RAID1/5 mit dem System zusammen.
- Thema Platz. Plane Wachstum und neue VMs ein und auch ein Migrationsszenario von Servern von Version A nach B. Dazu braucht man Platz fuer ein Restore oder auch 2.

Zum Thema Mirrowed/Replication und Seamless Failover sollte es schon einige Threads geben. Stichworte koennten sein Datacore und HP VSA Lefthand usw.

Gruss
Joerg

Member
Beiträge: 34
Registriert: 15.11.2009, 14:14

Beitragvon cibomato » 15.11.2009, 18:19

Hi Jörg,

irix hat geschrieben:Der Listpreis fuer eine Academic vSphere Adv. ist 1095,- pro Sockel. Das vCenter Foundation schlaegt dann mit 730,- zu Buche.

Sind das Preise pro Jahr oder einmalige Kosten?

irix hat geschrieben:-Das VMware FaulTolerance (VT) ist das wo man keine Snapshots machen kann.
Ok. Schade! Denn wir wollen ja alle VMs 'HAisieren'. Und Snapshots würden eben das gefahrlose Testen von komplexen Upgrades etc ermöglichen. Gibt es da einen Workaround oder wie wird so was in einer HA/FT-Umgebung in der Praxis gemacht?

irix hat geschrieben:HA und FT benoetigen immer ein Shared Storage.

Ist HA und FT nicht dasselbe? Sorry, bin in dem Vokabular noch nicht 100%ig drin.

irix hat geschrieben:Ja, ein einzelnes Storagesystem ist hier ein SPOF. Dieses Risiko wird minimiert indem die Hersteller das System intern Redundant auslegen mit 2 Controller, mehreren Hostchannels und PSU.

2 Controller heißt dann aber auch 2 HBAs pro Server!?

irix hat geschrieben:Ist dein IPcop eine interne FW oder auch nach extern? Wenn ja laesst sich hier streiten was das Konzept einer Firewall angeht im Hinblick auf Anzahl Dienste bzw. minimalisierte Form.

Wie meinst Du das? Einsatz einer kleineren Maschine? Der IPCop ist die FW nach extern. Ich halte zwar eigentlich nicht viel von virtualisierten FWs aber bei ESX würde mein Gewissen mal ne Ausnahme machen;). Da wir eine synchrone 100Mbit/s-Anbindung bekommen und der Cop auch OpenVPN macht, wollte ich ihn nicht zu klein dimensionieren und wenn wir für den paedML-Server eh eine zweite Maschine aus Redundanzgründen benötigen... Oder versteh' ich Dich da falsch?

irix hat geschrieben:Weder paedLM Linux noch IPcop sind supporte OSs aus sicht von VMware.

Was bedeutet das? Bekomm' ich nur keine Garantie, dass sie laufen (wir haben in 'nem anderen Netz die beiden schon auf ESXi laufen, funktioniert einwandfrei, dort nur ohne VMotion, HA/FT, daten lokal etc pp)?

irix hat geschrieben:Gab hier doch neulich einen Thread zum Thema IPcop

Such ich mal. Bin erst seit heute dabei;).

irix hat geschrieben:Sparen koennte man beim Supportlevel fuer die ESX Hosts sofern man 2 oder mehr davon hat und von einer HA Konfig ausgeht. Es reicht IMHO ein Next Day und nicht ein 4h Mission Critical oder Call to Repair.

Ja, davon würde ich auch ausgehen.

irix hat geschrieben:Ich wuerde evtl. den Server mit den Images weiterhin als Blechfahren und dort ein LCAP/BOND ueber 2 NICs machen und gucken das ich ein RAID 0 mit 3-4 Spindel fuer die Images habe. Die Sicherheitskopie dann auf einem RAID1/5 mit dem System zusammen.

Ok, wäre halt noch ne Extramaschine. Da die paedML als 1-Server-Lösung quasi als eierlegende Wollmilchsau daherkommt (über Sinn oder Unsinn einer 1-Server-Lösung kann man natürlich streiten), würde das mehr Aufwand beim Aufsetzten bedeuten, da der Imaging-Teil (tftp, PXE, Rembo/mySHN) rausgelöst werden müsste, was glaube ich wiederum von den paedML-Leuten nicht supported wird.
Meinst Du, es gibt große Einbrüche bei der I/O bei der Anbindung über (4-Gbit/s-) FC und ein LCAP/BOND über 4 NICs von jedem ESX-Server aus auf den Coreswitch gegenüber Deiner Lösung?

irix hat geschrieben:Thema Platz. Plane Wachstum und neue VMs ein und auch ein Migrationsszenario von Servern von Version A nach B. Dazu braucht man Platz fuer ein Restore oder auch 2.

Platz auf dem FC-Storage? Das ist klar. Auf den ESX-Servern brauche ich ja kaum HDD-Platz, oder? Was braucht so eine reine VM? Reichen da nicht insgesamt 300 GB?

irix hat geschrieben:Zum Thema Mirrowed/Replication und Seamless Failover sollte es schon einige Threads geben. Stichworte koennten sein Datacore und HP VSA Lefthand usw.

Schau ich mir auch mal an.

Vielen Dank bis hierher schonmal!

Gruss
cibomato

King of the Hill
Beiträge: 13063
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 15.11.2009, 18:42

cibomato hat geschrieben:Hi Jörg,

irix hat geschrieben:Der Listpreis fuer eine Academic vSphere Adv. ist 1095,- pro Sockel. Das vCenter Foundation schlaegt dann mit 730,- zu Buche.

Sind das Preise pro Jahr oder einmalige Kosten?


Einmalig. Dazu kommt SnS (Service and Subscription) was Softwarewartung und Support beinhaltet. Das gibts als Gold und Platinium und kauft man 1,2,3 Jahre oder auch bis zum Termin X. Innerhalb dieses Zeitraums hat man Zugriff auf neue Majorreleases, Patches (den hat man IMHO immer) und Support.

irix hat geschrieben:-Das VMware FaulTolerance (VT) ist das wo man keine Snapshots machen kann.
Ok. Schade! Denn wir wollen ja alle VMs 'HAisieren'. Und Snapshots würden eben das gefahrlose Testen von komplexen Upgrades etc ermöglichen. Gibt es da einen Workaround oder wie wird so was in einer HA/FT-Umgebung in der Praxis gemacht?


VMware FT hat genau wie XEN/Marathon einige Einschränkungen, welche das ganze aus meiner Sicht nur fuer einen kleinen Kreis der Anwender bzw. Typ von VM interessant macht. Schau dir einfach VMware FT an und du weist was ich meine.


irix hat geschrieben:HA und FT benoetigen immer ein Shared Storage.

Ist HA und FT nicht dasselbe? Sorry, bin in dem Vokabular noch nicht 100%ig drin.


VMware HA gibts auf ESX Host und auf VM Guest Level. Das heist faellt ein ESX Host von der Welt (Kaputt, vom Netz usw) dann startet VMware HA die VMs "brutal" auf einem anderen Host neu. Dies ist natuerlich NICHT unterbrechungsfrei. Auf VM Guest Level versucht HA ueber den VM Heartbeat zugucken ob die VM noch was tut und wenn nicht wird sie neugestartet. Das ganze laesst sich eingrenzen auf Versuche/Zeitraum.

irix hat geschrieben:Ja, ein einzelnes Storagesystem ist hier ein SPOF. Dieses Risiko wird minimiert indem die Hersteller das System intern Redundant auslegen mit 2 Controller, mehreren Hostchannels und PSU.

2 Controller heißt dann aber auch 2 HBAs pro Server!?


Natuerlich. Das heist 2 FC Ports und oder 2-4 iSCSI Ports. Aber IMHO ist das Standard.

Ich halte zwar eigentlich nicht viel von virtualisierten FWs aber bei ESX würde mein Gewissen mal ne Ausnahme machen;)


Genau darum gehts. Die Angriffsflaeche einer FW will man kleinhalten und der Hypervisor dadrunter ist nun mal eine. Aber da kann man sehr unterschiedlicher Meindung sein.

Was bedeutet das? Bekomm' ich nur keine Garantie, dass sie laufen


So sieht das aus... und auch als Dienstleister der das Einrichtet haette ich so meine Probleme damit. Natuerlich wuerde ich keine Probleme erwarten und auch wir haben zig nicht supportete OS hier virtualisiert.

Meinst Du, es gibt große Einbrüche bei der I/O bei der Anbindung über (4-Gbit/s-) FC und ein LCAP/BOND über 4 NICs von jedem ESX-Server aus auf den Coreswitch gegenüber Deiner Lösung?


Ich meinte das anders. Mein LCAP/Bond ging Richtung Netz so das die Daten auch entsprechend zuegig oder von mehreren Quellen abgerufen werden koennen. Natuerlich muss das Storage, ob nun SAN und oder lokal das auch entsprechend fix liefern.

Keiner weis wieoft so ein Image von die vom Server abgerufen wird bzw. obs parallel geschieht.

Was braucht so eine reine VM? Reichen da nicht insgesamt 300 GB?


Ich habe hier alles von 2GB bis zu 3TB. Woher sollen wir denn wiessen wieviel Platz 900 Schueler so verbrauchen koennen bzw. was deine Mailservices so veranschlagen.


Gruss
Joerg

Member
Beiträge: 34
Registriert: 15.11.2009, 14:14

Beitragvon cibomato » 15.11.2009, 19:59

Hi Jörg,

irix hat geschrieben:
Meinst Du, es gibt große Einbrüche bei der I/O bei der Anbindung über (4-Gbit/s-) FC und ein LCAP/BOND über 4 NICs von jedem ESX-Server aus auf den Coreswitch gegenüber Deiner Lösung?


Ich meinte das anders. Mein LCAP/Bond ging Richtung Netz so das die Daten auch entsprechend zuegig oder von mehreren Quellen abgerufen werden koennen. Natuerlich muss das Storage, ob nun SAN und oder lokal das auch entsprechend fix liefern.

Ich meinte auch 4Gbit/s-Trunks Richtung LAN. Sprich, die Daten kommen vom Storage über FC zum Server und von dort über den 4 Gbit/s-Trunk in's LAN und zu den Clients. Wenn am Coreswitch wirklich die 4 Gbit/s ankommen würden, wäre das mehr als ausreichend.

irix hat geschrieben:
Was braucht so eine reine VM? Reichen da nicht insgesamt 300 GB?

Ich habe hier alles von 2GB bis zu 3TB. Woher sollen wir denn wiessen wieviel Platz 900 Schueler so verbrauchen koennen bzw. was deine Mailservices so veranschlagen.

Das ist klar aber da die Homes und auch Mail quotiert sind, hält sich das in Grenzen bzw lässt sich gut kalkulieren. Ich meinte, wieviel Plattenplatz muss ich auf dem Server veranschlagen, dort läuft ja irgendwie nur das RAM der VM oder so ähnlich?

Kannst Du noch was zum Thema SATA vs. SAS sagen? Klar, SAS ist schneller im Zugriff aber halt auch deutlich teurer. Ich meinte, mal irgendwo was gehört zu haben, dass SATA mit ESX Probleme mache!?

Und meinst Du, wir kommen mit einem einzelnen FC-Storage, den zwei Servern und den Lizenzen mit 20k€ etwa hin? (Wenn wir es gut begründen können, sind vielleicht auch ein paar Euronen mehr drin aber allzuviel bestimmt nicht).

Gruß,
cibomato

P.S.: Eine der eingangs genannten Alternativen wäre übrigens DRBD mit Heartbeat. Dort könnten die Daten komplett lokal gehalten werden und das Ganze ist OpenSource. Dafür hätte man aber auch keine Snapshots und man bräuchte, wenn man die FW in diesem Fall nicht virtualisieren würde, 4 Maschinen, um die HA zu ereichen. Ich weiß noch nicht genau, was besser ist.

P.P.S.: Hab mir grad mal die HP VSA-Geschichte reingezogen. Damit könnten wir ja komplett auf die Storage-HW verzichten und das SAN virtualisiert in den zwei ESX-Servern betreiben (und damit Kosten sparen)?

P.P.P.S.: Solten wir aus Kostengründen evtl auf FC verzichten und iSCSI nehmen? HP Procurve-Ports stehen noch zur Verfügung, die man in einem VLAN dafür verwenden könnte.

Es kommen noch mehr Ps hinzu, je mehr ich mich mit dem Thema beschäftige ;)

Ich glaube, nun den Unterschied zwischen HA und FT verstanden zu haben: wenn wir auf FT verzichten und lediglich HA einsetzen, ist bei einem Crash zwar die aktuelle Arbeit futsch, die Server / VMs aber innerhalb kurzer Zeit auf der zweiten ESX-Maschine wieder verfügbar, vglbar einem Neustart nach Stromausfall? Wie alt ist dann der Stand der VM?
Dafür wären aber wieder Snapshots möglich, right?

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 16.11.2009, 12:29

Hi,

Da ich Deine Situation mit dem beschränkten Budget gut Verstehen kann, auch ein paar Inputs von mir. Habe mich in den letzten Wochen ziemlich intensiv mit Zig bezahlbaren und unbezahlbaren Lösungen herumgeschlagen. Viel bezahlbares gescheites ist nicht bei raus gekommen. Eigentlich gar nichts was den Namen günstig auch nur annähernd nahe kommt. In der Region 20k für alles (inkl. Lizenzen, Hardware, zugemüse, usv usw. kannst wohl einpacken).

Zu FT: Bin jetzt gar nicht sicher ob man einen für FT benutzten Core auch anderen Maschine zuteilen kann. Falls nein, ist das eh erledigt, weil du 1800 cores brauchen würdest. :D

Zu HA: So toll ist dieses Feature nicht, wie irix bereits xesagt hat, hast du hierbei ein Kaltstart. Sprich das gleiche Szenario wie Stecker raus und wieder rein. Nur mit dem Unterschied, das es automatisch geht. Für Exchange halte ich das für unbrauchbar. SQL ist evtl. noch robust genug.

Zum Storage:Die Destops sind ja vermutlich immer mehr oder weniger identisch, also dürfte das mit View und einem Masterimage sehr wenig Speicherblatz benötigen. Wenn du mit ein paar hundert GB für den Primärspeicher klarkommst, wäre Datacore eine gute Variante wenn du Storage wirklich Disastertolerant in versch. Räumen haben willst. Die SMB-Starterkits sind recht bezahlbar und aktuell bekommst 2 für 1. Grösser als 1 TB wird aber sehr unschön. --> Merke, SAS-Platten brauchst dann auch doppelt!

Sekundärspeicher, also vermutlich der grösste Teil der Daten, könntest du mit den Datacore-Servern als einfache Windows-Freigabe zu Verfügung stellen, diesen dann jeweils zu gewünschter Zeit zbsp. mit robocopy-Tasks oder anderen Mitteln synchronisieren. Das fällt dann nicht in den lizenzierten Speicherbereich. Wenn das eine Storage-System ausfällt funktionieren die verlinkten Netzwerklaufwerke halt nicht mehr, damit muss man Leben können. Könnte man aber auch über windows Gruppenrichtlinien gerade biegen.

Mit einer kleinen SAN auf iSCSI hast die horrenden Lizenzkosten nicht, ist aber allgemein auch nicht umsonst.

Anderer Ansatz:
Ich weiss jetzt nicht was die Stratus-Jungs für Ihre Server in Deutschland wollen.Auch ned ob Schulen hier gute Konditionen bekommen. Bei uns fängt der erste (4500er) der VmWare tauglich ist bzw. aktuell in Zertifizierung steckt, bei ca. 20'000 Euro an, ohne Ausstattung. Allerdings QPI-Level 4.8. Nicht wechelbar. Das Zubehör ist unverhältnissmässig teuer. Einfach das doppelte bis vierfache als bei einem anderen Hardwarehersteller wie Dell, HP, Fujitsu. Wieviel Spielraum hier ist, kann ich leider nicht sagen, in CH gibts glaub einen einzigen Vertrieb. Auf alle Fälle wäre die Gesamtkomplexität recht tief, einfach den billigsten ESX drauf werfen und FT übernimmt die Hardware. Evtl. mit Minimalausstattung bestellen und zugemüse über einen anderen Standardhersteller, ist dann halt ned supportet, aber auch die kochen nur mit Wasser. Bei Festplatten und RAM hätte ich jetzt keinerlei Bedenken. Das System unterstützt 8 interne Festplatten pro Node.

Zu View: Hier gilt noch zu beachten, dass du 900 User hast. Sprich dafür brauchst du View-Lizenzen. Auch die PCoIP-Clients von Teradici sind nicht unbedingt als billig zu bezeichnen. Wenn der Kram ohne View direkt auf den ESX läuft, weiss ich ned ob du auch mit Masterimages arbeiten kannst.

Von Sizing in dieser Grössenordnung habe ich absolut kein Plan. Du wirst wohl mehr spindeln als effektiver Speicherplatz brauchen, schätze ich mal.

Guru
Beiträge: 2082
Registriert: 21.10.2006, 08:24

Beitragvon bla!zilla » 16.11.2009, 14:15

Für 20k € Budget könnt ihr euch DataCore und LeftHand direkt klemmen, selbst bei Schulkonditionen. HP LeftHand VSA sind schön, müssen/ sollten aber in einem eigenen VMware ESX Cluster betrieben werden. Den Storage müsst ihr dann in den ESX Servern oder extern per Storage vorhalten.

DataCore bietet zwar einen seamless Failover, spiegelt dafür aber auch brav logische Fehler mit. Ob das dann wirklich Disaster Tolerant ist, will ich mal dahingestellt lassen (ich bin übrigens HP Master ASE StorageWorks und Datacore DCIE - ich kenne beide Produkte sehr gut)

King of the Hill
Beiträge: 13063
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 16.11.2009, 14:21

@UrsDerBär ich glaube der OP braucht nur nen File/Mailserver fuer bis zu 900 User. Die Anzahl der phy. Client ist vielgeringer. So wie es sich anhoert sind es normale FAT Client welche halt per Imaging immer frisch installiert bzw. aktualisiert werden. Sowas kennt man von Schulungsraeumen usw.

Das Thema Desktopvirtualisierung wurde noch garnicht angesprochen :).

@cibomato
Zum Thema SATA.... SATA Disks sind soweit Ok. wenn denn die Anzahl der Spindelen ausreichend ist. In der Summe muessen zumind. die gewuenschen I/Os heraus kommen. Aber tendieren wuerde ich zu 10K SAS. Wenn es sich um eine geringe Menge von Storage 1-3TB handelt dann viele kleine Spindeln und die moeglichst von der Schnellen Sorte.

Was eher Probleme macht sind reine SATA Kontroller. Diese sind in Servern eher selten anzutreffen da man SAS Controller nimmt und dann evtl. SATA Platten. Hinzu kommt das ein ESX(i) die FakeRaid von Onboard SATA Raid Controllern nicht unterstuetzt.

Zu Bemessung:
Das sollte doch in deinem Fall ganz einfach sein da du phy. Server als Vorlage hast was den Plattenspeicher angeht. Die VM erhoeht das um ein paar KB an Logs, und *:vswap in hoete des RAM.

CPU Leistung muss man so sehen das man spaeter max. nur 1-2 vCPUS hat und keine Quads mehr in der VM. Das muss ueber hoehere Taktfrequenz bzw. modernere CPUs ausgeglichen werden.

Zum benoetigten Arbeitsspeicher muss halt noch der Overhead fuer Menge an RAM/Anzahl vCPUs und 32/64 bit gezaehlt werden. Fuer den ESX Hosts selber sind grob 2GB anzusetzen.

Die Einsparmechanismens (TPS, Balloning, Swap) von vSphere was den Memory angeht zaehle ich immer zur Reserve.

Ob du also einen Host mit 12 oder 24GB bestueckst musst du halt ausrechnen. Im Falle des Ausfalls ist zu beachten das alle VMs auch auf einen ESX passen muessen.

Gruss
Joeerg

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 16.11.2009, 16:02

@Irix: Da habe ich wohl falsch gedacht. :lol:
Dachte mir er will das auch gleich virtualisiert haben, nicht nur den Fileserver. Was bei der Anzahl gleicher Desktops ja auch ned wirklich verkehrt wäre. Nur schade wenn teure infrastruktur (massig ThickClients) schon vorhanden ist und somit Umrüsten kostspielig wäre.

Aber das ist ja brutalst für das Netzwerk wenn da soviele User darauf zugreifen und alle ein neues, komplettes Image haben wollen. Wäre da nicht sinnvoller hiervon wegzukommen?

Auf alle Fälle würde ich in diesem Falle eher eine Serverduplizierung vorschlagen wenn es einigermassen verfügbar sein soll. So spart man immerhin eine komplexe Struktur und evtl. teure Lizenzen. Zum Beispiel mit DoubleTake.
Dazu zbsp. ein Supermicro-Barbone mit 16 oder 24 SAS Slots und zwei Expandern (2.5 oder 3.5) und dazu einen potenten RAID-Controller.

Oder geclustert wegen dem Exchange. Aber das kostet auch richtig Geld.

Schmalspurvariante wäre noch eine kleine DAS od. iSCSI Speicherbox mit zwei Controller + ein Server der von der Speicherbox bootet. Dann noch nen Coldsystem daneben welches einfach eingebunden werden könnte indem es die SCSI Targets anspricht. Bei Exchange gilt dann halt beten + guten Backup im hintergrund zu haben wenn die DB abkackt.

Ziemlich sinniger Backup imho übrigens "System Center Data Protection Manager". Wenn ca. 15minuten Datenverlust (je nach intervall) genügend sind, wäre das evtl. ein Gangbarer Weg in Verbindung mit vorheriger Variante. Sprich kackt Server ab, Exchange kaputt, dann eben Backup rückspielen.

Member
Beiträge: 34
Registriert: 15.11.2009, 14:14

Beitragvon cibomato » 17.11.2009, 00:35

Also erstmal vielen Dank für die vielen und kompetenten Antworten hier!!!

UrsDerBär hat geschrieben:Viel bezahlbares gescheites ist nicht bei raus gekommen. Eigentlich gar nichts was den Namen günstig auch nur annähernd nahe kommt. In der Region 20k für alles (inkl. Lizenzen, Hardware, zugemüse, usv usw. kannst wohl einpacken).

bla!zilla hat geschrieben:Für 20k € Budget könnt ihr euch DataCore und LeftHand direkt klemmen, selbst bei Schulkonditionen.

Die Einschätzung drängt sich mir auch so langsam auf aber die Hoffnung stirbt ja bekanntlich zuletzt und vielleicht kann man ja mit ein bisschen Sparen hier und da (SATA statt SAS etc) doch noch eine einigermaßen solide Lösung stricken.

UrsDerBär hat geschrieben:Zu HA: So toll ist dieses Feature nicht, wie irix bereits xesagt hat, hast du hierbei ein Kaltstart. Sprich das gleiche Szenario wie Stecker raus und wieder rein. Nur mit dem Unterschied, das es automatisch geht.

Klar. Für kritische DBs mit tausenden Transaktionen pro s natürlich indiskutabel. Für uns als Schule sind halt n paar Dateien futsch aber es geht wenigstens nach wenigen Minuten automatisch weiter. (Oder???) Hätten wir jetzt aktuell nen Server-HW-Crash (bewahre!), müssten wir erst Ersatz-HW beschaffen, installieren, Backup zurückspielen etc. Dauer geschätzt 4 Tage.

bla!zilla hat geschrieben:HP LeftHand VSA sind schön, müssen/ sollten aber in einem eigenen VMware ESX Cluster betrieben werden.

Der hier behauptet, er hat die Server auf derselben ESX-Maschine wie das VSA-Storage (aber Du sagtest ja auch "sollten"): http://www.youtube.com/watch?v=wW4LoqAzP3Y

irix hat geschrieben:@UrsDerBär ich glaube der OP braucht nur nen File/Mailserver fuer bis zu 900 User. Die Anzahl der phy. Client ist vielgeringer. So wie es sich anhoert sind es normale FAT Client welche halt per Imaging immer frisch installiert bzw. aktualisiert werden. Sowas kennt man von Schulungsraeumen usw.

Exakt! Es handelt sich um ca. 150 Clients (5 versch. HW-Klassen). Die Imaginglösung ist dabei so schlau, dass die Imagedaten in einer DB verwaltet werden, sprich, man benötigt bei 5 verschiedenen XP-Images (da 5 HW-Klassen) nicht den fünffachen Platz sondern nur die jeweils abweichenden Dateien (Treiber, Programme). Die IP, Hostname etc werden dann beim Boot abhängig von der MAC reingepatcht. So haben wir insgesamt einen Platzverbrauch von nur ca. 70 GB für alle 150 Clients, je mit XP und Linux und das bei mehreren Versionen.

irix hat geschrieben:@cibomato
Aber tendieren wuerde ich zu 10K SAS. Wenn es sich um eine geringe Menge von Storage 1-3TB handelt dann viele kleine Spindeln und die moeglichst von der Schnellen Sorte.
Was eher Probleme macht sind reine SATA Kontroller. Diese sind in Servern eher selten anzutreffen da man SAS Controller nimmt und dann evtl. SATA Platten. Hinzu kommt das ein ESX(i) die FakeRaid von Onboard SATA Raid Controllern nicht unterstuetzt.
Zu Bemessung:
Das sollte doch in deinem Fall ganz einfach sein da du phy. Server als Vorlage hast was den Plattenspeicher angeht. Die VM erhoeht das um ein paar KB an Logs, und *:vswap in hoete des RAM.


Jep, Fake-RAID kommt natürlich nicht in die Tüte! Und es ist tatsächlich nur wenig Plattenplatz:
Server:
- ca. 70 GB Images
- ca. 80 GB Homes
- ca. 5 GB Rest
Firewall:
- ca. 15 GB, hauptsächlich Logs

Selbst mit größeren Quotas, reichlich Overhead, Testserver(n) etc pp kommen wir vielleicht auf 1, max. 2 TB.

irix hat geschrieben:CPU Leistung muss man so sehen das man spaeter max. nur 1-2 vCPUS hat und keine Quads mehr in der VM. Das muss ueber hoehere Taktfrequenz bzw. modernere CPUs ausgeglichen werden.

Ah, ok, das war mir neu. Gut, zu wissen!

irix hat geschrieben:Zum benoetigten Arbeitsspeicher muss halt noch der Overhead fuer Menge an RAM/Anzahl vCPUs und 32/64 bit gezaehlt werden. Fuer den ESX Hosts selber sind grob 2GB anzusetzen. Ob du also einen Host mit 12 oder 24GB bestueckst musst du halt ausrechnen. Im Falle des Ausfalls ist zu beachten das alle VMs auch auf einen ESX passen muessen.

Ok aber RAM sind ja nicht die Hauptkosten. Mal zusammenrechnen.

@UrsDerBär: Nix Exchange, CyrusIMAP/Postfix.

UrsDerBär hat geschrieben:Aber das ist ja brutalst für das Netzwerk wenn da soviele User darauf zugreifen und alle ein neues, komplettes Image haben wollen. Wäre da nicht sinnvoller hiervon wegzukommen?

Ne, das ist so, wie von irix beschrieben: nicht die User ziehen die Images, sondern die 150 Clients. Und das auch nur vom Server über's Netz, wenn es ein neues Image gibt, ansonsten synchronisieren sie lokal von der Cache-Partition.
Wenn wir aber neue Images erstellen und es ist dann meist schon spät Abends (vor 16 Uhr können wir wegen Unterricht nicht arbeiten, um halb Zehn werden wir vom Hausmeister rausgeschmissen und am WE kommen wir auch nicht in die Schule...), sollen die Images entweder abends noch kurz oder am nächsten Morgen vor dem Unterricht möglichst schnell über's Netz flutschen.

UrsDerBär hat geschrieben:Auf alle Fälle würde ich in diesem Falle eher eine Serverduplizierung vorschlagen wenn es einigermassen verfügbar sein soll. So spart man immerhin eine komplexe Struktur und evtl. teure Lizenzen. Zum Beispiel mit DoubleTake.

Noch nie gehört. Noch ne Alternative... ;)

Mal sehen, wie/ob sich die Informationen jetzt zu einem Ganzen verdichten.

Viele Grüße,
cibomato

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 17.11.2009, 02:28

Nun jetzt hab ich auch gepeilt wie das funktioniert. ;)

Die Datenmenge alleine ist ja wirklich überschaubar. Musst halt soviel Spindeln bereitstellen, damit das Performant läuft. --> Andere Schulen?

Mit dem Site Recovery MAnager könntest ja evtl. sogar auf Shared storage verzichten und local verwenden. Sprich zwei server und der eine wird auf den anderen repliziert. Fände ich recht elegant, wenn DownTime erlaubt ist und einfach möglichst rasch alles wieder up sein soll. Nur Lizenzen glaub schon recht kostspielig.

PS:
Kleine Korrektur: MS DPM geht nur für Windows sinnvoll
DoubleTake: Ebenso
Frag mich ned warum ich Exchange gelesen habe... *rofl*

Guru
Beiträge: 2082
Registriert: 21.10.2006, 08:24

Beitragvon bla!zilla » 17.11.2009, 09:22

cibomato hat geschrieben:Die Einschätzung drängt sich mir auch so langsam auf aber die Hoffnung stirbt ja bekanntlich zuletzt und vielleicht kann man ja mit ein bisschen Sparen hier und da (SATA statt SAS etc) doch noch eine einigermaßen solide Lösung stricken.


Eine SATA Platte liefert deutlich weniger IOPS als eine SAS Platte, das aber bei einer sehr viel höheren Kapazität. Dementsprechend bekommt man Probleme. Größere Platten haben eine längere Wiederherstellungszeit. Der Rebuild einer vollen 1 TB HDD kann schon mal drei Tage dauern. Das ist dann ein Zeitraum, in dem man, je nach RAID Level, verwundbar ist. Zudem muss ich mehr Spindeln einsetzen, die jede für sich eine geringere MTBF haben. Und das wird zum Problem.

cibomato hat geschrieben:Der hier behauptet, er hat die Server auf derselben ESX-Maschine wie das VSA-Storage (aber Du sagtest ja auch "sollten"): http://www.youtube.com/watch?v=wW4LoqAzP3Y


Du kannst dir ja selber mal die Best Practise Ansätze für VSAs ansehen und mir dann sagen, ob es sinnvoll ist die in einem Cluster mit anderen VMs zu betreiben, ;)


Zurück zu „vSphere 4 / ESX 4“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 19 Gäste