Seite 1 von 2

Intel Modular Server / IBM Blade Server

Verfasst: 30.03.2010, 12:09
von tr
Hy
Wollte mal fragen ob jemand von euch schon erfahrung mit einem dieser Server und einer View Umgebnung hat?

Verfasst: 30.03.2010, 12:29
von nbfbe
Ja!

:twisted:

Verfasst: 30.03.2010, 14:05
von primetime
Ja, verkaufen wir regelmäßig.
Für kleinere bis mittlere Lösungen eine gute Sache.
Nimmst du noch den Shared-LUN Key und du kannst auch HA machen.

Unser Tipp an unsere Kunden:
Nicht mehr als zwei ESX in einem Pool.
Wenn noch physikalische Maschinen laufen, Windows- und Linux poolmäßig trennen.

Bedenke bitte, dass du je Einschub max. vier NICs (auf zwei Switche verteilt) hast.
Also onboard NIC 1 und 2 laufen auf Switch 1 und die optionalen NICs 3 und 4 auf Switch 2.


Gruß
Christian

Verfasst: 30.03.2010, 14:53
von tr
Welchen meinst du denn jetzt IBM oder Intel
und wie groß sind denn die View Umgebungen die Ihr da baut?

Verfasst: 06.04.2010, 10:29
von ico_gmbh
Ich behaupte mal, er meint Intel. Der Shared-LUN-Key sorgt dafür, dass mehrere Blades (Intel nennt sie "Compute Modules") auf ein gemeinsames Storage zugreifen können. Das ist für HA notwendig, da dann der Umzug einer Maschine auf einen anderen Host innerhalb von Sekunden durchgeführt werden kann.
Die Anzahl der möglichen Maschinen hängt natürlich extrem vom Anwendungszweck ab: allein der Unterschied im Ressourcenverbrauch von MS Office 2003 zu 2007 ist schon gewaltig.

Verfasst: 09.04.2010, 20:00
von tr
sag mal wie viele xp clients nutzt ihr denn da so?

Verfasst: 19.04.2010, 08:51
von tr
Hy
sag mal wie schnell is eigendlich das san vom Intel Modular Server?

Verfasst: 19.04.2010, 10:23
von bla!zilla
Tja, das hängt primär von der Anzahl der Platten ab.

Verfasst: 19.04.2010, 10:26
von tr
wiso hängt das von den Platten ab hat das san nicht eine Bestimmte übertragungsbandbreite pro Server?

Verfasst: 19.04.2010, 12:07
von bla!zilla
Und wer liefert die Daten, die Bandbreite belegen? Richtig, die Platten. Ich weiß es nicht genau, aber die Server sind per SAS an die Platten angebunden. Du kannst also mit 3G SAS rechnen, also einer Bandbreite von 3 Gbit/s.

Verfasst: 19.04.2010, 13:12
von ilmonstro
Hallo,

ich habe für die Migration unserer bisherigen Einzel-Server diesen Monat einen Intel Modular Server gekauft. Sind 3 Module drin und dazu 14 Platten (4x 300GB, 10x 500GB). Dazu Shared Lun und VMware Essentials Plus. Als Server werden am Anfang 2x W2k8 als DC, 1x Windows TS, 2x Linux TS und 1x Linux mit einer Plone DB installiert.

@primetime
Was meinst du mit nur 2 ESX pro Pool? Ich hatte eigentlich vor die 300GB Platten als Storage Pool für ESX auf den Modulen und die virtuellen VM's zu nehmen. Die 500GB Platten dienen dann als Storage Pool für die Datenbank. Dachte so an 20GB für ESX pro Modul, den Rest für die VM's. Muss aber sagen das VMware Neuland für mich ist. Bisher laufen hier kleinere Hosts (Softwareverteilung, AntiVirus Server) unter Ubuntu mit KVM.

Verfasst: 19.04.2010, 18:50
von tr
ok ich hab 10 sas platten das heist dann das ich insegesamt 30 gbs
was aber doch eigendlich keinen sinn macht oder?

Verfasst: 19.04.2010, 21:54
von bla!zilla
tr hat geschrieben:ok ich hab 10 sas platten das heist dann das ich insegesamt 30 gbs
was aber doch eigendlich keinen sinn macht oder?


Eben. SAS hat einen Kanal pro Platte, also 10x 3 Gb/s. Läuft alles am Controller zusammen. Wenn vor dem Controller noch SAS Expander hängen, dann sind die i.d.R. das Bottleneck, weil die Expander dann mit 3 Gb/s, oder die neueren Expander, mit 6 Gb/s SAS an den Controller angebunden sind. Aber mal ernsthaft? Welche HDD (keine SSD...) bringt 300 MB/s?

Verfasst: 19.04.2010, 22:59
von tr
die zum beispiel Seagate Cheetah 600 GB 600 MBps 15000 rpm
aber hatt dann jeder Server die 3gbs oder alle zusammen?
übrigens gibts eigendlich nen Performance unterschied ob ich alles in einen Speicherpool legen oder ob ich das teile

Verfasst: 20.04.2010, 08:42
von bla!zilla
Kennst du den Unterschied zwischen Megabit/s und Megabyte/s nicht??

Jede Platte hat 3 Gb/s zum Controller. Jeder Server hat natürlich einen eigenen Controller. Das wird intern über einen SAS Switch gelöst sein.

Verfasst: 20.04.2010, 09:52
von tr
ich kenne den und du woltest wissen welche Platte mehr als 300 MB / MegaByte bringt und laut hersteller brint diese Platte 600 MB / Megabyte
ok jeder server ist mit 3 gb angebunden aber macht das nun nen unterschied ob ich alles in einen Speicherpool lege oder das verteile?

Verfasst: 20.04.2010, 10:06
von irix
tr hat geschrieben:ich kenne den und du woltest wissen welche Platte mehr als 300 MB / MegaByte bringt und laut hersteller brint diese Platte 600 MB / Megabyte


Nein die Platte bringt keine 6Gbit sondern hat "nur" ein entsprechendes Interface. Es gibt keine herkoemmliche Festplatte welche bis Dato das 3Gbit Interface haette auslassten koennen. Da aber die ersten SSDs die Grenze erreicht haben muss Zeitig etwas neues her.

Da SAS ja auch als Hostbus benutzt wird um z.b eine Expansions Unit/JBOD oder so anzuhängen ist die groessere Bandbreite durchaus zubegruessen.

Gruss
Joerg

Verfasst: 20.04.2010, 11:25
von tr
ok also eine festplatte erreicht nie die 3gbit grenze aber mehrere wie es ja im san auch ist können sie auslasten da ja von mehreren platten dann auf ein Interface zusammengefasst wird.
Bin ich da jetzt richtig?

Verfasst: 20.04.2010, 12:05
von irix
tr hat geschrieben:ok also eine festplatte erreicht nie die 3gbit grenze aber mehrere wie es ja im san auch ist können sie auslasten da ja von mehreren platten dann auf ein Interface zusammengefasst wird.


Jein, dein SAN hat einen StorageProzessor oder um es mal herunterzubrechen auf eine Standardgeschichte einen normalen HBA sprich RAID Controller. Dieser steckt in einem PCI-E 4x oder auch 8x Slot und hat damit eine entsprechende Bandbreite Richtung System. Intern hat er dann div. Chips mit einer anderen Bandbreite welche sich dann auf entsprechende Ports aufteilen. Diese Ports haben dann 3 bzw. 6Gbit.

Wo der Bottleneck ist haengt immer vom Typ/Modell und Anzahl an Ports ab. Der erste SAS RAID Controller von DELL PERC5 war nur ein leicht veraendertes Modell welches vom PCI-X Vorgaenger abgeleitet war und dies dort verwendete PCI-X/PCI-E Bridge war mit 2.1Gbit der Bottleneck und die Gesamtsumme der 8x3Gbit war groesser genau wie PCIE 8x. Das wurde erst mit dem PERC6 geaendert und hier kann der Chip dann mehr.

Ein 24 Port ARECA RAID Controller muesste intern 7.2Gbit bedienen koennen wenn da jeder der 3Gbit Ports zu7 100% gefuettert wuerde. Das man das ganze dann nicht in einen PCI-E 1x steckt erklaert sich dann ja von selbst.

Entsprechende HP EVAs mit FC koennen jede Platte mit voller Bandbreite ihres Interfaces auslassten wenn denn die Platte ueberhaupt so schnell waere und wenn man die Bandbreite dann auch nach oben hin wegschaffen kann.

Zum Intel Modular Server kann ich leider nichts sagen.

Gruss
Joerg

Verfasst: 20.04.2010, 13:02
von tr
ok aber vonn der funktion selbst bin ich da schon richtig oder?
und jeder server kann dann auch die 3 Gbit nutzen oder?

Verfasst: 20.04.2010, 13:02
von bla!zilla
tr hat geschrieben:ok also eine festplatte erreicht nie die 3gbit grenze aber mehrere wie es ja im san auch ist können sie auslasten da ja von mehreren platten dann auf ein Interface zusammengefasst wird.
Bin ich da jetzt richtig?


Nicht so ganz. Jede Platte hat 3 Gb/s zum Controller. Sofern zwischen Platte und Controller keine Expander hängen, ist das also kein Problem. Ab dem Controller ist dann das Bussystem des Rechners das Bottleneck.

irix hat geschrieben:Entsprechende HP EVAs mit FC koennen jede Platte mit voller Bandbreite ihres Interfaces auslassten wenn denn die Platte ueberhaupt so schnell waere und wenn man die Bandbreite dann auch nach oben hin wegschaffen kann.


Auch hier ein Jein. Das gilt nicht nur für EVAs, sondern quasi für alle Speichersysteme, die ihre Backends über FC-AL, SAS oder SCSI anbinden. Du hast 15 Platten in einem Disk-Enclosure und das Enclosure ist per FC-AL an die Controller angebunden. Alle Platten hängen quasi samt Controller in so einem Loop. Und pro Loop darf nur einer quatschen, also im Prinzip nur ein IO pro Loop zu einem Zeitpunkt. Nun hat eine EVA bis zu drei Loops, also maximal drei IOs gleichzeitigt. Das gleiche ist z.B. bei SAS. Je nachdem wie die Enclosures angebunden sind, hat man da auch nicht soviele IOs parallel. Klar, über bestimmte Verfahren lässt sich da schon mehr machen, aber es Performance steigt und fällt mit der Anzahl der möglichen IOs in Richtung der Platten. 4 Gb/s FC ist nice, aber man ehrlich: Ob ich da 2 Gb/s FC, 6 Gb/s SAS oder U320 SCSI habe... je mehr Busse, desto besser.

Verfasst: 20.04.2010, 14:30
von tr
Geht das mit den mehreren Bussen automatisch wenn ich sie habe oder muss ich das extra konfigurieren?

Verfasst: 20.04.2010, 14:30
von bla!zilla
Kommt auf das System an.

Verfasst: 20.04.2010, 16:04
von tr
Beim Intel Modular Server weist du das nich zufällig oder??
übrigens hatt nun jeder Server 3Gbit oder alle zusammen am SAN?

Verfasst: 20.04.2010, 17:09
von bla!zilla
tr hat geschrieben:Beim Intel Modular Server weist du das nich zufällig oder??
übrigens hatt nun jeder Server 3Gbit oder alle zusammen am SAN?


Ich weiß es nicht, ich habe mit solchem Intel-Barebone-Kram nichts zu tun. Frag doch einfach den, der dir das Ding verkauft hat. Wenn es dir noch keiner verkauft hat, frag jemanden, der es dir verkaufen würde. Hier kann es dir ja offenbar keiner beantworten.