Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

ESX Hardware für 5 Jahre

ESX(i)-taugliche Hardware, HCL .....

Moderatoren: irix, continuum, Dayworker

Member
Beiträge: 186
Registriert: 19.01.2009, 17:54

ESX Hardware für 5 Jahre

Beitragvon Kampfwurst » 14.05.2013, 09:03

Hallo

Nach Jjahren mit Windows 2008R2 als Host für meinen Server hätte ich gerne wieder einen ESXi ;-) Es gibt einfach nichts besseres.

Da nun ein neuer Server her muss will ich gleich für ESXi 5.x gewappnet sein.

Habe mir folgende Hardware ausgesucht:

Mainboard: MSI X79A-GD45
CPU: Intel Xeon E5-2620
Ram: Kingston ValueRAM DIMM 8GB PC3-12800U 4x

Als Raid Controller kommt der alte 3ware 9690SA-i8 mit WD Red Platten zum Einsatz.

Ich weiß das das Mainboard kein Servermainboard ist. Aber 270€ für ein Servermainboard ist mir etwas zu teuer.

Der Server muss als Fileserver für die Familie und für mich fürs Studium zum testen 4-5Jahre laufen.

Gruß Christoph

King of the Hill
Beiträge: 12990
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 14.05.2013, 10:39

Hmm, du sparst an der falschen Stelle...
Die CPU gibts um 400 Euro, das MB um 200 und der Speicher ist weder Registered noch bringt er ECC mit (zumindest ECC will man in einem Server haben, damit Speicherfehler nicht zu einem schleichenden Datenverlust führen). Die WD Red sind speziell an den NAS-Betrieb ausgelegte Desktop-Platten, die mit NASware auch eine speziell daran angepaßte Firmware mitbringen. In einem normalen Desktop hast du davon nichts und ein vernünftiges NAS kann zum Stromsparen seine angeschlossenen Datenträger auch komplett abschalten. Der 24x7-Betrieb ist also eher weniger vorgesehen.

Davon abgesehen, wirst du mit der Hexacore-CPU und gerade mal 2GHz-Nominaltaktfrequenz (2.5GHZ im Turbomodus) bei 95W TDP sicherlich nicht glücklich und eine GPU fehlt dir auch noch. Meines Wissens bringt keine E5- im Gegensatz zu einigen E3-CPUs im Socket1155 eine GPU mit. Du brauchst also in jedem Fall noch ein kleine Graka, die dann nur den ESXi-Bootscreen mit seinen 16 Farben bei 800x600 (pre-ESXi5) bzw 1024x768 (ESXi5) darstellt.

Dein Controller läuft meines Wissens nach auch nur als Second-Controller, da der ESXi5.x dafür keine Treiber integriert hat. Entweder mußt du dich auf einen USB-Stick bzw SD-Card als Bootmedium stützen oder den ESXi5 mit dem Customizer das ISO-Image anpassen und den notwendigen Treiber integrieren.


Das ein Server-MB 270Euro kosten muß, ist mit Verlaub Blödsinn. Was das MB teuer macht, ist der Socket2011 und dessen 4-Kanal Speicherinterface. Unter ESXi verlierst du bei deinem MSI-MB auch einiges and Funktionalität. Neben USB3 sind das HD-Audio, Firewire, SPDIF und mit etwas Pech ist der Realtek-Netzwerkchip ebenfalls nicht nutzbar. Wenn du es einfacher haben willst, lies dich einfach mal in meinen Thread Hardware vs Suche nach der ''Eierlegenden Wollmilchsau'' ein. Neben meiner Auswahl an Servern findet sich auch ein SuperMicro-Barebone und die Empfehlung zu SuperMicro-MBs allgemein, da diese recht problemlos laufen.
Beim Einsatz als Datensilo solltest du auch mal einen Blick auf ZFS werfen. Das erspart dir den HW-Raid-Controller und dürfte neben derselben hohen Datensicherheit auch perfromanter sein. Hier sei dir die Konstellation SuperMicro-Board, HBA per PCI-Passthrough und napp-it empfohlen, wobei gea's napp-it auch von einigen Usern im produktiven Einsatz genutzt wird.


[edit]
ZFS und napp-it-Link

Member
Beiträge: 186
Registriert: 19.01.2009, 17:54

Beitragvon Kampfwurst » 14.05.2013, 11:06

Eine GPU hab ich. Entweder als PCI oder eine ATI 3xxx passive für den PCI-e

Was versteht man unter Second Controller? Booten will ich sowieso von einem USB Stick.

Dachte immer das der ESXi von mehr Kernen profitiert.

Später sollen mal ca 7-8VMs laufen.
Exchange 2012,Fileserver mit 5-6TB, TerminalServer, Firewall....

Ich habe seit 5 Jahren nun normale Desktop Festplatten im Server. Die laufen seit 1900 Tagen ohne Probleme.
Davon war gerade einmal eine defekt. Und der 3ware Controller läuft laut Internet ohne Probleme mit den WD Red Platten.

Was für vorteile habe ich durch das ZFS?

Ich würde die Festpatte zu einem Raid 5 zusammenschliesen. Da kommen dann die VMs und der Datastorage für den File Server rauf. Da der ESXi nur 2TB unterschtützt einfach mehrer. oder?

Gruß Christoph

King of the Hill
Beiträge: 12990
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 14.05.2013, 11:42

Ob die GPU nun PCI oder PCIe ist, spielt keine Rolle. Für die minimalen Grafikanforderungen würde auch eine uralte XGA-Karte reichen.

Von einem Second-Controller kann man nicht direkt booten, da dazu die notwendigen Treiber im Inst-Medium fehlen.

Mehr Kerne helfen nur bedingt. Der RAM und ganz besonders die Schreibleistung begrenzen schon wesentlich früher. In der VT gilt weiterhin die Maxime: "Nur soviel wie nötig (vRAM, vCPU, vDISK) und nicht wie möglich." Mit Singlecore-VM und 2GB vRAM erreichst du einfach ein besseres Reaktionsverhalten (Schwubbdizität ;)) innerhalb der VM als mit Dual- oder Quadcore-vCPU.

Zum Thema WD Red sei dir Über Sinn und Unsinn von NAS Festplatten – oder nach Green der nächste Unsinns Hype bei Festplatten empfohlen. Darin wird nicht nur heftigst argumentiert und gleichzeitig auch mal ein kleiner Ausflug in die Raid-Plattenwelt gemacht.

http://de.wikipedia.org/wiki/ZFS_(Dateisystem)
Die Forensoftware hat mit Klammern in Links ihre Probleme, deshalb der Link als Zitat. Weiteres Material gibt es im ZFS Stammtisch auf Hardwareluxx.

Ein Raid5 ist aufbaubedingt schreibtechnisch gesehen sehr langsam, stellt aber platztechnisch bzw bei einem Raid immer vorhandenen Verschnitt her gesehen einen guten Kompromiss dar. Der ESXi5 unterstützt als Datastore bis zu 64TB enbloc, eine einzelne vDISK (VMDK) kann trotzdem nur 2TB-minus-512Byte groß sein.

Member
Beiträge: 186
Registriert: 19.01.2009, 17:54

Beitragvon Kampfwurst » 14.05.2013, 11:59

Mehr Kerne helfen nur bedingt. Der RAM und ganz besonders die Schreibleistung begrenzen schon wesentlich früher. In der VT gilt weiterhin die Maxime: "Nur soviel wie nötig (vRAM, vCPU, vDISK) und nicht wie möglich." Mit Singlecore-VM und 2GB vRAM erreichst du einfach ein besseres Reaktionsverhalten (Schwubbdizität ;)) innerhalb der VM als mit Dual- oder Quadcore-vCPU.


Das ist schon klar.
Daher hätte ich gerne für alle VMs einen eigenen Kern.

Kann ich eigenltich den 3ware Controller mit VT-d direkt an eine VM durchreichen oder geht das nur mit Onboard Kontrollern. Dann könnte ich zwei alte Platten im Raid 1 für die VMs laufen lassen und hätte das Problem mit den vDISK nicht.

King of the Hill
Beiträge: 12990
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 14.05.2013, 12:13

Benötigt jede deiner VMs dauerhaft soviel CPU-Leistung, daß sich eine Hexacore-CPU mit 95W TDP wirklich rechnet?
Meine Verbrauchswerte mit einer E3-1220v2 CPU habe ich im Thread Dell T110 II (11.Generation) mal aufgelistet und momentan verbraucht der Server in meiner Signatur 40-44W inklu Fritz.Box7170 (geschätzte 10W Verbrauch) ohne Monitor. Mit Monitor sind es 20W mehr und es laufen 4 Singlecore-VMs dauerhaft. Vom Prinzip her würde mir auch eine Dualcore-CPU reichen. Da diese aber meist mit 65W gegenüber den 69W meiner Quad-CPU gelistet sind und Energiespar-CPUs mit angehängtem kleinen "S" oder "T" nur unter Volllast einen Effekt haben, im Leerlauf liegen alle Sandy/Ivy Bridge CPUs um 30W, habe ich den Quad genommen.

Ob du PCI-Passthrough bzw VMdirectPathIO nutzen kannst, hängt vom Gerät und vor allem CPU bzw Chipsatz ab. Auf einem Desktop-MB und dazu zählt Intel den X79-Chipsatz würde ich mir nur bedingt Hoffnung machen. Vielfach wird dort beim Bios/UEFI unsauber implementiert oder es ist vom MB-Hersteller komplett ungetestet.
Um die 2TB-Beschränkung zu umgehen, kannst du das auch einfacher haben. Neben VMDK und RDM im "Virtual compatability mode" gibt es auch RDM im "Physical compatability mode" und mit letzterem kannst du Platten am ESXi5 vorbei bis zu 64TB direkt ansprechen. Im "Physical compatability mode" verlierst du aber die Möglichkeit Snapshots zu erstellen, das ändert die Sicherungsmöglichkeiten einer VM.

Member
Beiträge: 186
Registriert: 19.01.2009, 17:54

Beitragvon Kampfwurst » 14.05.2013, 12:28

momentan mit 2VMs in auf einem Server2008R2 läuft der Q9550 zwischen 10 und 25% der max Auslastung.

Nichts ärgert mich mehr als später zuwendig Leistung zu haben. Die CPU ist ja noch nicht fix.

Der File Server braucht keine Snapshots. Brauche die nur für die Test VMs und Exchange ... Geht der Physical compatability Mode immer und mit jedem Device? oder muss ich da etwas beachten?

King of the Hill
Beiträge: 12990
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 14.05.2013, 18:48

Auch wenn die CPU noch nicht fix ist und der Sockel 2011 verschiedene CPU-Reihen unterstützt, gilt das noch lange nicht für den X79-Chipsatz. Dieser ist von Intel in die "Enthusiast Platform" als Speerspitze für den Desktop aufgestellt. Das darin auch Xeon-CPUs laufen, ist ein glücklicher Zufall und dürfte nur aufgrund der geringen Unterschiede zum C200- bzw in deinem Fall dem C600-Chipsatz liegen.
Aus eigener Erfahrung kann ich dir sagen, daß jede CPU mit integriertem Memory-Controller um Welten besser performt als jede FSB-CPU wie dein Core2Quad mit 2.83GHz und FSB1333. Ich hab mir aus finanziellen Gründen nur die kleinste Xeon-E3 Quad-CPU (E3-1220v2, 3.1GHz, 69W TDP, ohne Grafik und HT) leisten können und bin immer wieder erstaunt, wie gut die kleine CPU rennt.

Um zukünftig genügend Leistung zu haben, würde ich eher in ein schnelleres Datenträgersystem investieren. Wenn du nicht gerade für BOINC irgendwelche Primzahlen berechnest, langweilen sich deine CPU-Kerne eh die meiste Zeit und warten im selben Zeitraum immer auf den Datenträger oder manchmal auch den RAM. Da VMware bis auf die CPU die restliche PC-HW inklu vHDD-Controller virtuell abbildet, hast du dadurch schon genügend Schreibperformance-Verluste und die lahmen WD Red Platten mit ihren bis zu 5400U/min werden nicht gerade für Vortrieb sorgen. Dazu limitiert bereits ein Raid5 die Schreibperformance auf ~25% einer einzelnen HDD. Ein Raid5 erreicht sein bestes Performanceverhalten mit 3, 5 oder 9 Platten. Performancetechnisch macht es also durchaus Sinn, viele kleine Spindel und dafür in grösserer Anzahl zu verbauen, anstatt auf "nur" 4 Spindeln zu vertrauen. Energetisch gesehen sind 4 Platten natürlich einfacher zu händeln...

Bezüglich RDM kann ich dir mangels ausreichender Erfahrung erstmal nicht weiterhelfen.

Member
Beiträge: 186
Registriert: 19.01.2009, 17:54

Beitragvon Kampfwurst » 14.05.2013, 19:59

Danke Dayworker

Ist diese Zusammenstellung besser:

Supermicro X9SRL-F
Intel Xeon E5-2603, 4x 1.80GHz
3x WD Red für Daten (später kommen weitere 2 dazu)
4x Kingston ValueRAM DIMM 8GB PC3-10667R reg ECC CL9

Denke nicht das eine SSD fürs Cachen etwas bringt bei 32GB Ram oder?

King of the Hill
Beiträge: 12990
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 14.05.2013, 23:10

Das MB bietet zwei 82574L Gig-Ethernet Anschlüsse und die obligatorische Matrox G200eW. Die E5-2603 CPU hat jetzt nur noch 4 Kerne mit 1.8GHz und läuft theoretisch im CPU-Doppel. Brauchst du wirklich die Fähigkeit eines CPU-Doppels? Ich frag nur, weil das genannte MB nur einen CPU-Sockel hat und 1.8GHz in der Performance-Kiste ganz unten ist. Die CPU ist aber wegen dem 4-Kanal Speicherinterface trotzdem mit 80W TDP angegeben und im Leerlauf wirst du daher nicht unter 40W zuzüglich 10W Raid-Controller plus 20W RAM plus 35W für deine 5 HDDs kommen. Damit hättest du im Leerlauf fast schon meinen Verbrauch unter Volllast...


Wenn du hohen Speicherdurchsatz bzw allgemein viel RAM brauchst (die E5-CPUs unterstützen bis zu 750GB), hilft dir das 4-Kanal Speicherinterface im Sockel 2011 wirklich weiter. Wenn du mit 32GB RAM längerfristig auskommst, solltest du auch über den Socket1155 bzw den kommenden Socket1150 Stichwort Haswell nachdenken.


Ob dir eine SSD was bringt, hängt von deinen Daten ab. Bevor der ESXi ins Swappen kommt, gibt es noch mehrere Stationen vorher, mit denen der ESXi das die Performance völlig vernichtende Swappen verhindern will. Allerdings unterstützen einige Controller SSDs als schnellen Cache, um die langsameren Datenträger zu entlasten und in einem Raid5 könnte das die Schreibperformance extrem positiv beeinflussen.

Member
Beiträge: 186
Registriert: 19.01.2009, 17:54

Beitragvon Kampfwurst » 14.05.2013, 23:40

Stromkosten sollen nicht den Ausschlag geben. Der dual Core mit 8gb RAM und den 7 Festplatten braucht auch ca 100 Watt

King of the Hill
Beiträge: 12990
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 15.05.2013, 10:51

In der Situation möchte ich auch mal sein, daß 100W Leerlaufverbrauch keine Rolle spielen. Mich würde dennoch wirklich interessieren, was ein Strommeßgerät bei deinem Dualcore mit den 7 Platten genau anzeigt. Mit ziemlicher Sicherheit wirst du genauso negativ überrascht sein, wie ich es war und in Haushaltssumme kommt da sicherlich noch einiges mehr hinzu.
Aber das könnte man dann auch in einen anderen Thread auslagern, wenn dein neues System steht und du den Vergleich hast...

Benutzeravatar
Member
Beiträge: 168
Registriert: 25.11.2004, 21:29
Wohnort: VCP #768

Beitragvon IronEagle » 15.05.2013, 11:10

50-60 Watt "unnoetiger" Stromverbrauch pro Jahr, auf 5 Jahre, dazu die Mehrkosten fuer die Hardware im Vergleich zu nem "einfachen" Sockel 1155 System... Ja, Dayworker, in der Lage wo mir das egal ist moechte ich auch mal sein :-)

Allein wegen dem Stromverbrauch waere ne Loesung mit dedizierter Grafikkarte anstelle einer onboard-GPU schon zu bloed. Und fuer das hier skizzierte Szenario reicht ein Single-Socket System auf S1155 Basis ganz locker aus.

Member
Beiträge: 186
Registriert: 19.01.2009, 17:54

Beitragvon Kampfwurst » 15.05.2013, 15:46

Ich teile mir den Server mit der Familie. Aber egal. Ich will ein Sockel 2011 System. Also lieber das Supermicro X9SRL-F und dafür den Quad Core mit 1.8 GHz oder doch das msi und den Hex Core?

Benutzeravatar
Member
Beiträge: 168
Registriert: 25.11.2004, 21:29
Wohnort: VCP #768

Beitragvon IronEagle » 15.05.2013, 17:15

Kannst du uns den Grund, wieso es unbedingt Sockel2011 sein muss noch mal sagen?

Ich persoenlich wuerde, wenns das denn unbedingt sein muss, zum Supermicro Board tendieren.

Member
Beiträge: 186
Registriert: 19.01.2009, 17:54

Beitragvon Kampfwurst » 15.05.2013, 18:30

Der Grund ist ganz einfach. Wenn die Entwicklung so weitergeht braucht man in 4 bis 5 Jahren vielleicht mehr als 32gb RAM. Das geht aber nur mit dem Sockel 2011. Der alte Server hat auch nur 4 Plätze (DDR 2). Wenn die RAM in vielleicht 2 Jahren günstiger werden und der ESXi x mehr als 32gb unterstützt kann nur der Sockel 2011 aufgerüstet werden.

Als ich den Server vor 4.5 Jahren gekauft habe bräuchte kein mensch mehr als 2gb in einem PC. Heute hat jeder PC schon fast 8gb eingebaut.

Benutzeravatar
Member
Beiträge: 168
Registriert: 25.11.2004, 21:29
Wohnort: VCP #768

Beitragvon IronEagle » 15.05.2013, 18:35

WENN das so kommt, und WENN man das dann braucht, und WENN Vmware das freigibt, DANN ist immer noch die Frage was dann Ram, der heute aktuell ist, kostet, und ob ein Neukauf von Board/CPU/Ram dann nicht wirtschaftlicher ist. Schau dir heute mal die Preise von DDR2 Ram an, beispielsweise.

Heute Hardware fuer "in 5 Jahren" kaufen hat sehr viel mit Lotto oder Glaskugel zu tun :-)

Allein schon: 50-60 Watt sind so grob 120-130 EUR Stromkosten pro Jahr. Da haste in 3 Jahren, spaetestens nach 4, schon ein neues Board und CPU wieder raus, vermutlich auch noch etwas Ram. Steigende Stromkosten noch gar nicht beruecksichtigt.

King of the Hill
Beiträge: 12990
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 15.05.2013, 18:37

Qualitativ höherwertig dürfte das SuperMicro-MB sein und dazu müßten alle mitbezahlten Komponenten so auch im ESXi5 verfügbar sein.
Allerdings würde ich mir die CPU nochmal überlegen. Vier Kerne bei 1.8GHz sind nicht die Welt und auf 5 Jahre gerechnet wirst du damit wahrscheinlich nicht hinkommen. Auf der anderen Seite willst du das nur als Familien-Dateiserver und für dich zum Testen nutzen. Als reiner Fileserver sind die niedriggetakteten, vier Kerne kein Problem, speziell mit ZFS kommt es mehr auf ausreichend RAM und mit Dedublizierung sogar auf viel mehr RAM an. Bleiben noch Exchange2k12, TS und vor allem deine Tests zum Studium übrig, bei dem man bezüglich benötigter Rechenleistung nichts genaues nichts weiß. Exchange setzt jedoch auf eine DB und zusammen mit dem TS könnte dein Raid5 bereits einen ersten Engpaß darstellen. Mit einem Dateiserver auf derselben Raidgruppe und dem zu jeder DB genau entgegengesetzten Zugriffscharakteristika wirst du mit 5400U/min-Platten mit Sicherheit nur wenig Freude haben.

Im Vergleich zum Socket1155 bezahlst du mit dem Socket2011 den doppelten Preis. Ob dir dieser Mehrpreis es wert ist, kannst nur du selbst entscheiden.
Als hauptsächlicher Dateiserver ist ein 4-Kanal Speichersystem meiner Meinung nach aber rausgeschmissnes Geld und sobald die CPU doch etwas schneller werden oder mehr Kerne mitbringen soll, geht das dank Dualsockel-Kompatibilililität der Xeon E5-Reihe gleich grausig ins Geld.

Benutzeravatar
Member
Beiträge: 168
Registriert: 25.11.2004, 21:29
Wohnort: VCP #768

Beitragvon IronEagle » 15.05.2013, 18:42

Die "Testsysteme" sind die relevante unbekannte Groesse. Bei einem kleinen lokalen Betrieb laeuft ein SBS2003, 3 XP VMs (remote-Arbeitsplaetze), 3-4 Linux VMs (so das uebliche Zeugs, Gateway, Icinga, ein FIleserver usw) auf nem 1230v2, und die CPU langweilt sich. Und wenn ich jetzt noch sage, das als Storage ein Raid 1 mit 7200er SATA Platten drunter ist, weils einfach schnell genug ist, werd ich sicher geschlagen :-)

Dafuer habe ich dann halt @work das andere Extrem, kenne also auch durchaus beide Enden der Fahnenstange.

Experte
Beiträge: 1323
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 16.05.2013, 08:30

Was ist an einer dedizierten Graka so schlecht? Die Supermicros haben zbsp. eh immer eine einfache 0815-Onboard-Variante die erst noch an IPMI zur einfachen Direkt-Fernwartung gekoppelt ist (Was bei den meisten grossen Hersteller extra bezahlt wird). Ein kleiner Server mit Sockel 2011 wird nicht viel teurer als einer mit dem 1155.

Der Stromverbraucht ist halt je nach CPU schon höher.

Benutzeravatar
Member
Beiträge: 168
Registriert: 25.11.2004, 21:29
Wohnort: VCP #768

Beitragvon IronEagle » 16.05.2013, 08:43

"Dedizierte Grafikkarte" war jetzt im Kontext dieses Thread ja nicht "Grafikchip auf dem Board, mit Fernwartungsfunktionen" sondern "ich knall mal ne alte Grafikkarte die hier noch rumliegt in den Server rein".

Das treibt dann den Stromverbrauch auch wieder hoch, und vermutlich spuerbar hoeher als ein aktueller Server-Grafikchip auf dem Board.

Zu den Kosten:
Ein Supermicro X9SCL* oder Intel S1200BTS/L gibts ab 150 EUR. Bei Sockel 2011 siehts dann direkt anders aus, Supermicro X9SRA startet so bei 280-300 EUR. Da hab ich dann bei Sockel 1155 schon fast die CPU mit drin (so ab 180 EUR). Bei Sockel 2011 hab ich die Wahl zwischen 4 Core mit 1.8GHz (vs. 3.x Ghz bei S1155) fuer auch so ca. 180 EUR. Will ich gleiche Taktraten bin ich direkt bei.. .oh wait, gibts scheinbar gar nicht. Ok, dann halt 2.4 GHz und 4 Cores, und schon bin ich auch bei 300 EUR.

Jetzt ist Sockel 2011 schon bei 600 EUR, Sockel 1155 bei 330 EUR.

Dazu halt der Strom-Mehrverbrauch durch 32 vs 22nm, durch das mehr an Memory-Channels...

King of the Hill
Beiträge: 12990
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 16.05.2013, 09:59

Bei meinem T110 ist auch die Matrox G200eW verbaut und die stemmt maximal 1280x1024 Bildpunkte. Das reicht für den ESXi also in jedem Fall.

Ich hatte unseren irix bei der Server-Bestellung aber auch gefragt, ob PCI-Passthrough funktioniert und keine vollständig befriedigende Antwort bekommen können, da sowas in einem produktiven Firmenumfeld kaum eingesetzt wird und die offizielle VMware-Liste dazu ausgesprochen kurz ausfällt. Um nur den popeligen ESXi-Screen darzustellen, würde ich aus Platz- und Energiegründen wie IronEagle aber keine wie auch immer geartete externe Graka einbauen, selbst wenn sie noch rumliegt. Sowas macht in meinen Augen nur Sinn, wenn man PCoIP oder eine andere Beschleunigung nutzen will bzw muß.

In jedem Fall verheizt so eine externe Graka einiges an Leistung und selbst AMDs ZeroCore wird im ESXi-Umfeld wohl nicht funktionieren. Anscheinend wird die energetische Abschaltung letztendlich doch durch den Treiber realisiert, aber bei letzterem könnte ich auch komplett daneben liegen. Dazu habe ich mich nicht intensiv genug mit AMD GPUs beschäftigen müssen...

Member
Beiträge: 186
Registriert: 19.01.2009, 17:54

Beitragvon Kampfwurst » 19.05.2013, 14:33

So hier mal eine Zusammenstellung von 3 Systemen.

Sockel 2011

Supermicro X9SRA retail, C602
Intel Xeon E5-2603, 4x 1.80GHz
Transcend DIMM 8GB PC3-10667R reg ECC 3X
Western Digital Red 3000GB 3X
1000 €

Sockel 1155

Supermicro X9SCA-F retail, C204
Intel Xeon E3-1220V2, 4x 3.10GHz
Kingston ValueRAM DIMM 8GB PC3-12800E ECC 3X
Western Digital Red 3000GB 3X
943€


Sockel 1155

ASUS P8B-M
Intel Xeon E3-1220V2, 4x 3.10GHz
Kingston ValueRAM DIMM 8GB PC3-12800E ECC 3X
Western Digital Red 3000GB 3X
873€


so viel unterschied ist nicht zwischen einem Sockel 2011 und einenm Sockel 1155 System. Nur die CPU ist langsamer.
Auserdem habe ich gelesen das der Chipsatz des Sockel 1155 sehr sensibel bez. Ram ist.

http://www.tomshardware.de/xeon-e3-benc ... 098-3.html

Was ich noch vergessen habe.
Bez.Fileserver und ESXi

Wenn ich es richtig verstanden habe mache ich eine VM und reiche per Passthrough den Raid-Controller an die VM durch. Durch die VM stelle ich per z.b iSCSI oder NFS den Speicher dem ESXi zur verfügung oder?

King of the Hill
Beiträge: 12990
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 19.05.2013, 23:01

Bei allen drei Systemen sind 3 DIMMs ungünstig. Der Sockel 2011 braucht 4 oder 8 und der Sockel 1155 bzw der kommende 1150er entweder 2 oder 4 DIMMs um im performanceverbessernden Channel-Mode agieren zu können.

Auch wenn Asus das günstigste Angebot darstellt, würde ich bei dieser Auswahl zum SuperMicro und Sockel 1155 greifen. Zu den WD Red-Platten sage ich bis auf die Anzahl nichts mehr. 3 Platten sind das Minimum für ein Raid5 und ich würde immer eine Hotspare-Platte als Ersatz vorsehen, damit im Ernstfall die IO-Performance nicht völlig zusammenbricht und du eine kleine Chance auf ein erfolgreiches Rebuild hast. In vielen Fällen erzeugt ein degradiertes Raid5 eine so hohe IO-Last auf den verbliebenen Raidmitgliedern und erst recht während des Rebuilds, daß dabei meist noch eine weitere Platte ihren Geist aufgibt. Für mich wäre daher eine Ersatzplatte bei Raid5 absolute Pflicht.

Bezüglich der RAM-Kompatibilililität würde ich mir keine grossen Sorgen machen. Tomshardware hatte den Artikel im September 2012 gepostet und normale, aber Unbuffered ECC-Dimm's werden immer laufen. Anders sieht es natürlich mit diesem Overclocking-Kram aus, aber das ist ja nichts neues und hat in einem Server auch nichts zu suchen.

Benutzeravatar
Member
Beiträge: 168
Registriert: 25.11.2004, 21:29
Wohnort: VCP #768

Beitragvon IronEagle » 21.05.2013, 12:23

Wenn dir waehrend eines Raid5 Disk Rebuilds eine weitere Platte wegbricht, was - da gebe ich dir recht - durchaus wahrscheinlich ist, dann hilft dir die Hotspare auch nicht weiter :-)

Durch den Ausfall der ersten hast du deine Redundanz verloren, der Ausfall der zweiten zerreist dir der Plattenverbund. Deswegen mag ich meine Raid4-DPs. Dann schwitzt man zwar trotzdem, und hofft das der Rebuild fertig wird bevor eine dritte Platte stirbt, aber man kommt deutlich weiter als mit nur einer Parity-Platte.


Zurück zu „Hardware“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 3 Gäste