Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

Citrix Xen-Server, VMWare EsXi 4, Hyper v?

Anything goes ;)

Moderatoren: irix, Dayworker

Member
Beiträge: 435
Registriert: 28.01.2005, 11:14

Citrix Xen-Server, VMWare EsXi 4, Hyper v?

Beitragvon Wirrkopf » 24.06.2011, 12:34

Ich nutze VMs im privatem Umfeld. In den letzten Jahren habe ich alles von VMware EsX3,4, VMwareserver 1 und 2, Citrix Xen-Server und zuletzt MS Hyper V längere Zeit genutzt. Als Gäste wurden/werden in der Regel nur Windowssysteme eingesetzt.

Nun bin ich mit der Performance des derzeitigen Hyper-V System nicht zufrieden. Der Unterschied zwischen echtem Client und virtuellem Client ist jedesmal wieder ernüchternd auch wenn das arbeiten in der VM durchaus funktioniert. Desweiteren stört mich das ich den MS Server 2008 auf dem das Hyper-V läuft nicht mal eben neustarten kann ohne das die im Hyper-V laufenden Gäste solange unterbrochen werden. Also wäre mir eine Bar-metal Lösung wie ESXi oder Xen-Center schon lieber.

Aus finanziellen Gründen möchte ich möglichst vorhandene Hardware nutzen wollen und nur wenns unbedingt nötig ist aufrüsten. Vorhanden sind ist ein AMD X2 (2 x 3000 mhz)auf dem der hyper-V im Moment läuft und ein X4 ( 4 x 2500 mhz) Systeme mit jeweils 8 GB DDR2 Ram und diversen SATA HDDs.

Eine Aufrüstung auf 16 GB RAM geht bei vollen RAM Bänken leider nicht und (bezahlbare gebrauchte) Boards mit 8 x DDR2 habe ich noch nicht gesehen. Ich vermute das die Performance durch ein RAID-0 oder RAID-5 verbessert werden könnte was beim ESXi wohl nur mit speziellen RAID Karten funktioniert (schlecht weil teuer). Beim Citrix Xen Server soll das ja auch als Software Raid 0/5 klappen.

Die Grundfrage ist nun: Bin ich mit meiner Tendenz in Richtung Citrix CenServer richtig? Ist bei mir der Flaschenhals wahrscheinlich wirklich die Festplatte(n)? Ist dann zur Beseitigung ein Raid-0 oder Raid-5 die richtigte Wahl? Oder doch aufsplittung in einen PC mit Hypervisor und einen extra für den Speicher was den vorteil hätte das dann v-motion auch funktioniert.

Wenn das für die Fragestellung wichtig ist eine Beschreibung wie und warum ich überhaupt VMs einsetzte:

Hauptgrund ist die Möglichkeit das Arbeits OS (XP oder Win7) jederzeit von unterschiedlichen PCs, Notebooks oder remote aus der Ferne übers Internet zu steuern ohne das man beim Wechsel auf irgendetwas rücksicht nehmen müßte. Und die Möglichkeit die diversen PCs, Notebooks etc. bei Nichtnutzung wirklich auszuschalten ohne das offene Programm oder Dateien darunter leiden. Nachteile wie die eingeschränkte Video/Spiele Kompatibilität spielen bei unserer Nutzung keine Rolle. Das ist keine Theorie sondern wird von meiner Frau und mir wirklich so intensiv genutzt. Auch jetzt nutze ich den XP Client remote, werde die Verbindung am Feierabend kappen, am Desktop PC zu Hause wieder connecten, später im Bett vom Notebook nochmal kurz. Das ist so bequem das ich das nicht mehr missen möchte. Nur schneller könnte die VM sein...

An VMs sollen laufen: ein, evtl. zwei Windows Server 2008 R2 , ein paar kleine "Clients" auf denen unbeaufsichtigt Programme wie automatische Scan/OCR Funktionen, Streaming Server (Squeezeserver), P2P etc (das direkte Installieren dieser Funktionen auf einem Server hat sich in der Vergangengeit aus Wartungsgründen etc. nicht bewehrt daher in jeweils eine eigene VM) werkeln, und eben zwei bis drei Arbeits OS Clients. Mit 8 GB Speicher für (einen) Host ist das schon etwas eng...

Ich spiele auch mit der Idee mit doch ein neues AMd AM3 Board mit 4 x 4 GB Speicher ( dann evtl. auch ECC) zu gönnen und dann mit X4 oder gar X6 CPU und einem (software) Raid-5. Warum das wirklich nötig ist kann ich nur meiner Frau und meiner leeren Geldbörde gegenüber schlecht begründen :)

Dankbar für jeden Tipp und Hinweis.

Experte
Beiträge: 1188
Registriert: 08.11.2005, 13:08
Wohnort: bei Berlin

Beitragvon e-e-e » 24.06.2011, 13:05

Hallo,

versuch's mal hiermit http://www.napp-it.org/napp-it/all-in-one/index.html.
Wenn Du dem zpool z.B. 3 - 4 SATA-HDD-mirrors + 2 SSDs als mirror für slog und cache gibst, wird die Kiste recht flott.
Habe für mehere Kunden schon Systeme mit openSUSE + WS und als local storage über zfs-fuse obige ZFS-Konstellation eingerichtet, und bis jetzt keine Klagen über schlechte Performance, trotz der ungünstigen zfs-fuse-Lösung. Dort laufen dann 5-7 VMs.
Da alle Komponenten frei verfügbar sind, probier's doch einfach mal aus.

Benutzeravatar
Guru
Beiträge: 3138
Registriert: 22.02.2008, 20:01
Wohnort: Hessen

Beitragvon PeterDA » 24.06.2011, 13:16

Hi,
Nun bin ich mit der Performance des derzeitigen Hyper-V System nicht zufrieden. Der Unterschied zwischen echtem Client und virtuellem Client ist jedesmal wieder ernüchternd auch wenn das arbeiten in der VM durchaus funktioniert. Desweiteren stört mich das ich den MS Server 2008 auf dem das Hyper-V läuft nicht mal eben neustarten kann ohne das die im Hyper-V laufenden Gäste solange unterbrochen werden.


Also auch bei den anderen Kanidaten musst du die VMs herunterfahren wenn du den Host booten willst. Bist du dir sicher, dass du dein Hyper-V nicht dadruch ausbremst, dass du auf dem Host noch 100 andere Dinge laufen hast, die die VMs langsam machen. Gerade bei kleinen Umgebungen habe ich dieses Verhalten noch nie beobachtet.

Gruß Peter

Member
Beiträge: 435
Registriert: 28.01.2005, 11:14

Beitragvon Wirrkopf » 24.06.2011, 13:42

e-e-e hat geschrieben:Hallo,

versuch's mal hiermit http://www.napp-it.org/napp-it/all-in-one/index.html.
Wenn Du dem zpool z.B. 3 - 4 SATA-HDD-mirrors + 2 SSDs als mirror für slog und cache gibst, wird die Kiste recht flott.
Habe für mehere Kunden schon Systeme mit openSUSE + WS und als local storage über zfs-fuse obige ZFS-Konstellation eingerichtet, und bis jetzt keine Klagen über schlechte Performance, trotz der ungünstigen zfs-fuse-Lösung. Dort laufen dann 5-7 VMs.
Da alle Komponenten frei verfügbar sind, probier's doch einfach mal aus.


Verstehe ich das richtig das das Dein Tipp ist für einen externen Storage für einen VMWare ESXi? Oder als externer Storage allgemein oder wie oder was? Ich vermisse die "Einleitung" Deines Tipps für mich als "Laien" :) damit ich das ganze besser verstehe.

Member
Beiträge: 435
Registriert: 28.01.2005, 11:14

Beitragvon Wirrkopf » 24.06.2011, 13:44

PeterDA hat geschrieben:Also auch bei den anderen Kanidaten musst du die VMs herunterfahren wenn du den Host booten willst.

Das ist mir schon klar. Aber im Moment habe ich ja den MS Server 2008 nicht als gast sonder als Host laufen. Das heißt wenn mal wieder Updates für den Server 2008 installiert wurden muss ich ihn neustarten und damit auch alle Gäste.

Bei einer "bar metal" Lösung wäre der MS Server 2008 ja auch ein gast und den könnte ich dann ohne Auswirkungen auf die anderen Gäste neustarten.

Und beim Host (ESXi oder Xen-Server) gibt es doch keine Gründe warum der regelmäßige Neustarts nötig hätte oder?

Member
Beiträge: 435
Registriert: 28.01.2005, 11:14

Beitragvon Wirrkopf » 24.06.2011, 15:02

e-e-e hat geschrieben:versuch's mal hiermit http://www.napp-it.org/napp-it/all-in-one/index.html.

Ich habe mir jetzt einiges dazu durchgelesen und hoffe ich habe das System "all-in One" so einigermassen verstanden.

Es soll also ein ESXi + SAN in einem PC sein. Was aber nur dank VT-d funktioniert da das SAN OS (ZFS auf solaris oder Nexcentacore oder..) direkten Hardwarezugriff auf den SATA Controller benötigt. Also brauch man ein Intelboard mit VT-D etc...

Das würde bedeuten das ich komplett neue Hardware benötige und meine vorhandene AMD Hardware nicht nutzen kann.

Das Konzept finde ich sehr interessant auch wenn ich es wohl erst im Ansatz verstanden habe. Wo liegt z. B. das SAN Gast os wenn es doch selber erst das SAN für den ESXi zur Verfügung stellt? Auf der extra Bootplatte des ESXi? Oder auf einer zweiten extra bootplatte oder wo?

Ansich finde ich VT-D sehr interessant da ich, wenn möglich, eine PCI ISDN Karte direkt an ein (Windows) GAst OS durchreichen würde per PCI pass through. Würde das in dieser Konstellation auch möglich sein?

Experte
Beiträge: 1188
Registriert: 08.11.2005, 13:08
Wohnort: bei Berlin

Beitragvon e-e-e » 24.06.2011, 17:20

Hallo,

ich habe nun leider in puncto AMD überhaupt keinen blassen Schimmer und bin davon ausgegangen, dass dort ein Äquivalent zu VT-d existiert, sorry, falls das nicht der Fall ist.
Zum all-in-one: Das Konzept hört sich sehr verworren an, funktioniert aber. Auf dem baremetal wird ein ESXi installiert (z.B. auf USB-Stick oder der 1. Partition einer HDD), auf einer 2. Partition oder HDD läuft ein Nexenta als VM unter dem ESXi, dieses Nexenta stellt den Datastore bestehend aus allen anderen SATA-HDDs und -SDDs zur Verfügung, in dem alle anderen (eigentlich produktiven) VMs liegen.

Benutzeravatar
Guru
Beiträge: 3138
Registriert: 22.02.2008, 20:01
Wohnort: Hessen

Beitragvon PeterDA » 24.06.2011, 17:33

Hi,
Logistischer gibt es auch für VMware regelmaessig Updates. Es sind vielleicht nicht so viele und jeden Monat welche. Au der anderen Seite stellt sich die Frage ob man die alle sofort installieren muss wenn der Win 2008 Host nur dir Hyper-V Rolle innehat.

Grus Peter

Member
Beiträge: 48
Registriert: 19.12.2010, 18:26

Beitragvon gea » 25.06.2011, 11:14

Wirrkopf hat geschrieben:
e-e-e hat geschrieben:versuch's mal hiermit http://www.napp-it.org/napp-it/all-in-one/index.html.

Ich habe mir jetzt einiges dazu durchgelesen und hoffe ich habe das System "all-in One" so einigermassen verstanden.

Es soll also ein ESXi + SAN in einem PC sein. Was aber nur dank VT-d funktioniert da das SAN OS (ZFS auf solaris oder Nexcentacore oder..) direkten Hardwarezugriff auf den SATA Controller benötigt. Also brauch man ein Intelboard mit VT-D etc...

Das würde bedeuten das ich komplett neue Hardware benötige und meine vorhandene AMD Hardware nicht nutzen kann.

Das Konzept finde ich sehr interessant auch wenn ich es wohl erst im Ansatz verstanden habe. Wo liegt z. B. das SAN Gast os wenn es doch selber erst das SAN für den ESXi zur Verfügung stellt? Auf der extra Bootplatte des ESXi? Oder auf einer zweiten extra bootplatte oder wo?

Ansich finde ich VT-D sehr interessant da ich, wenn möglich, eine PCI ISDN Karte direkt an ein (Windows) GAst OS durchreichen würde per PCI pass through. Würde das in dieser Konstellation auch möglich sein?


Hardware-Virtualisierung, also das Durchreichen von echter Hardware an Gäste heisst bei Intel vt-d und bei AMD IOMMU.
Damit das funktioniert, muss es das Board, die CPU und das Bios unterstützen. Ausserdem muss der Hypervisor mit der Hardware klarkommen.

Momentan unterstützen ESXi und Xen4 echte Hardware-Virtualisierung.
Es geht aber nicht jede Hardware und man kann nur eine komplettes
PCI-e device durchreichen, also nicht etwa einzelne Disk-Ports.

Diese Hardware-Virtualisierung ist Vorraussetzung, um ein Storageserver
zu virtualisieren, wie es bei meinem All-In-One Konzept der Fall ist, bei dem ein
VM-Server (ESXi) einen virtualisierten SAN-Server selbst zur Verfügung stellt
(als Storage oder Ablage für VM's)

ps
Das SAN-OS liegt übrigens auf dem lokalen datastore (z.B. der ESXi bootplatte).
Nach dem Hochfahren dieses SAN-Servers stellt dieser SAN-Storage per NFS
zur Verfügung. Darauf liegende VM,s starten mit Verzögerung, haben dann aber
alle Features, die ein ZFS-SAN zur Verfügung stellt (Snaps, Hybrid Storage, Sicherheit,
einfaches und schnelles Backup/ Move/ Clone per SMB Freigabe...)

und natürlich interne highspeed Links zwischen SAN und ESXi (mehrere Gbis/s)
ohne extra Kosten für FC oder 10 Gbit Karten und Switches

Gea

Member
Beiträge: 435
Registriert: 28.01.2005, 11:14

Beitragvon Wirrkopf » 25.06.2011, 13:19

Noch ein paar Fragen:

Von AMD gibt es erst ein paar Boards die IOMMU (VT-D Eqivalent) haben. Wird das überhaupt von ESXi 4 unterstützt? Ich würd halt schon gerne AMD treu bleiben.. Auch aus Kostengründen.

Spielt die Speed der System"platte" für den ESXi bzw. das SAN OS eine Rolle? Ist es also möglich beides auf eine größeren USB Stick zu legen? Der Speed beim Hochfahren des ganzen System ist mir nicht wichtig da das wohl eher selten der Fall sein sollte. Aber im Betrieb sollte es halt nicht bremsen

Kann man dann den Speed des SAN OS mit Software Raid-5 steigern (ohne extra Karte)?

Member
Beiträge: 48
Registriert: 19.12.2010, 18:26

Beitragvon gea » 25.06.2011, 14:59

Wirrkopf hat geschrieben:Noch ein paar Fragen:

Von AMD gibt es erst ein paar Boards die IOMMU (VT-D Eqivalent) haben. Wird das überhaupt von ESXi 4 unterstützt? Ich würd halt schon gerne AMD treu bleiben.. Auch aus Kostengründen.

Spielt die Speed der System"platte" für den ESXi bzw. das SAN OS eine Rolle? Ist es also möglich beides auf eine größeren USB Stick zu legen? Der Speed beim Hochfahren des ganzen System ist mir nicht wichtig da das wohl eher selten der Fall sein sollte. Aber im Betrieb sollte es halt nicht bremsen

Kann man dann den Speed des SAN OS mit Software Raid-5 steigern (ohne extra Karte)?



IOMMU Board mit AMD CPU kosten ähnlich wie kleine Intel Serverboards
Ich würde momentan mit vt-d/ IOMMU keine Experimente machen, sondern
ein kleines Intel Serverboard nehmen, gibts ja ab ca 150 Euro

ESXi von USB geht schon - booted halt ewig
andere Gäste auf USB werden von ESXi aber aus gutem Grund nicht unterstützt
-> auf jeden Fall eine kleine Platte für ESXi und Storage OS nehmen

Software Raid-5
das ist nichts um Speed zu machen, sondern um Verfügbarkeit zu verbessern.
Übliche Software Raid-5 sind langsam und von der Zuverlässigkeit grenzwertig.
- wobei ich persönlich für Storage nur noch ZFS einsetze, ist zwar auch Software-Raid
aber es liegen Welten zwischen ZFS und üblichen Software-Raid-Sachen.

Gea

Member
Beiträge: 435
Registriert: 28.01.2005, 11:14

Beitragvon Wirrkopf » 25.06.2011, 16:48

gea hat geschrieben:IOMMU Board mit AMD CPU kosten ähnlich wie kleine Intel Serverboards
Ich würde momentan mit vt-d/ IOMMU keine Experimente machen, sondern
ein kleines Intel Serverboard nehmen, gibts ja ab ca 150 Euro

IOMMU AMD Boards (8990FX) gibts ab 115 € , eine 6 Kern CPU ab 125 €

Bei Intel wird es doch ein Stück teurer oder?
ESXi von USB geht schon - booted halt ewig
andere Gäste auf USB werden von ESXi aber aus gutem Grund nicht unterstützt
-> auf jeden Fall eine kleine Platte für ESXi und Storage OS nehmen

Aber dAnn benötige ich ja wiederum doch einen extra SATA Controller dem ich dem Storage OS exklusiv zuweise da ich den boardinternen für ESXi und Storage OS System benötige. Wieder ein Zusatzteil das Mehrkosten verursacht

Bei der NappIt Bauanleitung wird ja ein SAS Zusatzcontroller empfohlen. SAS kommt für mich aus Kostengründen nicht in Frage da ich SATA HDDs wiederverwenden will. Ein SATA Controller wird doch sicherich auch gehen oder muss man da auf etwas achten?
Software Raid-5
das ist nichts um Speed zu machen, sondern um Verfügbarkeit zu verbessern.
Übliche Software Raid-5 sind langsam und von der Zuverlässigkeit grenzwertig.
- wobei ich persönlich für Storage nur noch ZFS einsetze, ist zwar auch Software-Raid
aber es liegen Welten zwischen ZFS und üblichen Software-Raid-Sachen.

So meinte ich das ja auch. Ich kann also bei ZFS mehrere Platten zusamenschalten die ein "Raid-5" Equivalent ergeben das in der SUmme deutlich schneller ist als eine Einzelplatte? Also Mehr Speed und Ausfallsicherheit wenn eine Platte den Geist aufgiebt?

Member
Beiträge: 48
Registriert: 19.12.2010, 18:26

Beitragvon gea » 25.06.2011, 17:02

HCL von ESXi nicht vergessen, z.B. gehen viele Onboard Netzwerkkarten eben nicht.
ESXi und Solaris sind beide sehr zickig was Hardware angeht.

Ich mache da keine Versuche mehr und schau nicht auf den letzten Euro.
Intel und da auch nur Boards mit Server-Chipsatz z.B. von SuperMicro
und es geht einfach alles so ziemlich auf Anhieb.

Für pass-through und virtualisiertes NAS/SAN wird immer ein Controller z.B.
onboard SATA für ESXi und ein weiterer für den Storageteil benötigt.

Auch bei ZFS gilt: Raid-Z (1-3) wenn viel Speicher gebraucht wird und ein Pool aus
gespiegelten Platten, wenn es um Performance geht.

Raid5 bzw Raid Z1 ist immer langsamer was IO angeht

Gea

Benutzeravatar
UNSTERBLICH(R.I.P.)
Beiträge: 14759
Registriert: 09.08.2003, 05:41
Wohnort: sauerland
Kontaktdaten:

Beitragvon continuum » 25.06.2011, 18:32

ESXi von USB geht schon - booted halt ewig
andere Gäste auf USB werden von ESXi aber aus gutem Grund nicht unterstützt
-> auf jeden Fall eine kleine Platte für ESXi und Storage OS nehmen


?
wo nimmst du das denn her ?
Also hier bootet ESXi von USB genausi schnell wie von Platte - nur das handling ist bei USB-sticks viel einfacher.
Fuer eun update tauscht man einfach die sticks aus ... fertig

Member
Beiträge: 48
Registriert: 19.12.2010, 18:26

Beitragvon gea » 25.06.2011, 18:37

continuum hat geschrieben:
ESXi von USB geht schon - booted halt ewig
andere Gäste auf USB werden von ESXi aber aus gutem Grund nicht unterstützt
-> auf jeden Fall eine kleine Platte für ESXi und Storage OS nehmen


?
wo nimmst du das denn her ?
Also hier bootet ESXi von USB genausi schnell wie von Platte - nur das handling ist bei USB-sticks viel einfacher.
Fuer eun update tauscht man einfach die sticks aus ... fertig


Die längeren Bootzeiten vom usb stick sind nicht das entscheidende Problem.
KO Kriterium ist, dass auf dem USB Stick kein datastore angelegt werden kann.
Es wird also immer eine kleine Platte für das lokale Storage OS benötigt.

Ich nehme dann halt die Platte auch immer gleich für ESXi + Storage VM

Gea

King of the Hill
Beiträge: 13603
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 25.06.2011, 20:03

gea hat geschrieben:Die längeren Bootzeiten vom usb stick sind nicht das entscheidende Problem.
KO Kriterium ist, dass auf dem USB Stick kein datastore angelegt werden kann.
Es wird also immer eine kleine Platte für das lokale Storage OS benötigt.

Ich nehme dann halt die Platte auch immer gleich für ESXi + Storage VM
Wozu willst du denn auf dem Stick noch einen DS anlegen?
Wenn du auf der Platte mindestens 3 LUNs für ESXi, Storage-VM und freier Bereich (wird nachher durch die Storage-VM verwaltet) anlegst, kannst du dir den Stick auch ganz sparen...

Member
Beiträge: 48
Registriert: 19.12.2010, 18:26

Beitragvon gea » 25.06.2011, 20:45

Dayworker hat geschrieben:
gea hat geschrieben:Die längeren Bootzeiten vom usb stick sind nicht das entscheidende Problem.
KO Kriterium ist, dass auf dem USB Stick kein datastore angelegt werden kann.
Es wird also immer eine kleine Platte für das lokale Storage OS benötigt.

Ich nehme dann halt die Platte auch immer gleich für ESXi + Storage VM
Wozu willst du denn auf dem Stick noch einen DS anlegen?
Wenn du auf der Platte mindestens 3 LUNs für ESXi, Storage-VM und freier Bereich (wird nachher durch die Storage-VM verwaltet) anlegst, kannst du dir den Stick auch ganz sparen...


genau das ist der Plan.
Die Storage VM (Solaris ZFS SAN-OS) bekommt aber direkten Hardware Zugriff auf eigene
Controller und Platten. Nur so wirds so schnell wie ein dedizierter NAS/SAN-Server

- oder eigentlich noch schneller, weil der externen FC/IP Traffic zwischen SAN und VM's
durch interne high-speed Links auf virtual vNcs z.B. via ESXi vmxnet3 high speed Treiber ersetzt wird .

Gea

Member
Beiträge: 435
Registriert: 28.01.2005, 11:14

Beitragvon Wirrkopf » 26.06.2011, 22:00

Ich kann mir ein System mit ASUS M4A89TD Pro, 6 Kern Phenom und 8 GB Ram ausleihen und werde das daran mal testen. Das Board wurde hat IOMMU und PCI Passtrough wurde mit XEN auch schon erfolgreich getestet.

Achja ich habe gelesen das Realtek Nics Probleme bereiten? Wir sieht es mit dem "RTL8111E" aus? Das ist auf dem Board drauf.

Zusatzfrage: Kann man auch den zusätzlichen SATA Controller für die Bootplatte (ESXi und Storage VM) nutzen und den Boardinternen SATA Controller für das eigentliche Storage?

King of the Hill
Beiträge: 13603
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 26.06.2011, 22:42

Realtek ist Murks, jeden Monat gibts eine neue Chip-Revision und damit gleichfalls auch neue Treiber...

Zum Kontroller kann ich leider nichts sagen. Dazu fehlt mir die Erfahrung mit NAPP-IT.

Member
Beiträge: 435
Registriert: 28.01.2005, 11:14

Beitragvon Wirrkopf » 27.06.2011, 08:14

Ich hab inzwischen einen Bericht im Web über die erfolgreiche Installation von ESXi 4 auf diesem Board gefunden. "Natürlich" läuft der onBoard Realtek NIC nicht aber mit einer zusätzlichen Intel NIC funktioniert es. Welche zusatz NIC ist zu empfehlen?

Reicht die preiswerteste?: http://geizhals.at/deutschland/?cat=nwp ... tel&sort=p

Gibt es eigentlich die Möglichkeit dem ESXi zusätzliche Treiber beizubringen um diese onBoard NIC zum laufen zu bekommen? Sowas ist bei XEN / Citrix Xen-Server ja recht einfach möglich.

Benutzeravatar
Guru
Beiträge: 3138
Registriert: 22.02.2008, 20:01
Wohnort: Hessen

Beitragvon PeterDA » 27.06.2011, 08:31

Hi,
bezüglich der NIC schau doch einfahc in die HCL und dann bei deinem Händeler was die Teile kosten.

Bezüglich Treiber unterschieben. Ja das geht, sofern der Hardwarehersteller entsprechende ESX Treiber bereitstellt. Ist aber immer ziemliches gefummel und nach einem Update kann es sein, dass du es wieder machen must. Das macht in meinen Augen nur dann Sinn, wenn bei dir Arbeitszeit nichts kostet oder die Personen mit den EHDAKOSTEN ncihts zu tun haben.

Gruß Peter

King of the Hill
Beiträge: 13603
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 27.06.2011, 12:26

Einigen Treibern listet VMware direkt auf seiner Seite auf, aber dazu zählt kein Realtek-Kram.
Ich hab eine IBM/Intel PRO/1000 GT Dual Port im Einsatz und die funktioniert auch in jedem ESXi4 im Auslieferungszustand.

Member
Beiträge: 435
Registriert: 28.01.2005, 11:14

Beitragvon Wirrkopf » 28.06.2011, 19:09

@ gea

Ich habe gerade in einem anderen Thread indem Du Dein System vorstellst gelesen das das ZFS SAN recht viel von der CPU Performance und dem RAM "verbrät"

Wenn ich so ein System wirklich realisiere dann möchte ich ungern 1/2 bis 1/3 der CPU Performance und des RAMs für das ZFS verbrauchen. Ist das wirklich nötig bzw. was sind die Minimalanforderungen an die ZFS Storage VM?

Bei einem System mit AMD 6 Kern und 16 GB RAM möchte ich schon ca. 5 Kerne und 14 GB RAM für die anderen VMS übrig haben. Geht das und was hat das für den SAN Speed für Folgen?

Desweiteren interessieren mich überhaupt harte Fakten zum Speed des VM SANS im Vergleich zu einem interen Datastore per Raid Zusatzkarte bzw. zu einer größeren SATA EInzeplatte.

Also z. B. der Vergleich einer 2000 GB SATA HDD einzeln im Vergleich zu einem Z1 ZFS SAN mit 3 x 2000 GB SATA.

Hast Du da mal was gemessen?

Experte
Beiträge: 1188
Registriert: 08.11.2005, 13:08
Wohnort: bei Berlin

Beitragvon e-e-e » 28.06.2011, 20:54

Hallo,

ein ZFS "verbrät" nur dann extrem viele Resourcen, wenn Du Dedup einschaltest, selbst eine Aktivierung der Kompression im Standardmode kann u.U. sogar die Performance verbessern (wegen der geringeren IO-Last) und braucht kaum Resourcen.

Member
Beiträge: 435
Registriert: 28.01.2005, 11:14

Beitragvon Wirrkopf » 29.06.2011, 08:36

Kann man dann also die Storage VM mit dem ZFS mti einer vCPU und 2 GB RAM (oder weniger?) laufen lassen ohne das es bremst?


Zurück zu „Allgemeines, Feedback & Smalltalk“

Wer ist online?

Mitglieder in diesem Forum: Google [Bot] und 2 Gäste