Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
Newbie: im vSpare Client keine Plugins wie Updatemanager
-
irix
- King of the Hill
- Beiträge: 13058
- Registriert: 02.08.2008, 15:06
- Wohnort: Hannover/Wuerzburg
- Kontaktdaten:
Es gibt Block oder File basiertes Storage was dem Host praesentiert werden kann. Bei letzterem kann der ESXi Host per NFS3/tcp auf ein Share zugreifen. Bei ersterem formatiert der Host eine Partition mit seinem VMFS und direkten Zugriff fuer andere Nicht- ESXi Hosts gibt es dort natuerlich nicht mehr.
VMware hat seine Umgebung aber mit zahlreichen APIs ausgestattet und eine ist VADP und die koennen geeignete Backupprodukte nutzen. VMware selber liefert eins mit aus was auf den Namen VDP hoert.
Kurzfristig oder im Spezialfall kann man aber nachwievor einen Agent im OS plazieren und so tun als obs es ein phys. Server waere.
Gruss
Joerg
VMware hat seine Umgebung aber mit zahlreichen APIs ausgestattet und eine ist VADP und die koennen geeignete Backupprodukte nutzen. VMware selber liefert eins mit aus was auf den Namen VDP hoert.
Kurzfristig oder im Spezialfall kann man aber nachwievor einen Agent im OS plazieren und so tun als obs es ein phys. Server waere.
Gruss
Joerg
oki. Hier würd ich aber nochmal gern drauf zurückkomen.
v3 ?
Weil das kann ich ja mittels Windows auch umsetzen. Da spare ich mir ja später ne ganze VM nur um NFS zu Verfügung zu stellen.
Vermutlich hast du hier aber keine Erfahrung, wie stabil diese Ache läuft.
NFS ist ja letztendlich ne Linux sache...
Aber vvlt. hast du dich doch schon damit auseinandergesetzt und kannst ne Empfehlung abgeben. (?)
Ansonsten werd ich wohl zu Linux greifen müssen.
irix hat geschrieben:File basiertes Storage was dem Host praesentiert werden kann. Bei letzterem kann der ESXi Host per NFS3/tcp auf ein Share zugreifen.
v3 ?
Weil das kann ich ja mittels Windows auch umsetzen. Da spare ich mir ja später ne ganze VM nur um NFS zu Verfügung zu stellen.
Vermutlich hast du hier aber keine Erfahrung, wie stabil diese Ache läuft.
NFS ist ja letztendlich ne Linux sache...
Aber vvlt. hast du dich doch schon damit auseinandergesetzt und kannst ne Empfehlung abgeben. (?)
Ansonsten werd ich wohl zu Linux greifen müssen.
-
Dayworker
- King of the Hill
- Beiträge: 13656
- Registriert: 01.10.2008, 12:54
- Wohnort: laut USV-Log am Ende der Welt...
Hier sind mindestens 2 User, die Win-Server als NFS-Server einsetzen und von diesen habe ich bisher noch keine Probleme gelesen. NFS3/tcp ist aber auch nicht wirklich neu und von daher könnte man sich wirklich drauf einlassen, wenn man sein gewohntes Win-Umfeld nicht verlassen will.
"napp-it" ist kein Linux sondern beruht auf Solaris bzw einem seiner Derivate. "gea" hat auf seiner Webseite genügend Material zum Lesen und den Link zum All-in-One-PDF hatte ich dir ja schon gesetzt. Mit ZFS unter Solaris ersparst du dir jedenfalls den unter Linux üblichen Samba-Server als Win-Ablage, da ZFS sowohl einen eigenen, kernelbasierten "CIFS Server mit Windows ACL-Support" als auch einen NFS-Server mitbringt. Mit ZoL (ZFS on Linux) hast du diesen Support (noch) nicht und mußt dann dort manuell einen Samba- und NFS-Server aufsetzen.
"napp-it" ist kein Linux sondern beruht auf Solaris bzw einem seiner Derivate. "gea" hat auf seiner Webseite genügend Material zum Lesen und den Link zum All-in-One-PDF hatte ich dir ja schon gesetzt. Mit ZFS unter Solaris ersparst du dir jedenfalls den unter Linux üblichen Samba-Server als Win-Ablage, da ZFS sowohl einen eigenen, kernelbasierten "CIFS Server mit Windows ACL-Support" als auch einen NFS-Server mitbringt. Mit ZoL (ZFS on Linux) hast du diesen Support (noch) nicht und mußt dann dort manuell einen Samba- und NFS-Server aufsetzen.
Dayworker hat geschrieben:Hier sind mindestens 2 User, die Win-Server als NFS-Server einsetzen und von diesen habe ich bisher noch keine Probleme gelesen. NFS3/tcp is
DAS klingt schon mal super. Hab vorhin grad Debian aufgesetzt um weiterzukommen... aber es es eine Lösung für Windows gibt, würde ich diese bevorzugen.
Leider habe ich schon ca. 2h damit verbracht, verschiedene NFS-Tools zu versuchen... und hatte keinen erfolg. Du sagtest "NFS3/tcp". Die Google suche brachte schon mal so nichts direktes.
Getestet habe ich aktuell den:
http://doc.hanewin.net/nfs/nfsd-d.htm NFS-Server
den
Allegro 5.1 NFS-Server
und noch n anderen, den ich grad nicht finde.
Weißt du welche Software die einsetzen ?
-
Dayworker
- King of the Hill
- Beiträge: 13656
- Registriert: 01.10.2008, 12:54
- Wohnort: laut USV-Log am Ende der Welt...
In Server2k12 und anderen Win-Servern ist NFS als weitere Server-Rolle dabei. Ich hab mich damit aber noch nicht beschäftigen müssen.
Wegen NFS3/tcp such mal nach "NFSv3" und "no root squash". Der ESXi will bei NFS jedenfalls Zugriff als root haben und das ist bei vielen NFS-Servern aus Sicherheitsgründen abgeschaltet.
Wegen NFS3/tcp such mal nach "NFSv3" und "no root squash". Der ESXi will bei NFS jedenfalls Zugriff als root haben und das ist bei vielen NFS-Servern aus Sicherheitsgründen abgeschaltet.
Sind dir diese beiden User bekannt, sodass man diese mal anschreiben könnte ?
Denn Server 2012 ist ja bereits produktiv im Einsatz... hier habe ich grad ebend nachgeschaut. Aber: Nur "Client für NFS".
http://technet.microsoft.com/de-de/library/cc732036.aspx
Laut Beschreibung verstehe ich das so, dass ich mittels Windows auf ein UNIX NFS System zugreifen kann. Falls das so ist, kann ich es ja dann direkt über Unix machen.
Was ich benötigte wäre ein NFS-Server für Windows. Also Windows soll die NFS Freigaben direkt erstellen und verwalten.
Schade dass vmware kein SMB kann.
Denn Server 2012 ist ja bereits produktiv im Einsatz... hier habe ich grad ebend nachgeschaut. Aber: Nur "Client für NFS".
http://technet.microsoft.com/de-de/library/cc732036.aspx
Laut Beschreibung verstehe ich das so, dass ich mittels Windows auf ein UNIX NFS System zugreifen kann. Falls das so ist, kann ich es ja dann direkt über Unix machen.
Was ich benötigte wäre ein NFS-Server für Windows. Also Windows soll die NFS Freigaben direkt erstellen und verwalten.
Schade dass vmware kein SMB kann.
-
weigeltchen
- Member
- Beiträge: 359
- Registriert: 28.11.2011, 09:46
-
weigeltchen
- Member
- Beiträge: 359
- Registriert: 28.11.2011, 09:46
ich will ja nicht nerven, aber man sollte schon die richtigen Knöppgens drücken, dann wird's auch mit dem NFS-Server was. Den Assistenten zum Hinzufügen von Serverrollen ausführen, den Punkt Datei- und iSCSI-Dienste erweitern und siehe da, ganz unten steht Server für NFS. Wie es weitergeht, habe ich selbst noch nicht getestet, weil kein Bedarf zur Zeit. Übrigens, mit Classic Shell könnte man sich auch mit dem 12er Server anfreunden.
Ich setze Windows mittlerweile oft als NFS-Speicher ein. Keinerlei Probleme zu bekunden und die Dateiverschiebungen zwischen Datastores sind im Gegensatz zur VmWare Oberfläche erfreulich schnell. Ab 2012 ist zumindest das Protokoll supported (Version). Dazu ist Windows extrem Crashresistent. Bei Tests wie simulierte Stromausfälle wurde keine einzige VM geschrottet. --> Vorsicht mit DB's, Exchange mag das z.B. kaum.
Und es ist definitiv bei jedem Windows Server mit dabei. Findest Du unter der Rolle Filesserverdienst (oder so ähnlich) als zusätzliche Option.
Nutze das vor allem für schnelle Lokale Datastores mit SSD's. Da ist man mit z.B. zwei Intel DC3700 bereit sehr zackig unterwegs. Skalierung ziemlich nahtlos wenn mehrere im RAID 10 zusammengehängt werden. Zusammen mit Dedupe imho für wenig Geld und überschaubare Komplexität ein super Speicher für kleine Umgebungen. Vor allem VDI wenn keine Linked Clones eingesetzt werden, welche wiederum schneller im RAM sein dürften. Aber Lizenzen teurer. Rücksicherung Dank SSD's und Übertragung mit Windows auch schmerzfrei und rasend schnell. Bei guter Doku selbst von 0 sehr schnell wieder alles installiert.
Allgemeiner Vorteil von solchen Appliances, egal ob solaris, linux oder Windows: Die Komplexität des Storages ist niemals in der VM. Ein Restore kann also in jeden beliebigen Datastore erfolgen.
Und es ist definitiv bei jedem Windows Server mit dabei. Findest Du unter der Rolle Filesserverdienst (oder so ähnlich) als zusätzliche Option.
Nutze das vor allem für schnelle Lokale Datastores mit SSD's. Da ist man mit z.B. zwei Intel DC3700 bereit sehr zackig unterwegs. Skalierung ziemlich nahtlos wenn mehrere im RAID 10 zusammengehängt werden. Zusammen mit Dedupe imho für wenig Geld und überschaubare Komplexität ein super Speicher für kleine Umgebungen. Vor allem VDI wenn keine Linked Clones eingesetzt werden, welche wiederum schneller im RAM sein dürften. Aber Lizenzen teurer. Rücksicherung Dank SSD's und Übertragung mit Windows auch schmerzfrei und rasend schnell. Bei guter Doku selbst von 0 sehr schnell wieder alles installiert.
Allgemeiner Vorteil von solchen Appliances, egal ob solaris, linux oder Windows: Die Komplexität des Storages ist niemals in der VM. Ein Restore kann also in jeden beliebigen Datastore erfolgen.
uff... geschafft.
Danke @weigeltchen ... soweit hatte ich die Unterpunte garnicht ausgerollt. Hatte es dann aber gefunden.
Aktuell klappt das mounten der NFS Freigabe... obwohl es etwas tricky ist.
Gibt man eine ganze Festplatte frei (z.b. mit den NAmen :SSD), muß man bei vSphere
/SSD (also Ordner) eingeben.
Im Gegensatz dazu: eine Ordnerfreigabe auf: z.B. d:/test (freigabe auf test) dann nur die Eingabe von "test" ohne /.
Ich habe mich hier von den Pfaden leiten lassen, die Windows mir sagte:
server-2012:/ssd bzw. server-2012://test
vSphere tut dann sein übliches in den Beispielen. Dieses ist mit einen beginnenden / gekennzeichnet.
Von dieser kleinen Hürde mal abgesehen... Schreib und root-zugriff aktivieren und schon hats geklappt.
Den Server selbst hab ich aber von UDP+TCP auf nur TCP umgestellt und neugestartet.
Denn jetzt kommt der nächste Schritt... die Firewall. Aber da jetzt nur über TCP läuft, sollte das kein Problem sein.
So... nur der Nachwelt halber... http://www.lazywinadmin.com/2013/01/configure-windows-server-2012-nfs.html. Bildlich aufgezeigt... falls demnächst mal ein anderer User gleiche Fragen/Probleme hat.
Danke euch erstmal. Damit hab ich jetzt erstmal eine Grundlage.
P.s. VMware hat auch die Ruhe weg... Mein Anrufe steht jetzt bei 34min in der Warteschlange. Is wohl nur ein MA im Verkauf (?)
Danke @weigeltchen ... soweit hatte ich die Unterpunte garnicht ausgerollt. Hatte es dann aber gefunden.
Aktuell klappt das mounten der NFS Freigabe... obwohl es etwas tricky ist.
Gibt man eine ganze Festplatte frei (z.b. mit den NAmen :SSD), muß man bei vSphere
/SSD (also Ordner) eingeben.
Im Gegensatz dazu: eine Ordnerfreigabe auf: z.B. d:/test (freigabe auf test) dann nur die Eingabe von "test" ohne /.
Ich habe mich hier von den Pfaden leiten lassen, die Windows mir sagte:
server-2012:/ssd bzw. server-2012://test
vSphere tut dann sein übliches in den Beispielen. Dieses ist mit einen beginnenden / gekennzeichnet.
Von dieser kleinen Hürde mal abgesehen... Schreib und root-zugriff aktivieren und schon hats geklappt.
Den Server selbst hab ich aber von UDP+TCP auf nur TCP umgestellt und neugestartet.
Denn jetzt kommt der nächste Schritt... die Firewall. Aber da jetzt nur über TCP läuft, sollte das kein Problem sein.
So... nur der Nachwelt halber... http://www.lazywinadmin.com/2013/01/configure-windows-server-2012-nfs.html. Bildlich aufgezeigt... falls demnächst mal ein anderer User gleiche Fragen/Probleme hat.
Danke euch erstmal. Damit hab ich jetzt erstmal eine Grundlage.
P.s. VMware hat auch die Ruhe weg... Mein Anrufe steht jetzt bei 34min in der Warteschlange. Is wohl nur ein MA im Verkauf (?)
öhmm... kann es sein, dass ein Gast der in der Workstaion erstellt worden ist und sauber lief... dass ich diesen Gast in sphere nicht starten kann ?
Der Import direkt schlägt schon mal fehl. (Datenpool => durchsuchen => vmx auswähen und zur Bestandliste hinzufügen.
Wenn ich einen neun Gast in Sphare anlege und die bestehende vmkv einbinde erhalte ich:
Ist diese Richtung nicht vorgesehen ?
Der Import direkt schlägt schon mal fehl. (Datenpool => durchsuchen => vmx auswähen und zur Bestandliste hinzufügen.
Code: Alles auswählen
Das Starten der virtuellen Maschine ist fehlgeschlagen (Fehler -18). Wenn ich einen neun Gast in Sphare anlege und die bestehende vmkv einbinde erhalte ich:
Code: Alles auswählen
Das Starten der virtuellen Maschine ist fehlgeschlagen.
Einschalten des Moduls DevicePowerOn fehlgeschlagen.
Virtuelles SCSI-Gerät für scsi0:0, '/vmfs/volumes/1cddc0e7-d7e17cb6/VMware/Entwicklungssystem/Entwicklungssystem.vmdk' konnte nicht erstellt werden
Festplatte scsi0:0 konnte nicht geöffnet werden: Nicht unterstützter oder ungültiger Festplattentyp 7. Vergewissern Sie sich, dass die Festplatte importiert wurde.
Ist diese Richtung nicht vorgesehen ?
-
irix
- King of the Hill
- Beiträge: 13058
- Registriert: 02.08.2008, 15:06
- Wohnort: Hannover/Wuerzburg
- Kontaktdaten:
Doch die ist vorgesehen nur supportet vSphere WENIGER Formate als Workstation/Player und somit muss man das richtige auswaehlen oder aber diese nun auf dem ESXi konvertieren mit
Gruss
Joerg
Code: Alles auswählen
vmkfstool -i gehtnicht.vmdk geht.vmdkGruss
Joerg
-
Dayworker
- King of the Hill
- Beiträge: 13656
- Registriert: 01.10.2008, 12:54
- Wohnort: laut USV-Log am Ende der Welt...
Der Knackpunkt für ESXi dürften VMDKs im Format Sparse-Disk sein. Wenn du dir die VM-Einstellungen in einer aktuellen WS durchblätterst, solltest du irgendwo auch die Kompatibilität zu ESX anhaken können. Alternativ erstellst du alle VMDKs gleich als Preallocated ohne 2GB-Unterteilung und möglicherweise bietet auch der "vmware-vdiskmanager" auf CMD oder ba$h noch weitere VMDK-Formate an.
irix hat geschrieben:Code: Alles auswählen
vmkfstool -i gehtnicht.vmdk geht.vmdk
Das hat prima geklappt. Befehl heißt aber: vmkfstools
Windows mußte sich danach zwar erstmal Reparieren... aber schußendlich klappte das schon mal.
Somit konnte ich die benchmarks erneut starten. Leider mit etwas erschreckenden Messwerten.
Windows selbst arbeitet gegenüber der Workstation weitesgehend zackig... trotz 24vCpus und 16GB RAM.
Der Start ließ aber schon erahnen, wo der Flaschenhals jetzt liegt. Und zwar beim NFS.
Win7 brauchte fast 2 Minuten um hochzukommen... DiskMark zeigte dann auch warum.
Vergleichswerte:
Bild 1 zeigt den Benchmark aus der Windows Ebene aus.
Sprich: Windows Server boot und da direkt heraus ohne weitere Prozesszugriffe auf der Platte. (da liegen noch andere Gäste drauf. Die waren aber abgeschalten).
Es handelt sich hierbei um eine 3TB WDC Enterprise-Platte die auf ein SATA-II Port hing und als singel-LW eingegangen war. (Testmodus... später dann RAID. Also nicht wundern
Bild 2 zeigt dann den Benchmark von Sphere-Sicht aus.
Sprich: Boot von Sphere vom USB-Stick. => Automatischer start von Windows Server mit den NFS-Server von einer 250GB Platte (also nicht die 3TB Platte wo der Benchmark drauf läuft).
Wie man sieht... vergleichbare Werte... nur ein wenig geringer.
Beide Tests wurden ca. 15-20min nach Start des Systemes ausgeführt. CPU war dann schon immer auf 0%.
Bild 3 dann der Einbruch.
Dann wurde ein Gast (win 7) gestartet. (der auch nicht auf der zu testenden 3TB-Platte liegt). Dort wurde gleicher Benchmark durchgeführt.
Einen kleinen Einbruch hätte ich ja erwartet... aber so schlechten werte hätte ich nicht gedacht. Wobei.. der start und die Quickformatierung ließen schon entsprechendes erahnen.
Hinzufügen müsste ich: beim Formatieren hatte ich auf den NFS-Server 46MB auf den Datenträger. Netzwerklast um die 1-2 MB. (sollte korrekt sein, da ja beim formatieren keine direkten Daten geschrieben werden).
Frage: Woran könnte es liegen?
Angebunden ist die Netzwerkkarte über 1GB. Das sollte zumindest schon mal um die 100MB an Daten liefern können. (Was im weiteren Verlauf natürlich nicht ausreicht).
Aber eine 10GB virtuelle Karte bekomme ich nicht eingerichtet.
Fraglich ist generell der Verlauf der NFS-Freigabe. Die Daten werden doch nicht wirklich über die volle Netzwerkverbidung gesendet.. oder?
Also über den Gateway und dann wieder rein in Sphare.
Falls doch... kann ich eine 10GB virtuelle Netzwerkkarte erstellen die ausschießlich intern sendet (?)

"host only switch" scheint hier wohl die Lösung zu sein.
Diesen habe ich nun auch eingerichtet und den Gast (NFS-Server) ausschließlich zugewiesen. Sprich: keine weitere Netzwerkkarte, da dieser Gast ausschließlich intern betrieben werden soll und keinen Kontakt zur Aussenwelt haben soll.
Den Gast hochgefahren und der Netzwerkkarte eine manuelle IP Adresse gegeben... 192.168.0.254/255.255.255.0 (kein Gateway/DNS)
Mittels vSphere dann versucht ein NFS-Speicher hinzuzufügen.
Leider schläg dies fehl weil er keine Verbindung mit 192.168.0.254 herstellen kann.
Wie wird denn nun ein solcher Switch verwaltet. In video2Brain wird kurz drauf eingegangen... aber nur dessen Anlegung. Auf weiterern Einsatz/Konfikuratoin über diesen Switch wird nicht eingegangen.
Aber wenn ich ein Gateway eingebe, dann läuft es ja wieder über z.B. 192.168.0.1 was der Switch wäre und somit nicht mehr intern. DNS brauch ich hier wohl nicht, da ich den NFS Freigabenamen direkt über die IP-Adresse anspreche.
hmm.... wieder mal mehr Fragen als Lösungen... mühsam ernährt sich das eichhörnchen.
edit:/Nachtrag.
So würde es für mich moch einen Sinn geben. Gateway ist der vSphere. DNS Auflösung kann er dabei auch gleich übernehmen, falls nötig.
Aber das gleiche in Grün.

Diesen habe ich nun auch eingerichtet und den Gast (NFS-Server) ausschließlich zugewiesen. Sprich: keine weitere Netzwerkkarte, da dieser Gast ausschließlich intern betrieben werden soll und keinen Kontakt zur Aussenwelt haben soll.
Den Gast hochgefahren und der Netzwerkkarte eine manuelle IP Adresse gegeben... 192.168.0.254/255.255.255.0 (kein Gateway/DNS)
Mittels vSphere dann versucht ein NFS-Speicher hinzuzufügen.
Leider schläg dies fehl weil er keine Verbindung mit 192.168.0.254 herstellen kann.
Wie wird denn nun ein solcher Switch verwaltet. In video2Brain wird kurz drauf eingegangen... aber nur dessen Anlegung. Auf weiterern Einsatz/Konfikuratoin über diesen Switch wird nicht eingegangen.
Aber wenn ich ein Gateway eingebe, dann läuft es ja wieder über z.B. 192.168.0.1 was der Switch wäre und somit nicht mehr intern. DNS brauch ich hier wohl nicht, da ich den NFS Freigabenamen direkt über die IP-Adresse anspreche.
hmm.... wieder mal mehr Fragen als Lösungen... mühsam ernährt sich das eichhörnchen.
edit:/Nachtrag.
So würde es für mich moch einen Sinn geben. Gateway ist der vSphere. DNS Auflösung kann er dabei auch gleich übernehmen, falls nötig.
Aber das gleiche in Grün.

-
irix
- King of the Hill
- Beiträge: 13058
- Registriert: 02.08.2008, 15:06
- Wohnort: Hannover/Wuerzburg
- Kontaktdaten:
Dein Storage Server ist also virtuell?
Wenn ein ESXi Host auf Network Storage zugreifen soll dann braucht er eine Interface an den eine IP Gebunden werden kannt. Du must also zusaetzlich auf dem Switch einen VMK (VMKernel Port und keine VM Network Portgruppe) erstellen und ihm eine IP aus dem Subnet geben. Die Optimierung fuer JumboFrames wuerde ich mir fuer spaeter aufheben.
Aber Speedmaessig kann man bei nur einer SATA Spindel nichts erwarten und des weiteren verwendet der ESXi nosync Option fuer die Anbindung des NFS. Wer NFS macht der hat eine NetApp ansonsten wird das nix
Gruss
Joerg
Wenn ein ESXi Host auf Network Storage zugreifen soll dann braucht er eine Interface an den eine IP Gebunden werden kannt. Du must also zusaetzlich auf dem Switch einen VMK (VMKernel Port und keine VM Network Portgruppe) erstellen und ihm eine IP aus dem Subnet geben. Die Optimierung fuer JumboFrames wuerde ich mir fuer spaeter aufheben.
Aber Speedmaessig kann man bei nur einer SATA Spindel nichts erwarten und des weiteren verwendet der ESXi nosync Option fuer die Anbindung des NFS. Wer NFS macht der hat eine NetApp ansonsten wird das nix
Gruss
Joerg
oki joerg... mal ne kurze zwischeninfo:
Den Lesenden zugriff konnte von 0,7 MB auf knapp über 100MB gesteigert werden.
170MB wären möglich... somit ergibt das einen gerundeten 40% Verlustfaktor.
Der Schreibzugriff bleibt aber unterirdisch.
Damals 3,01 MB nund um die 3,6MB von möglichen 120-130 MB.
Morgen kommt der supportete Raid-Controller von Adaptec. Mal sehen was da noch zu machen ist... ansonsten muß die Sache anders angegangen werden und die platten müssen durchgereicht werden. Wobei auch hier noch benchmarktest aussehen. (wobei... die kann ich ja jetzt schon mal machen ^^ )
Den Lesenden zugriff konnte von 0,7 MB auf knapp über 100MB gesteigert werden.
170MB wären möglich... somit ergibt das einen gerundeten 40% Verlustfaktor.
Der Schreibzugriff bleibt aber unterirdisch.
Damals 3,01 MB nund um die 3,6MB von möglichen 120-130 MB.
Morgen kommt der supportete Raid-Controller von Adaptec. Mal sehen was da noch zu machen ist... ansonsten muß die Sache anders angegangen werden und die platten müssen durchgereicht werden. Wobei auch hier noch benchmarktest aussehen. (wobei... die kann ich ja jetzt schon mal machen ^^ )
NAT oder Routing scheint ESXi nicht zu können. Oder doch... ich such mir da grad n Wolf.
Aktuell habe ich mir einen 2ten vSwitch ohne Bindung an einer physischen Netzwerkkarte erstellt.
Dort dann einen neuen "Management Netzwork II". Hier dann die IP Adresse vom neuen CLASS-C Netzwerk eingetragen.
"Management Netzwork II" dann der betreffenden VM zugewiesen.
Somit hat die VM schon mal die richtige IP aus dem anderen Netzwerkkreis.
Nur ins Web routen tut er (logischerweise) nicht.
Geht das überhaupt? und wenn ja, wie ?
Alternativ werd ich wohl eine VM aufsetzen müssen, die mir NAT/Routing anbietet und darüber alles abwickelt... nur sonderlich schön ist das nicht.

Aktuell habe ich mir einen 2ten vSwitch ohne Bindung an einer physischen Netzwerkkarte erstellt.
Dort dann einen neuen "Management Netzwork II". Hier dann die IP Adresse vom neuen CLASS-C Netzwerk eingetragen.
"Management Netzwork II" dann der betreffenden VM zugewiesen.
Somit hat die VM schon mal die richtige IP aus dem anderen Netzwerkkreis.
Nur ins Web routen tut er (logischerweise) nicht.
Geht das überhaupt? und wenn ja, wie ?
Alternativ werd ich wohl eine VM aufsetzen müssen, die mir NAT/Routing anbietet und darüber alles abwickelt... nur sonderlich schön ist das nicht.

Nein und ich fürchte du versteht das Management Netz falsch und ich kann es dir nicht richtig erklären.
das Management Netz ist nur für Verwaltungsdaten des ESX (oder vMotion/iSCSI) und hat nichts mit den Portgruppen mit denen es evtl. auf dem gleichen vSwitch liegt zu tun.
Wenn du 2 Netze, egal ob 2 Portgruppen oder 2 vSwitche mit unterschiedlichem VLAN oder nur mit getrenntem Netzbereich hast musst du immer dafür sorgen das geroutet wird, das kannst du über eine VM erledigen die in beiden Netzen ist und ich sehe nicht was hier unschön sein soll.
das Management Netz ist nur für Verwaltungsdaten des ESX (oder vMotion/iSCSI) und hat nichts mit den Portgruppen mit denen es evtl. auf dem gleichen vSwitch liegt zu tun.
Wenn du 2 Netze, egal ob 2 Portgruppen oder 2 vSwitche mit unterschiedlichem VLAN oder nur mit getrenntem Netzbereich hast musst du immer dafür sorgen das geroutet wird, das kannst du über eine VM erledigen die in beiden Netzen ist und ich sehe nicht was hier unschön sein soll.
Zurück zu „vSphere 5 / ESXi 5 und 5.1“
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 3 Gäste