Hallo Leute,
Hier tummeln sich ja einige welche eine NFS-Appliance direkt auf dem ESXi für die Datenbereitstellung in kleinem Umfeld hernehmen.
Wie robust sind die VM's bzw. vDiscs zbsp. bein einem Crash des Hostes, Stromausfalle etc. gegenüber einem normalen VMFS Datastore? es kackt ja sowohl die Storage-VM als auch die VM's weg
Performance-Overhead auf die Festplatten?
CPU-Leistung? --> Priorisierung der Storage-Appliance-VM?
Backup: Mit zwei Host jeweils auf das andere NFS sichern gut geeignet? Stelle mir das so vor, das eine VM die auf Host 1 läuft zbsp. eine zusätzliche Platte von Host 2 einbindet worauf per WindowsBackup gesichert wird. Oder VM's die bestimmte wichtige aber unkritische Dienste bereitstellen in das zweite NFS kopiert und bei Bedarf gestartet werden können.
Grüsse und Dankeschön
Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
NFS-Appliance Erfahrungen?
OK, Dankeschön... Sehen das noch andere so? Auch wenn ich Server 2012 als Appliance nehmen würde.
Eigentlich geht es ja darum wie ich ich Zukunft Kleinumgebungen aufsetze.
Kann mich nicht so richtig zwischen HyperV und VmWare entscheiden
Aktuell siehts so aus:
+ HyperV: Replikation, Backupmöglichkeiten o. Aufpreis, USV-Einbindung, Durchgängig Trim
- HyperV: Konfiguration, Recovery des Hosts, Sicherheitsupdates, AD-Integration, Update der Umgebung (Storage auf Hostebene, Controller durchreichen geht aber nicht), kein View möglich
+vSphere: Robust, kenne ich, fast jedes OS läuft, Quasi Set and forget, View (find ich top), parallele Testumgebungen auf produktivsystem problemlos, nicht ständig Updates, Konfiguration sehr easy und gut nachvollziehbar und Dokus i.d.R. auch Top
-vSphere: StorageApplicance notwendig, teurer da mehr Lizenzen, trotz Aufpreis eigentlich weniger Funktion, noch keine Ahnung ob Trim auch bei per NFS bereitgestellten Daten funktioniert, USV-Einbindung komplexer
Man könnte ja HyperV nested in vSphere laufen lassen und hat so für die handvoll VM's die Replikatmöglichkeit. *hust* Ne das lassen wir mal lieber.
Grüsse und so
Eigentlich geht es ja darum wie ich ich Zukunft Kleinumgebungen aufsetze.
Kann mich nicht so richtig zwischen HyperV und VmWare entscheiden
Aktuell siehts so aus:
+ HyperV: Replikation, Backupmöglichkeiten o. Aufpreis, USV-Einbindung, Durchgängig Trim
- HyperV: Konfiguration, Recovery des Hosts, Sicherheitsupdates, AD-Integration, Update der Umgebung (Storage auf Hostebene, Controller durchreichen geht aber nicht), kein View möglich
+vSphere: Robust, kenne ich, fast jedes OS läuft, Quasi Set and forget, View (find ich top), parallele Testumgebungen auf produktivsystem problemlos, nicht ständig Updates, Konfiguration sehr easy und gut nachvollziehbar und Dokus i.d.R. auch Top
-vSphere: StorageApplicance notwendig, teurer da mehr Lizenzen, trotz Aufpreis eigentlich weniger Funktion, noch keine Ahnung ob Trim auch bei per NFS bereitgestellten Daten funktioniert, USV-Einbindung komplexer
Man könnte ja HyperV nested in vSphere laufen lassen und hat so für die handvoll VM's die Replikatmöglichkeit. *hust* Ne das lassen wir mal lieber.
Grüsse und so
-
- Member
- Beiträge: 210
- Registriert: 18.02.2011, 11:30
Hallo UrsDerBär,
> Hier tummeln sich ja einige welche eine NFS-Appliance direkt auf dem ESXi
> für die Datenbereitstellung in kleinem Umfeld hernehmen.
ich setze eine NFS-Appliance auf dem ESXI-2 Sicherungsserver ein.
Das ist eine OpenSuse 12.1 32-Bit Version.
2 virtuelle Festpatten LSI Logic Parallel SCSI Unabhängig und Dauerhaft.
/ 4 GByte mit ext3
/NFS-Speicher 1,6 TB mit xfs .
Das Filesystem ist robust und noch nie zerstört worden.
Auch ein gewaltsames Ausschalten des ESXi hat das Dateisystem unbeschadet hingenommen. Natürlich starte ich die VM's nur im Notfall. Die Arbeits VM's bleiben auf den echten datastore1. Obwohl der Lesezugriff nur wenig langsamer, der Schreibzugriff aber bedeutend schneller ist.
Klaus
> Hier tummeln sich ja einige welche eine NFS-Appliance direkt auf dem ESXi
> für die Datenbereitstellung in kleinem Umfeld hernehmen.
ich setze eine NFS-Appliance auf dem ESXI-2 Sicherungsserver ein.
Das ist eine OpenSuse 12.1 32-Bit Version.
2 virtuelle Festpatten LSI Logic Parallel SCSI Unabhängig und Dauerhaft.
/ 4 GByte mit ext3
/NFS-Speicher 1,6 TB mit xfs .
Das Filesystem ist robust und noch nie zerstört worden.
Auch ein gewaltsames Ausschalten des ESXi hat das Dateisystem unbeschadet hingenommen. Natürlich starte ich die VM's nur im Notfall. Die Arbeits VM's bleiben auf den echten datastore1. Obwohl der Lesezugriff nur wenig langsamer, der Schreibzugriff aber bedeutend schneller ist.
Klaus
Fein, vielen Dank. Klingt ja eigentlich vielversprechend. Aber auch Du nur für den Notfall, right?
Hatte vor das als primären Storage für den lokalen Host und Backupziel für einen zweiten Host zu verwenden und anders rum. VmWare macht das ja grundsätzlich mit der VSA nicht anders.
Eigentlich hätte das ein ungeduldiger Kunde bereits gerne (Mit SSD's) und wäre grundsätzlich auch bereit das Risiko einzugehen für eine Top Performance. Nur für View hätte ich jetzt keine Skrupel, setze ich für mich auch in kürze so auf, aber für die Serverumgebung fehlt mir irgendwie die Risikobereitschaft so ganz ohne Erfahrungswerte. Ausbaden dürfte es ja am Ende ich selbst.
Hatte vor das als primären Storage für den lokalen Host und Backupziel für einen zweiten Host zu verwenden und anders rum. VmWare macht das ja grundsätzlich mit der VSA nicht anders.
Eigentlich hätte das ein ungeduldiger Kunde bereits gerne (Mit SSD's) und wäre grundsätzlich auch bereit das Risiko einzugehen für eine Top Performance. Nur für View hätte ich jetzt keine Skrupel, setze ich für mich auch in kürze so auf, aber für die Serverumgebung fehlt mir irgendwie die Risikobereitschaft so ganz ohne Erfahrungswerte. Ausbaden dürfte es ja am Ende ich selbst.
-
- Member
- Beiträge: 210
- Registriert: 18.02.2011, 11:30
Hallo UrsDerBär,
> Fein, vielen Dank. Klingt ja eigentlich vielversprechend.
> Aber auch Du nur für den Notfall, right?
Ja, so habe ich da eingerichtet.
Ich hatte auch schon mal eine Testumgebung mit gespiegeltem NFS-Speicher per drbd und ocfs2. Aber im Fehlerfall ist die Wiederherstellung nicht so einfach. Daher habe ich neben den Sicherungen, der nächtlichen Kopie zum Ersatz-ESXi in beiden Servern das gleiche Raid eingerichtet. Dann bauchen nur die Festplatten umgesteckt werden.
> Eigentlich hätte das ein ungeduldiger Kunde bereits gerne mit SSD's) und
>wäre grundsätzlich auch bereit das Risiko einzugehen für eine Top Performance
SSD wird stark überschätzt. Wenn ich auf dem virtuellen Server meine ERP-Sotware mit mehreren Sitzungen starte, wird die Geschwindigkeit nur minimal schneller.
Für Benchmarks ganz ok, aber im echten Einsatz kaum zu merken.
Klaus
> Fein, vielen Dank. Klingt ja eigentlich vielversprechend.
> Aber auch Du nur für den Notfall, right?
Ja, so habe ich da eingerichtet.
Ich hatte auch schon mal eine Testumgebung mit gespiegeltem NFS-Speicher per drbd und ocfs2. Aber im Fehlerfall ist die Wiederherstellung nicht so einfach. Daher habe ich neben den Sicherungen, der nächtlichen Kopie zum Ersatz-ESXi in beiden Servern das gleiche Raid eingerichtet. Dann bauchen nur die Festplatten umgesteckt werden.
> Eigentlich hätte das ein ungeduldiger Kunde bereits gerne mit SSD's) und
>wäre grundsätzlich auch bereit das Risiko einzugehen für eine Top Performance
SSD wird stark überschätzt. Wenn ich auf dem virtuellen Server meine ERP-Sotware mit mehreren Sitzungen starte, wird die Geschwindigkeit nur minimal schneller.
Für Benchmarks ganz ok, aber im echten Einsatz kaum zu merken.
Klaus
>Ja, so habe ich da eingerichtet.
OK
>DS-Spiegelung
Ne Spiegelung möchte ich in dem Sinne nicht. Jeder Server würde seine VM's auf sich selbst vorhalten sowie die Sicherungs-Discs (virtuelle Discs) der VM's des anderen Hosts. Backup via Windows Backup. Ist einfach völlig stressfrei, auch wenn nicht so flexibel.
Die wichtigen Dienste wie AD laufen ja eh auf beiden Hosts oder es spielt keine Rolle wenn die einen älteren Stand haben (Printserver, WSUS, Lizenzserver). Ist höchstens lästig. Fileserver biege ich den DFS-Pfad auf den Mirror um den ich per Script immer wieder mal abgleiche (effizient, billig, kein Ärger). Ist alles innerhalb weniger Minuten machbar und völlig ausreichend im kleinen Umfeld.
Fürs ERP-System (je nach dem was für ne DB das ist) wäre die Replikat-Geschichte von HyperV ganz nett. Ebenso für Exchange (sofern man das überhaupt noch selber hat).
Stimmt für die meisten Serveraufgaben. Beim ERP kommt es extrem auf die Software und deren Architektur an. Ältere Software, einfache KMU-Software oder umfangreiche Access-Backends profitieren von der Performance extrem. Vor allem AccDB's sind in der Regel ziemlich angepasste Softwares für die es am Markt nix gibt und Neuprogrammierung für nen Kleinbetrieb viel teurer wäre. Mit ein paar SSD's ist das Problem aus der Welt geschafft, auch wens nicht der schönste Weg ist.
Sehe das ja selbst bei uns, wir haben auch noch so eine Software am Start. Mittlerweile durch die vielen Erweiterungen (Mehrere 100 Tabellen, aber verhältnissmässig wenig effektive Daten) teilweise sehr lahm, in der Testumgebung mit ein paar SSD's fliegt das aber ohne Ende (Stoppuhr je nach dem Faktor 5 bis 10 gegenüber meiner SAN mit 12 x 15k SAS-Discs im RAID 10 - wenn sie grad nix zu tun hat). Kostenvoranschläge ne halbe bis ne ganze Kiste für die gleiche Funktionalität. Unterhaltskosten pro Jahr jenseits von gut und Böse. Erweiterungen will ich gar nicht wissen. Ein kleiner Server mit nen paar SSD's, dreifachgespiegelt und gleichzeitig die View-Clients drauf kostet mich ein paar tausender. Da muss ich nicht lange nachdenken, auch wens nicht so schön ist. Restore-Konzept muss bei SSD's einfach nahezu perfekt sein, weils halt noch etwas wenig Erfahrungswerte gibt.
Die gefühlte Performance von View-Clients ist auch deutlich besser auf den SSD's.
Auch Restores sind auf SSD's fix wie der Teufel. Paar hunder GB in ein paar Minuten mal eben transferiert.
Von daher ist das schon extrem schick und vor allem für das gebotene sehr preiswert. Meine eigene Umgebung stelle ich in kürze auf Local-Store mit SSD's um, da hab ich das aber auch selber immer unter Kontrolle.
OK
>DS-Spiegelung
Ne Spiegelung möchte ich in dem Sinne nicht. Jeder Server würde seine VM's auf sich selbst vorhalten sowie die Sicherungs-Discs (virtuelle Discs) der VM's des anderen Hosts. Backup via Windows Backup. Ist einfach völlig stressfrei, auch wenn nicht so flexibel.
Die wichtigen Dienste wie AD laufen ja eh auf beiden Hosts oder es spielt keine Rolle wenn die einen älteren Stand haben (Printserver, WSUS, Lizenzserver). Ist höchstens lästig. Fileserver biege ich den DFS-Pfad auf den Mirror um den ich per Script immer wieder mal abgleiche (effizient, billig, kein Ärger). Ist alles innerhalb weniger Minuten machbar und völlig ausreichend im kleinen Umfeld.
Fürs ERP-System (je nach dem was für ne DB das ist) wäre die Replikat-Geschichte von HyperV ganz nett. Ebenso für Exchange (sofern man das überhaupt noch selber hat).
SSD wird stark überschätzt. Wenn ich auf dem virtuellen Server meine ERP-Sotware mit mehreren Sitzungen starte, wird die Geschwindigkeit nur minimal schneller.
Für Benchmarks ganz ok, aber im echten Einsatz kaum zu merken.
Stimmt für die meisten Serveraufgaben. Beim ERP kommt es extrem auf die Software und deren Architektur an. Ältere Software, einfache KMU-Software oder umfangreiche Access-Backends profitieren von der Performance extrem. Vor allem AccDB's sind in der Regel ziemlich angepasste Softwares für die es am Markt nix gibt und Neuprogrammierung für nen Kleinbetrieb viel teurer wäre. Mit ein paar SSD's ist das Problem aus der Welt geschafft, auch wens nicht der schönste Weg ist.
Sehe das ja selbst bei uns, wir haben auch noch so eine Software am Start. Mittlerweile durch die vielen Erweiterungen (Mehrere 100 Tabellen, aber verhältnissmässig wenig effektive Daten) teilweise sehr lahm, in der Testumgebung mit ein paar SSD's fliegt das aber ohne Ende (Stoppuhr je nach dem Faktor 5 bis 10 gegenüber meiner SAN mit 12 x 15k SAS-Discs im RAID 10 - wenn sie grad nix zu tun hat). Kostenvoranschläge ne halbe bis ne ganze Kiste für die gleiche Funktionalität. Unterhaltskosten pro Jahr jenseits von gut und Böse. Erweiterungen will ich gar nicht wissen. Ein kleiner Server mit nen paar SSD's, dreifachgespiegelt und gleichzeitig die View-Clients drauf kostet mich ein paar tausender. Da muss ich nicht lange nachdenken, auch wens nicht so schön ist. Restore-Konzept muss bei SSD's einfach nahezu perfekt sein, weils halt noch etwas wenig Erfahrungswerte gibt.
Die gefühlte Performance von View-Clients ist auch deutlich besser auf den SSD's.
Auch Restores sind auf SSD's fix wie der Teufel. Paar hunder GB in ein paar Minuten mal eben transferiert.
Von daher ist das schon extrem schick und vor allem für das gebotene sehr preiswert. Meine eigene Umgebung stelle ich in kürze auf Local-Store mit SSD's um, da hab ich das aber auch selber immer unter Kontrolle.
Nach einigem hin und her ist es mir gelungen nen NFS-Share mit einem 2012er Server bereitzustellen.
Was mir nicht wirklich gefällt: Das NFS-Share hat Berechtigungen für NTFS-Vollzugriff "Jeder". Sprich jeder der irgendwie die Appliance zu Gesicht bekommt, hat Vollzugriff auf alle Files. Für WindowsUpdate, Backupzwecke, einfache Kopiervorgänge und evtl. auch normale Fileservices (noch nicht entschieden) wollte ich die Maschine aber ins LAN bringen und da gefällt sowas nicht wirklich, hätte ja jeder direkten Zugriff auf die VM's.
Die Frage ist jetzt, wie sichert man NFS unter Windows am besten ab. Reines UserMapping mit der Passwd+ IP-Filterung für zugreifende Hosts klingt irgendwie wenig überzeugend.
Windows selbst bietet für NFS einiges and Einstellungen wie Abgleich mit AD, AD-Lightweight, Kerberos etc. Nur was muss auf den ESXi damit das funktioniert?
Hat da jemand evtl. eine verständliche HowTo zur Hand? Alles was ich so einigermassen auf die schnelle gefunden habe geht von einem solchen Vollzugriff aus.
Weiteres: Ich habe bemerkt, dass sämtliche Files von Windows kopiert werden können, obwohl die VM gestartet ist. Ist das normal? Ist das gefährlich? Kein Lock der Files durch den ESXi?
Ansonsten mir gefällt es, dass ich so einen vernünftigen, sehr performanten Datastore-Browser in Form von Windows habe wo ich sämtliche Files sehe und problemlos umherkopieren kann.
Was mir nicht wirklich gefällt: Das NFS-Share hat Berechtigungen für NTFS-Vollzugriff "Jeder". Sprich jeder der irgendwie die Appliance zu Gesicht bekommt, hat Vollzugriff auf alle Files. Für WindowsUpdate, Backupzwecke, einfache Kopiervorgänge und evtl. auch normale Fileservices (noch nicht entschieden) wollte ich die Maschine aber ins LAN bringen und da gefällt sowas nicht wirklich, hätte ja jeder direkten Zugriff auf die VM's.
Die Frage ist jetzt, wie sichert man NFS unter Windows am besten ab. Reines UserMapping mit der Passwd+ IP-Filterung für zugreifende Hosts klingt irgendwie wenig überzeugend.
Windows selbst bietet für NFS einiges and Einstellungen wie Abgleich mit AD, AD-Lightweight, Kerberos etc. Nur was muss auf den ESXi damit das funktioniert?
Hat da jemand evtl. eine verständliche HowTo zur Hand? Alles was ich so einigermassen auf die schnelle gefunden habe geht von einem solchen Vollzugriff aus.
Weiteres: Ich habe bemerkt, dass sämtliche Files von Windows kopiert werden können, obwohl die VM gestartet ist. Ist das normal? Ist das gefährlich? Kein Lock der Files durch den ESXi?
Ansonsten mir gefällt es, dass ich so einen vernünftigen, sehr performanten Datastore-Browser in Form von Windows habe wo ich sämtliche Files sehe und problemlos umherkopieren kann.
Zurück zu „Allgemeines, Feedback & Smalltalk“
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 2 Gäste