Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
[SOLVED] Performance Veeam -> IBM Storwize v3700
[SOLVED] Performance Veeam -> IBM Storwize v3700
Hallo zusammen,
Bei einem Kunden wurden die Backupstrukturen umgestellt.
Bei der Initialen Sicherung mit Veeam fällt nun eine recht miese Datenübertragungsrate von ~40MB/s auf. Wie sind da eure Werte?
Die vier ESXi5.1 Hosts sind über 8Gbit FC mit dem Stor verbunden (zweipfadig RR).
Veeam läuft auf einer dicken VM, an der ein 13TB RDM (pysical mode) hängt, darauf liegt das Repository.
Die VMs, die gesichert werden, laufen auf dem SAS Teil des IBMs (6x Raid5 aus 8x 10K HDDs gestriped).
Das RDM der Veeam VM liegt auf dem NL-SAS Teil des IBMs (2 x Raid6 aus 9 HDDs gestriped).
Veeam gibt das Bottleneck für die "source" aus, und zwar mit 99% :-/
Ich bin nun etwas verwirrt, läuft etwas falsch oder nicht?
Viele Grüße,
Conne
Bei einem Kunden wurden die Backupstrukturen umgestellt.
Bei der Initialen Sicherung mit Veeam fällt nun eine recht miese Datenübertragungsrate von ~40MB/s auf. Wie sind da eure Werte?
Die vier ESXi5.1 Hosts sind über 8Gbit FC mit dem Stor verbunden (zweipfadig RR).
Veeam läuft auf einer dicken VM, an der ein 13TB RDM (pysical mode) hängt, darauf liegt das Repository.
Die VMs, die gesichert werden, laufen auf dem SAS Teil des IBMs (6x Raid5 aus 8x 10K HDDs gestriped).
Das RDM der Veeam VM liegt auf dem NL-SAS Teil des IBMs (2 x Raid6 aus 9 HDDs gestriped).
Veeam gibt das Bottleneck für die "source" aus, und zwar mit 99% :-/
Ich bin nun etwas verwirrt, läuft etwas falsch oder nicht?
Viele Grüße,
Conne
Die Veeam VM hat 8 Cores 16Gb vRAM und ist während Backup zu ca 30% auf der CPU ausgelastet. In den Hosts sind jeweils zwei SandyBridge 2690 drin. Warum zeigt Veeam die source als 99%iges Bottleneck an?
Kopieren auf Dateiebene geht mit ~280Mb/s zwischen den SAS<->NLSAS Teilen, auf der Ebene scheint alles OK zu sein.
Kopieren auf Dateiebene geht mit ~280Mb/s zwischen den SAS<->NLSAS Teilen, auf der Ebene scheint alles OK zu sein.
-
weigeltchen
- Member
- Beiträge: 359
- Registriert: 28.11.2011, 09:46
Hallo,
DIe Backupjobs sind noch die alten. Es ist lediglich das neue Repository hinzugekommen. Außer dem neuen Repository und dem verändern von "LAN-Target" nach "local Target", wurde ncihts angepasst.
Vorher wurde auf ein OPEN-E DSS V6 (CIFS) gesichert, das mit 10GbE angefahren wurde, mind. um die 120MB/s beim Fullbackups. Flachenhals war IMMMER das Target...
Das kommt von der FA. die das Stor aufgestellt hat, und die stellen wohl viele von diesem Typ auf... Ich habe mir es schriftlich geben lassen.
Jepp, das käme vom Durchsatz hin. ~40MB/s war auch etwas untertrieben. Besser: zwischen 40 und 60 MB/s.
Aber warum????
Gruß,
Conne
Die Einstellungen der Backup-Jobs wurden geprüft? Hat sich an den Backup-Proxies was geändert? Sieht so aus, als wenn über LAN gesichert wird.
DIe Backupjobs sind noch die alten. Es ist lediglich das neue Repository hinzugekommen. Außer dem neuen Repository und dem verändern von "LAN-Target" nach "local Target", wurde ncihts angepasst.
Vorher wurde auf ein OPEN-E DSS V6 (CIFS) gesichert, das mit 10GbE angefahren wurde, mind. um die 120MB/s beim Fullbackups. Flachenhals war IMMMER das Target...
Wer har RR empfohlen? Vmware sagt Fixed mit der Bemerkung, dass man für RR nachfragen sollte
Das kommt von der FA. die das Stor aufgestellt hat, und die stellen wohl viele von diesem Typ auf... Ich habe mir es schriftlich geben lassen.
weigeltchen hat Folgendes geschrieben:
Die Einstellungen der Backup-Jobs wurden geprüft? Hat sich an den Backup-Proxies was geändert? Sieht so aus, als wenn über LAN gesichert wird.
Das war auch mein Gedanke. Aber selbst dann sollte doch etwas mehr als 40MB durch die Leitung gehen...
Jepp, das käme vom Durchsatz hin. ~40MB/s war auch etwas untertrieben. Besser: zwischen 40 und 60 MB/s.
Aber warum????
Gruß,
Conne
-
weigeltchen
- Member
- Beiträge: 359
- Registriert: 28.11.2011, 09:46
Stell doch einfach mal im BackupProxy ab, daß er als Failover übers LAN sichern soll und stosse einen Job an. Wenn er dann nichts mehr sichert, weißt Du, daß er da ein Problem mit Zugriff aufs Storage hat?
Jupp, wenn es abgeschaltet ist, schlage alle BAckups fehl. Mit ner sehr kuriosen Fehlermeldung.
"Error: Client error: Failed to open VDDK disk [[IBM-LUN09_SAS] vCenter/vCenter.vmdk] ( is read-only mode - [true] ) Failed to open VMDK. Logon attempt with parameters [VC/ESX: [Py-ESX-03];Port: 443;Login: [****];VMX Spec: [moref=8];Snapshot mor: [8-snapshot-35];Transports: [san];Read Only: [true]] failed because of the following errors:"
Nur so als Randbemerkung: Die zu sichernden VM und das neue Backuprepository liegen alle auf dem v3700? Storage weg, Backup auch weg?
Ist eine temp. Lösung. Am WE wird der ganze Haufen aber trotzdem noch auf Band geschrieben. Der OPEN-E DSS ist am Wochenende gecrashed (echter Hardwareschaden) und muss jetzt neu gemacht werden.
Gruß,
Conne
-
wakesetter
- Member
- Beiträge: 24
- Registriert: 15.02.2008, 13:58
Ich hatte vor ein paar Wochen das Problem, daß er auf das SAN immer über Lan und nicht über FC zugegriffen hat. DIe Einstellung Transport Mode im Proxy war "Direct SAN access".
Ich habe dann auf "Automatic selection" gestellt und seitdem geht es wieder im Direct SAN access über FC.
Warum auch immer.......
Gruß
Tommy
Ich habe dann auf "Automatic selection" gestellt und seitdem geht es wieder im Direct SAN access über FC.
Warum auch immer.......
Gruß
Tommy
-
irix
- King of the Hill
- Beiträge: 13058
- Registriert: 02.08.2008, 15:06
- Wohnort: Hannover/Wuerzburg
- Kontaktdaten:
wakesetter hat geschrieben:....
Ich habe dann auf "Automatic selection" gestellt und seitdem geht es wieder im Direct SAN access über FC.
Warum auch immer.......
Dann liegt aber alle Last auf dem phys. Backupserver welcher aber bei euch ueppig ausgestattet ist. Bei einer hohen Anzahl an ESXi Hosts machts natuerlich evtl. Sinn die Proxies aus zurollen und HotAdd zumachen.
Gruss
Joerg
Steht auf Automatic, Haken bei Failover über Netzwerk deaktiv.
Aber ich gehe nciht falsch der Annahme, dass die Platten aller VMs innerhalb des HA Clusters in der Zeit des Backups per HotAdd an die Veeam-VM drangehangen werden!?
Klar, bei vielen ESXi Hosts oder keinem vCenter wäre ein Veeam-Proxy pro Host wohl unverzichtbar.
Aus der Veeam-VM sind bei uns keine speziellen "Wege" ins Stor konfiguriert. Das HotAdd hat bisher immer sehr gut funktioniert...
Klar, iwie bekommt Veeam keine Berechtigung für das Anhängen der vHDDs. Aber was umgestellt/angepasst werden muss, damit es wieder funktioniert, ist nciht klar.
Gruß,
Conne
Aber ich gehe nciht falsch der Annahme, dass die Platten aller VMs innerhalb des HA Clusters in der Zeit des Backups per HotAdd an die Veeam-VM drangehangen werden!?
Klar, bei vielen ESXi Hosts oder keinem vCenter wäre ein Veeam-Proxy pro Host wohl unverzichtbar.
Aus der Veeam-VM sind bei uns keine speziellen "Wege" ins Stor konfiguriert. Das HotAdd hat bisher immer sehr gut funktioniert...
Klar, iwie bekommt Veeam keine Berechtigung für das Anhängen der vHDDs. Aber was umgestellt/angepasst werden muss, damit es wieder funktioniert, ist nciht klar.
Gruß,
Conne
ja, das war auch schon meine Vermutung. Das RDM ist aber "nur" das Sicherungsziel. Es muss kein SnapShot von der HDD gemacht werden, noch muss sie irgendwo drangehangen werden.
Ich habe sie vorsichtshalber mal an einen extra SCSI Controller gehangen, und auch an die 15. Stelle, weil es physikalisch die LUN15 ist. Keine A. ob das hier wirklich relevant ist. Aber schaden tuts im Moment auch nicht :-/
Ein Test wäre nun, statt dem RDM ein Repository auf eine neue VMDK an der Veeam VM zu erstellen. Mom...
Ich habe sie vorsichtshalber mal an einen extra SCSI Controller gehangen, und auch an die 15. Stelle, weil es physikalisch die LUN15 ist. Keine A. ob das hier wirklich relevant ist. Aber schaden tuts im Moment auch nicht :-/
Ein Test wäre nun, statt dem RDM ein Repository auf eine neue VMDK an der Veeam VM zu erstellen. Mom...
Wen es interessiert:
Nach Ticketeröffnung bei Veeam und daraus resultierendem Öffnen eines Tickets bei Vmware, konnte das Problem gefunden werden.
Aus irgendwelchen Gründen, hat das System versucht, über "Direct Access" zu sichern, obwohl "Appliance Mode" hinterlegt war. Klar, dass dann kein Zugriff auf die VMDK Dateien möglich war.
Nachdem vom Veeam Support ein paar Dateien gelöscht und ein Patch eingespielt wurde, lief die ganze Sache. Endlich mit annehmbarer Geschwindigkeit (~180MB/s (!) beim Fullbackup).
Etwas schade war, dass Veeam nach Auswertung der Logs erstmal sagte: Es muss an VMware liegen, bitte Ticket öffnen. Bei VMware hat man den Veeam Support wegen seiner wirren Behauptungen und Schlussfolgerungen etwas auslachen müssen.
Die letzte Informationsmail von VMware war deshalb auch sehr amüsant, vor allem, weil sie in CC direkt an den Veeam Support ging.
Grüße,
Conne
Nach Ticketeröffnung bei Veeam und daraus resultierendem Öffnen eines Tickets bei Vmware, konnte das Problem gefunden werden.
Aus irgendwelchen Gründen, hat das System versucht, über "Direct Access" zu sichern, obwohl "Appliance Mode" hinterlegt war. Klar, dass dann kein Zugriff auf die VMDK Dateien möglich war.
Nachdem vom Veeam Support ein paar Dateien gelöscht und ein Patch eingespielt wurde, lief die ganze Sache. Endlich mit annehmbarer Geschwindigkeit (~180MB/s (!) beim Fullbackup).
Etwas schade war, dass Veeam nach Auswertung der Logs erstmal sagte: Es muss an VMware liegen, bitte Ticket öffnen. Bei VMware hat man den Veeam Support wegen seiner wirren Behauptungen und Schlussfolgerungen etwas auslachen müssen.
Die letzte Informationsmail von VMware war deshalb auch sehr amüsant, vor allem, weil sie in CC direkt an den Veeam Support ging.
Grüße,
Conne
Zurück zu „vSphere 5 / ESXi 5 und 5.1“
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 9 Gäste

