Hallo zusammen,
auf einem DRS-Cluster aus zwei Hosts an einem FC-SAN sichert die VMware DataRecovery 2.0 Appliance Windows- und Linux-Server.
Leider haben wir relativ häufig die Situation, dass VDR nicht sichert, weil sie mit dem Katalogisieren, bzw. mit der Integritätsprüfung des Dedublizierungsspeichers beschäftigt ist. Dies kann dann schon mal eine Woche dauern
Dazu ist zu sagen, dass sich im Dedublizierungsspeicher 850GB Daten befinden. Die dedublizierte Datenmenge beträgt um die 20TB.
VDR läuft als VM innerhalb des Clusters. Die 1. vmnic hängt im VM-Network (was 2x 1GbE nach draußen bietet) und die 2. vmnic hängt an einem 10GbE Adapter, der mit dem Sicherungsziel verbunden ist.
VDR sichert über HotAdd.
VDR sichert auch über den 10GbE Adapter (sie schreibt auf jeden Fall über diesen!). Kann es aber sein, dass für die lesenden Zugriffe der 1GbE Adapter verwendet wird und die lesenden Vorgänge deshalb so lange dauern?
VDR hat eine vRam Erweiterung auf 12GB spediert bekommen. Ebenso wurden die beiden Befehle in Ihrer CLI ausgeführt:
sysctl -w fs.file-max=100000
echo “root hard nofile 100000” >>/etc/security/limits.conf
Am Schluss bleibt auch noch die Frage, warum VDR in dieser hohen Anzahl "ein Problem hat" und diese extrem langwierigen Vorgänge starten muss!?
Ich brauche hier dringend Ratschläge! (wenns geht aber nicht den hier: nimm Veeam!)
Weitere Informationen kann ich gerne nachreichen...
Danke euch!
LG
Conne
Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!
VDR 2.0 Appliance überfordert?
gerade weil es leider noch etwas unausgereift daher kommt, gibt es zahlreiche Mods und vermeindlich überaus empfehlenswerte, riesig lange Kommandos, die im Netz kursieren. Kann ja sein, dass davon wirklich was funktioniert...
Vmware ruht sich derzeit auf der Ausrede aus, dass das Produkt für solche Datenmengen noch nicht ausgelegt sei. In kleineren Umgebungen funkioniert das Teil ja aber, meiner Ansicht nach, echt gut.
Naja, vielleicht kommt ja eines Tages der Giga-Patch raus, und alle Probleme sind damit eliminiert
Gruß,
Conne
Vmware ruht sich derzeit auf der Ausrede aus, dass das Produkt für solche Datenmengen noch nicht ausgelegt sei. In kleineren Umgebungen funkioniert das Teil ja aber, meiner Ansicht nach, echt gut.
Naja, vielleicht kommt ja eines Tages der Giga-Patch raus, und alle Probleme sind damit eliminiert
Gruß,
Conne
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 2 Gäste