Seite 1 von 1

Not enough physical memory is available ...

Verfasst: 02.02.2011, 18:46
von YaVM
... obwohl genügend freier Arbeitspeicher verfügbar ist. VMware Server 2.0.2.203138 wird auf Windows Server 2008 Standard SP2 64 Bit ausgeführt, 16 GB RAM sind installiert (und werden vom Host OS erkannt). 14735 MB sind für VM's freigegeben.

Code: Alles auswählen

.encoding = "windows-1252"
authd.client.port = "902"
authd.proxy.vim = "vmware-hostd:hostd-vmdb"
authd.proxy.nfc = "vmware-hostd:ha-nfc"

prefvmx.minVmMemPct = "100"
prefvmx.useRecommendedLockedMemSize = "TRUE"

prefvmx.allVMMemoryLimit = "14735"

mainMem.partialLazySave = "TRUE"
mainMem.partialLazyRestore = "TRUE"

Es sollen ca. 65 VMs mit je 64 MB RAM ausgeführt werden (auf diesen läuft QNX, ein Embedded OS). Ca. 60 laufen, weitere können nicht gestartet werden.

Code: Alles auswählen

Not enough physical memory is available to power on this virtual machine with its configured settings.

Zu diesem Zeitpunkt sind ca. 6 GB belegt; genügend freier Speicher ist also vorhanden.
Grundsätzlich kann auf diesem VMware Server mehr Speicher genutzt werden, 4 VM's mit Windows Server 2003 und je 3.6 GB RAM laufen (und belegen dann fast allen Arbeitspeicher).

Habr Ihr Ideen zur weiteren Analyse?

Verfasst: 02.02.2011, 19:20
von JMcClane
Wenn ich mich nicht irre laufen 4 VMs pro CPU Kern und maximal 64 beim VMWare Server 2.0.

Verfasst: 03.02.2011, 08:09
von YaVM
JMcClane hat geschrieben:Wenn ich mich nicht irre laufen 4 VMs pro CPU Kern und maximal 64 beim VMWare Server 2.0.


Der Host hat 16 Kerne, 64 VMs sollten daher möglich sein; sind es aber nicht. Wenn eine der Windows Server 2003 (3.6 GB RAM) läuft, lassen sich nur ca. 40 VMs starten; ein Zusammenhang zum Arbeitsspeicher scheint also zu bestehen - aber vermutlich nicht die Ursache.

Verfasst: 03.02.2011, 09:15
von continuum
Ich habe mal aus Spass unter 2008 R2 mit WS 7.1.3 ca 80 VMs a 256 MB RAM angerschmissen - auf einem 8GB Host.

Das geht - allerdings hat 2008 R2 host ein Problem wenn mehr als 30% des phys. RAMs fuer VMs verwendet werden sollen. Dann stockt das Netzwerk ...

Anscheinend ist das unter VMserver auch so ???

lad mal ein vmwarelog bei ifile.it hoch - dann mache ich dir mal einen Vorschlag fuer die config

Verfasst: 03.02.2011, 12:38
von YaVM
Vielen Dank, interessantes Ergebnis... Hier die Config der VM:

Code: Alles auswählen

.encoding = "windows-1252"
config.version = "8"
displayName = "CIOC045"
ethernet0.connectionType = "nat"
ethernet0.present = "FALSE"
ethernet0.wakeOnPcktRcv = "FALSE"
ethernet1.address = "00:80:74:00:00:2d"
ethernet1.addressType = "static"
ethernet1.connectionType = "custom"
ethernet1.generatedAddress = "00:0c:29:a1:43:0b"
ethernet1.generatedAddressOffset = "10"
ethernet1.pciSlotNumber = "32"
ethernet1.present = "TRUE"
ethernet1.vnet = "VMNet2"
ethernet1.wakeOnPcktRcv = "FALSE"
ethernet2.address = "00:80:74:00:11:c1"
ethernet2.addressType = "static"
ethernet2.connectionType = "custom"
ethernet2.generatedAddress = "00:0c:29:a1:43:15"
ethernet2.generatedAddressOffset = "20"
ethernet2.pciSlotNumber = "33"
ethernet2.present = "TRUE"
ethernet2.vnet = "VMNet3"
ethernet2.wakeOnPcktRcv = "FALSE"
extendedConfigFile = "CIOC045.vmxf"
floppy0.autodetect = "TRUE"
floppy0.fileName = "A:"
floppy0.present = "FALSE"
floppy0.startConnected = "FALSE"
ft.secondary0.enabled = "TRUE"
guestOS = "other"
ide0:0.fileName = "CIOC045.vmdk"
ide0:0.present = "TRUE"
ide0:0.redo = ""
ide1:0.autodetect = "TRUE"
ide1:0.deviceType = "cdrom-image"
ide1:0.fileName = "auto detect"
ide1:0.present = "FALSE"
memsize = "64"
mks.enable3d = "TRUE"
nvram = "CIOC045.nvram"
pciBridge0.pciSlotNumber = "17"
pciBridge0.present = "TRUE"
pciBridge4.functions = "8"
pciBridge4.pciSlotNumber = "21"
pciBridge4.present = "TRUE"
pciBridge4.virtualDev = "pcieRootPort"
pciBridge5.functions = "8"
pciBridge5.pciSlotNumber = "22"
pciBridge5.present = "TRUE"
pciBridge5.virtualDev = "pcieRootPort"
pciBridge6.functions = "8"
pciBridge6.pciSlotNumber = "23"
pciBridge6.present = "TRUE"
pciBridge6.virtualDev = "pcieRootPort"
pciBridge7.functions = "8"
pciBridge7.pciSlotNumber = "24"
pciBridge7.present = "TRUE"
pciBridge7.virtualDev = "pcieRootPort"
roamingVM.exitBehavior = "go"
scsi0.pciSlotNumber = "-1"
scsi0.present = "FALSE"
sound.autodetect = "TRUE"
sound.fileName = "-1"
sound.pciSlotNumber = "-1"
sound.present = "FALSE"
tools.upgrade.policy = "useGlobal"
uuid.action = "create"
uuid.bios = "56 4d 46 80 47 10 b0 07-48 9f 86 a5 c3 4b 7d 40"
uuid.location = "56 4d 46 80 47 10 b0 07-48 9f 86 a5 c3 4b 7d 40"
virtualHW.productCompatibility = "hosted"
virtualHW.version = "7"
vmci0.id = "178340653"
vmci0.pciSlotNumber = "35"
vmci0.present = "TRUE"
vmotion.checkpointFBSize = "134217728"

Mit Fehler: http://ifile.it/2yq0tdw/failed.txt
OK: http://ifile.it/k8ui4fe/OK.txt

Verfasst: 03.02.2011, 13:01
von continuum
mir faellt gerade ein dass ich zu dem Thema schon wasgeschrieben hab ...

guck mal hier

http://faq.sanbarrow.com/index.php?action=show&cat=78

Verfasst: 03.02.2011, 13:33
von YaVM

Code: Alles auswählen

prefvmx.minVmMemPct = "50"
hatte ich bereits probiert, damit lassen sich die VMs starten. Allerdings erklärt das nicht, warum bei

Code: Alles auswählen

prefvmx.minVmMemPct = "100"
und mehreren GB freiem Speicher die VMs nicht laufen.

Verfasst: 03.02.2011, 15:20
von continuum
ich hatte neulich so einen Fall mit einem 2008R2 user mit einem 64 GB RAM host.

Sobald der fuer mehr als 20 Gb RAMK VMs anschmiss ging bei den VMs im Netzwerk gar nichts mehr.

VMware - support meinte es waere komisch - hatten aber auch keine Abhilfe parat.

Ich habe dann lange mit dem Mann rum probiert und wir konnten die Grenze auf 30 GB hochschrauben - aber dann ging es mit den Netzwerkdroputs wieder los.

Da hilft nur probieren bis man einen brauchbaren Kompromiss hat :roll:

Verfasst: 03.02.2011, 16:01
von YaVM
Der Host wurde von 16 auf 24 GB RAM aufgerüstet, jetzt paßt es auch mit

Code: Alles auswählen

prefvmx.minVmMemPct = "100"
. 64 VMs sind das Maximum, mehr werden vcn VMware Server nicht unterstützt.

Verfasst: 03.02.2011, 19:56
von continuum
nicht alles glauben 8)

in der Workstation kann man auch deutlich mehr VMs laufen lassen als die Leute glauben

Verfasst: 03.02.2011, 20:04
von Dayworker
Für die, die das Manual zum Server2 mal gelesen haben, wissen, daß VMware dort nur eine Empfehlung von 4 VMs pro Kern ausgesprochen hat. Es können aber auch mehr sein, jedoch sollte man dabei eines beachten. Mit steigender Zahl laufender VMs steigt auch deren Verwaltungsoverhead und das kann dann die VMs bis zur Unbenutzbarkeit ausbremsen. ;)

Verfasst: 04.02.2011, 03:14
von continuum
Dayworker hat geschrieben:...und das kann dann die VMs bis zur Unbenutzbarkeit ausbremsen. ;)



8) ich hatte mir neulich mal ne batch gemacht die eine Ubuntu-LiveCD VM a 512 MB RAM 80 mal clont und im Abstand von ein paar Sekunden per vmrun start.
Die VMs booten ohne zutun bis sie Netzwerk und Desktop haben - man kann dann schon verfolgen wie die ping Zeiten einbrechjen wenn mehr als ein drittel des RAMs verbraucht wird - auch die wirksamkeit der config.ini laesst sich so testen

Verfasst: 04.02.2011, 20:43
von Dayworker
Falls du Bridge im Einsatz hattest, ist das völlig normal. Da Bridge gleich Hub ist, ergibt sich die Bandbreite jedes einzelnen Anschlusses (VM) ja aus der verfügbaren Host-Bandbreite durch die Anzahl der Teilnehmer.
Mit vmnet1 oder vmnet8 sollten sich weit bessere Werte ermitteln lassen.