<\/span>\nF\u00fcr die Kommunikation erhalten die\u00a0vNics IP Adressen, nur das Management Lan erh\u00e4lt ein Gateway und Verweise auf die DNS Server.<\/p>\n
# Set IP Address Management\r\nNew-NetIPAddress -InterfaceAlias \"vEthernet (Management)\" -IPAddress 10.10.1.27 -PrefixLength 24 -DefaultGateway 10.10.1.254\r\nSet-DnsClientServerAddress -InterfaceAlias \"vEthernet (Management)\" -ServerAddresses 10.10.3.1, 10.10.3.2\r\n\r\n# Set IP Address CSV\/HB\r\nNew-NetIPAddress -InterfaceAlias \"vEthernet (CSV HB)\" -IPAddress 192.168.8.1 -PrefixLength 24<\/pre>\n<\/span><\/span><\/span><\/p>\nEinstellungen\u00a0abfragen<\/p>\n
# get DefaultFlowMinimumBandwidthWeight\r\nGet-VMSwitch vSwitch | ft name,DefaultFlowMinimumBandwidthWeight\r\n\r\n# get vLans\r\nGet-VMNetworkAdapterVlan\r\n\r\n# get Bandwith Percentage\r\nGet-VMNetworkAdapter -ManagementOS -Name * | ft Name, VMName, MinimumBandwidthWeight, BandwidthPercentage, IsManagementOS, maximumbandwith\r\n\r\n# get Adapter\r\nGet-VMNetworkAdapter -all<\/pre>\n <\/p>\n
Performance<\/h3>\n so sch\u00f6n die ganze Geschichte mit den dynamischen Bandbreiten ist, muss man auch eine Einschr\u00e4nkung erw\u00e4hnen. Sobald ein VM Switch auf der Nic bzw. dem LACP Team installiert wird, geht der support f\u00fcr RSS (Receive Side Scaling) verloren, und VMQ (Virtual Machine Queues) wird aktiviert.<\/p>\n<\/span>\nLACP Team ohne VM Switch<\/h4>\n <\/p>\n
Die Last\u00a0verteilt sich \u00fcber vier TCP Streams der 4 Nics (SMB Multichannel). LACP und der Switch Independent Mode weisen hier (rote Linie) ein \u00e4hnliches Bild auf. Mit 4x 1GB Karten werden rund 400MB\/second erreicht. Bei meinen Servern sind die lokalen Platten der Flaschenhals.<\/p>\n<\/span>\n <\/p>\n
An den vier CPU Ausschl\u00e4gen sieht man, dass RSS genau das tut, was es soll. Es gleicht die Last \u00fcber mehrere TCP Streams aus.<\/p>\n
<\/span><\/span><\/p>\n <\/p>\n
LACP Team\u00a0mit\u00a0 VM Switch<\/h4>\n <\/p>\n
nach dem Erstellen des VM Switches sieht das Bild ganz anders aus. Von den vier Nics arbeitet nur noch eine, eine Lastverteilung findet nicht mehr statt.<\/p>\n
<\/p>\n
<\/p>\n
Da jetzt nur noch ein TCP Stream aktiv ist, wird auch nur ein CPU Kern beansprucht, daf\u00fcr aber auch st\u00e4rker. Der maximale Durchsatz bei\u00a01Gigabit Karten (obwohl 4 St\u00fcck) betr\u00e4gt damit 125MB\/second.<\/p>\n
<\/span><\/span><\/p>\nSMB Multichannel<\/h4>\n Haben die Server eine weitere M\u00f6glichkeit miteinander zu kommunizieren, z.B. ein CSV\/HB Lan, wird ein weiterer TCP Stream \u00fcber diese Verbindung aufgebaut. Die Last verteilt sich dann \u00fcber die vNic des LACP und der physischen Nic des CSV\/HB und auf Seiten des Prozessors auf mehrere Cores. Ob die Nic virtuell ist, oder am gleichen VM Switch h\u00e4ngt, spielt dabei keine Rolle.<\/p>\n
Sobald die\u00a0Server st\u00e4rkere 10Gbit Verbindungen haben, werden diese f\u00fcr die Kommunikation untereinander genutzt. Sind die Nics RSS-Capable werden mehrere Streams pro Adapter aufgebaut.<\/p>\n<\/span>\n <\/p>\n
wie oben bereits erw\u00e4hnt, geht nach dem Aktivieren eines vSwitches die RSS Capability f\u00fcr die vNics verloren. VM Gast Systeme, die auf den VM Switch connected sind, haben\u00a0diese Einschr\u00e4nkung nicht. Die vNics der Hosts sowie der VMs haben virtuelle 10Gbit, unabh\u00e4ngig davon auf welcher Physik diese aufgesetzt sind.<\/p>\n<\/span>\nProzessor<\/h4>\n <\/p>\n
mit dem Powershell Befehl Get-NetAdapterVmq wird angezeigt, dass innerhalb der VMQ Funktion der Processor 0:0 f\u00fcr die Verarbeitung genutzt wird<\/p>\n<\/span>\nEs ist sinnvoll \u00a0„CPU 0“ f\u00fcr Systemressourcen frei zu lassen. Mit folgendem Befehl wird der mindest zu verwendende Kern definiert (Core 1 oder h\u00f6her)<\/p>\n
# change base processor\r\nSet-NetAdapterVmq -Name onboard1 -BaseProcessorNumber 1\r\nSet-NetAdapterVmq -Name onboard2 -BaseProcessorNumber 1\r\nSet-NetAdapterVmq -Name onboard3 -BaseProcessorNumber 1\r\nSet-NetAdapterVmq -Name onboard4 -BaseProcessorNumber 1<\/pre>\n <\/p>\n
<\/p>\n
<\/p>\n
<\/p>\n
<\/p>\n
<\/p>\n","protected":false},"excerpt":{"rendered":"
die Ausgangssituation ist ein Hyper-V Cluster, mit 2x 10Gbit im Backend f\u00fcr den iSCSI Traffic, und 4x 1Gbit im Frontend per Node. Das Fronend ist mit 4x 1Gbit an mehrere Switche in einem Stackverbund angebunden.\u00a0<\/p>\n","protected":false},"author":2,"featured_media":1792,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":[],"categories":[47,40],"tags":[127,135,136],"yoast_head":"\n
Hyper-V Converged Network - windows-infrastructure.de<\/title>\n \n \n \n \n \n \n \n \n \n \n \n \n\t \n\t \n \n\t \n