Aktionen

VMware:Trunking Etherchannel Link Aggregation mit ESX und ESXi

Aus znilwiki

Switche können untereinander mit mehr als einer Netzwerkverbindung verbunden werden,
man fasst z.B. 2 x 1 GBit Port zu einem Trunk zusammen so das die Switche nun mit 2 GBit verbunden sind.

Eine einzelne Verbindung kann zwar trotzdem nicht mehr als 1 GBit an Leistung herausholen, die Last wird aber über alle im Trunk vorhandenen Ports verteilt,
wenn also eine Leitung ausgelastet ist werden die Daten der anderen automatisch über die anderen Trunk-Ports geleitet.

Unter VMware ESX / ESXi können wir nun das Problem haben,
das wir einem VMNetwork z.B. 4 Netzwerkkarten zugeteilt haben ...
wenn wir uns aber den Datenverkehr anschauen sehen wir das er effektiv nur eine davon
tatsächlich benutzt.

In einem VMware View Pool hatten wir so ein Problem mit langen Antwortzeiten / Latenzen - obwohl die Bandbreite nicht einmal ansatzweise genutzt wurde.
Da ein ESX/ESXi Server auch einen Switch "simuliert" kann er natürlich auch mit den Trunks umgehen und so wird ein richtiger Switch die Last gleichmäßig verteilen.

Die Trunks haben viele Bezeichnungen, wenn ich hier im Text das Wort Trunk verwende steht es auch für:

  • Etherchannel
  • Link Aggregation

usw.


1 Einschränkungen

  1. . der Switch muss Trunking / Link Aggregation / Ether Channel beherrschen
  2. . Dafür muss ein eigener Virtueller Switch ( vswitch ) erstellt werden
  3. . alle Netzwerkarten an diesem vswitch müssen in einem einzigen Trunk / Ether-Channel/ Link-Aggregation sein!
  4. . Und somit müssen die Netzkarten ( vmnic ) auch alle an dem gleichen Switch hängen
  5. . Service Consolen / Mangement Schnittstellen / VMKernel-Schnittstellen funktionieren an diesem vswitch nicht mehr - das ist nur für die VM's gedacht.
  6. . Das ganze Funktioniert erst seit vSphere 4.x richtig wie es soll - in Vor-Versionen lasst die Fingr davon.



2 Am Switch

Ihr sucht euch die Ports aus am Switch und richtet diese als Trunk ein - mehr nicht.
Wie das am jeweiligen Switch geht ist je nach Modell verschieden - schaut also in der Anleitung dazu nach.


3 Am ESX/ESXi Server

Patcht die entsprechenden Netzwerkkarten-Schnittstellen auf den Switch.
Die NICs könne dabei bunt gemischt über alle möglichen Nezwerkkarten (interne, externe etc.) kommen.

Erstellt am ESX/ESXi Server ein neues Netzwerk für virtuelle Maschinen und wählt die NICs dafür aus:

Trunking-ESXi-001.png


Trunking-ESXi-002.png


Trunking-ESXi-003.png


Trunking-ESXi-004.png


Wenn es fertig ist sieht es in etwa so aus:

Trunking-ESXi-005.png


geht nun in die Eigenschaften und wählt den virtuellen Switch aus:

Trunking-ESXi-006.png

Trunking-ESXi-007.png

Und nun die Einstellungen für das Trunking:
Trunking-ESXi-008.png

Die Einstellungen müssen so und nicht anders sein in den ersten 3 Feldern.
Was bei Failback steht ist im Prinzip egal - wird in der Konfiguration eh nicht beachtet.

4 getestet mit

  • 3COM Switchen
  • Cisco Switchen
  • HP Hewlett-Packard Switchen




Quellen: http://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=1004048
und wie immer www.google.de

--Bernhard Linz 10:49, 29. Apr. 2013 (CEST)



Kommentar hinzufügen
znilwiki freut sich über alle Kommentare. Sofern du nicht anonym bleiben möchtest, trage deinen Namen oder deine Email-Adresse ein oder melde dich an. Du kannst das Feld auch einfach leer lassen.