警告

NOTICE: THIS DOCUMENTATION SITE HAS BEEN SUPERSEDED.

For the current documentation site goto: http://docs.cloudstack.apache.org

Host VMware vSphere Installation

如果计划使用VMware vSphere平台运行虚拟机,请在云中安装vSphere主机。

vSphere主机的系统要求

软件要求:

  • vSphere and vCenter, versions 4.1, 5.0, 5.1 or 5.5.

    建议使用vSphere标准版。但是VMware用户需要考虑vSphere授权对CPU的限制。请参考 http://www.vmware.com/files/pdf/vsphere_pricing.pdf 并与销售代表讨论。

    建议使用vCenter标准版。

  • 请确保安装了hypervisor供应商发布的所有补丁程序。随时关注供应商支持信息,一旦发布补丁就立即安装。CloudStack不会跟踪或提醒你安装这些补丁。安装最新的补丁程序对主机至关重要。hypervisor供应商可能不会对过期的系统提供技术支持。

警告

安装一切必要的补丁程序。缺乏最新补丁程序可能会导致数据和虚拟机丢失。

硬件要求:

  • 主机必须通过vSphere的兼容性认证。请查看VMware硬件兼容性指南 http://www.vmware.com/resources/compatibility/search.php.
  • 所有主机必须为64位架构并且支持HVM(启用Intel-VT或AMD-V)。
  • 同一群集中的所有节点必须为同一架构。CPU型号、数量和功能参数必须相同。
  • 64位x86 CPU(多核性能更佳)
  • 硬件虚拟化支持
  • 4GB 内存
  • 36GB本地磁盘空间
  • 至少一块网卡
  • 静态分配的IP

vCenter服务器的系统要求:

  • 处理器 - 2颗2.0GHz的Intel或AMD x86 CPUs, 或更高的处理器。如果数据库跟VC在同一台服务器中,可能会需要更高的处理器。
  • 内存 - 3GB。如果数据库跟VC在同一台服务器中,可能会需要更多内存。
  • 磁盘空间 - 2GB。如果数据库跟VC在同一台服务器中,可能会需要更多的磁盘空间。
  • Microsoft SQL Server 2005 Express磁盘要求。最多需要 2 GB 的可用磁盘空间解压安装文件。
  • 网络 - 1Gbit或者10Gbit。

更多信息,请参考 “vCenter Server 和 vSphere Client 硬件要求”

其他要求:

  • VMware vCenter Standard Edition 4.1, 5.0, 5.1 or 5.5 must be installed and available to manage the vSphere hosts.
  • 必须配置vCenter使用443端口与CloudStack管理服务器通讯。
  • 如果你计划利用之前安装的主机,那么必须重新安装VMware ESXi。
  • CloudStack requires VMware vSphere 4.1, 5.0, 5.1 or 5.5. VMware vSphere 4.0 is not supported.
  • 所有主机必须为64位架构并且支持HVM(启用Intel-VT或AMD-V)。同一群集中的所有节点必须为同一架构。CPU型号、数量和功能参数必须相同。
  • CloudStack 管理网络不能使用独立的虚拟网络。CloudStack使用vCenter的管理网络,并继承vCenter管理网络的配置。 可参考 配置vCenter管理网络.
  • CloudStack requires ESXi and vCenter. ESX is not supported.
  • Ideally all resources used for CloudStack must be used for CloudStack only. CloudStack should not share instance of ESXi or storage with other management consoles. Do not share the same storage volumes that will be used by CloudStack with a different set of ESXi servers that are not managed by CloudStack.
  • Put all target ESXi hypervisors in dedicated clusters in a separate Datacenter in vCenter.
  • Ideally clusters that will be managed by CloudStack should not contain any other VMs. Do not run the management server or vCenter on the cluster that is designated for CloudStack use. Create a separate cluster for use of CloudStack and make sure that they are no VMs in this cluster.
  • All of the required VLANs must be trunked into all network switches that are connected to the ESXi hypervisor hosts. These would include the VLANs for Management, Storage, vMotion, and guest VLANs. The guest VLAN (used in Advanced Networking; see Network Setup) is a contiguous range of VLANs that will be managed by CloudStack.

VMware的准备工作清单

为了能顺利地安装,在安装之前请收集以下信息:

vCenter检查清单

你需要关于vCenter的下列信息:

vCenter要求 备注
vCenter用户 用户必须拥有管理员权限。
vCenter用户的密码 上述用户的密码。
vCenter数据库名称 数据中心名称
vCenter群集名称 群集名称

VMware网络清单

You will need the following information about your VLANs.

VLAN信息 备注
ESXi VLAN 全部ESXi hypervisors主机所在的VLAN。
ESXi VLAN IP地址 ESXi VLAN的IP地址范围。每个虚拟路由器使用该范围内的一个IP。
ESXi VLAN网关IP  
ESXi VLAN子网掩码  
管理服务器VLAN CloudStack管理服务器所在的VLAN。
公共网络VLAN 公共网络的VLAN
公共网络VLAN的网关  
公共网络VLAN的子网掩码  
公共VLAN IP地址范围 CloudStack使用的公共网络IP范围。CloudStack中的虚拟路由器使用这些地址,用于路由专用流量至外部网络。
客户使用的VLAN范围 连续的不可路由的VLAN范围。每个用户会分配一个VLAN。

vSphere安装步骤

  1. 如果你还没用准备好安装介质,请在VMware网站下载和购买(https://www.vmware.com/tryvmware/index.php?p=vmware-vsphere&lp=1)并按照VMware vSphere安装指南安装。

  2. 安装过程中,执行下面几个章节描述的以下配置:

    要求 可选项
    ESXi主机安装 网卡绑定
    配置主机的物理网络,虚拟交换机,vCenter管理网络和扩展的端口范围 存储多路径
    准备iSCSI存储  
    在vCenter中配置集群并添加主机,或不使用集群,直接在vCenter中添加主机。  

ESXi主机配置

All ESXi hosts should have CPU hardware virtualization support enabled in the BIOS. Please note hardware virtualization support is not enabled by default on most servers.

物理主机网络

您应该准备一个vSphere主机连接的规划。将主机添加至CloudStack之前,需要合理地配置网络。要配置ESXi主机,可以先用vClient将它作为独立主机添加到vCenter。当您在vCenter的导航树中看到该主机时,点击它,选择配置页。

vspherephysicalnetwork.png: vSphere client

在主机的配置标签页中,点击”硬件/网络”链接转到上图中的网络配置页。

配置虚拟交换机

During the initial installation of an ESXi host a default virtual switch vSwitch0 is created. You may need to create additional vSwiches depending on your required architecture. CloudStack requires all ESXi hosts in the cloud to use consistently named virtual switches. If you change the default virtual switch name, you will need to configure one or more CloudStack configuration variables as well.

流量隔离

CloudStack allows you to configure three separate networks per ESXi host. CloudStack identifies these networks by the name of the vSwitch they are connected to. The networks for configuration are public (for traffic to/from the public internet), guest (for guest-guest traffic), and private (for management and usually storage traffic). You can use the default virtual switch for all three, or create one or two other vSwitches for those traffic types.

如果您想以这样的方式隔离流量,首先应按照vCenter的指南在vCenter中创建并配置虚拟交换机。请记录每种网络使用的虚拟交换机名称。您需要配置CloudStack使用这些虚拟交换机。

增加端口

ESXi主机的虚拟交换机默认有56个端口。我们建议设为最大允许数4088。要设置该值,请点击虚拟交换机的“属性…”链接(注意,不是网络的属性)。

vsphereincreaseports.png: vSphere client

在vSwitch属性对话框中,选择vSwitch,点击“编辑”,您将看到以下对话框:

vspherevswitchproperties.png: vSphere client

在该对话框中,您可以修改端口数量。修改完后,为使配置生效,需要重启ESXi主机。

配置vCenter管理网络

在vSwith属性对话框中,您可以看到一个vCenter管理网络。CloudStack的管理网络也使用该网络。CloudStack要求正确配置vCenter的管理网络。在对话框中点击管理网络,然后点击编辑。

vspheremgtnetwork.png: vSphere client

请确保配置以下设置:

  • VLAN ID设置为期望的ID
  • 启用vMotion。
  • 启用管理流量。

如果ESXi主机具有多个VMKernel端口,并且ESXi没有使用默认的“Management Network”作为管理网络名称,您必须按照以下指南配置管理网络端口组,以便CloudStack可以发现管理网络。

  • 在所有ESXi主机上使用同一个管理网络端口组名称。
  • 在CloudStack管理界面中,点击配置-全局设置,修改vmware.management.portgroup为ESXi主机管理网络的标签。

为CloudStack控制台代理扩展端口范围

(仅适用于VMware vSphere 4.x)

为使控制台代理可以和主机一起工作,您需要扩展主机的防火墙端口范围。这是为了使控制台代理可以访问VMware的VM。为扩展端口范围,请登录到每台主机的VMware ESX服务控制台,然后执行以下命令:

esxcfg-firewall -o 59000-60000,tcp,in,vncextras
esxcfg-firewall -o 59000-60000,tcp,out,vncextras

配置vSphere的网卡绑定

vSphere主机的网卡绑定可以按照vSphere安装指南完成。

配置vSphere群集使用Nexus 1000v虚拟交换机

CloudStack支持在VMware vSphere环境中使用Cisco Nexus 1000v dvSwitch (分布式虚拟交换机)。本章节能帮助你配置vSphere群集使用Nexus 1000v虚拟交换机。关于创建vSphere群集的更多信息,请参考 “VMware vSphere安装和配置”

关于Cisco Nexus 1000v分布式虚拟交换机

Cisco Nexus 1000V虚拟交换机是一个内置软件程序的虚拟机。它能跨越多个运行VMware ESXi 4.0或更高版本的主机部署。Nexus虚拟交换机包括两个组件:Virtual Supervisor Module (VSM)和 Virtual Ethernet Module (VEM)。VSM是一个管理交换机的虚拟设备。它单独控制多个VEM。VSM安装在每台VMware ESXi服务器当中提供包转发功能。它为每个虚拟机提供单独的交换机接口。VSM-VEM架构与物理交换机的管理机制(单独或者高可用模式)和多线卡架构类似。

Nexus 1000v交换机使用vEthernet端口配置文件为虚拟机提供简单的网络。它有两种类型的端口配置文件:Ethernet端口配置文件和vEthernet端口配置文件。Ethernet端口配置文件应用到物理上联端口-ESXi服务器上面的物理网卡的端口。vEthernet端口配置文件关联到ESXi服务器上运行的虚拟机的虚拟网卡。端口配置文件可以帮助网络管理员快速的为其他虚机定义同样的网络策略。VSM创建的Ethernet端口策略在vCenter服务器上显示为端口组。

先决条件和指南

本章节探讨了在CloudStack中使用Nexus虚拟交换机的先决条件与指南。在配置Nexus虚拟交换机之前,请确保你的系统符合下列条件:

  • 在vCenter中配置ESXi(ESXi 4.1或更高)群集。
  • CloudStack只能管理存在当前vCenter数据中心管理之下的每一个群集。
  • Cisco Nexus 1000v虚拟交换机安装在vCenter数据中心所包含的群集主机。这将确保CloudStack不必处理跨现存虚拟交换机之间的虚拟网卡或网络的动态迁移。如何安装Nexus 1000v VSM和VEM 模块,请参考 Cisco Nexus 1000V Installation and Upgrade Guide
  • Nexus 1000v VSM不能部署在由CloudStack管理的vSphere主机上。
  • 当每个VSM实例的VEM模块达到最大数量时,需要在添加额外的VSM实例之前引入更多的ESXi主机。每个VSM实例的VEM模块数量限制为64个。
  • CloudStack期望ESXi主机的管理网络被配置在标准的vSwitch之上并且在标准的vSwitch中搜索该网络。因此,确保在配置期间不要把管理网络迁移到Nexus 1000v上。
  • 所有信息在ref:`nexus-vswift-preconf`中:

Nexus 1000v虚拟交换机预配置

准备工作清单

要顺利配置 Nexus 1000v交换机,请在开始之前收集下列信息:

  • vCenter凭证
  • Nexus 1000v VSM IP地址
  • Nexus 1000v VSM 凭证
  • 以太网端口配置文件名称

vCenter凭证清单

需要vCenter以下信息:

Nexus vSwitch要求 备注
vCenter IP   vCenter IP地址
HTTPS端口号 443 默认配置使用443端口;如果需要,可以更改为其他端口。
vCenter用户ID   拥有管理员权限的vCenter用户。在CloudStack中配置虚拟交换时需要提供vCenter用户ID。
vCenter 密码   上述vCenter用户的密码。在CloudStack中配置虚拟交换机时需要提供vCenter用户密码。

网络配置清单

打开CloudStack管理界面,请在Nexus dvSwitchde 详情标签页中的Nexus 配置网络界面指定下列信息:

Control Port Group VLAN ID The VLAN ID of the Control Port Group. The control VLAN is used for communication between the VSM and the VEMs.

Management Port Group VLAN ID The VLAN ID of the Management Port Group. The management VLAN corresponds to the mgmt0 interface that is used to establish and maintain the connection between the VSM and VMware vCenter Server.

Packet Port Group VLAN ID The VLAN ID of the Packet Port Group. The packet VLAN forwards relevant data packets from the VEMs to the VSM.

注解

用于控制,数据和管理端口组可以在同一VLAN。

更多信息,请参考 Cisco Nexus 1000V 入门指南.

VSM配置清单

你需要下列的VSM配置参数:

Admin Name and Password The admin name and password to connect to the VSM appliance. You must specify these credentials while configuring Nexus virtual switch.

Management IP Address This is the IP address of the VSM appliance. This is the IP address you specify in the virtual switch IP Address field while configuting Nexus virtual switch.

SSL Should be set to Enable.Always enable SSL. SSH is usually enabled by default during the VSM installation. However, check whether the SSH connection to the VSM is working, without which CloudStack failes to connect to the VSM.

创建端口配置文件

  • 无论创建简单或者高级区域,确保你总是在安装完VSM之后,创建区域之前,创建一个VSM的Ethernet配置文件。
    • 创建Ethernet端口配置文件用于表示物理网络或高级区域配置中trunk所有的VLANs网络,VLANs包括来宾网VLANs,本征VLAN以及VSM的数据/控制/管理VLANs。
    • 为基础区域配置的Ethernet端口配置文件不会trunk来宾VLANs,因为在基础区域中,来宾VMs无法通过它们的网络接口获得所属的VLANs。
  • 在Nexus 1000v虚拟交换机上配置的以太网端口配置文件,不应该使用在它的VLANS系统设置中,或者使用在其他任何VLANS配置以及打算使用在CloudStack环境中的虚拟机或者虚拟机资源的配置。
  • 你无须创建任何vEthernet端口配置文件-CloudStack会在VM部署期间创建。
  • 请确保你为每种CloudStack流量类型创建了所需的端口配置文件,如管理流量,来宾流量,存储流量和公共流量。在区域创建期间配置的物理网络跟Ethernet应该是一一对应的关系。

vmwarenexusportprofile.png: vSphere client

关于创建端口配置文件的更多信息,请参考 Cisco Nexus 1000V 端口配置指南

分配物理网络适配器

分配ESXi主机上的对应每个物理网络的网卡适配器到端口配置文件。在vCenter群集中的每个ESXi主机上,观察分配到每个端口配置文件的物理网络并记下配置文件的名字。在创建zone期间,当你配置物理网络的时候,这个映射信息能帮助你。这些Ethernet端口配置文件的名字就是随后你在配置zone的时候,配置物理网络时所要输入的不同流量对应的VMware流量标签。配置物理网络所需的更多信息,请参考 “Configuring a vSphere Cluster with Nexus 1000v Virtual Switch”

添加VLAN范围

决定CloudStack所使用的公共VLAN,系统VLAN和来宾VLAN。确保你添加他们到端口配置文件数据库。对应每个物理网络,为端口配置文件添加VLAN范围。在VSM命令提示符下,运行 switchport trunk allowed vlan<range>命令为端口配置文件添加VLAN范围。

例如:

switchport trunk allowed vlan 1,140-147,196-203

在这个示例下,添加的VLANs是1,140-147和196-203

你同样在该交换机中添加所有的公共和管理VLANs或VLAN范围。这个范围是你在区域中指定的VLAN范围。

注解

在你运行vlan命令之前,确保Nexus 1000v虚拟交换机中启用了配置模式。

例如:

如果你想在交换机中使用VLAN 200,运行下面的命令:

vlan 200

如果你想在交换机中使用VLAN范围1350-1750,请运行下面的命令:

vlan 1350-1750

参考特定产品版本的Cisco Nexus 1000V 命令参考。

在CloudStack中启用Nexus虚拟交换机。

为了使CloudStack启用部署Nexus,你必须在CloudStack UI中全局设置页面设置vmware.use.nexus.vswitch参数为true。只有这个参数设置为 “true”并且重启了管理服务器,你才可以看见Nexus虚拟交换机的相关页面,CloudStack在AddTrafficTypeCmd, UpdateTrafficTypeCmd和 AddClusterCmd API的调用中会忽略Nexus虚拟交换机的指定参数。

除非CloudStack全局配置中的”vmware.use.nexus.vswitch”设置为”true”,否则CloudStack会默认使用VMware标准vSwitch。在本版本中,CloudStack不支持在标准vSwitch和Nexus 1000v虚拟交换机的混合环境中配置虚拟网络。只能支持单一的标准vSwitch或Nexus 1000v虚拟交换机部署。

在CloudStack中配置Nexus 1000v虚拟交换机

可以在创建区域时,通过添加必要的资源用于配置Nexus dvSwitch。

vmwarenexusaddcluster.png: vmware nexus add cluster

区域创建完成后,如果你想在区域中创建其他同样使用Nexus 1000v虚拟交换机的群集时,使用添加群集选项。关于创建群集的更多信息,请参见 “添加群集: vSphere”

在所有的情况下,配置Nexus虚拟交换机时必须指定下列参数:

参数 描述
群集名称 输入在vCenter中创建的群集名称。比如,”cloud.cluster”。
vCenter 主机 输入已经部署了Nexus虚拟交换机的vCenter主机名或IP。
vCenter用户名 输入CloudStack连接到vCenter所使用的用户名。这个用户必须拥有所有管理员权限。
vCenter 密码 输入上面用户的密码。
vCenter数据中心 输入群集所属的vCenter数据中心名称。比如, “cloud.dc.VM”。
Nexus dvSwitch IP 地址 Nexus 1000v虚拟交换机VSM组件的IP地址。
Nexus dvSwitch 用户名 连接至VSM appliance的admin名称。
Nexus dvSwitch 密码 上面指定的admin用户所对应的密码。

移除Nexus虚拟交换机

  1. 在使用了Nexus虚拟交换机的vCenter数据中心中,确认你在对应的群集中删除了所有的主机。

  2. 使用管理员登录到CloudStack管理界面。

  3. 在左侧导航栏中,选择基础架构。

  4. 在基础架构页面,点击群集中的查看所有。

  5. 选择你想要移除虚拟交换机的群集。

  6. 在dvSwitch标签页中,点击虚拟交换机的名字。

  7. 在详细页面中,点击删除Nexus dvSwitch的图标。 DeleteButton.png: button to delete dvSwitch

    在确认对话框中点击确定。

配置VMware数据中心使用VMware分布式虚拟交换机

CloudStack支持在VMware vSphere环境中为虚拟网络配置VMware vNetwork分布式交换机(VDS)。本章节能帮助你在CloudStack中配置VMware VDS。每个vCenter服务器实例最多支持128 VDS实例,每个VDS实例最多可以管理500台VMware服务器。

关于VMware分布式虚拟交换机

在VMware vCenter服务器中的VMware VDS聚合主机层面虚拟交换机 。各个主机层面的虚拟交换机被抽象处理成一个在数据中心层面上横跨多个主机的大型 VDS,通过一个集中的接口,使用集中配置、管理、监控你的整个数据中心。实际上,VDS可以看作是数据中心层面中一个整体的虚拟交换机,通过VMware vCenter服务器管理数据中心中大量的主机网络。在虚拟机跨多个主机移动时保持其网络运行时状态,支持嵌入式监控和集中式防火墙服务。VDS能与标准虚拟交换机和 Nexus 1000V虚拟交换机一起部署或者独立部署。

先决条件和指南

  • VMware VDS只支持CloudStack中的公共和来宾流量。
  • VMware VDS不支持每种流量类型使用多个VDS。如果一个用户有多个VDS交换机,那么来宾网络和公共网络只能各使用一个VDS。
  • 在同一个zone中可以为每个群集添加任何类型的交换机。当在群集中添加不同类型的交换机时,流量标签会被群集级别的覆盖。
  • 管理和存储网络不支持使用VDS。因此在这些网络中使用标准交换机。
  • 当你移除来宾网络时,对应vCenter中的dv端口组不会被移除。你必须手动在vCenter中删除。

准备工作清单

为了顺利的配置VMware VDS,在开始之前,请牢记添加到数据中心中的VDS名称:

vds-name.png: Name of the dvSwitch as specified in the vCenter.

如下需要使用VDS名称:

  • 在创建zone的过程中配置公共网络和来宾网络时,在编辑流量标签对话框中配置交换机名称。

    在创建zone的过程中配置来宾网络和公共网络流量类型时,请确保你选择了VMware vNetwork Distributed Virtual Switch。

    traffic-type.png

  • 当添加一个启用了VDS的VMware群集时,则显示公共网络流量vSwitch类型区域。

  • 当在zone中更新交换机类型时,流量标签所使用的交换机名称。

在最后一种情况下流量标签格式是[[“Name of vSwitch/dvSwitch/EthernetPortProfile”][,”VLAN ID”[,”vSwitch Type”]]]

流量标签可以使用如下值:

  • 空字符串
  • dvSwitch0
  • dvSwitch0,200
  • dvSwitch1,300,vmwaredvs
  • myEthernetPortProfile,,nexusdvs
  • dvSwitch0,,vmwaredvs

填写如下区域:

  • vCenter中 虚拟/分布式 虚拟交换机的名称。

    默认值取决于虚拟交换机的类型:

    vSwitch0:如果虚拟交换机的类型是VMware vNetwork标准虚拟交换机。

    dvSwitch0:如果虚拟交换机类型为VMware vNetwork分布式虚拟交换机

    epp0:如果虚拟交换机类型为Cisco Nexus 1000v分布式虚拟交换机

  • 任何适用于这个流量的 VLAN ID

    此时,该区域仅用于公共网络流量。来宾网络区域会被忽略并且留空。默认为空字符即假设特定流量类型不填加VLAN标签。

  • 虚拟交换机类型。指定字符串。

    合理且有效的值为vmwaredvs, vmwaresvs, nexusdvs。

    vmwaresvs:表示VMware vNetwork 标准虚拟交换机

    vmwaredvs:表示VMware vNetwork分布式虚拟交换机

    nexusdvs:代表Cisco Nexus 1000v分布式虚拟交换机。

    如果什么都没指定(留空),基于全局参数指定的值,区域层面默认使用虚拟交换机。

    以下为全局配置参数:

    vmware.use.dvswitch:设置为true则是在CloudStack部署时启用任意种类(VMware DVS和Cisco Nexus 1000v) 分布式交换机。如果设置为false,则CloudStack部署时使用的的虚拟交换机是标准虚拟交换机。

    vmware.use.nexus.vswitch:如果vmware.use.dvswitch设置为false,则忽略该参数。设置为true则是部署CloudStack时启用Cisco Nexus 1000v分布式交换机。

在CloudStack中启用分布式虚拟交换机

在部署CloudStack时启用VDS,请在CloudStack管理界面中的全局设置页面中设置vmware.use.dvswitch parameter为true并重启管理服务器。只有启用了vmware.use.dvswitch参数,你才能在管理界面中指定VDS,并且CloudStack会忽略你指定的VDS-specific参数。另外,如果vmware.use.dvswitch参数的值为true且vmware.use.nexus.dvswitch参数的值为false,那么CloudStack中虚拟网络架构使用VDS。另外一个定义VDS配置的全局参数是vmware.ports.per.dvportgroup。它表示在VMware环境里每个VMware dvPortGroup中默认端口数量。默认是256。这个数值直接关系到你创建的来宾网络的数量。

CloudStack支持混合部署分布式虚拟交换机、标准虚拟交换机和Nexus 1000v虚拟交换机的虚拟网络。

在CloudStack中配置分布式虚拟交换机

在创建区域时需要添加必要的资源才能配置VDS。

另外在群集层面,使用添加群集选项,可以在已经存在并启用VDS的区域中创建附加群集。更多信息请参阅 “添加群集: vSphere”.

在所有情况下,配置VDS时必须指定下列参数:

dvSwitchConfig.png: Configuring dvSwitch

参数描述  
群集名称 输入在vCenter中创建的群集名称。比如,”cloudcluster”。
vCenter 主机 输入已经部署VMware VDS的vCenter主机名称或者IP地址。
vCenter用户名 输入CloudStack连接到vCenter所使用的用户名。这个用户必须拥有所有管理员权限。
vCenter 密码 输入上面用户的密码。
vCenter数据中心 输入群集所属的vCenter数据中心名称。比如,”clouddcVM”。
替代公共流量 启用该选项时,整个区域中群集的公共流量将被替代。
公共流量虚拟交换机类型 在启用替代公共流量时该选项才会显示。选择VMware vNetwork Distributed Virtual Switch。如果全局设置中vmware.use.dvswitch参数为true,则默认选项为VMware vNetwork Distributed Virtual Switch。
公共流量虚拟交换机名称 用于公共流量的虚拟交换机名称。
替代来宾流量 启用该选项时,整个区域中群集的来宾流量将被替代。
来宾流量虚拟交换机类型 在启用替代来宾流量时该选项才会显示。选择VMware vNetwork Distributed Virtual Switch。如果全局设置中vmware.use.dvswitch参数为true,则默认选项为VMware vNetwork Distributed Virtual Switch。
来宾流量虚拟交换机名称 用于宾流量的虚拟交换机名称。

vSphere的存储准备(仅限iSCSI)

使用iSCSI需要在vCenter中做一些准备工作。您必须添加iSCSI目标并创建iSCSI数据存储。

如果使用NFS,请跳过本章节。

ESXi主机中启用iSCSI启动器

  1. 在vCenter中,点击主机/集群的配置,点击存储适配器。您将看到:

    vmwareiscsiinitiator.png: iscsi initiator

  2. 选择iSCSI软件适配器并点击属性。

    vmwareiscsiinitiatorproperties.png: iscsi initiator properties

  3. 点击配置…按钮。

    vmwareiscsigeneral.png: iscsi general

  4. 勾选启用以便启用启动器。

  5. 点击 确定 保存。

添加iSCSI目标

在属性对话框中,添加iSCSI目标信息:

vmwareiscsitargetadd.png: iscsi target add

在集群中所有ESXi主机上重复以上步骤。

创建iSCSI数据存储

现在您应该创建一个VMFS数据存储。请按照以下步骤:

  1. 选择主页/清单/数据存储。
  2. 右键点击数据中心节点。
  3. 选择添加数据存储…命令。
  4. 按照向导创建iSCSI数据存储。

该过程只需要在集群中的一台主机上执行,不需要在所有主机上执行。

vmwareiscsidatastore.png: iscsi datastore

vSphere多路径(可选)

vSphere的存储多路径可以根据vSphere的安装文档配置。

添加主机或配置集群(vSphere)

使用vCenter创建集群,向其中添加期望的主机。随后您可以将整个集群加入到Cloudstack中。(参考 “添加群集: vSphere”)。

为VMware vSphere主机安装补丁程序

  1. 在CloudStack中断开与VMware vSphere 群集的连接。应断开足够长的时间以便在主机上安装补丁程序。

    1. 使用admin账户登录CloudStack管理界面。

      请参考 “登录用户界面”

    2. 导航至VMware群集,点击操作-取消管理。

    3. 查看群集状态直到显示未受管理。

  2. 在集群中每个ESXi主机上执行以下操作:

    1. 将集群中每个ESXi都置为维护模式。
    2. 确保所有的VM已经迁移到群集中的其他主机。
    3. 如果群集中只有一台主机,关闭所有VMs再将主机置为维护模式。
    4. 在ESXi主机中应用补丁。
    5. 如果提示重启,请重启主机。
    6. 在主机上取消维护模式。
  3. 重新连接该集群到CloudStack:

    1. 使用admin账户登录CloudStack管理界面。

    2. 导航到VMware群集,点击操作-管理。

    3. 查看状态以确保所有的主机都恢复正常。所有主机都恢复正常可能需要几分钟时间。

      或者,确认主机状态在数据库中得到正确同步和更新。