项目3搭建iSCSI目标存储服务器 【项目说明】 无论是在传统架构中还是在虚拟化架构中,存储都是重要的设备之一。只有正确配置、使用存储,vSphere的高级特性(包括vSphere vMotion、vSphere DRS、vSphere HA等)才可以正常运行。在本任务中,我们将认识vSphere存储的基本概念,了解iSCSI SAN的基本概念,然后分别使用StarWind和Openfile搭建iSCSI目标存储服务器,添加用于iSCSI流量的VMkernel端口,配置ESXi主机使用iSCSI存储。本任务的实验拓扑如图3.0.1所示。 图3.0.1配置vSphere使用iSCSI存储 视频讲解 任务3.1理解iSCSI存储器 【任务说明】 目前服务器所使用的专业存储方案有DAS、NAS、SAN、iSCSI几种。存储根据服务器类型可以分为封闭系统的存储和开放系统的存储。 (1) 封闭系统主要指大型计算机。 (2) 开放系统指基于包括Windows、UNIX、Linux等操作系统的服务器; 开放系统的存储分为内置存储和外挂存储。 (3) 开放系统的外挂存储根据连接的方式分为直连式存储(DirectAttached Storage,DAS)和网络化存储(FabricAttached Storage,FAS)。 (4) 开放系统的网络化存储根据传输协议又分为网络附加存储(NetworkAttached Storage,NAS)和存储区域网(StorageArea Network,SAN)。由于目前绝大部分用户采用的是开放系统,其外挂存储占有目前磁盘存储市场的70%以上。 【任务分析】 本任务的主要目的是认识目前市场上常用的存储软硬件以及存储方式。 【相关知识】 1. 直接附加存储 直接附加存储(DirectAttached Storage,DAS)是指将存储设备通过SCSI直接连接到一台服务器上使用。DAS购置成本低,配置简单,其使用过程和使用本机硬盘并无太大差别,对于服务器的要求仅仅是一个外接的SCSI,因此对于小型企业很有吸引力。 DAS的不足之处如下。 (1) 服务器本身容易成为系统瓶颈。直连式存储与服务器主机之间的连接通道通常采用SCSI连接,带宽为10MB/s、20MB/s、40MB/s、80MB/s等。随着服务器CPU的处理能力越来越强,存储硬盘空间越来越大,阵列的硬盘数量越来越多,SCSI通道将会成为I/O瓶颈; 服务器主机SCSI ID资源有限,能够建立的SCSI通道连接有限。 (2) 服务器发生故障,数据不可访问。 (3) 对于存在多个服务器的系统来说,设备分散,不便于管理。同时多台服务器使用DAS时,存储空间不能在服务器之间动态分配,可能造成一定的资源浪费。 (4) 数据备份操作复杂。 2. 网络附加存储 网络附加存储(NetworkAttached Storage,NAS)实际上是一种带有瘦服务器的存储设备。这个瘦服务器实际上是一台网络文件服务器。NAS设备直接连接到TCP/IP网络上,网络服务器通过TCP/IP网络存取管理数据。NAS作为一种瘦服务器系统,易于安装和部署,管理使用也很方便。同时可以允许客户机不通过服务器直接在NAS中存取数据,因此对服务器来说可以减少系统开销。 NAS为异构平台使用统一存储系统提供了解决方案。由于NAS只需要在一个基本的磁盘阵列柜外增加一套瘦服务器系统,对硬件要求很低,软件成本也不高,甚至可以使用免费的Linux解决方案,成本只比直接附加存储略高。 NAS存在的主要问题如下。 (1) 由于存储数据通过普通数据网络传输,因此易受网络上其他流量的影响。当网络上有其他大数据流量时会严重影响系统性能。 (2) 由于存储数据通过普通数据网络传输,因此容易产生数据安全问题。 (3) 存储只能以文件方式访问,而不能像普通文件系统一样直接访问物理数据块,因此会在某些情况下严重影响系统效率,比如大型数据库就不能使用NAS。 3. 存储区域网 存储区域网(Storage Area Networks,SAN)实际上是一种专门为存储建立的独立于TCP/IP网络之外的专用网络。目前一般的SAN提供2~4Gb/s的传输速率,同时SAN独立于数据网络存在,因此存取速度很快。另外,SAN一般采用高端的RAID阵列,使SAN的性能在几种专业存储方案中独占鳌头。 由于SAN的基础是一个专用网络,因此扩展性很强,不管是在一个SAN系统中增加一定的存储空间还是增加几台使用存储空间的服务器都非常方便。通过SAN接口的磁带机,SAN系统可以方便高效地实现数据的集中备份。 SAN作为一种新兴的存储方式,是未来存储技术的发展方向,但是它也存在一些缺点。 (1) 价格昂贵。不论是SAN阵列柜还是SAN必需的光纤通道交换机价格都是十分昂贵的,就连服务器上使用的光通道卡的价格也是不容易被小型商业企业所接受的。 (2) 需要单独建立光纤网络,异地扩展比较困难。 4. iSCSI网络存储 使用专门的存储区域网(SAN)成本很高,而利用普通的数据网来传输iSCSI数据实现和SAN相似的功能可以大大降低成本,同时提高系统的灵活性。iSCSI就是这样一种技术,它利用普通的TCP/IP网来传输本来用存储区域网来传输的SCSI数据块。iSCSI的成本相对SAN来说要低不少。随着千兆网的普及,万兆网也逐渐地进入主流,使iSCSI的速度相对SAN来说并没有太大的劣势。 iSCSI目前存在的主要问题如下。 (1) 因为是新兴的技术,所以提供完整解决方案的厂商较少,对管理者技术要求高。 (2) 通过普通网卡存取iSCSI数据时,解码成SCSI需要CPU进行运算,增加了系统性能开销,如果采用专门的iSCSI网卡,虽然可以减少系统性能开销,但会大大增加成本。 (3) 使用数据网络进行存取,存取速度冗余受网络运行状况的影响。 5. NAS与SAN NAS用户通过TCP/IP访问数据,采用业界标准文件共享协议,如NFS、HTTP、CIFS实现共享。I/O是整个网络系统效率低下的瓶颈,如图3.1.1所示,最有效的解决办法就是将数据从通用的应用服务器中分离出来以简化存储管理。 由图3.1.1可知原来存在的问题: 每个新的应用服务器都要有它自己的存储器。这样造成数据处理复杂,随着应用服务器的不断增加,网络系统效率会急剧下降。有效的解决办法是把图3.1.1的存储结构优化成如图3.1.2所示的存储结构。 图3.1.1NAS的存储结构 图3.1.2SAN的存储结构 从图3.1.2可看出: 将存储器从应用服务器中分离出来,进行集中管理,这就是所说的存储网络(Storage Networks)。SAN通过专用光纤通道交换机访问数据,采用SCSI、FCAL接口。使用存储网络的好处体现在如下方面。 (1) 统一性。形散神不散,在逻辑上是完全一体的。 (2) 实现数据集中管理,因为它们才是企业真正的命脉。 (3) 容易扩充,即收缩性很强。 (4) 具有容错功能,整个网络无单点故障。 NAS是将目光集中在应用、用户和文件以及它们共享的数据上。 SAN是将目光集中在磁盘、磁带以及连接它们的可靠的基础结构上。 6. VMware vSphere支持的存储类型 VMware ESXi主机可以支持多种存储方法,包括: 本地SAS/SATA/SCSI存储; 光纤通道(Fibre Channel,FC); 使用软件和硬件发起者的iSCSI; 以太网光纤通道(FCoE); 网络文件系统(NFS)。 其中,本地SAS/SATA/SCSI存储也就是ESXi主机的内置硬盘,或通过SAS线缆连接的磁盘阵列,这些都叫作直连存储(DirectAttached Storage,DAS)。光纤通道、iSCSI、FCoE、NFS均为通过网络连接的共享存储,vSphere的许多高级特性都依赖于共享存储,如vSphere vMotion、vSphere DRS、vSphere HA等。各种存储类型对vSphere高级特性的支持情况如表3.1.1所示。 表3.1.1各种存储类型对vSphere高级特性的支持情况 存储类型 支持vMotion 支持DRS 支持HA 支持裸设备映射 光纤通道 √ √ √ √ iSCSI √ √ √ √ FCoE √ √ √ √ NFS √ √ √ × 直连存储 √ × × √ 要部署vSphere虚拟化系统,不能只使用直连存储,必须选择一种网络存储方式作为ESXi主机的共享存储。对于预算充足的大型企业,建议采用光纤通道存储,其最高速度可达16Gb/s。对于预算不是很充足的中小型企业,可以采用iSCSI存储。 7. vSphere数据存储 数据存储是一个可使用一个或多个物理设备磁盘空间的逻辑存储单元。数据存储可用于存储虚拟机文件、虚拟机模板和ISO镜像等。vSphere的数据存储类型包括VMFS、NFS和RDM共3种。 (1) VMFS(vSphere Virtual Machine File System,vSphere虚拟机文件系统)是一个适用于许多vSphere部署的通用配置方法,它类似于Windows的NTFS和Linux的EXT4。如果在虚拟化环境中使用了任何形式的块存储(如硬盘),就一定是在使用VMFS。VMFS创建了一个共享存储池,可供一个或多个虚拟机使用。VMFS的作用是简化存储环境。如果每一个虚拟机都直接访问自己的存储而不是将文件存储在共享卷中,那么虚拟环境会变得难以扩展。VMFS的最新版本是VMFS 5。 (2) NFS(Network File System,网络文件系统)允许一个系统在网络上共享目录和文件。通过使用NFS,用户和程序可以像访问本地文件一样访问远端系统上的文件。 (3) RDM(Raw Device Mappings,裸设备映射)可以让运行在ESXi主机上的虚拟机直接访问和使用存储设备,以增强虚拟机磁盘性能。 8. iSCSI数据封装 iSCSI(Internet Small Computer System Interface,Internet小型计算机系统接口)是通过TCP/IP网络传输SCSI指令的协议。iSCSI能够把SCSI指令和数据封装到TCP/IP数据包中,然后封装到以太网帧中。 9. iSCSI系统组成 如图3.1.3所示为一个iSCSI SAN的基本系统组成,下面将对iSCSI系统的各个组件进行说明。 图3.1.3iSCSI系统组成 (1) iSCSI发起者: iSCSI发起者是一个逻辑主机端设备,相当于iSCSI的客户端。iSCSI发起者可以是软件发起者(使用普通以太网卡)或硬件发起者(使用硬件HBA卡)。iSCSI发起者用一个iSCSI限定名称(IQN)来标志其身份。iSCSI发起者使用包含一个或多个IP地址的网络入口“登录到”iSCSI目标。 (2) iSCSI目标: iSCSI目标是一个逻辑目标端设备,相当于iSCSI的服务器端。iSCSI目标既可以使用硬件实现(如支持iSCSI的磁盘阵列),也可以使用软件实现(使用iSCSI目标服务器软件)。 iSCSI目标由一个iSCSI限定名称(IQN)标志其身份。iSCSI目标使用一个包含一个或多个IP地址的iSCSI网络入口。 常见的iSCSI目标服务器软件包括StarWind、Openfiler、OpenE、Linux iSCSI Target等,Windows Server 2016也内置了iSCSI目标服务器。 (3) iSCSI LUN: LUN的全称是Logical Unit Number,即逻辑单元号。iSCSI LUN是在一个iSCSI目标上运行的LUN,在主机层面上看,一个LUN就是一块可以使用的磁盘。一个iSCSI目标可以有一个或多个LUN。 (4) iSCSI网络入口: iSCSI网络入口是iSCSI发起者或iSCSI目标使用的一个或多个IP地址。 (5) 存储处理器: 存储处理器又称为阵列控制器,是磁盘阵列的大脑,主要用来实现数据的存储转发以及整个阵列的管理。 10. iSCSI寻址 如图3.1.4所示是iSCSI寻址的示意图,iSCSI发起者和iSCSI目标分别有一个IP地址和一个iSCSI限定名称。iSCSI限定名称(iSCSI Qualified Name,IQN)是iSCSI发起者、目标或LUN的唯一标识符。IQN的格式: “iqn”+“.”+“年月”+“.”“+”“颠倒的域名”+“:”+“设备的具体名称”,之所以颠倒域名是为了避免可能的冲突。例如: iqn.200808.com.vmware: esxi。 图3.1.4iSCSI寻址 iSCSI使用一种发现方法,使iSCSI发起者能够查询iSCSI目标的可用LUN。iSCSI支持两种目标发现方法: 静态和动态。静态发现为手工配置iSCSI目标和LUN。动态发现是由发起者向iSCSI目标发送一个iSCSI标准的Send Targets命令,对方会将所有可用目标和LUN报告给发起者。 11. iSCSI SAN 虽然光纤通道的性能一般要高于iSCSI,但是在很多时候,iSCSI SAN已经能够满足许多用户的需求,而且一个认真规划且支持 图3.1.5iSCSI SAN拓扑设计 扩展的iSCSI基础架构在大部分情况下都能达到中端光纤通道SAN的同等性能。一个良好的、可扩展的iSCSI SAN拓扑设计如图3.1.5所示,每个ESXi主机至少有两个VMkernel端口用于iSCSI连接,而每一个端口又物理连接到两台以太网交换机上。每台交换机到iSCSI阵列之间至少有两个连接(分别连接到不同的阵列控制器)。 至此,我们已经基本认识了当前的存储方式以及iSCSI存储,本任务结束。 视频讲解 任务3.2搭建StarWind iSCSI存储服务器 【任务说明】 StarWind iSCSI SAN&NAS 6.0是一个运行在Windows操作系统上的iSCSI目标服务器软件。StarWind既能安装在Windows Server服务器操作系统上,也能安装在Windows 7/8/10桌面操作系统上。如果在Windows Server 2003或Windows XP中安装StarWind,需要先安装iSCSI Initiator。Windows Server 2008、Windows 7/10或更高版本默认集成了iSCSI Initiator,直接安装StarWind即可。 【任务分析】 在这里,将把StarWind安装在本机(运行Windows 10操作系统),以节省资源占用。也可以创建一个Windows Server虚拟机,在虚拟机里安装StarWind。 存储网络应该是专用的内部网络,不与外部网络相连,因此在本项目的拓扑规划中,为iSCSI存储单独规划了一个网络。在实验环境中,使用VMware Workstation的VMnet3虚拟网络作为iSCSI存储网络。 【任务实施】 第1步: 添加虚拟网络 在VMware Workstation的主界面中打开“编辑”菜单中的“虚拟网络编辑器”,单击“添加网络”,添加虚拟网络VMnet3,如图3.2.1所示。 图3.2.1添加虚拟网络VMnet3 第2步: 修改虚拟网络VMnet3的网络地址 修改虚拟网络VMnet3的网络地址为192.168.2.0/255.255.255.0,单击“应用”按钮保存配置,如图3.2.2所示。 图3.2.2虚拟网络编辑器 第3步: 查看添加的虚拟网卡信息 在本机的网络适配器中,可以看到新添加的虚拟网卡VMware Network Adapter VMnet3,如图3.2.3所示。虚拟网卡VMware Network Adapter VMnet3的IP地址默认为192.168.2.1。 图3.2.3本机的网络适配器 第4步: 安装StarWind iSCSI SAN&NAS 6.0 运行StarWind 6.0的安装程序,开始安装StarWind iSCSI SAN&NAS 6.0,如图3.2.4所示。 使用Full installation,安装所有组件,如图3.2.5所示。 图3.2.4安装StarWind 图3.2.5选择所有组件 要使用StarWind,必须要有授权密钥。可以在StarWind的官方网站申请一个免费的密钥,然后选择Thank you,I do have a key already单选按钮,如图3.2.6所示。 浏览找到授权密钥文件,如图3.2.7所示。 图3.2.6选择已经拥有授权密钥 图3.2.7选择授权密钥文件 第5步: 打开StarWind软件,连接StarWind Server 安装完成后会自动打开StarWind Management Console,并连接到本机的StarWind Server,如图3.2.8所示。如果没有连接StarWind Server,可以选中计算机名,单击Connect按钮。 图3.2.8StarWind Management Console 选择StarWind Servers→本机计算机名→Configuration→Networks,可以看到StarWind已经绑定的IP地址,其中包括VMware Network Adapter VMnet3的IP地址192.168.2.1,如图3.2.9所示。 图3.2.9StarWind绑定的IP地址 第6步: 添加iSCSI目标 (1) 选择Targets后右击选择Add Target命令,如图3.2.10所示,添加iSCSI目标。 图3.2.10添加Target (2) 输入iSCSI目标的别名“ForESXi”,选中Allow multiple concurrent iSCSI connections(clustering)复选框,允许多个iSCSI发起者连接到这个iSCSI目标,如图3.2.11所示。 图3.2.11输入目标别名 (3) 确认创建iSCSI目标ForESXi,如图3.2.12所示。 图3.2.12确认创建iSCSI目标 已经创建了iSCSI目标,如图3.2.13所示。 图3.2.13创建好的iSCSI目标 第7步: 添加iSCSI设备 (1) 选择Devices→Add Device命令,添加iSCSI设备,如图3.2.14所示。 图3.2.14添加Device (2) 选择Virtual Hard Disk单选按钮,创建虚拟硬盘,如图3.2.15所示。 图3.2.15选择创建虚拟硬盘 (3) 选择Image File device单选按钮,使用一个磁盘文件作为虚拟硬盘,如图3.2.16所示。 图3.2.16选择Image File device (4) 选择Create new virtual disk单选按钮,创建一个新的虚拟硬盘,如图3.2.17所示。 图3.2.17创建新的虚拟硬盘 (5) 配置虚拟硬盘文件为D:\ForESXi.img,大小为100GB,可以选择是否压缩(Compressed)、加密(Encrypted)、清零虚拟磁盘文件(Fill with zeroes),如图3.2.18所示。注意,需要确认本机D盘的可用空间是否足够。 图3.2.18创建虚拟硬盘文件 (6) 选择刚创建的虚拟磁盘文件,默认使用Asynchronous mode异步模式,如图3.2.19所示。 图3.2.19使用虚拟硬盘文件 (7) 设置虚拟磁盘文件的缓存参数,一般不需要修改,如图3.2.20所示。 图3.2.20设置虚拟磁盘文件的缓存参数 (8) 选择Attach to the existing target,将虚拟硬盘关联到已存在的iSCSI目标。选中之前创建的iSCSI目标ForESXi,如图3.2.21所示。 图3.2.21将虚拟硬盘关联到iSCSI目标 确认创建虚拟硬盘设备,如图3.2.22所示。 图3.2.22确认创建虚拟硬盘设备 如图3.2.23所示,已经创建了虚拟硬盘设备,该设备关联到了之前创建的iSCSI目标。 图3.2.23已经创建了虚拟硬盘设备 第8步: 设置访问权限 StarWind默认允许所有iSCSI发起者的连接。为安全起见,在这里配置访问权限,只允许ESXi主机连接到此iSCSI目标。选择Targets菜单下的Access Rights选项卡,在空白处右击选择Add Rule命令,添加访问权限规则,如图3.2.24所示。 图3.2.24添加访问权限规则 输入规则名称为“AllowESXi”,在Source选项卡中单击Add→Add IP Address命令,如图3.2.25所示。 输入ESXi主机的IP地址192.168.2.88,选中Set to Allow复选框。如需要允许多个ESXi主机的连接,将每个ESXi主机的IP地址添加到Source列表即可,如图3.2.26所示。 图3.2.25输入规则名称 图3.2.26编辑规则AllowESXi1 切换到Destination选项卡,单击Add按钮,选择之前创建的iSCSI目标,如图3.2.27所示,然后单击OK按钮确认设置。 图3.2.27编辑规则Allow ESXi2 第9步: 修改默认策略 右击DefaultAccessPolicy,选择Modify Rule命令,取消选中Set to Allow复选框,如图3.2.28所示。 图3.2.28编辑规则Default Access Policy 然后单击OK按钮确认设置,可以查看编辑好的访问权限规则,注意默认规则的操作为Deny,如图3.2.29所示。 图3.2.29访问权限规则列表 至此,StarWind iSCSI目标服务器安装配置完成,本任务结束。 视频讲解 任务3.3搭建Openfiler存储服务器 【任务说明】 由于独立存储价格相对昂贵,免费的存储服务器软件有Free NAS和Openfiler。其中,Free NAS的网站上只有i386及AMD64的版本,也就是说,Free NAS不能支持64位版本的Intel CPU,而Openfiler则提供更全面的版本支持,在其网站上可以看到支持多网卡、多CPU,以及对硬件RAID的支持,还有对10Gb/s网卡的支持。因此,在本任务中采用的存储是Openfiler。Openfiler可以支持现在流行的网络存储技术IPSAN和NAS,支持iSCSI、NFS、SMB/CIFS及FTP等协议。提供LAN主机独立存储系统。从www.openfiler.com网站下载Openfiler 2.99的ISO文件,刻录成光盘或者直接使用ISO虚拟光盘文件。 【任务分析】 本任务是任务3.2的替代任务,主要介绍Openfiler的安装及搭建IPSAN和NAS环境。Openfiler能把标准x86/64架构的系统变成一个强大的NAS、SAN存储和IP存储网关,为管理员提供一个强大的管理平台,并能应付未来的存储需求。依赖如VMware、Virtual Iron和Xen服务器虚拟化技术,Openfiler也可部署为一个虚拟机实例。 Openfiler这种灵活高效的部署方式,确保存储管理员能够在一个或多个网络存储环境下使系统的性能和存储资源得到最佳的利用和分配。此外,与其他存储解决方案不同的是,Openfiler的管理是通过一个强大的、直观的基于Web的图形用户界面。 通过这个界面,管理员可以执行诸如创建卷、网络共享磁盘分配用户和组的配额和管理RAID阵列等各项工作。 作为一个纯软件的解决方案,Openfiler可以在几分钟内下载并安装在任何工业标准的硬件上。这是全新部署或重新启用老的硬件资源的完美解决方案。它可以用来建立已有部署SAN或DAS存储系统的存储网关。在这种情况下,Openfiler是创建共享现有存储容量的新途径。 【任务实施】 第1步: 新建虚拟机 新建虚拟机,客户机操作系统类型选择Linux,版本选择“其他Linux 2.6.x内核64位”(其他根据自己需要定义),如图3.3.1所示。 图3.3.1选择客户机操作系统类型 第2步: 安装Openfiler 选择从ISO镜像启动,从光驱引导后是典型的Linux安装界面,直接按Enter键进入图形化安装界面,如图3.3.2所示。 图3.3.2Openfiler安装界面 直接按Enter键后单击Next按钮,然后选择默认键盘,单击Next按钮。 进入磁盘分区页面,此处可以看到一个100GB的磁盘,此次规划是用较小的磁盘安装Openfiler,剩余空间用来给ESXi Server使用(Linux系统的安装并不局限于一块物理磁盘,这里只是根据个人需要做一个简单规划)。安装Openfiler推荐分区方法和常规的Linux分区方法是一样的,此处只创建了一个引导(/boot)分区、一个根(/)分区、一个交换(swap)分区,其余空间保持Free状态,否则在Openfiler中可能无法分配。具体分配如图3.3.3所示。 图3.3.3Openfiler磁盘分区规划 配置网络属性,设置hostname和IP地址,建议设为固定IP,因为Openfiler安装完成之后没有图形界面,所有的配置都通过Web方式完成,没有固定的IP会给以后的配置造成不必要的麻烦,单击Eidt按钮,填写IP地址为192.168.2.2/24,默认网关为192.168.2.1,DNS为8.8.8.8,然后确认,如图3.3.4所示。 图3.3.4配置IP地址页面 接下来的时区选择Asia/Shanghai,然后设置root用户的密码后开始正式安装,安装过程大约几分钟,具体时间取决于硬件,安装完成后单击Reboot按钮,重新引导系统,整个安装过程就此结束。重新引导后的界面如图3.3.5所示。 图3.3.5Openfiler安装成功重启后界面 第3步: 登录Openfiler 如图3.3.6所示,打开IE浏览器,输入“https://192.168.2.2:446”,使用默认的用户名密码进行登录: 用户名为openfiler,密码为password,如图3.3.6所示。 图3.3.6Openfiler登录界面 单击Log In按钮登录系统。 第4步: 配置IP地址以及允许访问iSCSI的IP地址段 单击System菜单,检查一下IP等设置情况(也可以单击Configure对IP地址进行配置),如图3.3.7所示。 图3.3.7IP地址配置界面 在System页面下方配置允许访问iSCSI的IP地址。本例填入“192.168.2.0/255.255.255.0”网段,类型选择Share,添加完成后单击 Update按钮,如图3.3.8所示。 图3.3.8配置允许访问iSCSI的IP地址界面 第5步: 添加物理磁盘 关闭Openfiler系统,依次单击“编辑虚拟机设置”→“添加”,选中“硬盘”,添加3块20GB的硬盘,如图3.3.9所示。 图3.3.9添加3块硬盘 第6步: 对磁盘进行操作 开机重新登录Openfiler系统,单击Volumes菜单,选择右侧的Block Devices,会显示系统所挂载的硬盘,如图3.3.10所示。 图3.3.10系统所挂载的硬盘1 单击其中的 “/dev/sdb”,进入磁盘编辑界面,可以看到已经分配磁盘分区信息。创建一个新的分区,在 Partition Type处选择RAID array member,输入Ending cylinder值(此处默认,所有剩余空间划为一个分区),单击 Create按钮,如图3.3.11所示。 图3.3.11创建分区界面 然后再依次单击Block Devices中的“/dev/sdc”和“/dev/sdd”,对几个硬盘都创建和“/dev/sdb”一样的分区,再次单击Block Devices看到Partitions从“0”变成了“1”,如图3.3.12所示。 图3.3.12系统所挂载的硬盘2 第7步: 创建RAID5磁盘阵列 单击右侧的Software RAID按钮,在Select RAID array type下选择将要创建的RAID阵列类型为RAID5(parity),选中三块磁盘,然后单击Add array按钮创建RAID5磁盘阵列,如图3.3.13所示。 图3.3.13创建RAID5磁盘阵列 第8步: 创建卷组 单击右侧的Volume Groups,填写Volume group name(此处为iscsivg),选中刚创建的RAID5设备/dev/md0,单击Add volume group,创建卷组,如图3.3.14所示。 图3.3.14创建卷组界面 第9步: 创建逻辑卷 单击右侧的Add Volume,创建iSCSI逻辑卷LUN,填写Volume Name,输入Volume大小,在Filesystem/Volume type下拉菜单中选择block(iSCSI,FC,etc)。然后单击Create按钮,在这个卷组所包含的空间上创建一个真正的会挂接到Initiator客户端的逻辑卷,如图3.3.15所示。有读者反映创建失败,原因是Volume Name中出现了点(.)或下画线(_)等非法字符。 图3.3.15创建逻辑卷(LV)界面 至此,iSCSI磁盘创建完毕。单击左侧的Manage Volumes按钮,可以查看刚才创建的逻辑卷LUN,在创建逻辑卷LUN的时候可以选择所需要的大小,而不是选择整个卷组,Openfiler对磁盘的灵活性体现出来了,一个卷组可以划分多个逻辑卷LUN,卷组本身又可以来自多个物理磁盘。 第10步: 开启iSCSI Target Server服务 单击上方的Service标签,将iSCSI Target 的Boot Status设置为Enabled,Current Status设置为Running,如图3.3.16所示。 图3.3.16开启iSCSI Target Server服务 第11步: 添加iSCSI Target 单击Volumes标签,然后单击右侧的iSCSI Targets,再单击Add按钮,添加一个iSCSI Target,如图3.3.17所示。 图3.3.17添加一个iSCSI Target 第12步: 关联Target 单击导航栏下方的LUN Mapping,可以看到之前划出来可用于挂载的逻辑卷LUN,将这个逻辑卷Map至该Target。保持默认选项,单击Map按钮即可,如图3.3.18所示。 图3.3.18关联Target 第13步: 设置Network ACL 单击Network ACL,可以设置允许访问或拒绝访问的网段,在Access下选择Allow,将192.168.2.0/255.255.255.0允许所在网段的主机访问,然后单击Update按钮,如图3.3.19所示,大功告成。 图3.3.19设置Network ACL 单击CHAP Authentication,添加可以访问此Target的用户(可选)。 Block Device——物理的磁盘。 PhysicalVolume——物理磁盘的分区,是组成Volume Group的单元。 Volume Group——由一个或多个物理磁盘分区(Physical Volume)组成,是组成Logical Volume的单元。 RAI DArray Member——用作RAID的一块单独“硬盘”。 至此,Openfiler存储服务器安装配置完成,本任务结束。 视频讲解 任务3.4挂载iSCSI网络存储器到ESXi主机 【任务说明】 在任务3.2和任务3.3中,分别搭建了StarWind iSCSI目标服务器以及Openfiler存储服务器。搭建好的存储服务器等待应用服务器的连接,在此任务中,使用任务3.2中的StarWind iSCSI目标服务器作为存储服务器,配置ESXi主机的连接。 【任务实施】 第1步: 配置ESXi主机的虚拟网络 (1) 关闭ESXi主机,为ESXi主机添加一张网络连接到VMnet3模式的网卡,用于与存储服务器的连接通信,如图3.4.1所示。 图3.4.1ESXi主机配置 (2) 开启ESXi主机并使用vSphere Host Client进行连接,选中ESXi主机左侧“网络”菜单项,切换到“物理网卡”选项卡,可以看到ESXi主机识别出了两块网卡vmnic0、vmnic1,如图3.4.2所示。 图3.4.2ESXi主机物理网卡 (3) 添加标准交换机,选中ESXi主机的“网络”菜单项,切换到“虚拟交换机”选项卡,单击“添加标准交换机”按钮,如图3.4.3所示,在vSwitch名称处填写新添加的标准交换机名称为“iSCSI”,意为连接存储之用,上行链路选择“vmnic1启动”,其他默认,然后单击“添加”按钮,完成标准交换机的添加。 图3.4.3添加标准交换机 (4) 添加端口组,切换到“端口组”选项卡,单击“添加端口组”按钮,如图3.4.4所示,在名称处填写新添加的端口组名称为“iSCSI存储”,意为连接存储之用,虚拟交换机选择iSCSI,其他默认,然后单击“添加”按钮,完成端口组的添加。 图3.4.4添加端口组 (5) 添加端VMkernel网卡,切换到“VMkernel网卡”选项卡,单击“添加VMkernel网卡”按钮,如图3.4.5所示,在端口组的下拉菜单处选择“iSCSI存储”端口组,IPv4设置选择“静态”单选按钮,填写其IP地址为“192.168.2.88”,子网掩码为“255.255.255.0”,与任务3.2节配置的存储IP地址对应,TCP/IP堆栈选择“默认TCP/IP堆栈”,服务勾选“管理”复选框即可。然后单击“创建”按钮,完成VMkernel网卡的添加。 图3.4.5添加端VMkernel网卡 (6) 查看“iSCSI存储”端口组,如图3.4.6所示为配置完成后的存储虚拟网络。 图3.4.6存储虚拟网络 从图3.4.6中可以看到,存储网络(iSCSI)关联标准交换机vSwitch,上联端口为ESXi主机物理网卡vmnic1; 管理网络、虚拟机网络、iSCSI存储网络实现了物理隔离。 在实际环境中,ESXi主机的两块网卡可以连接第二台交换机,实现物理隔离; 也可以连接到一台交换机的不同VLAN,实现逻辑隔离。 第2步: 配置ESXi主机的iSCSI适配器 (1) 选择“存储”菜单,切换到“适配器”选项卡,单击“软件iSCSI”按钮,如图3.4.7所示,在网络端口绑定后单击“添加端口绑定”,选择vmk1端口组,单击“添加动态目标”,在地址栏中输入iSCSI存储器的IP地址“192.168.2.1”,然后单击“保存配置”按钮完成iSCSI适配器的添加。 图3.4.7添加软件iSCSI适配器 (2) 如图3.4.8所示,已经将vmk1端口iSCSI绑定到iSCSI软件适配器。 图3.4.8查看iSCSI适配器 第3步: 为ESXi主机添加iSCSI存储 (1) 选择“存储”菜单,切换到“数据存储”选项卡,单击“新建数据”按钮,如图3.4.9所示,单击“下一页”按钮。 图3.4.9新建存储 (2) 选择设备,输入数据存储名称为“iSCSIStarwind”,然后选中下方的可用于创建新的 VMFS 数据存储,如图3.4.10所示,单击“下一页”按钮。 图3.4.10选择iSCSI目标设备 (3) 选择要对设备进行分区的方式,使用全部磁盘,文件系统版本为VMFS 6,如图3.4.11所示,单击“下一页”按钮。 图3.4.11选择分区选项 (4) 完成新建数据存储,因为iSCSI硬盘是空白的,所以将会创建新分区,如图3.4.12所示,单击“完成”按钮。 图3.4.12完成新建数据存储 (5) 确认警告信息,如图3.4.13所示,单击“是”按钮。 图3.4.13确认警告信息 (6) 确认警告信息后,开始创建VMFS数据存储。已经添加好的iSCSI存储如图3.4.14所示。 图3.4.14已经添加好的iSCSI存储 第4步: 使用iSCSI共享存储 使用iSCSI共享存储的方法与使用ESXi本地存储的方法相同。以下为创建新虚拟机时,选择使用iSCSI存储的过程。 (1) 新建虚拟机Windows 10,如图3.4.15所示。 图3.4.15新建虚拟机 (2) 选择名称和客户机操作系统。 输入虚拟机的名称,在这里将在虚拟机中安装Windows 10操作系统,兼容性选择“ESXi 7.0 U1虚拟机”,客户机操作系统系列选择Windows,客户机操作系统版本选择“Microsoft Windows 10(64位)”,如图3.4.16所示。 图3.4.16选择名称和客户机操作系统 (3) 在选择目标存储时,指定将虚拟机保存在iSCSIStarwind存储中,如图3.4.17所示。 图3.4.17选择目标存储 (4) 设置虚拟磁盘的大小,指定置备方式为“精简置备”,如图3.4.18所示。 图3.4.18设置虚拟磁盘的大小和置备方式 (5) 如图3.4.19所示为iSCSI存储中新创建的虚拟机文件。 图3.4.19iSCSI存储中的文件 将虚拟机文件保存在iSCSI存储上后,虚拟机的硬盘就不在ESXi主机上保存了。这样,虚拟机的CPU、内存等硬件资源在ESXi主机上运行,而虚拟机的硬盘则保存在网络存储上,实现了计算、存储资源的分离。接下来的项目中所涉及的vSphere vMotion、vSphere DRS、vSphere HA和vSphere FT等高级特性都需要网络共享存储才能实现。 至此,StarWind的iSCSI网络存储已经挂载到ESXi主机,此任务结束。