IP-SAN存储系统四篇

2024-07-26

IP-SAN存储系统 篇1

在校园网建设与改造中,海量数据的存取要求自控机房数据中心具有更高的数据吞吐量、更快的I/O传输速率和很高的安全性能。传统的以各自业务子系统服务器为中心的分散式存储系统在管理方式、容量和扩展性以及数据保护方面都已很难支持数据中心急速增长的信息服务需求,而主机服务器和存储设备的分离是当今计算机存储发展的一大趋势。选择合理的存储体系结构,实现校园信息资源的有效融合和共享已至关重要,基于IP的存储区域网络(Storage Area Network简称SAN)逐渐成为校园管理数据中心的发展方向[1]。

1 校园网络数据存储特点

为了能够更好的发挥校园网数据中心数据管理的作用,为校园用户提供高速、安全的数据信息服务以及海量的存储服务,有必要对于校园网络存储进行需求分析[2]。校园网数据中心作为校园信息化建设中的一个重要组成部分。以现代网络技术为平台,为图书管理、教学科研、后勤保障等工作提供全方位的数据支持。其主要具有以下特点:

1.1 应用系统多,管理难度大

校园网信息化建设,需要集成了学生选课、图书借阅、科研管理、人事管理等多个业务子系统,为了满足不同职能部门业务需求和差异化服务。不同的应用系统需要搭建在相互独立的业务服务器上,并且对操作系统也有不同的要求。因此,在数据中心中往往存在多种异构操作系统和大量的应用服务器,这对日常的管理和维护提出了更高的要求,管理工作量多、难度大。

1.2 数据类型多,存储需求复杂

数据中心为用户提供丰富的后勤保障和科研管理信息。比如:监控录像、师生管理、图书馆、一卡通与金融消费系统等,这些信息已不仅仅局限于以文本形式来传播,更多的是以文本、图形、图像、音视频等不同形式来展现。在数据中心应用中,存在着多种多样的数据类型,并且不同数据类型的保存周期不同,如图像监控录像要求至少半年,一卡通消费数据保持一年,图书借阅信息基本永久保存等。这些数据在实际应用中具有I/O请求频繁、响应要求快、系统可靠性要求高等特点.因此在应用上对数据存储容量、数据传输速度等方面有较高的要求。

1.3 系统用户多、访问量大

应用于校园正常业务开展的数据中心,需要同时为学校各单位、各部门服务,每天都有大量的用户访问数据中心的信息资源,这对数据中心的存储系统是一个严峻的考验:一方面,频繁的数据访问要求存储系统要有较快的响应速度和存取速度;另一方面,需要有足够的带宽保证大容量的数据流能够稳定的传输。综上可知,存储系统的性能和构架都是影响数据中心良好运行的重要因素。

2 校园网络数据存储要求

校园网络建设由于集成应用系统多、数据类型复杂、用户多的特点,决定了建设过程中,在数据中心络存储系统需要满足一些基本要求:

2.1 提供集中存储的平台

传统的校园信息网建设中分散独立存储存在两点不足:首先,对数据存储的管理必须通过对单独的服务器来进行,造成存储管理上的复杂性增大,牵扯学校管理精力;其次,不易实现校园数据存储空间的共享,无法充分利用已有的存储空间,造成资源的浪费。这些不足对于校园信息化系统建设集成特性显得更加突出,而集中的数据存储为所有业务应用系统提供统一的存储服务,既简化了存储的管理,又实现了存储空间的共享。

2.2 提供海量的存储空间

存储容量的大小是校园信息网存储设计的重点。对于校园信息网建设,数据的存储容量和周期明显提升,如图像监控录像、各类监控、能源管理、安防、一卡通等数据总容量超过几个TB,并且每天的数据量更新也多达几百个GB容量。以视频为代表的非结构化数据在校园信息网系统中使用的比重逐渐增加,大容量的非结构化数据极大的提高了数据中心对于海量存储的需求,海量存储空间、灵活的扩展方式都以成为数据中心存储系统的必要组成[2]。

2.3 具备快速的数据共享和高速交换能力

数据中心用户众多,I/O请求特别是结构化数据的请求频繁,要求存储系统必须有快速的响应速度,因此,存储系统高性能的I/O处理能力、充足的内部带宽是数据中心存储系统高效运行的保障。

2.4 实现了数据的快速备份

数据备份对于大型存储设备来说是非常必要的,由于重要的数据都在存储设备中,数据丢失会造成不可估量的损失。所以在数据库的应用中,数据备份是非常必要的日常维护工作。

3 基于IP-SAN架构存储系统的技术实现

IP-SAN是一项将利用IP网络将存储设备、连接设备和接口集成从而形成一个高速网络存储的技术。SAN一般以光纤通道技术为基础,由服务器、存储设备(磁盘阵列、磁带机等)、交换机(或集线器)及光纤通道连接而成,可以把一个或多个系统连接到存储设备和子系统[3]。校园网络的应用特点和不断发展的存储需求,IP-SAN存储区域网络技术是校园系统存储解决方案的理想选择。

3.1 IP-SAN存储系统架构

存储系统基本架构分为三层,底层为存储池,由多套磁盘阵列组成,每套磁盘阵列含1台主控机和多个磁盘扩展柜;中间层为数据链路层,由万兆通道交换机负责存储网络的联通,为主机和存储设备之间提供了Gigabitls的高速互联,数据读写层由(I/O层)服务器对磁盘阵列进行读写操作和应用服务,由于存储系统是基于万兆的传输链路,所以需在每台数据库服务上加装万兆网卡来实现服务器与存储系统传输速率统一[4]。

整个存储网络的互联结构如图1所示。

3.2 网络存储系统可靠性设计

系统可靠性是衡量校园网建设的重要指标,也是关乎建设成败的关键,为了提高可靠性,本文提出双服务器集群系统,其设计如下:

核心服务器系统采用两台机架式服务器构成的群集系统,通过数据库集群技术执行并行处理,主存储设备采用磁盘阵列,为多主机应用和集群服务器环境提供良好的性能和数据有效性,使用户可以在容量、性能和功能等方面作调整以适应各种应用需求,如高速持续读写的视频系统和多I/O操作的数据库系统和OLTP等,能够使存储系统的性能、扩展性和可用性达到最大化。

存储系统中主要的组成部分当属硬盘,当前IP-SAN系统应用中主流的硬盘类型可分为S-ATA、SAS两类。前者的优点是价格便宜、容量大,缺点是I/O速度稍低,常用于流媒体应用的存储。而SAS硬盘在速度、并行访问等方面均具有很高的性能,是当前高性能数据存储及检索系统的主流选择,常用于数据库应用、一级存储等应用[5]。根据此次校园网建设设计需求不同,可以灵活选用。但是对于大型的校园网信息管理系统数据平台主要用于数据库服务系统,存放的是大量结构化数据,对存储设备的I/O要求很高,所以数据载体建议使用SAS硬盘。

(1)双控制器设计。对于磁盘阵列主控器,主控器内部为双控制器结构,即内部为两套处理背板,通常工作状态下,2个控制器工作在负载均衡模式下,当其中1个控制器故障下,该控制器的数据业务会由另外一个控制器在线接管,完全具备在线热冗余功能。

(2)双磁盘阵列链路设计。控制器与挂载的磁盘柜均具备2个传输引擎,物理连接采用环形双光纤线路的方式保证线路的可靠,此种连接方式下,任意一条链路或任意一个传输引擎发生故障的情况下都不会造成服务中断。

(3)双传输链路设计。交换机作为存储网络传输链路的核心设备,需保证足够的链路可靠性,采用成熟的双链路结构是一个稳妥的选择,其结构是采用2台存储交换机组成双网结构,保证从上层应用服务器到底层存储磁盘阵列的物理链路上均为双线路,具有单条线路失效的冗余可靠性,每台交换机通过运行RVVP协议完成设备的故障切换。

4 总结

在校园信息网建设具有异构系统、多应用、多用户的环境下,网络存储系统的方案设计重点主要围绕集成化、高可靠、可扩展的存储服务器体系,包括功能强大的存储交换机、先进的存储设备、功能完备的数据存储管理软件,整合校园所有的存储资源,进行虚拟化和集中化管理,能够提供丰富的网络和平台连接功能,以解决数据共享和迁移问题,满足今后校园网络持续发展所面对的数据安全、可靠存储及有效利用的挑战和需要。

参考文献

[1]刘婷.基于网络的存储技术研究综述[J].计算机与数字工程,2011.

[2]陈慧.校园网数据存储及容错系统的应用与研究[J].科技信息(学术研究),2007(08).

[3]张建中,陈松乔.一种基于SAN架构的存储网络系统的设计与实现[J].中南大学学报(自然科学版)2008(2).

[4]蔡皖东.基于SAN的高可用性网络存储解决方案[J].小型微型计算机系统,2010(3):284-287.

IP-SAN存储系统 篇2

该A200产品补充了希捷ClusterStor横向扩展存储系统产品线。A200能够使用户在保持在线快速检索的同时,不间断地从性能优化的主存储层中迁移指定数据。在共享HPC环境中,企业往往被迫要在使用所有可用数据做最佳分析和从磁带检索数据所需的时间之间做出选择,而A200解决了这一常见难题。通常,通过迁移数据和释放空间就可以实现数据的有效布局,提升主存储器的性能。预置ClusterStor A200解决方案包括一个自动策略驱动分层存储管理系统(HSM)和超高的横向扩展能力。

希捷高性能计算系统业务副总裁兼总经理Ken Claffey 表示:“A200是我们高性能ClusterStorLustre和IBM Spectrum Scale工程系统的有效补充。它不但能够平衡性能,还提供用于针对最小资本支出和运营成本的优化系统,适用于动态归档应用。许多关键的HPC系统需要重读并分析已经归档的有价值的数据,但是我们客户却希望这些大量的归档能够形成可以即时在线的大规模数据集。ClusterStor A200是一个特制的解决方案,能够帮助客户在HPC环境中实现存储分层和点对点的工作流程。”

ClusterStor A200针对满足客户最苛刻的HPC需求而设计,包括天气、生命科学、石油和天然气、金融服务、制药及地理空间情报等领域。

ClusterStor A200的机架由多达7块可扩展的存储单元组成,而且还可以轻松添加存储单元和机架到存储池和高可用性ClusterStor管理单元。A200系统也包括一个全面的管理系统,配有独立、易用的管理界面,采用第三代ClusterStor擦除码,提供无与伦比的数据和灾难保护以及极高的耐用性。全新优化的基于网络的擦除码可以使用整个系统的资源,从而快速重建失效的驱动器,提升可用性,同时使交付到客户应用的可用存储最大化。为进一步提升A200系统的耐用性,ClusterStor擦除码配备了独特的机制优先排序最重要的重建数据,从而显著提升系统恢复的时间,实现数据保护最大化。

天网云存储系统建设方案 篇3

1.1 存储需求概述

XX天网二期需要建设XX个高清监控点位,随着城市防控体系系统规模越来越大,以及高清视频的大规模应用,对系统中需要存储的数据和应用的复杂程度在不断提高,且视频数据需要长时间持续地保存到存储系统中,并要求随时可以调用,对存储系统的可靠性和性能等方面都提出了新的要求。

面对数百TB甚至上PB级的海量视频存储需求,传统的SAN或NAS在容量和性能的扩展上会存在瓶颈。而云存储可以突破这些性能瓶颈,而且可以实现性能与容量的线性扩展,这对于本项目存储系统来说是一个新选择。

视频云存储通过软件运用集群技术、虚拟化技术、分布式存储技术将网络中的存储设备集合起来协同工作,共同对外提供数据存储和业务访问功能。为满足本次高清点位视频存储的需求,同时符合行业发展趋势,满足业务使用需求,本次XX天网二期拟建设云存储系统进行录像存储和业务访问接口。 大容量存储需求

随着各地城市视频监控系统建设的深入,摄像头数量日益增多。前端建设普遍采用1080P高清摄像机。依据平安城市的建设要求,高清图像存储30天,那么一万路视频的总存储容量需要大致为十几个PB。 集中存储需求

对于城市级系统数十PB的存储需求,若采用通用IPSAN存储方案,则需上千台IPSAN,难以实现高效、统一的存储与设备管理,无法高效支撑公安视频实战应用。

 高IO性能需求

基于视频大数据的智能实战应用对大量视频的快速收集与分析有非常高的要求,而传统IPSAN存储方式由于IO性能低,无法满足视频大数据应用的存储与应用要求。

1.2 存储系统基本要求

在设计XX天网视频监控系统存储系统时,依据以下设计要求:

(1)监控点的录像过程将对网络交换设备产生很大的压力,核心交换机应能负担如此大的交换压力,需考虑网络故障以后录像数据的缓存功能以及网络恢复以后的补录功能。

(2)能集中管理所有存储资源并统一调度,统一部署存储策略。与存储资源物理位置无关,只要IP网可达,便可实现对存储资源随时随地检索和回放。(3)保障存储系统数据的安全性,对访问权限进行集中管理与分配。(4)存储空间统一管理、统一分配,可实现无缝在线扩容。(5)存储系统具有冗余备份的能力,提供持续稳定的性能。(6)存储系统提供标准的运维接口,维护简单方便。

(8)存储系统具备高可靠性,出现设备故障后,存储业务不中断。本项目在XX分局建设分布式视频云存储中心,每个存储中心依据接入到该区的视频前端的数量实际情况,规划建设分布式云存储系统。

1.3 云存储拓扑示意图

UCS的存储节点通过Uni-FS分布式文件系统,将多台存储节点上的物理资

源形成一个统一的大存储池对外提供数据存储空间,并提供数据保护功能。 云存储提供标准的CIFS/NFS/FTP/HTTP等文件传输访问协议;  通过流媒体服务器过存储服务器实现照片流,视频流的转存;  提供标准访问接口,兼容性好;

 利用云存储提供的纠删码、复制卷等多种基础数据可靠性,解决视频数据冗余问题,当存储节点、磁盘故障保证业务不中断,数据不丢失。

1.4 云存储架构

下图为分布式云视频存储解决方案总体架构图。

图:分布式云视频存储解决方案总体架构图

本次项目所采用的分布式云存储方案主要包含三大模块,分别为:业务服务层,数据处理层以及物理硬盘层。

业务服务层作为云存储系统的对外管理GUI界面和业务功能服务层,实现云存储相关的功能,如负载均衡、故障自动切换、认证管理、配额管理等,并可基

于标准协议ISCSI/NFS/CIFS/FTP、POSIX接口等提供对外的业务连接接口;

数据处理层作为云存储系统所有存储节点之上的分布式文件系统,它将各物理存储设备节点组成一个集群,对外提供文件存取和数据保护等功能。完成内部文件系统的管理,完成各存储节点间的通信和任务调度、任务监测等。完成存储节点和设备的虚拟化。它采用无元数据设计的全对称分布式架构,支持3~300个存储节点的弹性无缝扩展,可提供PB级单一存储空间。

物理磁盘层为云存储系统的基本组成单元,对外提供数据存储空间,包含实际的存储节点及其所插入的硬盘等。

本次项目新建的摄像机通过运营商提供的网络直达区分局机房,各分局对应的摄像机视频存储在各分局建设的分布式视频存储中心中,其中XX分局的视频资源就近接入XX分局分布式视频存储中心,XX分局视频资源就近接入到XX分局分布式视频存储中心。

1.5 云存储功能特性

1.5.1 无元数据设计

元数据就是记录数据逻辑与物理位置的映像关系,以及诸如属性和访问权限等信息。传统分布式文件系统一般采用集中式元数据服务或分布式元数据服务来维护元数据。

集中式元数据服务会导致单点故障和性能瓶颈问题,一般情况采用双机主备方式来解决单点故障问题但无法解决性能瓶颈问题,因此此类分布式文件系统的扩展性相对来说较差;而分布式元数据服务存在增加算法的复杂度,在性能负载和元数据同步一致性上存在问题,特别是对于海量文件的应用,元数据问题是个非常大的挑战。

本次宇视UCS云存储系统采用无元数据服务的设计,取而代之使用算法来定位文件。集群中的所有存储系统管理单元都可以智能地对文件数据分片进行定位,仅仅根据文件名和路径并运用算法即可,而不需要查询索引或者其他服务器。这使得数据访问完全并行化,从而实现线性性能扩展。

1.5.2 弹性算法

本次设计的UCS云存储系统,不需要将元数据与数据进行分离,集群中的任何存储节点和客户端只需根据路径和文件名通过弹性HASH算法就可以对数据进行定位和读写访问,且文件定位可独立并行化进行。

1.5.3 全局统一命名空间

分布式文件系统最大的特点之一就是提供全局统一的命名空间。全局统一命名空间就是将多个存储服务器的磁盘和内存资源聚集成一个单一的虚拟存储池,对上层用户和应用屏蔽了底层的物理硬件。存储资源可以根据需要在虚拟存储池中进行弹性扩展。全局统一命名空间可以让不同的用户通过单一挂载点进行数据共享,I/O可在命名空间内的所有存储设备上自动进行负载均衡。

本次项目采用的宇视UCS云存储系统是基于文件系统提供统一命名空间,在同一个、云存储系统中可以同时有多个文件系统的卷(物理资源池,由多个存储设备的资源组成),不同的卷创建的文件系统有不同的命名空间。云存储系统同时也是基于文件系统的卷提供共享文件目录,因此不同用户可通过访问这个单一的共享文件目录,实现IO在这个文件系统命名空间内的所有存储设备上自动负载均衡。

1.5.4 纠删码数据保护

本次项目宇视UCS云存储系统的数据保护采用数据N+M纠删码保护模式,通过N+M纠删码实现M个节点冗余,资源利用率为N/(N+M)

云存储支持基于文件系统级别(卷级别)的N+M纠删码,对文件采用原数据+冗余数据的保护模式,N为文件原始数据分片份数,M为冗余数据分片份数。在N+M卷模式下,最多可允许M个节点故障,数据仍可被正常访问,并自动恢复。如下以4+2为例介绍 :

文件写入,文件被分为多个固定大小的数据块,而1个数据块被分为N个数据分片,通过N+M纠删码算法得到M个冗余分片,存入N+M个存储节点,如下图;在没有存储节点故障时,文件直接从数据分片中读取。

当M个节点故障时,文件读取恢复:可通过其他节点数据算出数据,如下图:

1.5.5 弹性扩展

本次项目UCS云存储系统采用无元数据设计,通过弹性HASH算法定位文件访问的架构,决定了云存储系统获得了接近线性的高扩展性。

UCS云存储系统支持从横向和纵向的扩展模式,实现在容量、性能和带宽三方面的线性扩展。

横向扩展:通过增加存储节点,实现系统容量、性能和带宽的扩展。存储节点最大可扩展至300个。

纵向扩展:在单节点的硬件性能范围内,通过增加磁盘扩展柜和磁盘实现系统容量和性能的扩展。

1.5.6 负载均衡与故障切换

本次采用的UCS云存储系统提供前端虚拟IP地址池,为节点分配动态IP地址,客户端根据域名访问云存储系统,采用轮询的方式为客户端(流媒体服务器等)返回不同的IP地址,实现业务在不同节点上进行读写访问,从而达到业务负载均衡的目的。

客户端访问云存储系统如图示:

① 客户端使用域名访问云存储系统,发送域名解析请求到DNS服务器;

② DNS服务器轮询返回云存储系统前端虚拟IP池中的IP给客户端; ③ 客户端使用DNS返回的IP访问云存储中相应的节点。

故障切换功能是当节点宕机之后,可以将该节点上的动态IP地址漂移到其他节点上,由其他节点继续提供服务,保持业务的连续性,待故障存储节点恢复之后,重新为该节点分配动态IP地址,继续提供服务。

1.5.7 访问协议

本次采用的UCS云存储系统支持NFS、CIFS、FTP、HTTP、iSCSI协议访问。

NFS主要应用于流媒体服务器为Linux的操作系统;CIFS主要应用于流媒

体服务器为windows的操作系统,实现视频文件和照片文件的存储与访问。

FTP是TCP/IP网络上两台计算机传送文件的协议,FTP客户机可以给服务器发出命令来下载文件,上传文件,创建或改变服务器上的目录,支持间接使用远程计算机,使用户不因各类主机文件存储器系统的差异而受影响; 可靠且有效的传输数据。

HTTP协议(HyperText Transfer Protocol,超文本转移协议)是用于从WWW服务器传输超文本到本地浏览器的传送协议。

1.5.8 认证方式

UCS云存储系统支持本地认证和外部域认证,域认证支持外部AD域服务器认证,外部LDAP域服务器认证和外部NIS域服务器认证。

1.5.9 系统管理

管理同时支持图形界面和命令行方式。管理员可以通过Master浮动IP地址访问统一的网管界面,完成对集群系统的监控、配置、资源分配、性能统计和告警浏览等操作。

支持Email,SNMP Trap,短信,蜂鸣器,指示灯,数码管等多种告警方式。

当卷处于挂载状态时(工作状态),对共享文件夹设置系统用户的配额,可以限制该系统用户在共享文件夹下的最大写入数据大小。一个用户可以在多个共享文件夹下拥有不同配额,一个共享文件夹下也可以有多个不同配额的用户。

配额的设置又分为硬配额和软配额的配置,先介绍下硬配额和软配额的定义:  硬配额:一旦设置了硬配额大小,当用户数据达到配额大小时用户无法再写入新的数据,系统可根据设定发送配额通知邮件给用户。 软配额:一旦设置了软配额大小,当用户数据达到配额大小时系统可根据设定发送通知邮件给用户,但用户仍可以在容许时间内写入新的数据,如果未配置硬配额,则可以写入数据直到达到可用卷资源的大小;如果设置了硬配额,则可以写入到硬配额的大小。

1.6 存储系统配置及设备性能要求

分布式视频存储节点配置如下:

存储系统为无单独元数据节点的对称分布式存储设备,采用横向扩展架构,最少支持200个存储节点,全Active并行模式,节点地位均等、数据均衡分布,支持无单独元数据管理节点的对称分布式架构,简化云存储管理,消除性能瓶颈。

支持负载均衡与故障保护,配置负载均衡功能;业务自动在各节点间负载均衡,当任意节点故障时,故障节点上的业务能自动切到其他节点,并实现自动负载均衡;

支持多副本及跨节点冗余校验技术:可提供全局数据灵活多级别冗余设置保护,支持纠删码、多副本、RAID2.0等保护技术;节点间可通过N+M纠删码技术和复制技术实现数据保护;

提供统一的命名空间;支持多种认证方式;支持配额管理和权限管理; 支持POSIX、iSCSI、NFS、CIFS、FTP、HTTP、REST等标准访问协议,兼容HDFS API,支持Hadoop应用;

存储单节点性能配置:

1)双核处理器, 不少于8GB缓存,可扩容至32 GB;4个千兆以太网数据接口,配置万兆网卡;支持硬盘前面板热插拔便于后续安装和维护;支持网口聚合、负载均衡;支持多个网口设置同一IP地址实现数据链路冗余,其中一条链路失效不影响数据存储;

2)4U高度/24盘位;支持扩展柜,最大可接9级扩展柜,支持最大接入240个硬盘;

3)RAID功能:支持RAID 5、0、1、10、6、50等RAID级别,支持基于磁盘块做RAID;RAID阵列可即建即用;当RAID出现故障失效时,RAID中的录像可进行回放;

4)在RAID中磁盘发生故障时,空白磁盘可自动转换为热备盘以替换故障硬盘并重建RAID;

5)局部重建功能:当RAID中的磁盘拔掉之后短时间内再插上,该磁盘能恢复到原有RAID中,RAID阵列恢复正常;

6)支持磁盘漫游,磁盘更换槽位后可在图形界面上显示新的磁盘槽位,不影响RAID使用;

7)磁盘休眠:支持对不使用的磁盘休眠;

8)冗余功能:支持电源、风扇、电池的冗余及热插拔; 9)支持异构虚拟化功能;支持NAS的本地备份、远程备份功能;

10)双bios功能:支持主bios及备bios,主bios故障时可从备bios启动; 11)支持磁盘顺序加电;支持异常掉电来电后业务自动恢复;

12)降级、重建功能:RAID中磁盘发生故障,RAID处于降级、重建状态,不影

响数据写入;

13)数据保险功能:电池保护缓存下刷功能,掉电后存储数码管有显示缓存数据下刷的进度,重启后数据无丢失;

14)支持硬件和环境监控功能,可对设备电压、环境温度、网络接口及CPU使用率等状态信息进行实时查看;支持SNMP设备管理协议,实现SNMP报警;

1.7 存储连接网络设计

存储系统采用业务端口和管理计算端口相互分离的网络结构。任何一台存储都通过网线/光纤连接到2台不同的交换机上,实现链路备份和负载均衡。

存储前端采用千兆业务接口和业务交换机相连,实现对服务器转发过来的码流的存储和完成服务器对码流的调取请求等。

存储节点后端采用万兆业务接口和后端的云存储管理网络相连接,实现存储的管理,纠删码的冗余计算和恢复等。同时在堆叠交换机上对相应的端口做聚合。

1.8 云存储系统与平台的业务接口

UCS云存储系统支持POSIX、iSCSI、NFS、CIFS、FTP、HTTP、REST等标准访问协议,兼容HDFS API,支持Hadoop应用。可根据标准协议接口连接平台的流媒体服务器,也可提供API接口供平台侧进行对接接入等。

IP-SAN存储系统 篇4

如今,很少有整合行为是在没有虚拟化的情况下完成的,虚拟化是利用软件创建一个处于硬件和应用之间的抽象层。虚拟化允许企业用更少的设备处理更多的工作。借助虚拟化,一个物理的服务器将可以被分出多个逻辑服务器,从而更好地利用可用的CPU,内存和I/O资源。

虚拟化也可以池化来自整个数据中心的存储,允许来自不同存储平台的硬盘表现为一个单一的存储资源。这些存储资源可以被分配、供应、移动、复制和备份,而不需要考虑它的物理位置。虚拟化不仅使跟踪和管理存储变得更加简单,它也更加有效地利用可用空间,防止不必要的磁盘或存储平台的采购花费。

尽管如此,虚拟化有它的不足:

企业需要应对另一个软件层。

软件必须与整个基础设施,同时在修补和更新出现时进行维护

虚拟化必须在不影响性能的情况下进行。

存储操作,如复制和备份,将需要进行修改,以适应虚拟化环境。

我们已经涵盖了为一个存储整合项目,而购买相应策略时所涉及的问题。这里有一个清单,列出了购买虚拟化软件的规范,这些软件来自DataCore软件公司,EMC公司,IBM公司,Symantec公司,VMware和其他一些卖家。

软件将在哪儿运行?存储虚拟化可以实现基于主机、基于阵列或者基于光纤的产品的实现。基于主机的虚拟化软件运行并安装在主机服务器上,例如Symantec公司的Veritas Storage Foundation。专用设备,如Emulex公司的765型号智能服务平台,为基于网络的虚拟化软件提供硬件加速。基于主机的产品是花费最少的,而且最容易部署,但它们的可扩展性最差。

基于光纤的虚拟化,软件运行在智能交换机设备上,如Cisco directors。基于光纤的存储虚拟化通常能保证最大程度的异构性和可扩展性,但是可能需要在基础设施中新添一个交换机。

基于阵列的虚拟化整合了存储阵列自身的技术,例如日立数据系统的TagmaStore阵列。但是,基于阵列的虚拟化通常使用存储供应商提供的软件,而且一般不具备不同存储系统的异构性。

与您现有基础设施的互操作性。互操作性是虚拟化技术的关键因素。一个虚拟化产品应该与所有你已有的存储硬件兼容,并且应该能够满足将来的存储系统的需求,

不被虚拟化产品支持的存储系统将经常存在于服务中,沦为了二级存储。遗憾的是,非虚拟化的存储“孤岛”往往被荒废,这种现象浪费了虚拟化尝试去组织的宝贵空间。供应商支持矩阵是一个很好的开始评估互操作性的地方,但在内部测试也可以使用。

什么支持虚拟化软件?为了支持虚拟化软件,你将需要主机设备驱动,路径管理,代理和垫片。IT员工可能会在硬件更换或者新版本发布的时候,陷入为大量存储虚拟化服务安装补丁和更新的困境。没有对维修给予足够的重视,将导致版本不一致,引发不稳定和性能问题。从管理和维护的角度评估任何存储虚拟化产品,并确定它所解决的问题是否超过它将引出的新问题。

如何扩展虚拟层?一个虚拟化产品只能管理x量的存储,同时存储性能可能会下降随着存储容量的增长。你应该理解规模与性能之间的权衡,尤其在对整个企业进行部署之前,以实验或者试点部署方式开始的虚拟化行为。规模问题也许并不会出现,直到部署周期的后期。从一开始就考虑规模问题,以帮助识别不能满足需求的产品。

你的存储过程将如何改变?存储虚拟化的目标是将多个存储资源整合成一个独立的,普遍存在的池。这样将不可避免地改变存储的组织,置备,迁移和保护方式。例如,一个虚拟化产品可能提供自动配置,这个自动配置可能是IT企业的一个重大转变。一旦虚拟化到位了,存储管理员也将需要改变备份或复制目标。这是实验室测试和供应商可以在问题发生之前进行预防的另一个领域。

分阶段部署存储虚拟化。在整个企业一次性部署虚拟化是有风险的。预先对任何存储虚拟化产品进行一次全面的实验室评估。这需要包括对撤出虚拟化的审查。一旦你决定购买哪一种产品,就可以在系统地建立虚拟化之前先实现一个小规模虚拟化。这种传统的方法给管理员足够的时间来熟悉虚拟化管理,防止不可预见的问题导致整个数据中心瘫痪。

检查资源管理功能。存储虚拟化产品引入了不断升级的资源监控和管理功能。例如,一个虚拟化工具可以看到每一个存储I/O,允许这个工具跟踪磁盘使用,查看性能并监测路径配置。极少的虚拟化产品在存储资源管理包中提供这个范围和复杂程度的功能,但是使用者可以获得资源管理和自动化的见解,而不需另一款复杂的软件。

如何撤销虚拟化?性能问题,可扩展性限制和互操作性等问题是使一个存储虚拟化产品被淘汰的所有原因。一个企业也可以决定中断一个产品,并使用一种更好的产品。遗憾的是,一旦部署了虚拟化,就没有简单的方法撤销它。撤销一个有问题的虚拟化部署非常费时,而且具有破坏性的。在承诺购买某一个虚拟化产品之前,与供应商讨论任何撤销的备选方案。

上一篇:艺术教育课程下一篇:进行跨部门沟通