搜档网
当前位置:搜档网 › 20160810超融合解决方案介绍v1

20160810超融合解决方案介绍v1

20160810超融合解决方案介绍v1
20160810超融合解决方案介绍v1

超融合解决方案介绍

首先需要厘清概念,谈超融合,就得先从融合架构谈起融合架构又称为集成系统,通过整机柜集成和预配置实现快速部署,但仍然采用传统的服务器、网络、存储三层架构。典型的融合架构方案包括VCE的Vblock、NetApp的FlexPod、Oracle的Exadata,以及Huawei的FusionCube和H3C的UIS等。可以注意到融合架构在形态上体现为一个机柜或刀箱,里面集成了服务器、网络、存储节点,安装了虚拟化软件。

而超融合架构则是基于通用的服务器硬件,借助虚拟化和分布式技术,融合计算、存储、虚拟化与一体,不再需要专门的SAN存储。相比融合架构来说,超融合摆脱了整机柜/刀箱集成的束缚,也不再受限于传统的三层架构,更具有弹性。

其次理解每家产品的理念、定位和技术渊源

超融合概念在今天能够得到大家的热议,一是随着硬件性能密度的提升,网络互联互通的便利,软件智能逐渐走向成熟,超融合也是IT基础设施演进的一个必然方向;二则是对传统架构的颠覆式创新,在IT资源的分配和管理上相比

传统架构更有效率(尤其是集中式存储模式),因此对传统存储的冲击也最大。

这也恰恰说明为何超融合理念的倡导者会是Nutanix、SimpliVity、Pivot3、Maxta以及VMware这些在企业级(存储)市场并不显赫的厂商。而对于EMC、IBM、NetApp这些存储巨头来说,超融合并不是一个“讨人喜欢”的概念,谁让他们“真的有一头牛”呢?

Nutanix、SimpliVity等超融合初创厂商,均成立于2009年,借鉴Google 等互联网数据中心架构,通过软件定义的方式,将服务器的计算和存储资源聚合,在虚拟化层面上实现池化和统一管理,实现虚拟化环境的新型部署模式。他们的确是这个市场最彻底的“革命者”。

VMware在2014年发布的VSAN,也是专为优化虚拟环境而设计的存储解决方案,通过与vSphere的深度耦合,将软件定义数据中心延伸到存储一层(在此前VMware通过VAAI、VASA、VVOL帮助专业存储厂商更好的支持虚拟化应用,现在决定甩开膀子自己上阵了),并巩固VMware在虚拟化数据中心的优势。

而HP、Huawei作为传统企业级的老兵,有成熟的软件定义存储产品,如HP 基于LeftHand的StorVirtual、Huawei从FusionCube拆分出来的FusionStorage,通过与Hypervisor集成或作为其堆栈的一部分而摇身一变成为时髦的“超融合”,但从规格、指标来看,与“原生”的超融合架构仍然存在差距。

在国内比较有影响力的公有云服务提供商青云,也推出了超融合一体机,通过预集成QingCloud虚拟化平台、云平台管理软件、SDN网络和分布式存储,实现企业云平台的落地部署。

另外一家厂商深信服,本行是做网络安全的,也加入了超融合的战场,坦率的说在狭义的超融合架构(服务器+存储+虚拟化)上平淡无奇,但所画即所得的部署模式和网络层的深度集成却让人印象深刻,更适合SMB客户从网络安全到基础架构的一揽子交付需求。

回到联想自身,没有自己的存储核心技术这一短板,在过去只能依赖于OEM 和技术合作弥补,随着超融合的发展,也无需再苦恼了,超融合不需要存储,但一定要部署在服务器上。而服务器则是联想企业级最强的地方,与Nutanix合作推出的超融合HX系列,基于最好的x86服务器System x,目标成为超融合市场的标杆产品。

选择超融合方案可以遵循哪几个标准?

这么多考量因素,一个“好”的超融合方案究竟该如何判别?

可以从以下五个方面去衡量:依次为适用性、兼容性、数据效率、连续性及可扩展性。

1适用性VM-Centric

超融合既然是为虚拟化环境部署而服务,那么整个架构设计是否以虚拟机为核心,会对使用体验会有直接影响,在这方面做得越好,也就越能体现该方案的优势。

VM-Centric可以通俗的理解为站在为虚拟机服务的角度上,以让虚拟机运行的更有效率为目标,Top-Down进行产品设计。

比如说,在传统的架构中,存储对上层的主机提供存储卷服务,对于在主机上部署的虚拟机来说,其数据具体在存储上如何分布,是不可知的,当我们在使用快照、复制等数据保护功能时,我们是对存储卷进行操作。

而在超融合架构中,与虚拟机相关的数据分布,会有“本地化”的概念,也就是虚拟机的数据会优先存放在本地节点上,避免跨节点访问造成的延迟和资源

占用。在进行快照、复制等操作时,同样也是围绕虚拟机这个维度来进行的,而不是传统架构中是对虚拟机所在的存储卷进行快照和复制。

业界的超融合方案,如之前所述,大致可以分为两类,一种是“原生”超融合,如Nutanix、SimpliVity、Maxta,另一类则是软件定义存储升级,如HP的StorVirtual、Huawei的FusionStorage。

对比这些产品的指标可以看出,前者在“VM-Centric”方面一般做的比较全面,也会将其作为宣传的重点,而后者在“VM-Centric”方面着墨较少。这很好理解,毕竟前者是针对虚拟化场景进行的专门设计,而后者更多是将现有的软件定义存储增加了一个虚拟化层。

举一个例子说明这两种架构的不同就是:前者是一辆轿车,设计目的就是为了驾驶者的乐趣和乘坐者的舒适,而后者更像一辆皮卡,设计目的是为了载货和通过性。虽然皮卡对乘坐者的舒适度也是有保证的,但总归不如轿车舒服;当然单纯讨论载货能力,轿车却也是不如皮卡的。

2兼容性Hypervisor支持

目前流行Hypervisor有VMware vSphere、Microsoft Hyper-V、KVM,绝大多数的超融合方案都支持VMware,毕竟VMware是虚拟化界事实上的标准。

EVO:RAIL/VxRAIL仅支持VMware,毕竟这是自己的亲儿子,是用来巩固自己市场地位的法宝;SimpliVity、Maxta虽然现在仅支持VMware,但有明确的计划要支持Hyper-V,原因是继续绑定VMware并不能保证自己的生存,而Hyper-V 和KVM的市场增长比较快(据不权威数据,VMware的市场占有率是55%,Hyper-V 已经增加到27%)。

对Hypervisor支持最全的则是Nutanix,VMware/Hyper-V/KVM(自己开发的AHV)都支持;Huawei的FusionStorage则除了支持VMware和KVM外,自己也有基于Xen开发的FusionSphere虚拟化平台。

当然还有一些厂商因为产品定位的原因,仅支持自己基于KVM开发的虚拟化平台,如深信服、SmartX。

如果客户本身就是一个多Hypervisor平台混合部署的环境,兼容多个Hypervisor带来的好处就很明显了,这个时候客户也会有虚拟机在Hypervisor 间转换的功能需求。

个人的一点浅见:仅支持VMware的超融合方案是没有前途的,因为你首先就无法和vSphere+VSAN竞争,当然VxRail除外(亲儿子嘛);如果仅支持KVM 的话,也会导致适用范围被大大缩窄。

同样,对于客户来说,除非你是VMware的铁杆粉丝,或者你的业务必须用到vSphere的一些高级功能,否则没有必要为了一棵大树而放弃森林,尤其是对于大量部署Windows的客户,Hyper-V就是一个不错的选择,而在Linux平台,免费的KVM也发展的比较成熟。

3效率I/O优化和数据效率

在这一方面,各家超融合方案的区别体现在:

数据本地化的设计,以及数据写入到节点时的切片策略:基于已有的SDS方案Bottom-Up的超融合方案,在数据本地化设计上,并没有原生的超融合架构做的深入。

闪存、SSD,仅用于缓存还是缓存+存储,仅支持SSD还是可以扩展PCI-e闪存卡:

很多人都有疑问,为什么传统架构需要七八台服务器,加中端存储才能支撑的应用,三四个超融合节点就可以替代?其实有个原因就是超融合架构对闪存/SSD的配置和使用远远超过传统存储。通常,一个节点配置的SSD会是800GB~1600GB,甚至可以扩展到更多。虽然传统存储也可以配置很多SSD,但相应的成本也会急剧提升。

有的超融合方案如VSAN,SSD仅可以作为缓存使用,并不能存储数据,而有的方案如Nutanix则既可以做缓存,也可以存储数据;大部分超融合方案只能使用SSD,而华为的FusionStorage则可以使用PCI-e闪存卡。

数据保护,采用多副本还是RAID,是否支持纠删码:相比传统存储的RAID技术,在分布式系统中,多副本技术是最常见的数据保护方案,为了缓解副本技术带来的存储空间的占用,对于冷数据采用纠删码方式进行保护,也是通用方案。

但可以看到,仍然有一些超融合方案,在节点内部使用RAID进行数据保护,如SimpliVity使用硬件RAID卡将节点内的硬盘创建成RAID6,如Maxta则使用

内置的ZFS文件系统,利用RAIDZ技术对节点内的硬盘进行保护,最多可以允许三块硬盘的损坏。

这些方案显然各有优劣,仅使用副本,在冗余度上并没有节点内RAID+节点间副本来的可靠,但空间利用率前者占优。

在这里,也可以注意到不同超融合方案也存在两个流派,一种是上层软件直接操作硬盘,完全软件定义来实现;另一种,在底层的存储层,或者使用传统的RAID,或者采用单机文件系统如ZFS来实现。前者的好处是可以获得完全的控制权和定制能力,后者的好处是利用现有的技术,实现简单。

数据效率,是否支持重删、压缩、精简,在线还是后处理,软件处理还是硬件加速,单个节点还是可以跨节点全局处理?

实际上,数据效率和数据保护是一脉相承的,以SimpliVity为例,在重删、压缩上使用了PCI-e加速卡来实现,所有的数据在写入时都会经过重删处理,因为是硬件协处理,所以不会占用CPU资源,避免对业务的影响。而Maxta使用ZFS,则是利用ZFS本身的在线重删功能,通过软件实现,从而也导致了对大内存的需求。

Nutanix的实现则很有趣,对于写入到内存和SSD的数据,可以执行在线重删处理,对于写入到HDD的冷数据,则可以用Map reduce的方式跨节点进行全局重删,与上述节点内部的重删相比,重删效果无疑会更好些。

VSAN原来在6.1版本是不支持重删的,但6.2版本已经添加了重删可能,可惜只能对全闪存进行,混合配置时,硬盘上的数据是无法进行重删的。

4备份、容灾业务连续性

如上所述,在快照时,有的方案是基于虚拟机来进行,有的方案仍然是基于存储卷来进行,显然前者使用更为便利。

在虚拟化环境进行备份时,相比传统的备份方案,Avamar和Veeam是两个值得考虑的方案,尤其是对EMC有偏爱的客户,Avamar是个很不错的虚拟化环境重删备份解决方案,除了价格较贵之外;而Veeam作为轻量级、纯软件的解决方案,也得到了很多客户的青睐,但似乎Veeam并不支持重删。

而在复制、容灾中,传统架构更多是基于Array-Level、通过存储卷的复制

来实现,现在的超融合方案大多都宣称自己支持容灾,但没有看到太多的资料和案例,但有两点,超融合方案的容灾,第一大多是基于VM-Level来进行,尤其是与Hypervisor配合起来更为便利,第二就是还不能满足RTO/RPO=0的双活要求,如果用户是要求双活的环境,坦率的说,使用VPLEX或者SVC这种传统的方案更为合适些。

超融合在通常的数据复制、异地容灾(不严格要求双活)的环境中,还是可用的。不过我相信,随着超融合技术的发展,客户接受程度的提升,超融合在容灾方面替代传统架构也只是时间的问题。

5可管理性可扩展性

超融合方案相比传统架构,体现在管理上就是简单,相比传统架构虚拟化、服务器、存储、网络四层需要分别进行管理配置的复杂性和繁琐,超融合将这些集成到一个用户界面上,用户可以在一个界面上,实现计算和存储资源的池化、CPU/内存/HDD等资源的分配、虚拟机的创建和启动,无疑会为用户带来极大的便利性。

当我们在衡量各种超融合方案时,可管理性也是一个重要指标,比如是否有单独的统一管理工具,跨地域部署的多个集群是否可以集中管理,与现有Hypervisor管理界面的集成,以及在超融合软件升级时,对现有集群的一键升级等功能。

而在可扩展性上,则体现为对硬件平台的兼容性、集群中节点的最大数量、扩展时对硬件节点的要求等。

超融合对硬件平台兼容的多寡,会影响到客户对硬件平台的选择性,如VSAN 方案,允许客户选择多种服务器平台,甚至可以使用现有的服务器进行利旧;而其他方案,则是仅兼容几种硬件平台,缺点是选择性较少,但优点也很明显,就是对单一平台的测试和优化会更充分,而且限制硬件平台也会保证一体机方案给客户的体验不会受到硬件平台兼容性的问题而下降。

集群中节点的最大数量也是一个衡量指标,比如VSAN的最大64个节点则为人熟知。而在扩展时,EVO:RAIL和FusionStorage都要求节点的硬件配置需要一致,但Nutanix等方案则在节点最大数量上没有限制,扩展时也允许多种配置的节点并存于一个集群中,无疑更具有弹性和灵活性。

超融合数据中心解决实施方案==

高校IT基础架构设施升级方案----SMARTX超融合+虚拟化解决方案 北京中科泰科技有限公司

一、当前高校数据中心的现状和问题 随着高校信息化建设的不断深入,各个部门各个院系都根据各自的业务需求建设了相应的应用系统,而且增加的速度非常快,数据量也是呈几何级数的增长,随之而来的也给机房带来新的挑战:第一,资源整合问题:各院系各部门烟囱式信息化建设,存在大量信息孤岛,资源无法共享。各自购买添加服务器和存储等硬件设施,资源的总体利用效率较低。第二,应用扩展问题:服务器托管模式,新应用部署需要频繁接入机房,布线、配置网络,部署时间长。大部分新应用没有对存储、备份、可靠性等进行统一规划,机房的硬件设施没有统一规划,网络拓扑结构越来越复杂,新增系统布线困难。 第三,运维运营问题:由于信息中心人力资源有限,而各院系人员运维运营能力薄弱,导致信息中心工作压力越来越大,工作人员经常超负荷工作。第四,拥有成本和能耗问题:硬件资源分散在各个院系和部门,资源利用效率低,运维总体成本大,能耗高。第四,空间问题:每年大量投入新增硬件设施,增加机柜,机房空间越来越局促。 面对信息化建设的挑战,该如何利用新技术更好的支撑高校信息化建设,提供更好的IT服务,满足各个院系各个部门的期望?我们认为,采用目前国际上流行的最先进的超融合加虚拟化技术重新建立标准统一、安全可扩展的超融合IT基础架构,重新定义数据中心,将IT设备以可水平扩展的资源池的方式提供给各个院系各个部门,达到资源利益效率最大化,同时节省IT 基础设施投资成本,节省数据中心能耗,实现绿色数据中心。 二、虚拟化与高校IT基础设施 高校IT业务的迅猛发展要求IT基础设施将能满足其快速增长及变化的需求,传统IT架构已经被证实无法有效应对这种业务增长和变化的境况。服务器虚拟化技术的出现和兴起,高效的解决当前面临的一系列难题,将成为未来IT 基础架构的发展方向。虚拟化技术,以按需、易扩展的方式获得所需的资源应用。提供的资源被称为虚拟资源,虚拟资源在使用者看来是可以无限扩展的,并且可以随时获取,按需使用。虚拟化技术带来了以下几个好处和变革:

(完整版)EASTED私有云超融合解决方案v1.0

易讯通(EASTED)私有云超融合解决方案(V0.5) 北京易讯通信息技术股份有限公司 2016年5月

目录 1.项目背景 (1) 2.需求分析 (2) 3.解决方案 (3) 3.1.方案拓扑 (3) 3.2.方案描述 (4) 3.2.1.超融合简介 (4) 3.2.2.计算资源 (4) 3.2.3.存储资源 (6) 3.2.4.网络拓扑 (7) 产品清单 (9) 4.解决方案优势 (9) 4.1.扩展优势 (10) 4.2.性能优势 (10) 4.3.可靠性 (11) 4.4.存储分层优势 (11) 4.5.易于部署 (12) 4.6.集中管理 (12) 4.7.自动故障恢复 (14)

1.项目背景 过去十年来,随着互联网和Web技术的兴起,数据中心的战略地位变得越来越重要,因为它不但能提高生产率,改善业务流程,还能加快变革的进程。总之,数据中心已经成为IT 部门保护、优化和发展业务的战略重点。 当前,企业IT 数据中心虚拟化向私有云架构转变是行业发展的趋势,更是未来的标准。利用虚拟化软件将物理服务器虚拟成多个虚拟机,把应用部署不同的虚拟中运行,通过云管理平台提供自服务、自动化的运行环境,为企业提供更高的运行密度和更敏捷解决方案。在传统计算存储分离的体系架构下,虚拟机在计算服务器上被创建,其后端存储通常采用SAN/NAS。这种架构已经不能满足企业IT 数据中心高速发展和变化的需求,主要体现在:?扩展困难 传统存储SAN/NAS通过添加新的存储柜扩容升级(Scale Up),但是这种方法并不能带来同倍的性能提升。存储访问性能并不能随着虚拟机数据量增加而线性增加,致使存储访问性能最终成为数据中心性能和容量的瓶颈。 ?管理复杂 IT 管理员不仅需要同时管理计算、存储和网络系统,还需要对应用于服务进行管理,非常繁琐。同时传统网络存储架构SAN/NAS期初就是为静态负载场景设计,对于动态变化的负载,其管理运维就会变得相对复杂。 ?性能问题 虚拟机部署在共享的存储系统,对存储系统的性能要求不同与传统架构,在大规模虚拟机应用的环境中,采用传统的存储设备难以满足虚拟机对磁盘性能的需求。 ?可靠性低 虚拟机的高可用功能需要健康的共享存储系统实现,一旦存储设备发生故障将导致整个数据中心的运行中断。多数的企业无法承担双活存储系统的高昂资金投入和管理双活存储系统所需要的专业知识。 未来企业IT 数据中心的问题,本质上多归结为计算与存储系统发展不均衡的问题,Google、Amazon 这样的顶级互联网公司多年前已遇到此类问

超融合:架构演变和技术发展

超融合:架构演变和技术发展 开篇推荐: ?如何学习微服务大规模设计? (点击文字链接可阅读) 1、超融合:软件定义一切趋势下的诱人组合 超融合是以虚拟化为核心,将计算、存储、网络等虚拟资源融合到一台标准x86 服务器中形成基本架构单元,通过一整套虚拟化软件,实现存储、计算、网络等基础功能的虚拟化,从而使购买者到手不需要进行任何硬件的配置就可以直接使用。 “超”特指虚拟化,对应虚拟化计算架构。这一概念最早源自Nutanix 等存储初创厂商将Google/Facebook 等互联网厂商采用的计算存储融合架构用于虚拟化环境,为企业客户提供一种基于X86 硬件平台的计算存储融合产品或解决方案。超融合架构中最根本的变化是存储,由原先的集中共享式存储(SAN、NAS)转向软件定义存储,特别是分布式存储(如Object、Block、File 存储)。 “融合”是指计算和存储部署在同一个节点上,相当于多个组件部署在一个系统中,同时提供计算和存储能力。物理

融合系统中,计算和存储仍然可以是两个独立的组件,没有直接的相互依赖关系。超融合则重点以虚拟化计算为中心,计算和存储紧密相关,存储由虚拟机而非物理机 CVM(Controller VM)来控制并将分散的存储资源形成统一的存储池,而后再提供给Hypervisor 用于创建应用虚拟机。 超融合已从1.0 阶段发展至3.0 阶段,服务云平台化趋势明显,应用场景不断丰富。超融合1.0,特点是简单的硬件堆砌,将服务器、存储、网络设备打包进一个“盒子” 中;超融合2.0,其特点则是软件堆砌,一般是机架式服务器+分布式文件系统+第三方虚拟化+第三方云平台,具有更多的软件功能。 在1.0 和2.0 阶段,超融合和云之间仍旧有着“一步之遥”,并不能称之为“开箱即用”的云就绪系统,超融合步入3.0 阶段,呈现以下两个特点:

医疗超融合解决方案

医疗行业数据中心设计方案

目录 1. 建设背景 (1) 1.1 行业概述 (1) 1.2 行业背景 (1) 2. 总体架构设计 (2) 2.1 设计思路 (2) 2.2 设计原则 (3) 2.3总体逻辑架构 (3) 2.4总体物理架构 (4) 3. 基础设施设计 (6) 3.1互联网接入区设计 (6) 3.2 核心交换区设计 (6) 3.3 存储设计 (9) 4. 云资源池设计 (10) 4.1 计算资源池规划 (10) 4.1.1 资源评估原则 (10) 4.1.2 集群设计 (10) 4.1.3 可靠性设计 (11) 4.2 存储资源池设计 (12) 4.2.1 评估原则 (12) 4.2.2 资源池设计 (13) 4.2.3 可靠性设计 (14) 4.2.4 备份存储设计 (14) 4.3 虚拟网络设计 (15) 5.业务系统设计 (16) 5.1 整体可靠性指导 (16) 5.2整体备份设计 (16) 5.2.1 虚拟机备份 (16) 5.2.2 应用层备份 (17) 5.3 医院信息系统(HIS) (17)

5.3.1 虚拟机配置设计 (17) 5.3.2 虚拟机备份设计 (18) 5.3.3迁移设计 (18) 5.4电子病历系统(EMR) (19) 5.4.1 虚拟机配置设计 (19) 5.4.2 虚拟机备份设计 (20) 5.4.3 迁移设计 (20) 5.5 检验科信息系统(LIS) (21) 5.5.1 虚拟机配置设计 (21) 5.5.2 虚拟机备份设计 (22) 5.5.3 迁移设计 (22) 5.6 影像存档和通信系统(PACS) (23) 5.6.1 虚拟机配置设计 (23) 5.6.2 虚拟机备份设计 (24) 5.6.3 迁移设计 (24)

超融合基础架构解决方案

超融合架构解决方案技术建议书超融合一体机&超融合操作系统

目录 1 传统IT 架构面临的问题............................. 业务与架构紧耦合........................... 传统架构制约东西向流量....................... 网络设备的硬件规格限制业务系统规模................. 不能适应大规模租户部署....................... 传统安全部署模式的限制....................... 2 项目概述 ................................... 建设原则.............................. 建设关键需求............................ 建设组件及建设模式......................... 3 深信服超融合架构解决方案概述 .......................... 超融合架构层............................ 服务器虚拟化(aSV)....................... 网络虚拟化(aNET)........................ 存储虚拟化(aSAN)........................ 网络功能虚拟化(NFV)....................... 多业务模板层............................ 虚拟化管理平台.......................... 服务器虚拟化管理模块....................... 网络虚拟化管理模块......................... 存储虚拟化管理模块......................... 深信服超融合架构方案价值和优势总结................. 深信服超融合架构价值....................... 深信服超融合架构的优势.......................

联想金融行业超融合解决方案

互联网技术的发展,为金融业进行产品创新、业务创新和渠道创新提供了新的技术条件和发展思路,使顾客获取更为便捷、精准的金融服务成为可能。但同时,客户数量和业务容量的突发性增长给传统IT 架构带来了系统性冲击,金融业的传统IT 架构越来越难以有效支撑互联网+背景下的业务发展: 应对业务成长冲击,IT 新架构成为必然 广泛的客户使用场景 预算评估难,采购规模无依据,服务器和存储过量采购,硬件折旧快。 I/O 在存储控制器上存在瓶颈,即 使将闪存放置在阵列中。 性能差 管理难 成本高 联想金融行业超融合 解决方案 助力金融行业 IT 架构转型 “问题是什么” 企业应用私有云和混合云 大数据 分支机构 微软应用VDI 数据保护与灾难恢复部署周期长,设计复杂、范围大。难以快速实现弹性扩展。 管理窗口或界面复杂,需要大量的手 动操作。 缺乏端对端的可见性,出了问题往往定位不清楚。

联想超融合架构特性 IT 基础架构向超融合转型-简化数据中心 联想金融超融合方案优势突出 Hypervisor Hypervisor Hypervisor Hypervisor Hypervisor Hypervisor 超融合架构(HCI ) 架构简单 线性扩展 单一管理界面 真正按需购买+运营成本降低 聚合存储资源池 服务器1服务器2服务器n 虚拟化UI Lenovo HS Platform Hypervisor Disk Drives SSD Lenovo HS Platform Hypervisor Disk Drives SSD Lenovo HS Platform Hypervisor Disk Drives SSD 全局统一命名空间 网络交换设备 支持多种Hypervisor 企业级数据服务 全局命名空间快照克隆容量优化 数据集成和高可用性 SSD-回写/读/元数据缓存动态自动分层数据本地存储 针对应用来匹配存储块大小 性能 联想金融超融合解决方案集计算、存储、网络和运维于一身。为金融行业提供一个轻运维、高稳定、易管理和低成本的基础构架。 助力金融企业轻松应对挑战 低成本 降低总拥有成本(TCO )和突出的ROI 价值定位 联想金融超融合解决方案简化IT 基础架构。它集计算,存储,网络和运维于一身,一套设备相当于传统多套设备,空间与能耗降低50%以上;它由两种组件构成,超融合节点和网络,大大简化了系统架构,总体拥有成本减少65%。 高稳定性 简化的IT 基础架构实现更高的可靠性 联想金融超融合解决方案,一套高端设备的性能,相当于享受13套高端设备卓越性能;它的多重容灾机制,即使出现单点故障,也能保证业务持续性,可使管理人员简单面对故障,实现更高的可靠性。 高扩展性,易管理 强大灵活的可扩展性有效支持产品技术创新 联想金融超融合解决方案具备随时扩展的特性,只须根据业务需求,增加标准的基础原件,即可无限在线扩展,实施周期可缩短50%。通过软件定义来实现全面的资源监控和管理,按需分配,30分钟即可快速实现业务部署,简单易用,管理方便,维护工作量降低70%。

EASTED私有云超融合解决方案v1.0

易讯通(EASTED)私有云超融合 解决方案(V0.5) 北京易讯通信息技术股份有限公司 2016年5月

目录

1.项目背景 过去十年来,随着互联网和Web技术的兴起,数据中心的战略地位变得越来越重要,因为它不但能提高生产率,改善业务流程,还能加快变革的进程。总之,数据中心已经成为IT部门保护、优化和发展业务的战略重点。 当前,企业IT数据中心虚拟化向私有云架构转变是行业发展的趋势,更是未来的标准。利用虚拟化软件将物理服务器虚拟成多个虚拟机,把应用部署不同的虚拟中运行,通过云管理平台提供自服务、自动化的运行环境,为企业提供更高的运行密度和更敏捷解决方案。在传统计算存储分离的体系架构下,虚拟机在计算服务器上被创建,其后端存储通常采用SAN/NAS。这种架构已经不能满足企业IT数据中心高速发展和变化的需求,主要体现在:?扩展困难 传统存储SAN/NAS通过添加新的存储柜扩容升级(ScaleUp),但是这种方法并不能带来同倍的性能提升。存储访问性能并不能随着虚拟机数据量增加而线性增加,致使存储访问性能最终成为数据中心性能和容量的瓶颈。 ?管理复杂 IT管理员不仅需要同时管理计算、存储和网络系统,还需要对应用于服务进行管理,非常繁琐。同时传统网络存储架构SAN/NAS期初就是为静态负载场景设计,对于动态变化的负载,其管理运维就会变得相对复杂。 ?性能问题 虚拟机部署在共享的存储系统,对存储系统的性能要求不同与传统架构,在大规模虚拟机应用的环境中,采用传统的存储设备难以满足虚拟机对磁盘性能的需求。 ?可靠性低 虚拟机的高可用功能需要健康的共享存储系统实现,一旦存储设备发生故障将导致整个数据中心的运行中断。多数的企业无法承担双活存储系统的高昂资金投入和管理双活存储系统所需要的专业知识。 未来企业IT数据中心的问题,本质上多归结为计算与存储系统发展不均衡的问题,Google、Amazon这样的顶级互联网公司多年前已遇到此类问题。 它们发现任何商业存储产品都无法满足他们高速增长的数据业务需求。于是

传统架构与超融合方案对比

一站式IT服务商杨瑞 134******** 服务热线 原客户方案 EMC超融合方案 描述 刀片 + 虚拟化 + 光纤存储 描述 光纤存储 + 超融合解决方案(深度集成虚拟化环境) 问题 1.此方案为传统架构,无法横向扩展。 2.数据过度集中,数据风险高,单台存储发生故障时,所有业务均会受影响。 3.缺乏虚机数据保护方案 4.运维管理不够方便 5.兼容性稳定性欠缺 6.扩展能力有限 优势 1.此方案架构先进,稳定成熟,支持横向扩展。 2.超融合方案中的软硬件均经过大量严格的兼容性稳定性测试,专门针对虚拟化环境而设计优化,内置丰富软件功能。 3.无需一次大规模采购,保护现有投资,延伸到云计算架构 描述 软硬件厂商为不同家,硬件为HP,软件为Vmware。描述 软硬件厂商均为EMC,Vmware为EMC控股子公司。 问题 1.从实施到售后,都由不同厂商或集成商商负责。 2.出现问题需要各厂商配合解决,容易出现推诿,影响处理效率。 3.HP目前国内的售后均由第三方紫光公司进行支持。优势 1.一体化方案,加电后15分钟即可开始部署虚拟化环境。 2.从实施到售后均由EMC原厂统一提供专业服务 描述 原存储仅为双控64GB缓存。 刀片单从配置上来看,性能可能占优,也可能存在“超配”情况。 描述 EMC存储缓存总共248GB 超融合配置48core,512GB内存,24TB存储空间,3.2TB缓存加速盘,8个万兆网口。 问题 1.HP存储的二级缓存只能读不能写,对数据库的写性能没有任何提升。 2.刀片为纯硬件产品,没有针对虚拟化做专门的设计与优化。 优势 1.EMC存储可以扩展到1TB二级缓存,可读可写,对性能提升有很大帮助。 2.超融合方案专门为虚拟化设计优化,性能均衡。 3.单台最大可以支持到200个VM,未来可以按需升级。描述 存储+刀片+网络+虚拟化,多套系统,多个管理员描述超融合简化运维,减轻运维人员压力 问题 1.管理界面较多,操作复杂 2.不同产品的运维要求不同,对运维人员的技能要求高 优势 1.上架15分钟即可交付使用,扩展新节点只需5分钟2.统一标准化界面 3.统一管理计算,存储,虚拟化等资源,运维管理简单化描述 多套系统需要同时运维 描述 超融合运维轻便 问题 1.占地空间大,占用机柜空间多。 2.系统耗能高。包括设备耗电,制冷成本。 3.需要运维人员具备多种专业技能,时间多用在底层维护上。 优势 1.一套超融合装置仅仅2U 2.能源消耗低 3.运维人员可以专注于系统整体的运行状况与性能调优。 描述传统备份方式描述虚拟带库+虚拟机连续性数据保护方案 问题 1.备份以固定时间执行,存在数据丢失风险,且不能及时恢复 2.没有专门针对虚拟机的数据保护方案 优势 1.与vCenter无缝集成,可以直接将虚机备份到备份设备中,无需借助专门的备份软件。 2.具有企业级重复数据消除功能,可将备份窗口缩减 90%,备份空间的需求减至原来的1/3,对网络带宽的需求减少达95% 3.快速恢复,恢复速度加快30% 4.可以与EMC备份设备集成扩展。 描述无。描述 1.VSAN+vSphere深度内核级集成 2.内含虚拟机连续性保护软件 3.内含Vmware Data Protection虚机数据保护套件 4.云就绪,内含EMC云管理软件与容量许可 5.内含运维管理软件 6.内含应用商店 问题用户需要为所需软件功能另外付费优势 深度整合丰富的软件功能,确保满足业务需求和数据安全。 以下为超融合内含软件功能。 虚机数据保护 除了备份外,还有专门针对虚机的连续性数据保护方案。无缝集成vCenter环境。 连续性数据保护精细到虚机VM级别,可以对运行重要业务 的虚机提供任意时间点回滚的保护方式,消除逻辑故障对虚机的影响。 还可以将虚机数据从本地到远程站点进行双向复制。存储虚拟化 超融合方案内置存储虚拟化软件VSAN,并且与vShpere内核级集成,系统开销小 管理软件超融合方案内置管理软件,远程收集并报告硬件和软件配 置,实时掌握应用程序,VM和整体硬件的状态,还可针对 可用性、性能和容量的状态警报和运行状况统计云整合超融合方案内置云管理软件,可将数据延伸到公有云,提高托管容量,创建可访问的在线归档。 功能扩展 内置应用商店,一键访问,随时下载经过验证的增值软件,增强用户体验。 总结 高级软件功能 ? 方案不能成为产品的简单堆积。要针对客户的业务需求,制定定制化的先进方案。 1.对于企业级关键业务而言,性能并不足以成为首要选择因素,稳定压到一切! 2.安全是方案的命脉,软件是方案的灵魂。 整体方案 厂商 配置性能 运维管理 运维成本 数据备份方式

超融合云计算方案

超融合云计算方案(总24页) -CAL-FENGHAI.-(YICAI)-Company One1 -CAL-本页仅作为文档封面,使用请直接删除

目录 一. 总则 (4) 1.1 需求概述 (4) 1.2 建设目标 (7) 1.3 建设原则 (8) 二. 超融合云计算方案 (9) 2.1 方案拓扑图 ................................................... 错误!未定义书签。 2.2 方案描述 ..................................................... 错误!未定义书签。 2.3 方案优势 (10) 2.4 软件拓扑图 (9) 三. 方案设计说明 (11) 3.1 方案概要 ..................................................... 错误!未定义书签。 3.2 配置清单 ..................................................... 错误!未定义书签。 3.3 配置说明 ..................................................... 错误!未定义书签。 3.4 计算资源 ................................................................... 11 2016-11-15 XXXX 超融合云数据中心方案建议书

3.5 存储资源 (11) 3.5.1 高效性 ................................................ 错误!未定义书签。 3.5.2 可靠性 ................................................ 错误!未定义书签。 3.5.3 扩展能力 .............................................. 错误!未定义书签。 3.6 网络设计..................................................... 错误!未定义书签。 3.7 SDN 网络 (12) 3.7.1 VXLAN....................................................................................................... 错误!未定义书签。 3.7.2 分布式虚拟路由器 (12) 3.7.3 浮动IP地址 (16) 3.7.4 SNAT.......................................................................................................... 错误!未定义书签。 3.8 安全设计 (13) 3.8.1 平台安全 (14) 3.8.2 存储安全 (14) 3.8.3 虚拟化安全 (15) 3.8.4 网络安全 (15) 3.8.5 系统维护安全 (16) 四. 云计算平台软件............................................................................................................... 错误!未定义书签。 4.1 功能设计说明......................................................................................................... 错误!未定义书签。 4.1.1 多节点管理................................................................................................ 错误!未定义书签。 4.1.2 资源调度 .................................................................................................... 错误!未定义书签。 4.1.3 弹性磁盘管理............................................................................................ 错误!未定义书签。 4.1.4 虚拟机迁移................................................................................................ 错误!未定义书签。 4.2 云计算底层操作系统............................................................................................. 错误!未定义书签。 4.2.1 系统服务SLA............................................................................................ 错误!未定义书签。

联想超融合方案 与 vxRail的对比

联想超融合方案与vxRail的对比2016年9月

2 联想HX 超融合云平台 分布式存储结构 网络规模核心| 压缩| 重复数据删除| 分层| 弹性| 数据保护 应用移动性结构 工作负载移动性| 可扩展性| 无锁定| 持续运行| API Azure ESXi Hyper-V AWS A c r o p o l i s 一键式基础设施管理(自服务) 一键式洞悉基础架 构一键式系统修复 Prism Acropolis 虚拟机监控程序 两大产品模块Acropolis 和Prism 极致的超融合云平台 HX 系列 1. 计算、存储和虚拟化一站式解决方案 2. 毫不妥协的企业级存储功能 性能加速 容量效率 灾难恢复 数据保护 安全性 3. 集中运维管理云平台 联想HX 超融合平台

3 VMware Virtual SAN :分布式存储 专为VMWare 虚拟机设计的虚拟化分布式存储 vSphere + Virtual SAN … ?利用资源的虚拟化分布式存储解决方案 ?标准x86 服务器上的企业级可用性、可扩展性和性能 ?与VMware 产品体系深度集成,无法支持除vSphere 之外的虚拟化(如KVM ,Hyper-v ) ?全闪存和混合配置(SSD 只作为Cache 使用)?从2 个节点扩展到64 个?基于策略的SLA 自动化 概述 硬盘 SSD 硬盘 SSD 硬盘 SSD Virtual SAN 数据存储 vSAN 是vSphere 核心组件,紧密融合在vSphere Kernel 中,合并的计算和存储故障域,使得整个平台在IO 负载较大的情况下可能发生连锁崩溃,从而影响平台稳定性当SSD 故障,SSD 所在的磁盘组均不可用,重建需要花费更长时间。集群内只能扩展同型号节点,配置型号是固定的

WindowsServer 2016超融合解决方案介绍

Windows Server 2016 Hyper-Converged Solution - Virtual Machines and Software Defined Storage on the Same Cluster Windows Server 2016 Technical Preview introduces Storage Spaces Direct, which enables building highly available (HA) storage systems with local storage. This is a significant step forward in Microsoft Windows Server software-defined storage (SDS) as it simplifies the deployment and management of SDS systems and also unlocks use of new classes of disk devices, such as SATA and NVMe disk devices, that were previously not possible with clustered Storage Spaces with shared disks. Windows Server 2016 provides a hyper-converged solution by allowing the same set of servers to provide SDS, through Storage Spaces Direct (S2D), and serve as the hosts for virtual machines using Hyper-V. The same How to Use this Guide: This document provides both an introductory overview and specific standalone examples of how to deploy a Hyper Converged Solution with Storage Spaces Direct. Before taking any action, it is recommended that you do a quick read through of this document to familiarize yourself with the overall approach, to get a sense for the important Notes associated with some steps, and to acquaint yourself with the additional supporting resources and documentation. Hyper-converged Solution with Software Defined Storage Overview In the Hyper-Converged configuration described in this guide, Storage Spaces Direct seamlessly integrates with the features you know today that make up the Windows Server software defined storage stack, including Clustered Shared Volume File System (CSVFS), Storage Spaces and Failover Clustering. The hyper-converged deployment scenario has the Hyper-V (compute) and Storage Spaces Direct (storage) components on the same cluster. Virtual machine's files are stored on local CSVs. This allows for scaling Hyper-V compute clusters together with the storage it’s using. Once Storage Spaces Direct is configured and the CSV volumes are available, configuring and provisioning Hyper-V is the same process and uses the same tools that you would use with any other Hyper-V deployment on a failover cluster. Figure 5 illustrates the hyper-converged deployment scenario. 1

超融合架构与融合架构对比分析

超融合架构与融合架构对比分析

1、“融合”架构的起源 “融合”架构最初的解决方案通常包括了服务器、SAN存储和网络(以太网或InfiniBand)。一般是由单一供应商提供的包括服务器、存储和网络在内的预集成、预验证的完整解决方案,这是最早的“融合”架构。其实这和传统的系统集成解决方案差不多。以前做解决方案,客户需要面对多家供应商,现在已转变为由单一供应商提供独立打包的、经过优化的产品和服务。 这种“融合”架构简化了系统安装和业务部署的过程,但传统SAN存储的扩展性和性能问题没有解决,管理性也没有得到根本的改进。 从技术角度,这种“融合”架构只是一种设备的集成,一体化交付,尽可能的“开箱即用”,可以简化系统部署和后续管理,帮助用户更快的构建洗头。但是,这种架构没有真正的实现融合,服务器还是服务器,存储还是存储。 为了解决传统SAN存储的性能和扩展性问题,一些厂商开始考虑采用X86服务器作为存储资源节点。以ORACLE的数据库一体机Exadata为例,它设有专门的存储节点,是基于X86服务器组合而成,采用横向扩展架构,利用存储节点具备的一定计算能力,将简单的查询下发到存储节点上执行,只返回少量结果数据,这样可以有效的提升存储系统效率,带宽可以随着存储节点的加入获得近乎线性的扩展。在存储网络上也没有采用SAN架构,而是在计算和存储节点之间统一使用高速的InfiniBand(IB)互联,消灭网络异构,提高数据库访问性能。这种架构是比较早的软件定义存储的模式。 随着互联网的发展,互联网公司的访问压力越来越大,为了解决这个问题,需要一种低成本,高性能而又具有灵活性的分布式处理架构。

超融合云计算方案

XXXX 超融合云数据中心方案建议书 2016-11-15

目录 一. 总则.............................................................. 错误!未定义书签。 需求概述........................................................ 错误!未定义书签。 建设目标........................................................ 错误!未定义书签。 建设原则........................................................ 错误!未定义书签。 二. 超融合云计算方案.................................................. 错误!未定义书签。 方案拓扑图...................................................... 错误!未定义书签。 方案描述........................................................ 错误!未定义书签。 方案优势........................................................ 错误!未定义书签。 软件拓扑图...................................................... 错误!未定义书签。 三. 方案设计说明...................................................... 错误!未定义书签。 方案概要........................................................ 错误!未定义书签。 配置清单........................................................ 错误!未定义书签。 配置说明........................................................ 错误!未定义书签。 计算资源........................................................ 错误!未定义书签。 存储资源........................................................ 错误!未定义书签。 高效性...................................................... 错误!未定义书签。 可靠性...................................................... 错误!未定义书签。 扩展能力.................................................... 错误!未定义书签。 网络设计........................................................ 错误!未定义书签。 SDN 网络........................................................ 错误!未定义书签。

联想HX超融合产品自传

联想HX超融合产品自传

Hello 大家好,我的全名是联想路坦力超融合HX解决方案,我诞生在2016年,代表当前最前沿的超融合IT架构。而在我出生之前,IT基础架构已经随着信息技术的不断发展经历了三个阶段的演变: 1、传统架构阶段:since 1995 仍然是当前最主流的IT基础架构。在这个阶段,服务器只向网络内的计算机提供单一的服务,不负责网络内计算机的管理职能。目前市场上最主流的是以X86架构为主,以其极高的灵活性、易管理、可横向扩展的特性,迅速风靡了整个IT市场。但是随着互联网时代的发展,信息、数据大幅度增长,服务器的数量也相对增加,导致部分单位需要大面积、高成本、多人力去维护,同时,服务器单台运行业务,会导致资源分配不均,资源利用率不高,并且存在单点故障,所以,此架构的弊端也愈发明显。 2、融合阶段(虚拟化阶段):since 2011 融合阶段又泛称虚拟化阶段,是指通过虚拟化技术将一台计算机虚拟为多台逻辑计算机。在一台计算机上同时运行多个逻辑计算机,每个逻辑计算机可运行不同的操作系统,并且应用程序都可以在相互独立的空间内运行而互不影响,从而显著提高计算机的工作效率。 虚拟化使用软件的方法重新定义划分IT资源,可以实现IT资源的动态分配、灵活调度、跨域共享,提高IT资源利用率,使IT资源能够真正成为社会基础设施,服务于各行各业中灵

活多变的应用需求。 虚拟化以其降低能耗、提高基础架构利用率、高可用、提高灵活性的优点,被众多硬件厂商青睐,同时,虚拟化三大软件厂商:VMware、Ctrix以及微软对于虚拟化的软件技术也在随着时代升级,更多的企业接受了此架构。但是,虚拟化仍然不能解决存储问题,扩展需要集中存储,导致存储的管理相对复杂。 3、超融合阶段:since 2014 超融合的本质是以软件定义基础架构,将服务器内的计算与存储资源进行融合,存储采用分布式的自治系统。相比传统架构,超融合架构的优势体现在: ①即时体现的系统开销节省 传统的三层架构(服务器+网络+存储)一般来说,能够利用整体资源的40%已经算是非常高效了,而在三层架构的成本投入与运维管理中,电力投入、人力投入、空间投入等相对于超融合来讲,都是不占优势的,举个例子,10台服务器传统三层架构要完全支持整个业务系统,每天耗电大概500W*10*24=120度,而超融合架构利用四台超融合一体机大概只需要500W*4*24=48度左右,工业用电按照1元/度算的话,一天在电力方面能节省72元,一年是26280元,这还仅仅是在服务器上面。 ②更好的性能以及稳定性 超融合将多台服务器的计算与存储资源进行虚拟,可自定义虚拟机,充分发挥服务器的硬件资源。当业务系统负载增加的时候,可调配资源从新分配虚拟机,保证维持业务的稳定与效率,而如果当某台服务器出现宕机事件,由于超融合的虚拟计算与存储资源技术,不必担心数据的丢失及业务中断,系统会自动进行迁移,保证业务的连续性以及数据的安全。 ③易扩展性

超融合解决方案交流技巧

超融合解决方案交流技巧

话题引入: 随着信息技术的发展,各类云计算、云数据中心、私有云、公有云、混合云等概念和方案层出不穷,我今天过来,就是想给您汇报下目前这些技术到底是什么,如何实现私有云的快速落地。 业界的数据中心发展最早为传统烟囱式数据中心,后来发展到了服务器虚拟化的数据中心,这比以往的传统结构有了新的突破,可以大幅提升服务器资源利用率,大幅提升业务上线效率,但是在网络管理、业务编排、自动运维等方面仍然无计可施,之后业界逐渐提出了SDN(软件定义网络)和SDDC(软件定义数据中心)的概念,我今天给您带来的方案称之为“超融合”。他隶属于SDDC的范畴,是深信服提出的基于SDDC建设私有云整体方案的一套基本架构。 这套架构是靠通用的硬件交换机组成一个大的二层网络,在大量X86服务器上,用软件虚拟化的技术方式,将所有服务器、存储、数据中心网络结构、软件应用系统等进行统一融合,并按照我们的业务要求,进行重新编排的解决方案。 其实早在5年前,超融合的整体架构就已经在国外大规模实施了,只不过当时业内没有提出“超融合”这样的概念;而近几年,这种超融合的方案在国内也开始了大规模部署,比如阿里、亚马逊等大型公有云服务商采用的就是这种架构,其他如国家卫计委、国家行政学院、国家信息安全中心,在广东,如广东省统计局、番禺区地税局、佛山市三水区信息中心、海印集团、广东理工职业学院、佛山市人民防空办公室、广东烟草阳江市有限责任公司、广州市地税局的企业税收管理局、河源市和平县人民法院、中山市技师学院、中山中粤马口铁工业有限公司;这套超融合的基础架构可以非常简单的扩展至未来私有云,所以,本方案具备极强的开放性与前瞻性,在很多单位都以创新项目得到了审批。 为什么越来越多的单位开始采用超融合的架构去搭建数据中心呢,在业界来看,传统数据中心有以下几个问题: 1、建设成本高。传统数据中心,从硬件上来看,每个系统单独占用一台物理服务器,根据我们大量统计来看,这种模式服务器资源利用率极低,十多个系统对应十多台服务器,将造成了大量资源的浪费,而后期各类系统上线的建设成本也将很高; 2、系统稳定性无法保障。一旦物理服务器出现故障,所承载的应用系统将无法提供服务,造成业务的长期中断,需要管理员手动调整进行业务恢复;如果发生不可修复性故障,将直接造成数据的丢失,对单位造成重大损失,如果存储设备单机部署且发生故障,将带来

相关主题