【转】一篇文章讲透分布式存储

一篇文章讲透分布式存储
一篇文章讲透分布式存储

分布式存储是相对于集中式存储来说的,在介绍分布式存储之前,我们先看看什么是集中式存储。不久之前,企业级的存储设备都是集中式存储。所谓集中式存储,从概念上可以看出来是具有集中性的,也就是整个存储是集中在一个系统中的。但集中式存储并不是一个单独的设备,是集中在一套系统当中的多个设备。以 EMX 公司的存储为例,整个存储系统可能需要几个机柜来存放。

图 1 集中式存储物理示意图
图 1 集中式存储物理示意图

集中式存储基本架构

在这个存储系统中包含很多组件,除了核心的机头(控制器)、磁盘阵列( JBOD )和交换机等设备外,还有管理设备等辅助设备。如图 2 是一个集中式存储的基本逻辑示意图。

图 2 集中式存储逻辑示意图
图 2 集中式存储逻辑示意图

在集中式存储中通常包含一个机头,这个是存储系统中最为核心的部件。通常在机头中又包含两个控制器,这两个控制器实现互备的作用,避免硬件故障导致整个存储系统的不可用。在该机头中通常包含前端端口和后端端口,前端端口用户为服务器提供存储服务,而后端端口用于扩充存储系统的容量。通过后端端口机头可以连接更多的存储设备,从而形成一个非常大的存储资源池。

机头中是整个存储系统的核心部件,整个存储系统的高级功能都在其中实现。控制器中的软件实现对磁盘的管理,将磁盘抽象化为存储资源池,然后划分为 LUN 提供给服务器使用。这里的 LUN 其实就是在服务器上看到的磁盘。当然,一些集中式存储本身也是文件服务器,可以为服务器提供共享文件服务。无论如何,从上面我们可以看出集中式存储最大的特点是有一个统一的入口,所有数据都要经过这个入口,这个入口就是存储系统的机头。

分布式存储是一个大的概念,其包含的种类繁多,除了传统意义上的分布式文件系统、分布式块存储和分布式对象存储外,还包括分布式数据库和分布式缓存等。本文局限在分布式文件系统等传统意义上的存储架构,对于数据库等不做介绍。

中间控制节点架构( HDFS )

分布式存储最早是由谷歌提出的,其目的是通过廉价的服务器来提供使用与大规模、高并发场景下的 Web 访问问题。如图 3 是谷歌分布式存储( HDFS )的简化的模型。在该系统的整个架构中将服务器分为两种类型,一种名为 namenode ,这种类型的节点负责管理数据(元数据),另外一种名为 datanode ,这种类型的服务器负责实际数据的管理。

图 3 HDFS 简化架构图示意图
图 3 HDFS 简化架构图示意图

上图分布式存储中,如果客户端需要从某个文件读取数据,首先从 namenode 获取该文件的位置(具体在哪个 datanode ),然后从该位置获取具体的数据。在该架构中 namenode 通常是主备部署,而 datanode 则是由大量节点构成一个集群。由于元数据的访问频度和访问量相对数据都要小很多,因此 namenode 通常不会成为性能瓶颈,而 datanode 集群可以分散客户端的请求。因此,通过这种分布式存储架构可以通过横向扩展 datanode 的数量来增加承载能力,也即实现了动态横向扩展的能力。

完全无中心架构 —— 计算模式( Ceph )

如图是 Ceph 存储系统的架构,在该架构中与 HDFS 不同的地方在于该架构中没有中心节点。客户端是通过一个设备映射关系计算出来其写入数据的位置,这样客户端可以直接与存储节点通信,从而避免中心节点的性能瓶颈。

图 4 Ceph 无中心架构
图 4 Ceph 无中心架构

在 Ceph 存储系统架构中核心组件有 Mon 服务、OSD 服务和 MDS 服务等。对于块存储类型只需要 Mon 服务、OSD 服务和客户端的软件即可。其中 Mon 服务用于维护存储系统的硬件逻辑关系,主要是服务器和硬盘等在线信息。Mon 服务通过集群的方式保证其服务的可用性。OSD 服务用于实现对磁盘的管理,实现真正的数据读写,通常一个磁盘对应一个 OSD 服务。

客户端访问存储的大致流程是,客户端在启动后会首先从 Mon 服务拉取存储资源布局信息,然后根据该布局信息和写入数据的名称等信息计算出期望数据的位置(包含具体的物理服务器信息和磁盘信息),然后该位置信息直接通信,读取或者写入数据。

完全无中心架构 —— 一致性哈希( Swift )

与 Ceph 的通过计算方式获得数据位置的方式不同,另外一种方式是通过一致性哈希的方式获得数据位置。一致性哈希的方式就是将设备做成一个哈希环,然后根据数据名称计算出的哈希值映射到哈希环的某个位置,从而实现数据的定位。

图 5 一致性哈希原理
图 5 一致性哈希原理

如图 5 是一致性哈希的基本原理,为了绘制简单,本文以一个服务器上的一个磁盘为例进行介绍。为了保证数据分配的均匀性及出现设备故障时数据迁移的均匀性,一致性哈希将磁盘划分为比较多的虚拟分区,每个虚拟分区是哈希环上的一个节点。整个环是一个从 0 到 32 位最大值的一个区间,并且首尾相接。当计算出数据(或者数据名称)的哈希值后,必然落到哈希环的某个区间,然后以顺时针,必然能够找到一个节点。那么,这个节点就是存储数据的位置。

Swift 存储的整个数据定位算法就是基于上述一致性哈希实现的。在 Swift 对象存储中,通过账户名 / 容器名 / 对象名三个名称组成一个位置的标识,通过该唯一标识可以计算出一个整型数来。而在存储设备方面,Swift 构建一个虚拟分区表,表的大小在创建集群时确定(通常为几十万),这个表其实就是一个数组。这样,根据上面计算的整数值,以及这个数组,通过一致性哈希算法就可以确定该整数在数组的位置。而数组中的每项内容是数据 3 个副本(也可以是其它副本数量)的设备信息(包含服务器和磁盘等信息)。也就是经过上述计算,可以确定一个数据存储的具体位置。这样,Swift 就可以将请求重新定向到该设备进行处理。

图 6 Swift 数据定位示意图
图 6 Swift 数据定位示意图

上述计算过程是在一个名为 Proxy 的服务中进行的,该服务可以集群化部署。因此可以分摊请求的负载,不会成为性能瓶颈。

本文介绍了三种最为通用的分布式存储架构及存储形式。其它存储架构也基本上基于上述架构,并没有太大的变化。因此,理解上述架构后,对于理解其它分布式存储会有很大的帮助。由于篇幅问题,本文介绍的不是十分详细,后续本号会更加详细的介绍每种架构的细节。

 

转自:

  • https://zhuanlan.zhihu.com/p/55964292
打赏 赞(0)
比特币钱包
以太坊钱包
比特币钱包二维码图片

比特币钱包扫描二维码打赏

以太坊钱包二维码图片

以太坊钱包扫描二维码打赏

Was this article helpful?

Related Articles

Leave A Comment?

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据