Chord (Consistent Hashing, DHT)
Table of Contents
1. Chord 简介
Chord 是一种能在 P2P 网络中快速定位资源的的算法,可以认为它是分布式哈希表(Distributed hash table, DHT)的一种实现,它同时也是一种一致性哈希(Consistent Hashing)算法。Chord 算法本身并不关心资源是如何存储的,只是从算法层面研究资源的取得,我们可以认为 Chord 的 API 简单到只有 set 和 get。
Chord 论文:Chord: A scalable peer-to-peer lookup service for internet applications
2. Chord 算法描述(转载)
本节内容摘自(有少量编辑)网友博文:https://www.cnblogs.com/gnuhpc/archive/2012/01/13/2321476.html
2.1. 问题描述
P2P 的一个常见问题是如何高效地定位节点,也就是说,一个节点怎样高效地知道在网络中的哪个节点包含它所寻找的数据,如图 1 所示。
Figure 1: 如何高效地定位节点
2.1.1. 解决办法
对于上面问题,有几种比较典型的办法来解决。
方案一、Napster:使用一个中心服务器接收所有的查询,服务器告知去哪下载其所需要的数据。如图 2 所示。存在的问题是中心服务器单点失效导致整个网络瘫痪。
Figure 2: 中心服务器(Napster 方案)
方案二、Gnutella:使用消息洪泛(message flooding)来定位数据。一个消息被发到系统内每一个节点,直到找到其需要的数据为止。如图 3 所示。当然,使用生存时间(TTL)来限制网络内转发消息的数量。存在的问题是消息数与节点数成线性关系,导致网络负载较重。
Figure 3: 消息洪泛(Gnutella 方案)
方案三、SN(Super Node)型。现在大多数采用所谓超级节点(Super Node),SN 保存网络中节点的索引信息,这一点和中心服务器类型一样,但是网内有多个 SN,其索引信息会在这些 SN 中进行传播,所以整个系统的崩溃几率就会小很多。尽管如此,网络还是有崩溃的可能。
方案四、分布式哈希表系统(Distributed Hash Table,DHT)。主要思想是: 首先,每条文件索引被表示成一个(K, V)对,K称为关键字,可以是文件名(或文件的其他描述信息)的哈希值,V是实际存储文件的节点的 IP 地址(或节点的其他描述信息)。所有的文件索引条目(即所有的(K, V)对)组成一张大的文件索引哈希表,只要输入目标文件的 K 值,就可以从这张表中查出所有存储该文件的节点地址。然后,再将上面的大文件哈希表分割成很多局部小块,按照特定的规则把这些小块的局部哈希表分布到系统中的所有参与节点上,使得每个节点负责维护其中的一块。 这样,节点查询文件时,只要把查询报文路由到相应的节点即可(该节点维护的哈希表分块中含有要查找的(K,V)对)。如图 4 所示。
Figure 4: 分布式哈希表
这里介绍的 Chord 算法就是解决网络内节点定位问题的一种 DHT 实现。它通过多个节点跳转找到我们所查找的资源。
2.2. Chord 基本要素
节点 ID:NID(node identifier),表示一个物理机器,m 位的一个数字(m 要足够大以保证不同节点的 NID 相同的几率小的可以忽略不计),由节点机器的 IP 地址通过哈希操作得到。
资源 ID;KID(key identifiers),原为键 ID,其实际表示一个资源(因为 Key 与一个资源 value 哈希绑定),故在本文中统称资源 ID(这样比较直观),m 位的一个数字(m要足够大以保证不同资源的 KID 相同的几率小的可以忽略不计),由 Key 通过哈希操作得到。
常哈希函数:较之一般哈希函数,节点的加入和离开对整个系统影响最小,另外还有一些优势在此不赘述。在 Chord 中使用 SHA-1 来进行常哈希计算。
Chord 环: NID 和 KID 都被分配到一个大小为
Figure 5: 节点 ID 和资源 ID 在同一个环上,且资源 ID 代表的数据存放在顺时针方向“下一个”节点 ID 上(如 K10 被分配给了 N14)
2.3. Chord 资源定位(Key Location)
资源定位是 Chord 协议的核心功能,为了便于理解,我们先介绍一个简单的资源定位方法,然后再介绍这个可伸缩的资源定位方法。
2.3.1. 简单的资源定位方法
考虑如下场景:节点 n 寻找 KID 为 id 的资源,此时节点 n 首先问询是否在下一个节点上(find_successor),这要看资源 k 的 KID 是否在该节点 NID 和下一个节点的 NID 之间,若在则说明资源 k 被分配给了下一个节点,若不在则在下一个节点上发起同样的查询,问询下下一个点是否有该资源。如此迭代下去,用伪代码定义这个操作:
n.find_successor(id) if (id є (n; successor]) return successor; else // 将查询沿着环进行下去 return successor.find_successor(id);
如图 6 所示。
Figure 6: 简单的资源定位方法(效率不高)
节点 N8 寻找 K54 这个资源,N8.find_successor(K54)发现下一个节点 N14 不合符
在一个有 N 个节点的环上,这样的查找方法显然在最坏的时候要查找 N 次才能得到所需资源的位置,查找次数与节点个数成线性关系。显然,这样的效率不给力,所以 Chord 使用了可伸缩资源定位的方式来提高效率。
2.3.2. 可伸缩方法(Chord 方法)
在每个节点 N 上都维护了最多有 m 项(m 为 ID 的位数)的路由表(称为 finger table),用来定位资源。这个表的第
Figure 7: Chord 路由表实例(称为 finger table)
节点 N8 的路由表中(如图 7 所示),左边那一栏包含了 N8+1 到 N8+32 的位置,右边那一栏每个位置对应的实际存在的节点。比如 N8+1-->N14,表示在 N8 后的第一个位置上的资源由 N14 来负责。这样记录有以下优势:
- 每个节点只包含全网中一小部分节点的信息。
- 每个节点对于临近节点负责的位置知道的更多,比如 N8 节点对于 N14 负责的位置知道 3 处,而对 N21 负责的位置只知道 1 处。
- 路由表通常不包含直接找到后继节点的信息,往往需要询问其他节点来完成。
当在某个节点上查找资源时,首先判断其后继节点是不是就持有该资源, 若没有则直接从该节点的路由表从最远处开始查找, 看哪一项离持有资源的节点最近(发现后跳转),若没有则说明本节点自身就有要寻找的资源。如此迭代下去。
例如:节点 N8 寻找 K54 这个资源,如图 8 所示。
Figure 8: 节点 N8 寻找 K54 这个资源
首先,在 N8 上查找后继节点为 N14,发现 K54 并不符合
Figure 9: N8 节点的路由表
我们发现路由表中最远的一项 N8+32=N42 满足
N42 节点的路由表为图 10 所示。
Figure 10: N42 节点的路由表
我们由远及近开始查找,发现 N42+8=N51 满足
2.4. Chord 的节点加入
Chord 通过在每个节点的后台周期性的进行 stabilization 询问后继节点的前序节点是不是自己来更新后继节点以及路由表中的项。
有下面几个操作:
join():节点 n 想加入时,调用 join(n')。其中 n'可以是任意节点,n'负责找到新节点 n 的直接后继节点。
stabilize(): 每个节点周期性地运行这个操作,以询问后继节点的前序节点是不是自己。
notify(): 如果 stabilize()过程中发现节点关系变化,则通过相邻节点做调整。
fix_fingers(): 修改路由表。
具体的,例如:图 11 是原先的结构。
Figure 11: 加入节点前的结构
现在 N26 节点要加入系统,首先它指向其后继 N32,然后通知 N32,N32 接到通知后将 N26 标记为它的前序节点(predecessor)。如图 12 所示。
Figure 12: N26 节点想要加入系统
然后 N26 修改路由表,如图 13 所示。
Figure 13: N26 修改路由表
下一次 N21 运行 stabilize()询问其后继节点 N32 的前序节点是不是还是自己,此时发现 N32 的前序节点已经是 N26,如图 14 所示。
Figure 14: N21 通知 N26 修改前继节点
于是 N21 就将后继节点修改为 N26,并通知 N26 自己已经将其设置为后继节点,N26 接到通知后将 N21 设置为自己的前序节点。
这个加入操作会带来两方面的影响:
1)、正确性方面:当一个节点加入系统,而一个查找发生在 stabilization 结束前,那么此时系统会有三个状态:
A、所有后继指针和路由表项都正确时:对正确性没有影响。
B、后继指针正确但表项不正确:查找结果正确,但速度稍慢(在目标节点和目标节点的后继处加入非常多个节点时)。
C、后继指针和路由表项都不正确:此时查找失败,Chord 上层的软件会发现数据查找失败,在一段时间后会进行重试。
总结一下:节点加入对数据查找没有影响。
2)、效率方面:当 stabilization 完成时,对查找效率的影响不会超过 O(log N) 的时间。当 stabilization 未完成时,在目标节点和目标节点的后继处加入非常多个节点时才会有性能影响。可以证明,只要路由表调整速度快于网络节点数量加倍的速度,性能就不受影响。
2.5. Chord 节点失败的处理
我们可以看出,Chord 依赖后继指针的正确性以保证整个网络的正确性。但如图,若 N14, N21, N32 同时失效,那么 N8 是不会知道 N38 是它新的后继节点。为了防止这样的情况,每个节点都包含一个大小为 r 的后继节点列表,一个后继节点失效了就依次尝试列表中的其他后继节点。可以证明,在失效几率为 1/2 的网络中,寻找后继的时间为 O(log N) 。
3. Consistent Hashing 和 DHT 的区别
分布式哈希(DHT)和一致性哈希(Consistent Hashing)有什么区别呢?
分布式哈希: 将哈希表分散在不同的节点上,并且提供相应的方法来查找。
一致性哈希: 当节点宕机或者扩容的时候,需要重新哈希,一致性哈希实现的 DHT 避免对大量的数据重新哈希(如 Chord 算法就是一种一致性哈希算法),所以 一致性哈希是 DHT 的一种实现。
DHT 还有其它的实现算法,如著名的 Kademlia 等等,DHT 相关算法可参考:https://en.wikipedia.org/wiki/Distributed_hash_table#DHT_protocols_and_implementations