Redis源码阅读(五)集群-故障迁移(上)

时间:2021-07-08 05:25:51

        Redis源码阅读(五)集群-故障迁移(上)

  故障迁移是集群非常重要的功能;直白的说就是在集群中部分节点失效时,能将失效节点负责的键值对迁移到其他节点上,从而保证整个集群系统在部分节点失效后没有丢失数据,仍能正常提供服务。这里先抛开Redis实际的做法,我们可以自己想下对于Redis集群应该怎么做故障迁移,哪些关键点是必须要实现的。然后再去看Redis源码中具体的实现,是否覆盖了我们想到的关键点,有哪些设计是我们没有想到的,这样看代码的效果会比较好。

  我在思考故障迁移这个功能时,首先想到的是节点发生故障时要很快被集群中其他节点发现,尽量缩短集群不可用的时间;其次就是要选出失效节点上的数据可以被迁移到哪个节点上;在选择迁移节点时最好能够考虑节点的负载,避免迁移造成部分节点负载过高。另外,失效节点的数据在其失效前就应该实时的复制到其他节点上,因为一般情况下节点失效有很大概率是机器不可用,如果没有事先执行过数据复制,节点数据就丢失了。最后,就是迁移的执行,除了要将失效节点原有的键值对数据迁移到其他节点上,还要将失效节点原来负责的槽也迁移到其他节点上,而且槽和键值对应该同步迁移,要避免槽被分配到节点A而槽所对应的键值对被分配到节点B的情况。

  总结起来有实现集群故障迁移要实现下面关键点:
  1. 节点失效事件能被集群系统很快的发现
  2. 迁移时要能选择合适的节点
  3. 节点数据需要实时复制,在失效后可以直接使用复制的数据进行迁移
  4. 迁移要注意将槽和键值对同步迁移

  看过Redis源码后,发现Redis的故障迁移也是以主备复制为基础的,也就是说需要给每个集群主节点配置从节点,这样主节点的数据天然就是实时复制的,在主节点出现故障时,直接在从节点中选择一个接替失效主节点,将该从节点升级为主节点并通知到集群中所有其他节点即可,这样就无需考虑上面提到的第三点和第四点。如果集群中有节点没有配置从节点,那么就不支持故障迁移。


故障检测

  Redis的集群是无中心的,无法通过中心定时向各个节点发送心跳来判断节点是否故障。在Redis源码中故障的检测分三步:

1. 节点互发ping消息,将Ping超时的节点置为疑似下线节点

  在这一步中,每个节点都会向其他节点发送Ping消息,来检测其他节点是否和自己的连接有异常。但要注意的是即便检测到了其他节点Ping消息超时,也不能简单的认为其他节点是失效的,因为有可能是这个节点自己的网络异常,无法和其他节点通信。所以在这一步只是将检测到超时的节点置为疑似下线。例如:节点A向节点B发送Ping发现超时,则A会将节点B的状态置为疑似下线并保存在自己记录的集群节点信息中,存储的疑似下线信息就是之前提过的clusterState.nodes里对应的失效节点的flags状态值。
  // 默认节点超时时限
  #define REDIS_CLUSTER_DEFAULT_NODE_TIMEOUT 15000

2. 向其他节点共享疑似下线节点

  在检测到某个节点为疑似下线之后,会将这个节点的疑似下线情况分享给集群中其他的节点,分享的方式也是通过互发Ping消息,在ping消息中会带上集群中随机的三个节点的状态,前面在分析集群初始化时,曾介绍过利用gossip协议扩散集群节点状态给整个集群,这里节点的疑似下线状态也是通过这种方式传播给其他节点的。每条ping消息会带最多三个随机节点的状态信息
void clusterSendPing(clusterLink *link, int type) { //随机算去本节点所在集群中的任意两个其他node节点(不包括link本节点和link对应的节点)信息发送给link对应的节点
unsigned char buf[sizeof(clusterMsg)];
clusterMsg *hdr = (clusterMsg*) buf;
int gossipcount = , totlen;
/* freshnodes is the number of nodes we can still use to populate the
* gossip section of the ping packet. Basically we start with the nodes
* we have in memory minus two (ourself and the node we are sending the
* message to). Every time we add a node we decrement the counter, so when
* it will drop to <= zero we know there is no more gossip info we can
* send. */
int freshnodes = dictSize(server.cluster->nodes)-; //除去本节点和接收本ping信息的节点外,整个集群中有多少其他节点
// 如果发送的信息是 PING ,那么更新最后一次发送 PING 命令的时间戳
if (link->node && type == CLUSTERMSG_TYPE_PING)
link->node->ping_sent = mstime();
// 将当前节点的信息(比如名字、地址、端口号、负责处理的槽)记录到消息里面
clusterBuildMessageHdr(hdr,type);
/* Populate the gossip fields */
// 从当前节点已知的节点中随机选出两个节点
// 并通过这条消息捎带给目标节点,从而实现 gossip 协议
// 每个节点有 freshnodes 次发送 gossip 信息的机会
// 每次向目标节点发送 3 个被选中节点的 gossip 信息(gossipcount 计数)
while(freshnodes > && gossipcount < ) {
// 从 nodes 字典中随机选出一个节点(被选中节点)
dictEntry *de = dictGetRandomKey(server.cluster->nodes);
clusterNode *this = dictGetVal(de); clusterMsgDataGossip *gossip; ////ping pong meet消息体部分用该结构
int j; if (this == myself ||
this->flags & (REDIS_NODE_HANDSHAKE|REDIS_NODE_NOADDR) ||
(this->link == NULL && this->numslots == ))
{
freshnodes--; /* otherwise we may loop forever. */
continue;
} /* Check if we already added this node */
// 检查被选中节点是否已经在 hdr->data.ping.gossip 数组里面
// 如果是的话说明这个节点之前已经被选中了
// 不要再选中它(否则就会出现重复)
for (j = ; j < gossipcount; j++) { //这里是避免前面随机选择clusterNode的时候重复选择相同的节点
if (memcmp(hdr->data.ping.gossip[j].nodename,this->name,
REDIS_CLUSTER_NAMELEN) == ) break;
}
if (j != gossipcount) continue;
/* Add it */
// 这个被选中节点有效,计数器减一
freshnodes--;
// 指向 gossip 信息结构
gossip = &(hdr->data.ping.gossip[gossipcount]);
// 将被选中节点的名字记录到 gossip 信息
memcpy(gossip->nodename,this->name,REDIS_CLUSTER_NAMELEN);
// 将被选中节点的 PING 命令发送时间戳记录到 gossip 信息
gossip->ping_sent = htonl(this->ping_sent);
// 将被选中节点的 PING 命令回复的时间戳记录到 gossip 信息
gossip->pong_received = htonl(this->pong_received);
// 将被选中节点的 IP 记录到 gossip 信息
memcpy(gossip->ip,this->ip,sizeof(this->ip));
// 将被选中节点的端口号记录到 gossip 信息
gossip->port = htons(this->port);
// 将被选中节点的标识值记录到 gossip 信息
gossip->flags = htons(this->flags);
// 这个被选中节点有效,计数器增一
gossipcount++;
}
// 计算信息长度
totlen = sizeof(clusterMsg)-sizeof(union clusterMsgData);
totlen += (sizeof(clusterMsgDataGossip)*gossipcount);
// 将被选中节点的数量(gossip 信息中包含了多少个节点的信息)
// 记录在 count 属性里面
hdr->count = htons(gossipcount);
// 将信息的长度记录到信息里面
hdr->totlen = htonl(totlen);
// 发送信息
clusterSendMessage(link,buf,totlen);
}
  收到ping消息的节点,如果发现ping消息中带的某个节点属于疑似下线状态,则找到自身记录该节点的ClusterNode结构,并向该结构的下线报告链表中插入一条上报记录,上报源头为发出Ping的节点。例如:节点A向节点C发送了ping消息, ping消息中带上B节点状态,并且B节点状态为疑似下线,那么C节点收到这个Ping消息之后,就会查找自身记录节点B的clusterNode,向这个clusterNode的fail_reports链表中插入来自A的下线报告。

3. 收到集群中超过半数的节点认为某节点处于疑似下线状态,则判定该节点下线,并广播

  判定的时机是在每次收到一条ping消息的时候,当发现ping消息中带有某节点的疑似下线状态后,除了加入该节点的下线报告以外,还会调用markNodeAsFailingIfNeeded函数来尝试判断该节点是否已经被超过半数的节点判断为疑似下线,如果是的话,就将该节点状态置为下线,并调用clusterSendFail函数将下线状态广播给所有已知节点。这里广播不是通过订阅分发的方式,而是遍历所有节点,并给每个节点单独发送消息。
void clusterSendFail(char *nodename) {
//如果超过一半的主节点认为该nodename节点下线了,则需要把该节点下线信息同步到整个cluster集群
unsigned char buf[sizeof(clusterMsg)];
clusterMsg *hdr = (clusterMsg*) buf;
// 创建下线消息
clusterBuildMessageHdr(hdr,CLUSTERMSG_TYPE_FAIL);
// 记录命令
memcpy(hdr->data.fail.about.nodename,nodename,REDIS_CLUSTER_NAMELEN);
// 广播消息
clusterBroadcastMessage(buf,ntohl(hdr->totlen));
}
void clusterBroadcastMessage(void *buf, size_t len) { //buf里面的内容为clusterMsg+clusterMsgData
dictIterator *di;
dictEntry *de; // 遍历所有已知节点
di = dictGetSafeIterator(server.cluster->nodes);
while((de = dictNext(di)) != NULL) {
clusterNode *node = dictGetVal(de); // 不向未连接节点发送信息
if (!node->link) continue; // 不向节点自身或者 HANDSHAKE 状态的节点发送信息
if (node->flags & (REDIS_NODE_MYSELF|REDIS_NODE_HANDSHAKE))
continue; // 发送信息
clusterSendMessage(node->link,buf,len);
}
dictReleaseIterator(di);
  从节点判断自己所属的主节点下线,则开始进入故障转移流程。如果主节点下只有一个从节点,那么很自然的可以直接进行切换,但如果主节点下的从节点不只一个,那么还需要选出一个新的主节点。这里的选举过程使用了比较经典的分布式一致性算法Raft,下一篇会介绍Redis中选举新主节点的过程。