This document includes changes about dataservice and new features to support the recovery after it crashed. Signed-off-by: sunby <bingyi.sun@zilliz.com>
3.0 KiB
timetick 相关改动
Datanode发送timetick msg需要有channel的信息,DataService根据channel来检查segment是否可以seal和flush
服务发现
DataService启动时检查是否有新的或重启过的DataNode,如果有重启过的,重新注册channel,并seek到上次记录的位置
通过watch机制监听DataNode的状态,如果DataNode下线,其注册的channel重新分配到其他node,并seek到上次的位置(重新分配不一定现在做)
如果监听到DataNode重新上线,向其注册channel,并seek到上次记录的位置
如果监听到有新的DataNode注册,记录其状态,后续向其注册channel或进行load balance(load balance不一定现在做)
DataNode如果由于网络原因与etcd断开,应该重启服务发现,DataService会去重新注册channel,DataNode不能重复监听相同channel
需要记录的信息
- cluster信息(包括Datanode的节点及其上面的channel)
- segment 分配信息(最后一次分配的过期时间,segment的上限等)
- stats 和 segment flush channel最后位置
- DataNode向DataService发送channel的最后位置
重启恢复流程
-
内存状态恢复:
- 基本组件启动(meta, etcd等)
- 恢复segment allocator和cluster状态
-
与DataNode节点交互:
- 启动stats/segment flush channel,并seek到上次记录的位置
- 启动timetick channel
-
与Master交互:
- 启动时不需要和Master交互,Collection信息为空,需要用到时向Master请求并缓存
- 启动new segment channel
-
启动服务发现
目前channel注册是segment allocation驱动的,每次请求segment时,检查其channel有没有被注册,没有则将其注册到DataNode,并保存到本地。这里有个问题,如果channel注册成功,DataService挂掉了,那么在重启后,DataService并不知道已经注册成功,来一个新的请求,还是会去注册,而且可能注册到不同的DataNode上面。类似Transaction的情况,需要有一套机制保证原子性在多节点写入,目前不太好解决。可以用以下步骤临时解决:
- 在etcd上记录分配方法entry,状态是未完成
- 向DataNode注册
- 在etcd上将entry标记为完成
重启时/分配时,如果发现有未完成的entry,重新向DataNode注册,需要DataNode保证幂等性。
这样保证了一个channel只向一个DataNode注册,如果DataNode挂掉或者与etcd断开,如果需要重新分配到其他DataNode,这些entry也跟着变。
DataService模块中,有些策略是可能频繁改变的,比如channel对DataNode的分配策略,可以是随机/顺序/平均/根据collection分散等等策略,比如检测到DataNode创建和下线,可能会不处理/balance/将下线节点的channel转移到其他节点等。比如segment allocation可能会根据文件大小/条数等来确定是否关闭。实现应该把这些策略相关抽出来,方便以后修改。