原文:/go/
SnowFlake算法原理介绍
在分布式系统中会将一个业务的系统部署到多台服务器上,用户随机访问其中一台,而之所以引入分布式系统就是为了让整个系统能够承载更大的访问量。诸如订单号这些我们需要它是全局唯一的,同时我们基本上都会将它作为查询条件;出于系统安全考虑不应当让其它人轻易的就猜出我们的订单号,同时也要防止公司的竞争对手直接通过订单号猜测出公司业务体量;为了保证系统的快速响应那么生成算法不能太耗时。而雪花算法正好解决了这些问题。
SnowFlake 算法(雪花算法), 是Twitter开源的分布式id生成算法。其核心思想就是: 使用一个64 bit的long型的数字作为全局唯一id。它的结构如下:
下面我们来对每一部分进一步的分析:
- 符号标识位(1位):计算机中为了区分负数(1)和正数(0),设计者将第一位做为符号位,ID通常使用正数,因此最高位固定为0;
- 41位时间截(毫秒),这个是使用 当前时间 减去 开始时间 得到的值;因此一旦我们的算法投入使用,那么程序中设置的开始时间就不能再去随意更改了,否则将可能出现重复的id值;
由于是基于时间来实现的且只有41位,由此可以计算出该算法只能使用70年左右:(2^41)/(1000*60*60*24*365) = 69.7 年
; - 10位机器ID:共计1024个节点,通常将其分为2部分:机房ID(dataCenterId) 和 机器ID(workerId);
- 12 位序列号:毫秒内的计数,共计4098个;简单来说就是每毫秒内从0开始计算得到值;
最终SnowFlake算法总结如下:整体上按照时间自增排序,并且整个分布式系统内不会产生ID 碰撞(由机房ID和机器ID作区分),并且效率较高。最多支持1024台机器,每台机器每毫秒能够生成最多4096个ID,整个集群理论上每秒可以生成 1024 * 1000 * 4096 = 42 亿个ID。
这里不要觉得每毫秒4098个ID少了,我们计算一下每台机器理论上每秒可以支持 4096*1000 = 400万左右;要知道天猫双11那么大的订单量每秒也才50万笔;因此是完全够用的。
算法实现
type SnowFlakeIdWorker struct {
// 开始时间戳
twepoch int64
// 机器ID所占的位数
workerIdBits int64
// 数据标识ID所占的位数
dataCenterIdBits int64
// 支持的最大机器ID
maxWorkerId int64
// 支持的最大机房 ID
maxDataCenterId int64
// 序列在ID中占的位数
sequenceBits int64
// 机器ID向左移位数
workerIdShift int64
// 机房ID向左移位数
dataCenterIdShift int64
// 时间截向左移位数
timestampLeftShift int64
// 生成序列的掩码最大值
sequenceMask int64
// 工作机器ID
workerId int64
// 机房ID
dataCenterId int64
/**
* 毫秒内序列
*/
sequence int64
// 上次生成ID的时间戳
lastTimestamp int64
// 锁
lock sync.Mutex
}
func (p *SnowFlakeIdWorker) init(dataCenter