高阶Java开发必备:分布式系统的唯一id生成算法你了解吗?【石杉的架构笔记】

9,311 阅读12分钟

欢迎关注微信公众号:石杉的架构笔记(id:shishan100)

我的新课**《C2C 电商系统微服务架构120天实战训练营》在公众号儒猿技术窝**上线了,感兴趣的同学,可以点击下方链接了解详情:

《C2C 电商系统微服务架构120天实战训练营》

精品学习资料获取通道,参见文末

“ 之前一篇文章,我们聊了一下分库分表相关的一些基础知识,具体可以参见:支撑日活百万用户的高并发系统,应该如何设计其数据库架构?

这篇文章,我们就接着分库分表的知识,来具体聊一下全局唯一id如何生成。

在分库分表之后你必然要面对的一个问题,就是id咋生成?

因为要是一个表分成多个表之后,每个表的id都是从1开始累加自增长,那肯定不对啊。

举个例子,你的订单表拆分为了1024张订单表,每个表的id都从1开始累加,这个肯定有问题了!

你的系统就没办法根据表主键来查询订单了,比如id = 50这个订单,在每个表里都有!

所以此时就需要分布式架构下的全局唯一id生成的方案了,在分库分表之后,对于插入数据库中的核心id,不能直接简单使用表自增id,要全局生成唯一id,然后插入各个表中,保证每个表内的某个id,全局唯一。

比如说订单表虽然拆分为了1024张表,但是id = 50这个订单,只会存在于一个表里。

那么如何实现全局唯一id呢?有以下几种方案。

(1)方案一:独立数据库自增id

这个方案就是说你的系统每次要生成一个id,都是往一个独立库的一个独立表里插入一条没什么业务含义的数据,然后获取一个数据库自增的一个id。拿到这个id之后再往对应的分库分表里去写入。

比如说你有一个auto_id库,里面就一个表,叫做auto_id表,有一个id是自增长的。

那么你每次要获取一个全局唯一id,直接往这个表里插入一条记录,获取一个全局唯一id即可,然后这个全局唯一id就可以插入订单的分库分表中。

这个方案的好处就是方便简单,谁都会用。缺点就是单库生成自增id,要是高并发的话,就会有瓶颈的,因为auto_id库要是承载个每秒几万并发,肯定是不现实的了。

(2)方案二:uuid

这个每个人都应该知道吧,就是用UUID生成一个全局唯一的id。

好处就是每个系统本地生成,不要基于数据库来了

不好之处就是,uuid太长了,作为主键性能太差了,不适合用于主键。

如果你是要随机生成个什么文件名了,编号之类的,你可以用uuid,但是作为主键是不能用uuid的。

(3)方案三:获取系统当前时间

这个方案的意思就是获取当前时间作为全局唯一的id。

但是问题是,并发很高的时候,比如一秒并发几千,会有重复的情况,这个是肯定不合适的。

一般如果用这个方案,是将当前时间跟很多其他的业务字段拼接起来,作为一个id,如果业务上你觉得可以接受,那么也是可以的。

你可以将别的业务字段值跟当前时间拼接起来,组成一个全局唯一的编号,比如说订单编号:时间戳 + 用户id + 业务含义编码

(4)方案四:snowflake算法的思想分析

snowflake算法,是twitter开源的分布式id生成算法。

其核心思想就是:使用一个64 bit的long型的数字作为全局唯一id,这64个bit中,其中1个bit是不用的,然后用其中的41 bit作为毫秒数,用10 bit作为工作机器id,12 bit作为序列号。

给大家举个例子吧,比如下面那个64 bit的long型数字,大家看看

上面第一个部分,是1个bit:0,这个是无意义的

上面第二个部分是41个bit:表示的是时间戳

上面第三个部分是5个bit:表示的是机房id,10001

上面第四个部分是5个bit:表示的是机器id,1 1001

上面第五个部分是12个bit:表示的序号,就是某个机房某台机器上这一毫秒内同时生成的id的序号,0000 00000000

  • 1 bit:是不用的,为啥呢?

因为二进制里第一个bit为如果是1,那么都是负数,但是我们生成的id都是正数,所以第一个bit统一都是0

  • 41 bit:表示的是时间戳,单位是毫秒。

41 bit可以表示的数字多达2^41 - 1,也就是可以标识2 ^ 41 - 1个毫秒值,换算成年就是表示69年的时间。

  • 10 bit:记录工作机器id,代表的是这个服务最多可以部署在2^10台机器上,也就是1024台机器。

但是10 bit里5个bit代表机房id,5个bit代表机器id。意思就是最多代表2 ^ 5个机房(32个机房),每个机房里可以代表2 ^ 5个机器(32台机器)。

  • 12 bit:这个是用来记录同一个毫秒内产生的不同id。

12 bit可以代表的最大正整数是2 ^ 12 - 1 = 4096,也就是说可以用这个12bit代表的数字来区分同一个毫秒内的4096个不同的id

简单来说,你的某个服务假设要生成一个全局唯一id,那么就可以发送一个请求给部署了snowflake算法的系统,由这个snowflake算法系统来生成唯一id。

这个snowflake算法系统首先肯定是知道自己所在的机房和机器的,比如机房id = 17,机器id = 12。

接着snowflake算法系统接收到这个请求之后,首先就会用二进制位运算的方式生成一个64 bit的long型id,64个bit中的第一个bit是无意义的。

接着41个bit,就可以用当前时间戳(单位到毫秒),然后接着5个bit设置上这个机房id,还有5个bit设置上机器id。

最后再判断一下,当前这台机房的这台机器上这一毫秒内,这是第几个请求,给这次生成id的请求累加一个序号,作为最后的12个bit。

最终一个64个bit的id就出来了,类似于:

这个算法可以保证说,一个机房的一台机器上,在同一毫秒内,生成了一个唯一的id。可能一个毫秒内会生成多个id,但是有最后12个bit的序号来区分开来。

下面我们简单看看这个snowflake算法的一个代码实现,这就是个示例,大家如果理解了这个意思之后,以后可以自己尝试改造这个算法。

总之就是用一个64bit的数字中各个bit位来设置不同的标志位,区分每一个id。

(5)snowflake算法的代码实现

public class IdWorker {
  private long workerId; // 这个就是代表了机器id
  private long datacenterId; // 这个就是代表了机房id
  private long sequence; // 这个就是代表了一毫秒内生成的多个id的最新序号
  public IdWorker(long workerId, long datacenterId, long sequence) {
    // sanity check for workerId
    // 这儿不就检查了一下,要求就是你传递进来的机房id和机器id不能超过32,不能小于0
    if (workerId > maxWorkerId || workerId < 0) {

      throw new IllegalArgumentException(
        String.format("worker Id can't be greater than %d or less than 0",maxWorkerId));
    }

    if (datacenterId > maxDatacenterId || datacenterId < 0) {

      throw new IllegalArgumentException(
        String.format("datacenter Id can't be greater than %d or less than 0",maxDatacenterId));
    }
    this.workerId = workerId;
    this.datacenterId = datacenterId;
    this.sequence = sequence;
  }
  private long twepoch = 1288834974657L;
  private long workerIdBits = 5L;
  private long datacenterIdBits = 5L;

  // 这个是二进制运算,就是5 bit最多只能有31个数字,也就是说机器id最多只能是32以内
  private long maxWorkerId = -1L ^ (-1L << workerIdBits); 
  // 这个是一个意思,就是5 bit最多只能有31个数字,机房id最多只能是32以内
  private long maxDatacenterId = -1L ^ (-1L << datacenterIdBits); 
  private long sequenceBits = 12L;
  private long workerIdShift = sequenceBits;
  private long datacenterIdShift = sequenceBits + workerIdBits;
  private long timestampLeftShift = sequenceBits + workerIdBits + datacenterIdBits;
  private long sequenceMask = -1L ^ (-1L << sequenceBits);
  private long lastTimestamp = -1L;
  public long getWorkerId(){
    return workerId;
  }
  public long getDatacenterId() {
    return datacenterId;
  }
  public long getTimestamp() {
    return System.currentTimeMillis();
  }
  // 这个是核心方法,通过调用nextId()方法,让当前这台机器上的snowflake算法程序生成一个全局唯一的id
  public synchronized long nextId() {
    // 这儿就是获取当前时间戳,单位是毫秒
    long timestamp = timeGen();
    if (timestamp < lastTimestamp) {
      System.err.printf(
        "clock is moving backwards. Rejecting requests until %d.", lastTimestamp);
      throw new RuntimeException(
        String.format("Clock moved backwards. Refusing to generate id for %d milliseconds",
               lastTimestamp - timestamp));
    }

    // 下面是说假设在同一个毫秒内,又发送了一个请求生成一个id
    // 这个时候就得把seqence序号给递增1,最多就是4096
    if (lastTimestamp == timestamp) {

      // 这个意思是说一个毫秒内最多只能有4096个数字,无论你传递多少进来,
      //这个位运算保证始终就是在4096这个范围内,避免你自己传递个sequence超过了4096这个范围
      sequence = (sequence + 1) & sequenceMask; 
      if (sequence == 0) {
        timestamp = tilNextMillis(lastTimestamp);
      }

    } else {
      sequence = 0;
    }
    // 这儿记录一下最近一次生成id的时间戳,单位是毫秒
    lastTimestamp = timestamp;
    // 这儿就是最核心的二进制位运算操作,生成一个64bit的id
    // 先将当前时间戳左移,放到41 bit那儿;将机房id左移放到5 bit那儿;将机器id左移放到5 bit那儿;将序号放最后12 bit
    // 最后拼接起来成一个64 bit的二进制数字,转换成10进制就是个long型
    return ((timestamp - twepoch) << timestampLeftShift) |
        (datacenterId << datacenterIdShift) |
        (workerId << workerIdShift) | sequence;
  }
  private long tilNextMillis(long lastTimestamp) {

    long timestamp = timeGen();

    while (timestamp <= lastTimestamp) {
      timestamp = timeGen();
    }
    return timestamp;
  }
  private long timeGen(){
    return System.currentTimeMillis();
  }
  //---------------测试---------------
  public static void main(String[] args) {

    IdWorker worker = new IdWorker(1,1,1);

    for (int i = 0; i < 30; i++) {
      System.out.println(worker.nextId());
    }
  }
}

(6)snowflake算法一个小小的改进思路

其实在实际的开发中,这个snowflake算法可以做一点点改进。

因为大家可以考虑一下,我们在生成唯一id的时候,一般都需要指定一个表名,比如说订单表的唯一id。

所以上面那64个bit中,代表机房的那5个bit,可以使用业务表名称来替代,比如用00001代表的是订单表。

因为其实很多时候,机房并没有那么多,所以那5个bit用做机房id可能意义不是太大。

这样就可以做到,snowflake算法系统的每一台机器,对一个业务表,在某一毫秒内,可以生成一个唯一的id,一毫秒内生成很多id,用最后12个bit来区分序号对待。

End

(封面图源网络,侵权删除)

扫描下方二维码,备注:“资料”,获取更多“秘制” 精品学习资料

![](https://p1-jj.byteimg.com/tos-cn-i-t2oaga2asx/gold-user-assets/2019/2/18/169007e734f5d1b5~tplv-t2oaga2asx-image.image)

如有收获,请帮忙转发,您的鼓励是作者最大的动力,谢谢!

一大波微服务、分布式、高并发、高可用的原创系列文章正在路上

欢迎扫描下方二维码,持续关注:

![](https://p1-jj.byteimg.com/tos-cn-i-t2oaga2asx/gold-user-assets/2019/1/9/16833096471eb0ef~tplv-t2oaga2asx-image.image)

石杉的架构笔记(id:shishan100)

十余年BAT架构经验倾囊相授

推荐阅读:

1、拜托!面试请不要再问我Spring Cloud底层原理

2、【双11狂欢的背后】微服务注册中心如何承载大型系统的千万级访问?

3、【性能优化之道】每秒上万并发下的Spring Cloud参数优化实战

4、微服务架构如何保障双11狂欢下的99.99%高可用

5、兄弟,用大白话告诉你小白都能听懂的Hadoop架构原理

6、大规模集群下Hadoop NameNode如何承载每秒上千次的高并发访问

7、【性能优化的秘密】Hadoop如何将TB级大文件的上传性能优化上百倍

8、拜托,面试请不要再问我TCC分布式事务的实现原理!

9、【坑爹呀!】最终一致性分布式事务如何保障实际生产中99.99%高可用?

10、拜托,面试请不要再问我Redis分布式锁的实现原理!

11、【眼前一亮!】看Hadoop底层算法如何优雅的将大规模集群性能提升10倍以上?

12、亿级流量系统架构之如何支撑百亿级数据的存储与计算

13、亿级流量系统架构之如何设计高容错分布式计算系统

14、亿级流量系统架构之如何设计承载百亿流量的高性能架构

15、亿级流量系统架构之如何设计每秒十万查询的高并发架构

16、亿级流量系统架构之如何设计全链路99.99%高可用架构

17、七张图彻底讲清楚ZooKeeper分布式锁的实现原理

18、大白话聊聊Java并发面试问题之volatile到底是什么?

19、大白话聊聊Java并发面试问题之Java 8如何优化CAS性能?

20、大白话聊聊Java并发面试问题之谈谈你对AQS的理解?

21、大白话聊聊Java并发面试问题之公平锁与非公平锁是啥?

22、大白话聊聊Java并发面试问题之微服务注册中心的读写锁优化

23、互联网公司的面试官是如何360°无死角考察候选人的?(上篇)

24、互联网公司面试官是如何360°无死角考察候选人的?(下篇)

25、Java进阶面试系列之一:哥们,你们的系统架构中为什么要引入消息中间件?

26、【Java进阶面试系列之二】:哥们,那你说说系统架构引入消息中间件有什么缺点?

27、【行走的Offer收割机】记一位朋友斩获BAT技术专家Offer的面试经历

28、【Java进阶面试系列之三】哥们,消息中间件在你们项目里是如何落地的?

29、【Java进阶面试系列之四】扎心!线上服务宕机时,如何保证数据100%不丢失?

30、一次JVM FullGC的背后,竟隐藏着惊心动魄的线上生产事故!

31、【高并发优化实践】10倍请求压力来袭,你的系统会被击垮吗?

32、【Java进阶面试系列之五】消息中间件集群崩溃,如何保证百万生产数据不丢失?

33、亿级流量系统架构之如何在上万并发场景下设计可扩展架构(上)?

34、亿级流量系统架构之如何在上万并发场景下设计可扩展架构(中)?

35、亿级流量系统架构之如何在上万并发场景下设计可扩展架构(下)?

36、亿级流量架构第二弹:你的系统真的无懈可击吗?

37、亿级流量系统架构之如何保证百亿流量下的数据一致性(上)

38、亿级流量系统架构之如何保证百亿流量下的数据一致性(中)?

39、亿级流量系统架构之如何保证百亿流量下的数据一致性(下)?

40、互联网面试必杀:如何保证消息中间件全链路数据100%不丢失(1)

41、互联网面试必杀:如何保证消息中间件全链路数据100%不丢失(2

42、面试大杀器:消息中间件如何实现消费吞吐量的百倍优化?

43、高并发场景下,如何保证生产者投递到消息中间件的消息不丢失?

44、兄弟,用大白话给你讲小白都能看懂的分布式系统容错架构

45、从团队自研的百万并发中间件系统的内核设计看Java并发性能优化

46、【非广告,纯干货】英语差的程序员如何才能无障碍阅读官方文档?

47、如果20万用户同时访问一个热点缓存,如何优化你的缓存架构?

48、【非广告,纯干货】中小公司的Java工程师应该如何逆袭冲进BAT?

49、拜托,面试请不要再问我分布式搜索引擎的架构原理!

50、【金三银四跳槽季】Java工程师如何在1个月内做好面试准备?

51、【offer收割机必备】我简历上的Java项目都好low,怎么办?

52、【offer去哪了】我一连面试了十个Java岗,统统石沉大海!

作者:石杉的架构笔记
链接:juejin.cn/post/684490…
来源:掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。