围观:基于事件机制的内部解耦之心路历程

989 阅读7分钟

每篇文章都有属于它自己的故事,没有故事的文章是没有灵魂的文章。而我就是这个灵魂摆渡人。

主人公张某某,这边不方便透露姓名,就叫小张吧。小张在一家小型的互联网创业团队中就职。

职位是Java后端开发,所以整体和业务代码打交道在所难免。

之前有个搜索相关的需求,而且数量量也算比较大,就采用了ElasticSearch来做搜索。第一版由于时间比较赶,做的比较粗糙。越到后面发现代码越难写下去了,主要是在更新索引数据的场景没处理好,才有了今天的故事。

基础入门

Spring Event

Spring的事件就是观察者设计模式,一个任务结束后需要通知任务进行下一步的操作,就可以使用事件来驱动。

在Spring中使用事件机制的步骤如下:

  • 自定义事件对象,继承 ApplicationEvent
  • 自定义事件监听器,实现 ApplicationListener 或者通过 @EventListener 注解到方法上实现监听
  • 自定义发布者,通过 applicationContext.publishEvent()发布事件

Spring Event在很多开源框架中都有使用案例,比如Spring Cloud中的Eureka里面就有使用

event包

图片

定义Event

图片

发布Event

图片

Guava EventBus

EventBus是Guava的事件处理机制,在使用层面和Spring Event差不多。这里不做过多讲解,今天主要讲Spring Event。

业务背景

所有的数据都会有一个定时任务去同步数据到ElasticSearch中,业务中直接从ElasticSearch查询数据返回给调用方。

之所以把所有数据都存入ElasticSearch是为了方便,如果只存储搜索的字段,那么搜索出来后就还需要去数据库查询其他信息进行组装。

就是由于所有数据都会存储ElasticSearch中,所以当这些数据发生变更的时候我们需要去刷新ElasticSearch中的数据,这个就是我们今天文章的核心背景。

假设我们ElasticSearch中的数据是文章信息,也就是我们经常看的技术文章,这个文章中存储了访问量,点赞量,评论量等信息。

当这些动作发生的时候,都需要去更新ElasticSearch的数据才行,我们默认的操作都是更新数据库中的数据,ElasticSearch是由定时任务去同步的,同步会有周期,做不到毫秒别更新。

实现方案-倔强青铜

倔强青铜就是在每个会涉及到数据变更的地方,去手动调用代码进行数据的刷新操作,弊端在于每个地方都要去调用,这还是简单的场景,有复杂的业务场景,一个业务操作可能会涉及到很多数据的刷新,也就是需要调用很多次,模拟代码如下:

// 浏览
public void visit() {
	articleIndexService.reIndex(articleId);
    XXXIndexService.reIndex(articleId);
    ........
}
	
// 评论
public void comment() {
	articleIndexService.reIndex(articleId);
}

实现方案-秩序白银

倔强青铜的弊端在于不解耦,而且是同步调用,如果在事务中会加长事务的时间。所以我们需要一个异步的方案来执行重建索引的逻辑。

经过大家激烈的讨论,而项目也是以Spring Boot为主,所以选择了Spring Event来作为异步方案。

定义一个重建文章索引的Event,代码如下:

public class ArticleReIndexEvent extends ApplicationEvent {
	private String id;
	
	public ArticleReIndexEvent(Object source, String id) {
		super(source);
		this.id = id;
	}
	
	public String getId() {
		return id;
	}
	
}

然后写一个EventListener来监听事件,进行业务逻辑处理,代码如下:

@Component
public class MyEventListener {
	
	@EventListener
	public void onEvent(ArticleReIndexEvent event) {
		System.out.println(event.getId());
	}
}

使用的地方只需要发布一个Event就可以,这个动作默认是同步的,如果我们想让这个操作不会阻塞,变成异步只需要在@EventListener上面再增加一个@Async注解。

// 浏览
public void visit() {
	applicationContext.publishEvent(new ArticleReIndexEvent(this, articleId));
	applicationContext.publishEvent(new XXXReIndexEvent(this, articleId));
}
	
// 评论
public void comment() {
	applicationContext.publishEvent(new ArticleReIndexEvent(this, articleId));
}

实现方案-荣耀黄金

秩序白银的方案在代码层面确实解耦了,但是使用者发布事件需要关注的点太多了,也就是我改了某个表的数据,我得知道有哪些索引会用到这张表的数据,我得把这些相关的事件都发送出去,这样数据才会异步进行刷新。

当业务复杂后或者有新来的同事,不是那么的了解业务,压根不可能知道说我改了这个数据对其他那些索引有影响,所以这个方案还是有优化的空间。

荣耀黄金的方案是将所有的事件都统一为一个,然后在事件里加属性来区分修改的数据是哪里的。每个数据需要同步变更的索引都有自己的监听器,去监听这个统一的事件,这样对于发布者来说我只需要发送一个事件告诉你,我这边改数据了,你要不要消费,要不要更新索引我并不关心。

定义一个数据表发生修改的事件,代码如下:

public class TableUpdateEvent extends ApplicationEvent {
	private String table;
	private String id;
	
	public TableUpdateEvent(Object source, String id, String table) {
		super(source);
		this.id = id;
		this.table = table;
	}
	
	public String getId() {
		return id;
	}
	
	public String getTable() {
		return table;
	}
	
}

然后每个索引都需要消费这个事件,只需要关注这个索引中数据的来源表有没有变动,如果有变动则去刷新索引。

比如索引A的数据都是article表中过来的,所以只要是article表中的数据发生了变更,索引A都要做对应的处理,所以索引A的监听器只需要关注article表有没有修改即可。

@Component
public class MyEventListener {
	
	private List<String> consumerTables = Arrays.asList("article");
	
	@Async
	@EventListener
	public void onEvent(TableUpdateEvent event) {
		System.out.println(event.getId() + "\t" + event.getTable());
		if (consumerTables.contains(event.getTable())) {
			System.out.println("消费自己关注的表数据变动,然后处理。。。");
		}
	}
	
}

比如索引B的数据是从comment和comment_reply两个表中过来的,所以只要是comment和comment_reply两个表的数据发生了变更,索引B都需要做对应的处理,所以索引B的监听器只需要关注comment和comment_reply两个表有没有修改即可。

@Component
public class MyEventListener2 {
	
	private List<String> consumerTables = Arrays.asList("comment", "comment_replay");
	
	@Async
	@EventListener
	public void onEvent(TableUpdateEvent event) {
		System.out.println(event.getId() + "\t" + event.getTable());
		if (consumerTables.contains(event.getTable())) {
			System.out.println("消费自己关注的表数据变动,然后处理。。。");
		}
	}
	
}

实现方案-尊贵铂金

荣耀黄金的方案已经很完美了,代码解耦不说,使用者关注点也少了,不容易出错。

但还有一个致命的问题就是所有涉及到业务修改的方法中,得手动往外发送一个事件,从代码解耦的场景来说还残留了一点瑕疵,至少还是有那么一行代码来发送事件。

尊贵铂金的方案将完全解耦,不需要写代码的时候手动去发送事件。我们将通过订阅MySql的binlog来统一发送事件。

binlog是MySQL数据库的二进制日志,用于记录用户对数据库操作的SQL语句信息,MySQL的主从同步也是基于binlog来实现的,对于我们这种数据异构的场景再合适不过了。

binlog订阅的方式有很多种,开源的框架一般都是用canal来实现。

canal:github.com/alibaba/can…

如果你买的云数据库,像ALI云就有dts数据订阅服务,跟canal一样。

之后的方案图如下:

图片

实现方案-永恒钻石

没有什么方案和架构是永恒的,跟着业务的变更而演进,符合当前业务的需求才是王道。越后面考虑的东西越多,毕竟最后是要升级到最强王者的,哈哈。

感兴趣的可以关注下我的微信公众号 猿天地,更多技术文章第一时间阅读。我的GitHub也有一些开源的代码 github.com/yinjihuan