社交软件红包技术解密(十):手Q客户端针对2020年春节红包的技术实践

130 阅读31分钟
原文链接: www.52im.net

本文引用自博客QcloudCommunity,原作者苏孟辉,原文链接blog.csdn.net/QcloudCommunity/article/details/105109132,即时通讯网收录时有修订。


一、引言


2020年春节早已过去两月有余,回顾本次腾讯手Q春节红包活动的玩法,主要以答题形式结合中国传统文化(成语、诗词、对联、历史等)的方式进行,达到寓教于乐的效果。

社交软件红包技术解密(十):手Q客户端针对2020年春节红包的技术实践_1.jpg
▲ 2020年春节QQ的红包活动

对于这种大体量的IM社交应用运营活动,技术上除了前端、后台的大力支撑,对于手Q客户端来说,又是从哪些方面来保证整个红包活动的灵活性、稳定性和用户体验的呢?带着这个问题,我们一起来阅读余下的文字。

二、内容概述


本文将回顾今年的春节红包活动中,针对手Q客户端在活动配置、错峰、数据上报、资源预下载和柔性策略五个方面进行探讨和总结,希望能和大家在后续春节红包项目上一起学习交流。

具体来说,这些技术手段主要是以下几个方面的内容:

  • 1)配置:通过配置控制众多可变参数,灵活应对活动变化
  • 2)错峰:解决活动高峰后台服务负载过高的问题,新错峰方案提升用户感知体验
  • 3)数据上报:即保证活动数据的及时上报,又避免过度消耗资源
  • 4)资源预下载:解决活动高峰CDN带宽压力过高问题的同时,提升用户体验;
  • 5)柔性策略:确保活动不会对其它业务产生太大影响。

三、系列文章


❶ 系列文章目录:


❷ 其它相关文章:

四、关于“配置”


整个春节红包活动是通过全局配置进行控制的,可动态修改,以灵活应对活动的变更。根据产品需求,结合需求变更的可能性,以及通用能力的可复用性,本次春节红包总共定义了四份配置。

1)入口配置:

包含活动入口吊坠、小程序入口Banner和一些控制开关等配置内容。春节红包活动横跨小年、除夕、大年初一,每天有4场答题活动,有些场次为商家专场,因此入口配置中提前以列表形式定义好了各天各场次的具体活动信息。

社交软件红包技术解密(十):手Q客户端针对2020年春节红包的技术实践_2.jpg

2)大插屏配置:

包含活动预热大插屏的配置内容,由于刚开始时需求的不确定性,独立出来作为一份配置,后来还增加了分会场呼吸灯的配置内容。

社交软件红包技术解密(十):手Q客户端针对2020年春节红包的技术实践_3.jpg

3)错峰配置:

包含本次春节红包活动客户端错峰方案的配置内容,独立配置,可供手Q其它通用运营业务复用。

4)预下载配置:

包含春节红包活动客户端需要提前预下载的资源配置内容,本次活动资源预覆盖接入使用了QQ钱包业务搭建的资源预下载系统,因此配置参照了QQ钱包预下载系统制定的格式。

五、关于“错峰”


5.1、以往春节红包活动的错峰方案


错峰,目的是为了解决春节红包活动高峰对抽奖后台负载带来瞬间冲击的问题。以往春节红包活动的错峰方案,主要有以下两种。

1)通过客户端缓冲过程,控制对抽奖后台的请求:

通过控制参与抽奖的频率、限制抽奖的次数等方式来进行错峰,如摇一摇、刷一刷等。
社交软件红包技术解密(十):手Q客户端针对2020年春节红包的技术实践_4.png

2)通过对活动入口随机时间错峰显示,控制对抽奖后台的请求:

将所有用户随机均匀地映射到活动开始后的一段时间区间内,使用户错峰显示入口进入参与活动,如2019年春节的福袋。错峰时间的算法形如:hash(uin) % gap。
社交软件红包技术解密(十):手Q客户端针对2020年春节红包的技术实践_5.png

5.2、我们使用的错峰方案


上节提到的两种错峰方式,第二种与本次春节红包活动场景是比较吻合的。

不过,该方案存在一个问题:由于其随机性,使得有用户反馈身边其他人都能看到活动入口参与抽奖了,而自己却一直看不到入口。

针对方案二的问题,我们引入了用户地理位置的因素进行改进,下图描述了总体错峰方案:
社交软件红包技术解密(十):手Q客户端针对2020年春节红包的技术实践_6.jpg

具体方案实现流程如下:
社交软件红包技术解密(十):手Q客户端针对2020年春节红包的技术实践_7.png

首先,我们定义了一份错峰配置,包含错峰时间间隔和区域划分列表,将全国用户根据地理位置adcode划分为多个区域批次。

对处于同一批次的用户,他们看到活动入口的时间段是一样的。假设配置活动的开始时间为9:00,错峰时间间隔为1分钟,那么第一批用户能看到入口的时间为9:00~9:01,第二批用户能看到入口的时间为9:01~9:02,以此类推。

主要流程如下:

  • 1)根据用户地理位置adcode和错峰配置进行映射,得到映射后的分区索引i;
  • 2)计算得到一次错峰时间:T1 = T0 + i*interval;
  • 3)对于同一批次的用户,通过随机时间,将这些用户随机均匀地映射分布到对应较小的时间段内,计算得到二次错峰时间:T2 = T1 + hash(uin)%interval;
  • 4)得到的二次错峰时间T2即为用户实际可以看到入口参与活动的时间:T = T2;
  • 5)对于地理位置一次错峰可能出现的异常情况,如用户未授权获取地理位置(占比30%左右)、国外用户无adcode未匹配到分区索引等,客户端可采取一定的兜底策略,如根据用户账号uin进行随机映射到某个分区:i = hash(uin) % regions.count 。

该错峰方案实现时抽离了业务依赖,并走独立配置,可供其它通用性运营业务复用。

同时,该错峰方案还申请了专利,以下是专利信息:
社交软件红包技术解密(十):手Q客户端针对2020年春节红包的技术实践_xxxx.png

六、关于“数据上报”


6.1、意义


春节红包的数据,不仅是衡量活动运营的质量指标,还会影响到活动的招商。通过对数据进行监控,产品同学可以根据实际活动情况调整产品策略,开发同学可以及时发现并定位问题。同时,数据还是申请活动资源的重要依据。

6.2、核心诉求


春节红包这种大型全民活动的数据,主要具有上报数据量大、上报并发高、上报场景多样的特点。

对于春节红包数据上报,主要有三方面的核心诉求:

  • 1)数据能够及时上报(实时性需求);
  • 2)避免为及时上报而导致资源的过度消耗(如客户端性能、网络开销;后台性能、扩容资源等);
  • 3)确保上报服务的稳定可用(要有可调整和容错的能力)。

6.3、为何不使用现有的数据上报


为什么不直接使用手Q现有的数据上报系统呢?

主要是基于如下几方面的考虑:

  • 1)可能影响其它长期运营的正常业务;
  • 2)定制化成本高(上报后台需要做一些秒级监控、UV统计等定制逻辑);
  • 3)上报控制不够灵活、生效慢(通过配置控制上报逻辑,调整后配置覆盖需要一定时间才能全部生效);
  • 4)人力、沟通成本等其它方面的考虑。

6.4、春节红包数据上报


针对春节红包数据的特点及核心诉求,我们设计了本次春节红包数据上报方案。

6.4.1数据上报架构


社交软件红包技术解密(十):手Q客户端针对2020年春节红包的技术实践_8.png

如上图所示:

  • 1)调用层:封装了各上报场景的通用上报能力,通过接口层的统一上报接口将上报数据转发给逻辑层进行处理。Native、H5均通过原生统一上报接口走SSO通道上报,上报更可靠且无需重复开发;
  • 2)逻辑层:主要包括数据预处理、数据上报策略和容错机制三部分内容。其中,数据预处理负责对上报的数据进行聚合、过滤和转换;数据上报策略通过后台可控的参数来控制数据上报的时机、频率、大小和存储,确保数据能够及时上报又不影响客户端和后台的性能,而且能够实时动态调整;容错机制制定了过载策略和降级策略,提供应对上报后台过载的措施;
  • 3)基础层:即系统和手Q封装提供的一些基础能力,如文件I/O、安全加/解密等。

6.4.2数据上报的实现流程


社交软件红包技术解密(十):手Q客户端针对2020年春节红包的技术实践_9.png

如上图所示:

  • 1)客户端通过一个串行队列来处理所有上报的数据,对数据首先会进行聚合、过滤和转换的预处理,然后将预处理的数据先写到内存缓存中,当满足保存文件的时机时,再异步写到磁盘文件中;
  • 2)为避免频繁写文件对CPU、磁盘等带来的影响,客户端每隔一段时间写一次文件;为防止内存中数据丢失,客户端在前后台切换、杀进程、app crash场景下也会保存文件进行补偿;
  • 3)当满足上报时机时,会触发数据上报请求,并清空缓存数据同时保存文件;
  • 4)上报请求回包中带有上报控制相关信息,提供了灵活调整的能力。

6.5、遇到的问题分析与解决


6.5.1相同埋点数据增大请求包大小


春节红包的数据中,有多类埋点数据触发多次的情况(如曝光、点击等),因此一个上报请求包中可能会存在多条相同的埋点数据,增大了请求包大小。通过对请求包中的数据进行二次聚合(批量上报其实是对上报请求做了一次聚合),经测试平均可减小请求包大小28%。

另外,针对特定的需求场景,有些数据可能是不能聚合的。例如,我们对于操作时间超过1小时的相同数据是不会进行聚合处理的,因为今年春节活动有场次的概念,每场活动间隔1个小时,产品同学可能需要以场次维度统计相关数据,若合并可能会干扰数据统计的准确性。

社交软件红包技术解密(十):手Q客户端针对2020年春节红包的技术实践_10.png

6.5.2上报请求次数过多


前期演练监控上报请求发现,一场答题活动结束后,客户端上报的请求次数比预估中的偏多,与抽奖请求的比例超过了2:1(预估上报请求峰值与抽奖请求峰值的比例大约为5:4)。假如抽奖请求到达到了峰值,那可能上报请求的峰值会更高,需要上报后台扩容更多的机器。

社交软件红包技术解密(十):手Q客户端针对2020年春节红包的技术实践_11.jpg

我们针对上报请求的top用户日志进行分析,发现主要有两方面原因:

  • 1)用户频繁前后台切换触发多次上报请求:初始前后台切换上报的频控时间设置了10s比较短,可能导致用户多次触发只有几条数据的请求;
  • 2)一些关键指标数据(如覆盖数据)最开始走的是实时上报,会有多个只有一条数据的上报请求。

针对这两个原因,我们采取了相应的措施:

  • 1)调整前后台切换触发上报的时间间隔,将秒级改为分钟级,后台可控;
  • 2)关键指标数据改为批量上报,并通过每日一检的方式增加触发时机。

解决之后上报请求数小于抽奖请求数,比例降到了1.0以下。经测试平均单用户上报请求数降低了71.4%。

6.5.3关键指标数据不准确


针对前期的几次演练,我们统计了配置、资源的覆盖率,发现所得到的结果与预想中的有些出入。我们所使用的配置系统是在登录级别拉取的,下发成功率高于95%,而演练时统计上报数据配置的覆盖率范围在80~88%之间,怀疑可能覆盖上报的数据丢失了。

我们针对部分有活跃(前台登录)但却没有覆盖上报的用户进行了分析,发现这些用户确实是拉取到配置并触发了覆盖上报,但上报的数据可能丢失了。一方面可能是在内存的数据未及时同步到文件中,因为初始设置写文件的频率为每30秒写一次,时间略长,用户杀进程或退后台等操作场景下,内存中的数据可能会丢失;另一方面也可能是网络原因导致上报数据的丢失。

针对这两个原因,我们采取的对应措施:

1)缩短保存文件的时间间隔(对多个值测试综合性能和时间效率考虑取值10秒), 后台可控,并进行多时机补偿: 包括前后台切换、杀进程和App Crash三种场景。经测试,对比每次都写文件,每10秒写一次文件能够降低对CPU影响66.7%,降低对磁盘的影响87.9%。

社交软件红包技术解密(十):手Q客户端针对2020年春节红包的技术实践_12.png

2)确保关键指标数据上报成功,并过滤冗余数据: 把覆盖类指标每日一检的方式改为每次登录/断网重连时就触发覆盖检查,并加上一定的频控,覆盖检查得出结果后即上报。当覆盖数据实际触发上报到后台并成功回包后,本地记录上报的状态,这样当下次触发覆盖检查上报前,若判断该覆盖数据已上报过,就不再上报,直接作为冗余数据过滤掉。相比每日一检的方式(每天都会产生多条覆盖数据上报),这种方式单用户最多可以节省93%的覆盖数据量。

社交软件红包技术解密(十):手Q客户端针对2020年春节红包的技术实践_13.png

解决后,之后演练的覆盖类数据恢复了正常,配置覆盖率在97%~99%之间。

6.6、容错机制


下图为上报数据的流通流程:
社交软件红包技术解密(十):手Q客户端针对2020年春节红包的技术实践_14.png

在客户端数据上报到后台的链路中,SSO接入层和上报服务后台均有过载的风险。针对这两个风险,我们分别用过载策略和降级策略来应对。

1)SSO接入层过载:如果SSO接入层过载了,所采用的的过载策略是:由SSO接入层直接回包,客户端根据过载标记,将批量上报的batchSize值设置为最大值,并翻倍上报的频率时间,从而降低客户端的上报频率。

2)上报服务后台过载:针对上报服务后台过载的情况,我们制定了一套降级策略,后台回包中包含了两个降级信息:
  • reportLevel:上报级别,默认为0
  • reportLevelTime:上报级别有效时间,当reportLevel>0时有效

我们设定了4个上报级别,如下图所示,客户端根据后台设置的上报级别,来降级上报服务。如果上报级别设置为1,则客户端会将所有实时上报降级为批量上报;更进一步的,可以设置上报级别为2来降级屏蔽非用户行为类的数据上报;甚至可以设置上报级别为3来屏蔽所有数据的上报。通过上报级别有效时间,来确保客户端能够恢复正常的上报逻辑。

社交软件红包技术解密(十):手Q客户端针对2020年春节红包的技术实践_15.png

6.7、可优化点


下图为本次春节红包活动在除夕当天的数据上报请求曲线,实际上报请求峰值为预估上报请求峰值的13.33%。

社交软件红包技术解密(十):手Q客户端针对2020年春节红包的技术实践_16.png

从曲线可以明显的发现,每场答题活动开始时,数据上报都有一个尖峰,这是因为客户端未对数据上报进行错峰引起的。这也是本数据上报方案的可优化点之一,错峰方式可以简单的随机错峰上报,亦可参考第二部分内容的错峰方案。

另一个可优化的点,我们在触发数据上报请求时,可以带上触发上报的时机,这有助于分析用户触发数据上报的行为。

七、关于“资源预下载”


7.1、概述


春节红包活动不仅涉及资源众多,而且有些资源还比较大。如果这些资源都由客户端通过实时下载的方式使用,不仅会对CDN带宽造成巨大的压力,同时也会对用户参与活动的体验造成很大的影响。

自然而然想到最常规最有效的解决办法就是资源预下载。

对于资源预下载的能力,包括但不限于需要考虑以下几点:

  • 1)资源能够正常预下载到本地;
  • 2)业务接入的开发效率(提供更便捷通用的接口,集成资源判断、实时下载、资源文件预处理等逻辑);
  • 3)考虑资源过大时可能引起的CDN带宽激增问题(需要制定相应的流控方案);
  • 4)预下载过程不应该影响到其它业务(如手Q启动时的消息加载、其它业务资源的实时下载等);
  • 5)资源管理(下载、更新、删除、防篡改、淘汰机制等);
  • 6)预下载配置管理(存储、更新、合并、去重等);
  • 7)等等...

今年春节红包活动,接入使用的是QQ钱包业务搭建的资源预下载系统,此处就不深入详细介绍,只针对今年春节红包活动在如下几个方面内容做讨论。

7.2、预下载配置问题


预下载配置为JSON格式,接入手Q配置系统进行发布时,需要填写一份涉及所有预下载资源的配置内容,如果通过人工理解手写配置,不仅易出错而且效率低下,轻则影响客户端资源的正常预下载,重则JSON解析处理不当可能会导致app产生崩溃,在春节如此大体量用户情况下会造成相当大的影响。

我们的处理办法是,由春节红包活动的管理平台根据预下载配置的格式,一键导出自动生成预下载配置内容,再到配置平台上发布。同时,客户端拉取到预下载配置时,对所拉取的配置内容进行 JSON Schema 校验,确保这是一个正确的配置后才会使用。若检查发现配置格式异常,会立刻上报告警通知相关产品、开发人员,以及时发现配置问题并采取措施修复。

7.3、CDN带宽预估


春节红包的资源多且大,要覆盖全网用户做资源预下载,需要持续足够长一段时间。CDN需提前做好资源分配,以满足活动资源覆盖的带宽需求。

因此,我们需要对春节红包活动的CDN带宽进行预估:提前多久开始预下载资源?CDN需要分配多少离线带宽和在线带宽?

假设我们提前D天下发了预下载配置。

1)离线带宽的预估:

离线带宽资源的分配,要能满足所有用户能够在D天时间内,都能顺利预下载下来所有资源。假设手Q总用户数为N,需要预下载的离线资源总大小为M千字节(KB),那么可以估算出所有用户预下载所有离线资源的总流量(单位:bit):

预下载的总流量 = M * 1024 * 8 * N


也就是说D天时间要下载这么多流量的资源,通过一个估算系数C,预估出离线带宽值(单位:Gbps):

离线带宽 = 预下载的总流量 * C / ( D * 86400 * 1024 * 1024 * 1024 )= ( M * 8 * N ) * C / ( D * 86400 * 1024 * 1024 )


2)在线带宽的预估:

在线带宽资源的分配,取决于活动期间资源实时下载预估能达到的峰值。我们针对活动所涉及的所有资源,根据资源使用入口级别将其分为了4个资源等级,不同级别的资源其请求峰值是不一样的。

社交软件红包技术解密(十):手Q客户端针对2020年春节红包的技术实践_17.png

根据各活动入口的预估峰值,以及演练时的转化率数据,得出各级别资源的峰值,另外还需要考虑资源预下载的影响,从而估算出在线带宽。

对于每个资源, 假设其在线资源大小为R千字节(KB),该资源预计峰值为PW/s,资源预下载覆盖率取90%的话,那么该资源的在线带宽峰值为(单位:Gpbs):

在线带宽 = ( R * 1024 * 8 ) * ( P * 10000 * 0.1 )  / (1024 * 1024 * 1024)


7.4、覆盖率&命中率


预下载支持配置网络参数,来控制当前资源在什么样的网络环境下才会去预下载。春节红包总体资源较大, 我们配置了所有资源只在Wifi网络环境下才预下载,防止消耗用户的手机流量。因此,我们总体资源的覆盖率不是太高,因为还有不少占比用户的联网状态是非Wifi的。

当然,覆盖率只是衡量预下载功能的一个指标,另一个重要指标是资源预下载的命中率。命中,表示用户在使用某个资源时,是否命中了本地预下载的资源。我们在用户进入主活动入口的时机,增加了资源的命中检查:如果该用户进入主活动页面时,预下载配置中的所有资源都提前预下载到本地了,即认为命中,否则认为不命中,以活动当天首次进入为准。经上报统计, 本次春节红包的资源预下载命中率超过90%。

理想的情况下,预下载要能达到以较低的覆盖率获得较高的命中率的效果最佳,这说明大部分参与活动的用户基本都覆盖到了所有资源,是我们的目标用户。因此,对于目标用户比较明确的业务,可以通过白名单方式来控制预下载配置只针对目标用户进行下发。

八、关于“柔性策略”


春节红包活动在手Q消息列表处设置了吊坠入口,且活动主要是以H5页面的方式进行的,对手Q可能会产生如下三方面的影响。

1)对下拉消息列表刷新消息的影响:

基于用户对以前手Q春节红包的认知,在春节红包活动开始之前,有些用户会习惯性地去下拉消息列表寻找活动入口,另外分会场设置的呼吸灯也会引导用户下拉消息列表。这个行为会触发拉取离线消息,在活动高峰时给消息后台带来额外的压力。

社交软件红包技术解密(十):手Q客户端针对2020年春节红包的技术实践_18.jpg

为消除对下拉消息列表刷新消息的影响,我们在每场活动开始时的前后一段时间内以及呼吸灯第一次展示后的一段时间内,禁止用户刷新消息,在视觉上仍然有一个假刷新消息的过程,但实际不会触发拉取离线消息的请求。通过在配置中添加禁刷开关和禁刷时间来进行控制,可灵活调整。

这里有个细节,我们将活动开始前后的禁刷时间分开控制,防止禁刷时间段过长,降低春节红包活动禁刷消息对正常离线消息拉取的影响。

社交软件红包技术解密(十):手Q客户端针对2020年春节红包的技术实践_19.png

2)对url安全检查的影响:

在手Q中打开一个H5页面,WebView会对页面url拦截进行url安全检查,只有通过检查后才能继续加载页面内容。本次春节红包活动主要以H5方式进行,有较多的url链接,如果都进行安全检查的话,在活动高峰会给检查后台增加较大的压力。

社交软件红包技术解密(十):手Q客户端针对2020年春节红包的技术实践_20.png

为消除对检查后台的影响,采取的措施是针对所有春节红包活动的页面屏蔽url安全检查。通过在配置中添加url安全检查开关和url前缀列表来进行控制,所有活动页面的url走内部域名。另外,屏蔽url安全检查在一定程度上还可以加快活动页面的加载速度,弱网环境下会更加明显。

3)对离线包更新检查的影响:

本次春节红包活动的大部分页面均支持离线包,在使用WebView打开支持离线包页面时,会触发离线包的异步更新检查,在活动高峰期同样会给离线包后台增加不小的压力。

消除该影响的办法,是在所有支持离线包页面的url中,增加一个开关参数,客户端判断若带有该参数,则直接屏蔽离线包的更新检查。

那如果活动期间,前端页面发了新版本的离线包,客户端要怎么更新呢?我们设计了一套按需更新的方案,大致思路是:在进入主活动页面时,页面会拉取一份离线包版本配置,并检查本地离线包版本与配置中指定的版本是否一致,若不一致则触发更新检查,触发方式为发起一个不带屏蔽开关参数的资源请求,请求目标对象为一个1字节的文件或1像素的图片。

九、写在最后


2020春节红包历时近4个月,经过多次演练、迭代、优化,团队所有成员在产品体验、开发细节、测试场景等方面不断打磨。

在全程参与这种大型全民运营活动的过程中,感受颇深的是,在设计或实现某个看似简单的功能时,一定要多系统性地思考,尽量做到有依有据,考虑到各方各面。遇到哪怕看似再小的问题时,也要重视,寻其根因。

—— 全文完 ——)( 原文链接:blog.csdn.net/QcloudCommu…

附录:有关微信、QQ的技术文章汇总


微信朋友圈千亿访问量背后的技术挑战和实践总结
腾讯技术分享:腾讯是如何大幅降低带宽和网络流量的(图片压缩篇)
腾讯技术分享:腾讯是如何大幅降低带宽和网络流量的(音视频技术篇)
微信团队分享:微信移动端的全文检索多音字问题解决方案
腾讯技术分享:Android版手机QQ的缓存监控与优化实践
微信团队分享:iOS版微信的高性能通用key-value组件技术实践
微信团队分享:iOS版微信是如何防止特殊字符导致的炸群、APP崩溃的?
腾讯技术分享:Android手Q的线程死锁监控系统技术实践
微信团队原创分享:iOS版微信的内存监控系统技术实践
让互联网更快:新一代QUIC协议在腾讯的技术实践分享
iOS后台唤醒实战:微信收款到账语音提醒技术总结
腾讯技术分享:社交网络图片的带宽压缩技术演进之路
微信团队分享:视频图像的超分辨率技术原理和应用场景
微信团队分享:微信每日亿次实时音视频聊天背后的技术解密
QQ音乐团队分享:Android中的图片压缩技术详解(上篇)
QQ音乐团队分享:Android中的图片压缩技术详解(下篇)
腾讯团队分享:手机QQ中的人脸识别酷炫动画效果实现详解
腾讯团队分享 :一次手Q聊天界面中图片显示bug的追踪过程分享
微信团队分享:微信Android版小视频编码填过的那些坑
微信手机端的本地数据全文检索优化之路
企业微信客户端中组织架构数据的同步更新方案优化实战
微信团队披露:微信界面卡死超级bug“15。。。。”的来龙去脉
QQ 18年:解密8亿月活的QQ后台服务接口隔离技术
月活8.89亿的超级IM微信是如何进行Android端兼容测试的
以手机QQ为例探讨移动端IM中的“轻应用”
一篇文章get微信开源移动端数据库组件WCDB的一切!
微信客户端团队负责人技术访谈:如何着手客户端性能监控和优化
微信后台基于时间序的海量数据冷热分级架构设计实践
微信团队原创分享:Android版微信的臃肿之困与模块化实践之路
微信后台团队:微信后台异步消息队列的优化升级实践分享
微信团队原创分享:微信客户端SQLite数据库损坏修复实践
腾讯原创分享(一):如何大幅提升移动网络下手机QQ的图片传输速度和成功率
腾讯原创分享(二):如何大幅压缩移动网络下APP的流量消耗(下篇)
腾讯原创分享(三):如何大幅压缩移动网络下APP的流量消耗(上篇)
微信Mars:微信内部正在使用的网络层封装库,即将开源
如约而至:微信自用的移动端IM网络层跨平台组件库Mars已正式开源
开源libco库:单机千万连接、支撑微信8亿用户的后台框架基石 [源码下载]
微信新一代通信安全解决方案:基于TLS1.3的MMTLS详解
微信团队原创分享:Android版微信后台保活实战分享(进程保活篇)
微信团队原创分享:Android版微信后台保活实战分享(网络保活篇)
Android版微信从300KB到30MB的技术演进(PPT讲稿) [附件下载]
微信团队原创分享:Android版微信从300KB到30MB的技术演进
微信技术总监谈架构:微信之道——大道至简(演讲全文)
微信技术总监谈架构:微信之道——大道至简(PPT讲稿) [附件下载]
如何解读《微信技术总监谈架构:微信之道——大道至简》
微信海量用户背后的后台系统存储架构(视频+PPT) [附件下载]
微信异步化改造实践:8亿月活、单机千万连接背后的后台解决方案
微信朋友圈海量技术之道PPT [附件下载]
微信对网络影响的技术试验及分析(论文全文)
一份微信后台技术架构的总结性笔记
架构之道:3个程序员成就微信朋友圈日均10亿发布量[有视频]
快速裂变:见证微信强大后台架构从0到1的演进历程(一)
快速裂变:见证微信强大后台架构从0到1的演进历程(二)
微信团队原创分享:Android内存泄漏监控和优化技巧总结
全面总结iOS版微信升级iOS9遇到的各种“坑”
微信团队原创资源混淆工具:让你的APK立减1M
微信团队原创Android资源混淆工具:AndResGuard [有源码]
Android版微信安装包“减肥”实战记录
iOS版微信安装包“减肥”实战记录
移动端IM实践:iOS版微信界面卡顿监测方案
微信“红包照片”背后的技术难题
移动端IM实践:iOS版微信小视频功能技术方案实录
移动端IM实践:Android版微信如何大幅提升交互性能(一)
移动端IM实践:Android版微信如何大幅提升交互性能(二)
移动端IM实践:实现Android版微信的智能心跳机制
移动端IM实践:WhatsApp、Line、微信的心跳策略分析
移动端IM实践:谷歌消息推送服务(GCM)研究(来自微信)
移动端IM实践:iOS版微信的多设备字体适配方案探讨
信鸽团队原创:一起走过 iOS10 上消息推送(APNS)的坑
腾讯信鸽技术分享:百亿级实时消息推送的实战经验
IPv6技术详解:基本概念、应用现状、技术实践(上篇)
IPv6技术详解:基本概念、应用现状、技术实践(下篇)
腾讯TEG团队原创:基于MySQL的分布式数据库TDSQL十年锻造经验分享
微信多媒体团队访谈:音视频开发的学习、微信的音视频技术和挑战等
了解iOS消息推送一文就够:史上最全iOS Push技术详解
腾讯技术分享:微信小程序音视频技术背后的故事
腾讯资深架构师干货总结:一文读懂大型分布式系统设计的方方面面
微信多媒体团队梁俊斌访谈:聊一聊我所了解的音视频技术
腾讯音视频实验室:使用AI黑科技实现超低码率的高清实时视频聊天
腾讯技术分享:微信小程序音视频与WebRTC互通的技术思路和实践
手把手教你读取Android版微信和手Q的聊天记录(仅作技术研究学习)
微信技术分享:微信的海量IM聊天消息序列号生成实践(算法原理篇)
微信技术分享:微信的海量IM聊天消息序列号生成实践(容灾方案篇)
腾讯技术分享:GIF动图技术详解及手机QQ动态表情压缩技术实践
微信团队分享:Kotlin渐被认可,Android版微信的技术尝鲜之旅
QQ设计团队分享:新版 QQ 8.0 语音消息改版背后的功能设计思路
微信团队分享:极致优化,iOS版微信编译速度3倍提升的实践总结
IM“扫一扫”功能很好做?看看微信“扫一扫识物”的完整技术实现
微信团队分享:微信支付代码重构带来的移动端软件架构上的思考
>> 更多同类文章 ……