稠密特征加入CTR预估模型的方法

1,018 阅读3分钟

稠密特征一般是相对稀疏特征来说的,我们知道类别特征经过独热编码之后比较稀疏,比如类别 [‘小猫’,‘小狗’,‘小熊’,‘小猴’] 被独热编码后的数据结构为[[1,0,0,0],[0,1,0,0],[0,0,1,0],[0,0,0,1]],可以看到这种数据很稀疏,但是像桌子的长度这种稠密特征数据一般就是 [3.4,2.6,8.9,6.7] 这种。一般针对类别特征都是通过词嵌入的方法把稀疏特征转化为稠密特征然后再输入到神经网络中,不然直接输入会导致维度爆炸等问题,那么怎样把稠密数据加入到CTR预估网络模型中呢?

常规方法

1. 如图 1 所示,把原始的稠密特征直接和全连接层进行连接不和通过词嵌入转化的类别稠密特征进行交叉:

▲ 图1. 直接送入全连接

右边的类别特征经过词嵌入后每个类别特征都被映射成了一个向量,不同的类别向量之间经过交叉运算得到交叉特征。而左边的原始稠密特征不和类别特征进行交叉,直接和高阶的交叉特征进行拼接作为全连接层的输入。

2. 如图 2 所示,把原始稠密特征离散化,转换为离散特征,然后和原始类别特征都进行词嵌入,之后再进行特征交叉。此时可以发现,这样相当于原始稠密特征参加了特征交叉:

▲ 图2. 离散处理

3. 如图 3 所示,对每个原始稠密特征 [公式] 维护一个词嵌入向量 [公式] ,然后把原始稠密特征和权重向量相乘得到最终的特征向量,相当于一个稠密特征映射成一个特征向量,之后和类别映射的词嵌入矩阵进行拼接。此时仍然可以发现,这样相当于原始稠密特征也可以和类别特征进行交叉特征提取:

▲ 图3. 稠密特征与embedding vector相乘

鲜为人知的Key-Value Memory方法

在ICMEW的一篇论文中提出了一种把Key-Value Memory [1] 应用到稠密特征处理上的方法,如图4所示,可以看到这个模型的输入是一个稠密特征 [公式] ,输出是一个特征向量 [公式] ,也就是实现了1维到多维的特征空间转换,那么具体看一下是怎样实现的。

图4. Key-Value Memory模型结构 [1]

向量 [公式] 的计算是通过对每个embedding vector [公式] 进行加权求和得到的,公式表示为

[公式] ,

其中 [公式] 的计算为 [公式] ,

[公式] 的计算等于 [公式] ,

其中要对 [公式] 进行归一化。我的理解就是把一个稠密特征的值 [公式] 映射成一个权重分布,再用这个权重分布去和维护的 [公式] 个embedding vector加权求和,最后得到一个和词嵌入维度相同的向量 [公式]。得到向量 [公式] 之后就和前面的方法一样,可以和类别特征进行特征交叉了。

参考文献

[1] Multi-modal Representation Learning for Short Video Understanding and Recommendation. ICME Workshops 2019: 687-690