3. 深度学习的应用
Last updated
Last updated
表达能力更强,挖掘隐藏模式
模型结构灵活,与应用场景契合
演变方向
改变 NN 的复杂程度: ↑
改变特征交叉方式: NeuralCF, PNN
组合模型: Wide&Deep,不同特点、优势互补
FM 的 DNN 版本: NFM, FNN, AFM
Attention 结合: AFM, DIN
序列模型结合: DIEN
强化学习结合: DRN
基本原理: AutoEncoder,评分矩阵
模型结构 (I-AutoRec)
重建函数:
目标函数:
推荐过程 (I-AutoRec)
评分预测:
遍历输入物品向量,得到用户 u 对所有物品的评分预测,排序得到推荐列表
U-AutoRec
优势: 仅需输入一次用户向量,得到所有物品的评分向量
劣势: 用户向量的稀疏性,影响模型效果
特点局限
NN 角度: 单隐层 AutoEncoder,泛化和表达能力,但比较简单
模型结构: 结构与 Word2vec 一致,但优化目标和训练方法不同
深度学习: 拉开序幕
应用场景: 微软 Bing 搜索广告
类别型特征: 用户搜索词、广告关键词、广告标题、落地页、匹配类型
数值型特征: 点击率、预估点击率
需处理特征: 广告计划 (e.g. budget / id)、曝光样例、点击样例
网络结构
解决问题: 稀疏特征、特征自动交叉组合、输出层优化目标
Embedding: 稀疏类别特征 -> 稠密 Embedding 向量,FC 层
Stacking: 拼接,即 concatnaate 层
Multiple Residual Units: MLP,残差链接
Scoring: sigmoid / softmax
革命意义: 没有特征工程、特征深度交叉
模型结构
内积 -> 多层 NN+输出层
广义矩阵分解 Generalized Matrix Factorization
优势: 模型框架,不同的互操作层,灵活拼接
局限: CF 思想,没有引入更多特征
网络架构: Deep Crossing 中的 Stacking -> Product Layer
Product: 线性操作部分 + 乘积操作部分
所有特征 Embedding 向量,平均池化后,外积互操作
平均池化,应该谨慎对待,容易模糊信息,经常在同类上
优点: 强调 Embedding 向量之间的交互方式是多样性的
局限: 外积进行了大量简化,无差别特征交叉
记忆 + 泛化
Wide 记忆能力: 直接学习并利用,历史数据中,共现频率
Deep 泛化能力: 传递特征相关性,发掘稀疏特征与标签相关性
模型结构
Deep&Cross (DCN)
Cross: 增加特征之间的交互力度,类似 PNN 外积,参数比较克制
影响力: DeepFM, NFM
抓住业务问题本质,记忆 + 泛化
结构并不复杂,容易工程实现,加速推广应用
内积 IPNN:
外积 OPNN: 生成 方形矩阵
叠加外积互操作:
交叉积变换: