样本
- RLNF: Reinforcement Learning based Noise Filtering for Click-Through Rate Prediction
- 几种提升ctr模型的思路
- 新的模型结构
- incorporating feature interactions
- 可解释性
- 数据和行为的稀疏性问题
- 用户兴趣爱好随时间变迁(时间 维度)
- 样本不平衡性
- RLNF的步骤
- s1根据特征向量生成action a(是否选择);s2根据很多的a生成reward;s3根据reward生成;s4所有负样本中选择部分a为选择的N,用N和正样本来训练ctr模型==>这样交替地进行noise filter和ctr model的训练
- 几种提升ctr模型的思路
本文作者:
yuqing wang
本文链接: https://satyrswang.github.io/2021/08/02/ctr的负样本/
版权声明: 本作品采用 知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议 进行许可。转载请注明出处!
本文链接: https://satyrswang.github.io/2021/08/02/ctr的负样本/
版权声明: 本作品采用 知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议 进行许可。转载请注明出处!