样本
- RLNF: Reinforcement Learning based Noise Filtering for Click-Through Rate Prediction
 - 几种提升ctr模型的思路
- 新的模型结构
 - incorporating feature interactions
 - 可解释性
 - 数据和行为的稀疏性问题
 - 用户兴趣爱好随时间变迁(时间 维度)
 - 样本不平衡性
 
 - RLNF的步骤
- s1根据特征向量生成action a(是否选择);s2根据很多的a生成reward;s3根据reward生成;s4所有负样本中选择部分a为选择的N,用N和正样本来训练ctr模型==>这样交替地进行noise filter和ctr model的训练
 
 
- 几种提升ctr模型的思路
 
    本文作者:
    
      yuqing wang
    
    
本文链接: https://satyrswang.github.io/2021/08/02/ctr的负样本/
版权声明: 本作品采用 知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议 进行许可。转载请注明出处!
      
      
      
        
      
    本文链接: https://satyrswang.github.io/2021/08/02/ctr的负样本/
版权声明: 本作品采用 知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议 进行许可。转载请注明出处!