ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

笔记:《The FacT: Taming Latent Factor Models for Explainability with Factorization》

2020-03-06 15:03:25  阅读:217  来源: 互联网

标签:解释 Latent Models 推荐 LFM 回归 Explainability latent 模型


阅读日期:2020.2.25
论文题目:《The FacT: Taming Latent Factor Models for Explainability with Factorization》

发现问题
现有的可解释推荐领域受限的原因:

  1. 解释的可靠性和推荐的质量长期以来被认为是不可调和的(基于内容的CF)。
  2. LFM潜因子模型是现代推荐系统中最有效准确的方法,但其统计结构复杂,难以解释。虽然已经提出了各种解决方案来近似LFM的潜在推荐机制进行解释,然而,这些近似的解释在多大程度上符合习得的潜在因素模型是未知的。【解释的质量上没有保证】

主要贡献

  • 通过将隐语义模型与解释规则学习无缝地结合起来,以实现可解释的推荐。
  • 集成了回归树来指导LFM的学习,并使用学习到的树结构来解释产生的latent factor。具体来说,通过使用用户的评论分别在用户和物品上构建回归树,并将latent profile与树中的每个节点关联起来,以表示用户和物品。随着回归树的生长,latent factor在树结构的正则化作用下逐渐细化。最终能够通过查看回归树上的每个因子的路径来跟踪latent profile的创建,从而解释产生的建议。实验和用户研究均表明了该模型的有效性。
    【The fidelity of explanation is guaranteed by modeling the latent factors as a function of explanation rules】

总结与感悟

  • 本篇文章通过现有的推荐准确度较高LFM模型,在应用于可解释推荐时存在的“不可靠解释”问题出发,将LFM于规则归纳学习结合起来,构建了回归树,将原本类似“黑盒”产生的隐语义因子的创建过程细化,从而生成对应的解释。这是本文的主要创新点。

标签:解释,Latent,Models,推荐,LFM,回归,Explainability,latent,模型
来源: https://blog.csdn.net/qq_38871942/article/details/104696210

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有