ICode9

精准搜索请尝试: 精确搜索
  • 笔记:《The FacT: Taming Latent Factor Models for Explainability with Factorization》2020-03-06 15:03:25

    阅读日期:2020.2.25 论文题目:《The FacT: Taming Latent Factor Models for Explainability with Factorization》 发现问题: 现有的可解释推荐领域受限的原因: 解释的可靠性和推荐的质量长期以来被认为是不可调和的(基于内容的CF)。 LFM潜因子模型是现代推荐系统中最有效准确的

  • [TMI2018-03]Multimodal MR Synthesis via Modality-Invariant Latent Representation2020-02-28 16:05:26

    Multimodal MR Synthesis via Modality-Invariant Latent Representation 我们提出了一种用于MRI合成的多输入多输出全卷积神经网络模型。该模型对丢失的数据具有鲁棒性,因为它受益于(但不需要)其他输入形式。该模型经过端到端训练,并学会将所有输入模态嵌入到共享的模态不变的

  • 吴裕雄--天生自然神经网络与深度学习实战Python+Keras+TensorFlow:自动编解码器网络的原理与实现2020-01-28 13:53:58

    from keras.layers import Dense, Input from keras.layers import Conv2D, Flatten from keras.layers import Reshape, Conv2DTranspose from keras.models import Model from keras.datasets import mnist from keras import backend as K import numpy as np import matp

  • 【论文阅读】Actions ~ Transformations2019-07-19 21:05:06

    Actions ~ Transformations 最近看行为识别论文,发现这篇论文一直都没有看过,但是引用也不少,所以抽出一个上午把这篇论文通读了一遍。 这篇文章通过变换矩阵学习各种类别的行为的变化,即使用一个线性系统保存一种行为类别的动态变化,感觉想法是挺有意思的,目前我正想着能否将其应

  • 数学建模之主成分分析2019-07-02 20:31:18

    一、定义 主成分分析(Principal Component Analysis,PCA), 是一种统计方法。通过正交变换将一组可能存在相关性的变量转换为一组线性不相关的变量,转换后的这组变量叫主成分。 在实际课题中,为了全面分析问题,往往提出很多与此有关的变量(或因素),因为每个变量都在不同程度上反映这个

  • Latent Embeddings for Collective Activity Recognition2019-05-26 22:52:27

    个人总结: 第一次看到这个方面的论文,方法上还是用了后验概率来建立模型,不过代码并没有开源,具体细节还要商榷。 摘要 提出的问题:传统的手工定制的特征只能定义有限范围内的关系。在一个集体内,个体之间复杂的依赖关系不能很好地建立模型。 解决方法:通过在特征空间(feature space)嵌入潜

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有