ICode9

精准搜索请尝试: 精确搜索
  • Hinton胶囊神经网络新作How to represent part-whole hierarchies in a neural network(一)2021-03-12 20:33:03

    How to represent part-whole hierarchies in a neural network 21年2月底,深度学习教父Hinton发表了一篇新的论文《How to represent part-whole hierarchies in a neural network》。 这是自2017年开展胶囊网络研究以来的第四篇文章,是神经网络领域研究的最前沿,也可以认为是

  • Sequential regulatory activity prediction across chromosomes with convolutional neural networks2021-03-12 15:35:37

    Sequential regulatory activity prediction across chromosomes with convolutional neural networks 基于卷积神经网络的染色体序列调控活动预测 摘要 基因预测表型 从DNA序列预测大型哺乳动物基因组中细胞类型特异性的表观遗传和转录谱。 利用CNN对启动子和远端调控元件进行

  • 论文翻译-A Comprehensive Survey on Graph Neural Networks《图神经网络GNN综述》2021-03-06 18:57:28

    文章目录 1 简介 1.1 GNN简史1.2 GNN的相关研究1.3 GNN vs 网络嵌入1.4 文章的创新性2 基本的图概念的定义3 GNN分类和框架 3.1 GNNs分类3.2 框架4 图卷积网络 4.1 基于图谱的GCN 4.1.1 图信号处理4.1.2 基于谱的GCN方法4.1.3 总结4.2 基于空间的GCN 4.2.1 基于循环的空间GCNs4.

  • DySAT: Deep Neural Representation Learning on Dynamic Graph via Self-Attention Networks2021-03-02 16:59:26

    文章目录 1 前言2 问题定义2.1 dynamic graph 3 DySAT思路3.1 Structural Self-Attention3.2 Temporal Self-Attention 4 方法的优势与局限性4.1 优势4.2 局限性 论文地址:http://yhwu.me/publications/dysat_wsdm20.pdf源码:DySAT来源:WSDM, 2020关键词:self-attention, r

  • Fundamentals of Deep Learning – Starting with Artificial Neural Network 翻译2021-03-01 11:33:47

    原文链接:https://www.analyticsvidhya.com/blog/2016/03/introduction-deep-learning-fundamentals-neural-networks/ 介绍: 深度学习(DL)和神经网络(NN)正在推动本世纪一些最有创意的发明。他们不可思议的从数据和环境中学习的能力,使他们成为机器学习科学家的首选。   深度学习

  • 深度神经网络的多任务学习概览(An Overview of Multi-task Learning in Deep Neural Networks)2021-02-24 14:59:28

      译自:http://sebastianruder.com/multi-task/ 1. 前言 在机器学习中,我们通常关心优化某一特定指标,不管这个指标是一个标准值,还是企业KPI。为了达到这个目标,我们训练单一模型或多个模型集合来完成指定得任务。然后,我们通过精细调参,来改进模型直至性能不再提升。尽管这样做可以

  • [论文翻译]NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE2021-02-23 11:29:34

    摘要 神经(网络)机器翻译是最近提出来的应对机器翻译的模型。与传统的统计机器翻译不同,神经机器翻译旨在建立一个单个的神经网络,可以共同调整以最大化翻译性能(表现)。最近提出的神经机器翻译模型大多属于编码器-解码器的一种,编码器编码源语句到固定长度的向量,然后解码器基于

  • Notes on Weight Initialization for Deep Neural Networks2021-02-22 14:01:55

    Notes on Weight Initialization for Deep Neural Networks Motivation 神经网络通常会包含很多次连续的 matrix 和 vector 之间的乘法,即 \(a * x\) 。很多次连续的乘法后,会导致结果向量的值要么很大,要么被减小为0。我们可以通过除以了数值 \(a\) (也称 scaling_factor,缩放因子)来将

  • Towards Evaluating the Robustness of Neural Networks(翻译,侵删)2021-02-19 11:01:29

    Towards Evaluating the Robustness of Neural Networks 面向评估神经网络的鲁棒性 论文地址 https://ieeexplore.ieee.org/abstract/document/7958570 摘要 深度网络对于大多数的机器学习任务提供了顶尖的结果。不幸的是,深度网络容易受到对抗样本攻击:给定一个输入

  • 图神经网络(二十四) STRATEGIES FOR PRE-TRAINING GRAPH NEURAL NETWORKS, ICLR 20202021-02-10 12:29:44

    本文作者来自斯坦福、爱荷华以及哈佛。 图的预训练与Bert类似,通过对单个节点和整个图级别预先训练一个GNN模型,以便GNN可以同时学习有用的局部和全局表示,然后可以针对下游任务进行微调。但是在整个图或单个节点级别预训练gnn的策略,提供的改进有限,甚至可能导致许多下游任务的负

  • Every Document Owns Its Structure: Inductive Text Classification via Graph Neural Networks论文理解2021-02-08 15:59:24

    [标题] 《Every Document Owns Its Structure: Inductive Text Classification via Graph Neural Networks》 [代码地址] https://github.com/CRIPAC-DIG/TextING [知识储备] 什么是GNN(Graph Neural Networks)? 什么是transductive learning 和 inductive learning? 目录

  • 量化总结1-Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference2021-02-06 12:01:05

    先回顾论文的思想,再进一步讨论改进,本方法我进行了复现,但是没有将卷积乘法改成int型乘法,因为服务器没法做: 1、本方法属于线性量化,如下式,q是fp32的r的量化后的值:     将最小值也做了对应的量化(zero-point)。 讨论矩阵乘法的整形运算(我觉得是本文最精华的地方) 流程如下式所示,式2->

  • <Fine-Pruning: Defending Against Backdooring Attacks on Deep Neural Networks>阅读笔记2021-02-05 15:58:29

    Abstract 提出了第一个针对后门攻击的有效的方案。我们根据之前的工作实现了三种攻击并使用他们来研究两种有希望的防御,即Pruning和fine-tuning。我们的研究表明,没有一个可以抵御复杂的攻击。我们然后评估了fine-pruning,这是结合了Pruning和fine-tuning,结果表明它可以削弱或

  • Deep Forest Towards an Alternative to Deep Neural Networks2021-01-29 22:33:41

    文章目录 Abstract1 IntroductionDNN很牛逼 Abstract propose gcForest,a decision tree ensemble approach with performance highly competitive to deep neural networkscontrast to dnn require great effort in hyper-parameter tuning,gcForest much easier to

  • 高光谱图像处理深度学习方法综述(二)2021-01-28 14:04:03

    5.卷积神经网络(CNN)用于HSI分类任务 CNN可以分为两个结构:特征提取(FE)网络和分类器。本文主要研究三种CNN架构: 谱段CNN 空间CNN 谱段--空间结合CNN A.谱段CNN框架用于HSI分类任务 谱段CNN模型中只考虑\(1D\)谱段信息(\(x_i \in R^B\))作为输入。 下面列举一些着重从谱段进行研究的论

  • 深度学习论文翻译解析(十七):MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications2021-01-27 12:03:23

    论文标题:MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications 论文作者:Andrew G. Howard, Menglong Zhu, Bo Chen, Dmitry Kalenichenko, Weijun Wang, Tobias Weyand, Marco Andreetto, Hartwig Adam 论文地址:https://arxiv.org/abs/170

  • NAS入门基础---经典综述Neural Architecture Search: A Survey翻译2021-01-27 10:01:16

    hello,这是鑫鑫鑫的论文分享站,今天分享的文章是Neural Architecture Search: A Survey(神经网络结构搜索),这是一篇入门综述,我们一起看看吧~ 摘要 目前采用的体系结构大多是由专家手工开发的,这是一个耗时且容易出错的过程。正因为如此,人们对自动神经结构搜索方法越来越感兴趣

  • Detecting Code Clones with Graph Neural Network and Flow-Augmented Abstract Syntax Tree 笔记(一)2021-01-25 15:03:32

    Detecting Code Clones with Graph Neural Network and Flow-Augmented Abstract Syntax Tree 笔记(一) 标题:基于图神经网络和流增强抽象语法树的代码克隆检测 作者:Wenhan Wang, Zhi Jin 备注:Accepted by SANER 2020 链接:arXiv 项目:已开源GitHub 摘要部分 ​ 语义克隆检测是重点

  • Convolutional Neural Networks CNN -- Explained2021-01-25 14:30:11

    Convolutional Neural Networks CNN -- Explained 为什么要卷积神经网络?卷积神经网络如何工作?特征映射和多个通道池化基础大步前进和下采样 Strides and down-sampling填充 Padding为什么在卷积神经网络中使用池化? 最后的图片全连接层在PyTorch中实现卷积神经网络加载数据

  • 基于Attention的机器翻译模型(Visualizing A Neural Machine Translation Model)2021-01-24 21:03:47

    参考: https://blog.csdn.net/qq_41664845/article/details/84245520#t5 https://jalammar.github.io/visualizing-neural-machine-translation-mechanics-of-seq2seq-models-with-attention/ 论文题目:Neural Machine Translation by Jointly Learning to Align and Translate 论文

  • 神经网络的编程基础(Basics of Neural Network programming)2021-01-21 09:57:37

    一、 二分类(Binary Classification) 在神经网络中,如何处理训练集。在这里将使用逻辑回归(logistic regression)来传达这些想法,以使大家能够更加容易地理解这些概念。即使你之前了解过逻辑回归,我认为这里还是有些新的、有趣的东西等着你去发现和了解,所以现在开始进入正题。

  • 人工智能即时音乐分离工具2021-01-18 16:29:50

    Neural Mix Pro for mac是一款非常强大的音频后期编辑软件,可以帮助您提取任何歌曲的节拍,乐器和人声部分,Neural Mix Pro破解版通过人工智能的即时音乐分离技术与Neural Mix™技术使您可以隔离,分层和交换轨道中的主元素– 例如,将人声从一个轨道分层到另一个轨道,交换和声或隔离鼓。

  • Efficient processing of deep neural networks: A tutorial and survey2021-01-15 21:57:40

    深度神经网络的高效处理:教程和综述 摘要 深度神经网络(DNN)目前广泛应用于计算机视觉、语音识别和机器人等人工智能(AI)领域。虽然DNN在许多AI任务上提供了最先进的精确度,但它以高计算复杂度为代价。因此,对于DNN在AI系统中的广泛部署而言,实现DNN的有效处理以提高能源效率和吞

  • 【AAAI 2021】全部接受论文列表(六)2021-01-14 14:30:14

    来源:AINLPer微信公众号(点击了解一下吧) 编辑: ShuYini 校稿: ShuYini 时间: 2021-01-14 马上春节了,疫情又卷土而来,希望大家注意防护,爱护自己的身体 AAAI 2021论文接收情况   人工智能顶级会议AAAI 2021 已经给出接收论文列表,共有1692篇论文被接收,录取率21%,比去年的20.6%稍

  • [论文阅读]Neural Machine Translation without Embeddings2021-01-13 15:29:55

    文章目录 前言摘要1、Introduction3、Embeddingless Model2、Experiments总结 前言 论文名:Neural Machine Translation without Embeddings 论文作者:Uri Shaham et.al. 机构: School of Computer Science, Tel Aviv University(以色列特拉维夫大学计算机科学学院) Fac

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有