ICode9

精准搜索请尝试: 精确搜索
  • 深度学习面试的一些题目2022-02-16 15:34:48

    整体回答得都比较简略,可以起到提纲挈领的作用,但是还需要继续深化。   解释Adam优化器的概念。 答:Adam结合了两个想法来改善收敛性:每个参数更新可加快收敛速度;动量可避免卡在鞍点上。   为什么必须在神经网络中引入非线性? 答:否则,我们将获得一个由多个线性函数组成的线性函数,那么

  • 【机器学习面经】实验室祖传机器学习重难点(第一弹)2022-02-10 13:02:36

    实验室祖传机器学习重难点

  • 【机器学习面经】实验室祖传机器学习重难点(第二弹)2022-02-10 12:58:44

    实验室祖传机器学习重难点

  • python深度学习笔记3—— 卷积神经网络简介2022-02-09 17:58:31

    卷积运算 密集连接层和卷积层的根本区别: Dense 层从输入特征空间中学到的是全局模式(比如对于 MNIST 数字,全局模式就是涉及所有像素的模式) 卷积层学到的是局部模式,对于图像来说,学到的就是在输入图像的二维小窗口中发现的模式。在上面的例子中,这些窗口的大小都是 3×3。 卷积神

  • 神经网络与深度学习中文实战版--电子书2022-02-09 11:06:32

    版权: 本书电子版获取方式:链接:https://pan.baidu.com/s/1DIwYOCAZCr2ZTh1-c5Zvnw?pwd=s61p 提取码:s61p。 本书英⽂原版地址为:http://neuralnetworksanddeeplearning.com/ 。 在学术著作中请引⽤英⽂原⽂为:Michael A. Nielsen, “Neural Networks and Deep Learning”,Determinatio

  • 基于GNN为群体机器人构建信息分享机制2022-02-08 19:58:32

    文稿整理者:何常鑫 审稿&修改:李庆标 本人总结于2022年1月12日剑桥大学计算机系Prorok 实验室李庆标博士关于“基于GNN为群体机器人构建信息分享机制”在深蓝学院的公开课。 在社交网络中,好友彼此的关系就是通过图来表达的;城市交通系统中站点之间的连接关系也可以用图来表示;我们

  • 神经网络--卷积层2022-02-07 23:03:08

    import torch import torchvision.datasets from torch import nn from torch.nn import Conv2d from torch.utils.data import DataLoader from torch.utils.tensorboard import SummaryWriter dataset = torchvision.datasets.CIFAR10("./DXAA",train=False,tran

  • 【图神经网络】图神经网络(GNN)学习笔记:GNN的应用简介2022-02-07 23:02:01

    @TOC GNN的应用简述 GNN的适用范围非常广泛: 显式关联结构的数据:药物分子、电路网络等隐式关联结构的数据:图像、文本等 生物化学领域中:分子指纹识别、药物分子设计、疾病分类等 交通领域中:对交通需求的预测、对道路速度的预测等 计算机图像领域:目标检测、视觉推理等 自然语言

  • 遗传算法优化BP神经网络2022-02-07 21:30:58

    遗传算法原理 遗传算法背景不作介绍。遗传算法作为一种并行随机搜索最优化算法,将自然界的优胜劣汰的生物进化原理引入优化参数形成的编码串联群体中,按照所选的适应度函数并通过遗传中的选择,交叉和变异对个体进行筛选,使适应度值较好的个体被保留,这样新的群体继承上一代,又优于上一

  • 深度学习从连子棋开始2022-02-06 22:58:00

    1. 面向人群 随着人工智能的广泛应用,涉足深度学习的人越来越多,这些人总体上分为两类:(1)一类是开发人员,这类人主要使用现有的深度学习开源框架和公开的模型进行编程,以实现某个功能,e.g 车辆检测;(2)另一类是研发人员,他们主要基于现有的深度学习开源框架来设计和搭建自己的神经网络结构,

  • CNN-卷积神经网络简单入门(2)2022-02-06 20:04:02

           在上篇中,对卷积神经网络的卷积层以及池化层模块进行了简单的介绍,接下来将对卷积神经网络的整个运作流程进行分析,以便对CNN有个总体上的认知和掌握。        如下图,卷积神经网络要完成对图片数字的识别任务。网络的输入是数字为7的RGB图片,大小为32×32×3,其中32×32

  • 神经网络的学习-搭建神经网络实现mnist数据集分类2022-02-06 16:02:39

    文章目录 四、神经网络的学习1.损失函数2.损失函数的意义3.数值微分4.梯度法5.学习算法的实现 四、神经网络的学习 这一章通过两层神经网络实现对mnist手写数据集的识别,本文是源于《深度学习入门》的学习笔记 若理解困难,参考上一章笔记:深度学习入门-从朴素感知机到神

  • 浅谈深度学习、Pytorch框架的一些必备的理论知识2022-02-06 14:59:14

    机器学习20_一些理论知识 一. 关键概念: 算法(Algorithm): 原本用以定义在解决问题时,按照某种固定步骤一定可以得到问题的结果的处理过程。后在数据科学领域,用以指代能够根据历史数据实现预测或得出某种结果的计算步骤或数学方法。人工神经网络(ANN): 模拟人脑结构、复现人脑思考规

  • dropout层2022-02-06 12:01:56

    深度神经网(DNN)中经常会存在一个常见的问题:模型只学会在训练集上分类(过拟合现象),dropout就是为了减少过拟合而研究出的一种方法。 一、简介 当训练模型较大,而训练数据很少的话,很容易引起过拟合,一般情况我们会想到用正则化、或者减小网络规模。然而Hinton在2012年文献:《Improvin

  • RNN 网络简介2022-02-05 23:03:28

    概述 从 本节开始学习RNN相关内容。 神经网络可以当做是能够拟合任意函数的黑盒子,将神经网络模型训练好之后,对于input 输入x ,经过隐层后,输出层会得到y. 为啥还需要RNN网络呢? 神经网络都只能单独的取处理一个个的输入,前一个输入和后一个输入是完全没有关系的。但是,某些任务需要能

  • 感知机、支持向量机、神经网络的关系2022-02-05 20:35:19

    感知机模型 感知机是最早的人工智能算法,他是支持向量机和神经网络的基础。 它的基本思想是找到一条直线,将两类样本进行划分。其求解方法则类似与梯度下降法不断对w,b进行调整。 它的模型如下: 对每个训练样本(xi,yi),执行一下操作: (i)若wx+b>0,且y=-1,则w=w-x,b=b-1; (ii)若wx+b<0,且y=+1,则w=

  • CNN-卷积神经网络简单入门(1)2022-02-04 23:04:38

    卷积神经网络(Convolutional Neural Networks, CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(deep learning)的代表算法之一 ,通常由输入层、卷积层、池化层、全连接层、输出层结构组成,其中卷积层、池化层、全连接层可能有多层。CNN的结

  • 深度学习入门-从朴素感知机到神经网络2022-02-04 13:02:51

    文章目录 深度学习入门-从朴素感知机到神经网络一、朴素感知机1.感知机2.感知机实践3.多层感知机 二、神经网络1.从感知机到神经网络2.激活函数3.sigmoid函数:4.三层神经网络5.输出层的设计6.恒等函数和softmax函数 深度学习入门-从朴素感知机到神经网络 简介:深度学习

  • 【深度学习pytorch】卷积神经网络2022-02-04 10:33:11

    图像卷积 互相关运算: def corr2d(X, K): h, w = K.shape Y = torch.zeros(X.shape[0]-h+1, X.shape[1]-w+1) for i in range(Y.shape[0]): for j in range(Y.shape[1]): Y[i,j] = (X[i:i+h, j:j+w] * K).sum() return Y 卷积层: class Conv

  • TensorFlow基础介绍(底层构造神经网络)2022-02-04 09:30:00

    使用tf.Variable,tf.constant指定不同类别的占位符 # GRADED FUNCTION: linear_function def linear_function(): """ Implements a linear function: Initializes X to be a random tensor of shape (3,1) Initializes W to be a rando

  • CNN基础论文复现----LeNet5 (一)2022-02-03 17:02:41

    文章目录 前言第1-3页第4页第5-6页第7-9页 LeNet5原版论文已经放到了GitHub上: 点我下载 前言 大致看了一下文章,一共45页,属实是有点长啊。 我们只看基础概念和文本识别的介绍,以及LeNet5网络的部分就行了。 1-5 介绍背景和文本识别的概念以及机器学习的各种概念5-9 介绍

  • GRU、LSTM、双向循环神经网络2022-02-03 13:59:34

    动手学深度学习笔记 一、门控循环单元(GRU)1.重置门和更新门2.候选隐状态3.隐状态4.PyTorch代码 二、长短期记忆网络(LSTM)1.输入门、忘记门和输出门2.记忆元3.隐状态4.PyTorch代码 三、深度循环神经网络四、双向循环神经网络 学习GRU和LSTM之前可以先看 RNN基础代码-Py

  • 神经网络-池化层2022-02-02 22:34:30

    池化层: 一种形式的降采样 理解:在发现一个特征之后,它的精确位置远不及它和其他特征的相对位置的关系重要。池化层会不断地减小数据的空间大小,因此参数的数量和计算量也会下降,这在一定程度上也控制了过拟合。 作用: 特征不变性 特征降维(下采样) 在一定程度上防止过拟合 实现非线

  • pytorch入门(一)2022-01-31 22:31:30

    1.pytorch的基本概念(Tensor和Variable)、自动微分和pyTorch的核心模块。 张量可以理解为一个多维数组,类似于Numpy 中的ndarray对象。 2.三维张量形如[W;H;C] [weight,height,channel] 3.四维张量形如[N,W,H,C] [batch,weight,height,channel] from PIL import Image import nump

  • 卷积自编码器中注意机制和使用线性模型进行超参数分析2022-01-31 11:04:12

    新神经网络架构设计的最新进展之一是注意力模块的引入。首次出现在在NLP 上的注意力背后的主要思想是为数据的重要部分添加权重。在卷积神经网络的情况下,第一个注意机制是在卷积块注意模型中提出的。其中注意机制分为两个部分:通道注意模块和空间注意模块。 空间注意模块通过将图

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有