ICode9

精准搜索请尝试: 精确搜索
  • 机器学习-EM算法笔记2019-10-04 09:54:31

    EM算法也称期望最大化(Expectation-Maximum,简称EM)算法,它是一个基础算法,是很多机器学习领域算法的基础,比如隐式马尔科夫算法(HMM), LDA主题模型的变分推断,混合高斯模型GMM,基于概率统计的pLSA模型。 EM算法概述(原文)     我们经常会从样本观察数据中,找出样本的模型参数。 最常用的

  • 隐马尔可夫模型2019-09-07 17:04:22

    隐马尔可夫模型(Hidden Markov Model,HHM),作为一种统计模型,描述了含有隐含未知数的马尔可夫过程。其难点是从可观察的参数中确定该过程的隐含参数。用一个掷骰子的例子来引入隐马尔可夫模型。假设现有三种不同的骰子,第一种是四面体(称这个骰子为D4),可掷出1,2,3,4这4个数值,每个数值被掷出

  • [学习笔记]深度学习-卷积神经网络从入门到精通-第一章概述2019-08-21 16:50:42

    本章介绍神经网络的起源和发展,说明形成和演变,分析应用和影响,讨论缺陷和视图,总结平台和工具,概括内容结构和案例数据。 1.1起源和发展 起源:人工神经网络(本质上是)一类对神经网络(具有深层结构)有效的训练方法 神经网络也就是一个由神经元组成的分层系统,而其深度就是不包括输入层的层数

  • 误差回传神经网络(BP)——数学理论2019-08-17 13:39:43

    误差回传神经网络(BP) BP网络是一种无反馈的前向网络,网络中的神经元分层排列,每一层内的神经元的输出均传送到下一层,这种传送由联接权来达到输出的作用。工作过程分为学习期和工作期两个部分,计算关键在于学习期中的误差反向传播过程,使目标函数最小化来完成的。 1) BP神经网络

  • 网易课程DeepLearning.ai 吴恩达深度学习课程笔记:第三周④:神经网络的梯度下降、随机初始化2019-06-26 21:48:42

    神经网络的梯度下降(Gradient descent for neural networks) 在这个视频中,我会给你实现反向传播或者说梯度下降算法的方程组,在下一个视频我们会介绍为什么这几个特定的方程是针对你的神经网络实现梯度下降的正确方程。 你的单隐层神经网络会有W[1] ,b[1] ,W[2] ,b[2] 这些参数,还有个

  • CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构区别2019-06-26 10:44:35

    神经网络技术起源于上世纪五、六十年代,当时叫感知机(perceptron),拥有输入层、输出层和一个隐含层。输入的特征向量通过隐含层变换达到输出层,在输出层得到分类结果。早期感知机的推动者是Rosenblatt。(扯一个不相关的:由于计算技术的落后,当时感知器传输函数是用线拉动变阻器改变电阻的

  • RNN,LSTM,GRU基本原理的个人理解2019-06-22 16:04:07

    记录一下对RNN,LSTM,GRU基本原理(正向过程以及简单的反向过程)的个人理解 RNN Recurrent Neural Networks,循环神经网络 (注意区别于recursive neural network,递归神经网络) 为了解决DNN存在着无法对时间序列上的变化进行建模的问题(如自然语言处理、语音识别、手写体识别),出现的另一种神

  • 【深度学习】——神经网络DNN/CNN/RNN内部结构区别2019-05-25 19:49:34

    一、DNN深度神经网络         先说DNN,从结构上来说他和传统意义上的NN(神经网络)没什么区别,但是神经网络发展时遇到了一些瓶颈问题。一开始的神经元不能表示异或运算,科学家通过增加网络层数,增加隐藏层可以表达。并发现神经网络的层数直接决定了它对现实的表达能力。但是随着

  • 数列变形中隐含条件的指向作用2019-04-10 18:41:44

    前言 一、隐含条件 二、案例说明 案例【2018山东济宁二模】已知数列\(\{a_n\}\)满足\(a_1=\cfrac{3}{2}\),\(4a_{n+1}=4a_n^2+4a_n-1\), (1)证明:数列\(\{lg(a_n+\cfrac{1}{2})\}\)为等比数列; (1)记\(R_n=(a_1+\cfrac{1}{2})(a_1+\cfrac{1}{2})\)

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有