ICode9

精准搜索请尝试: 精确搜索
  • cs231n__4.2 神经网络 Neural networks2019-08-18 09:00:08

    CS231n 学习笔记 4.2 神经网络 Neural networks 之前我们已经使用了 很多线性分类函数 现在我们不用单变换的: 我们首先有线性层,然后有这个非线性计算,继而在顶层再加入另一个线性层。然后到这里,最后我们可以得到一个计分函数。输出计分向量。 一般来说,神经网络就是由简单函数构成

  • numpy实现三层神经网络的过程2019-08-17 18:04:40

    以3层神经网络为对象,实现从输入到输出的(前向)处理。 3层神经网络: 输入层(第0层)有2个神经元, 第1个隐藏层(第1层)有3个神经元, 第2个隐藏层(第2层)有2个神经元, 输出层(第3层)有2个神经元。 权重符号表示: 信号传递实现 code X = np.array([1.0, 0.5]) W1 = np.array([[0.1, 0.3, 0.5

  • 记忆化搜索(洛谷 P1436 棋盘分割)2019-08-16 10:41:35

    题目链接 对于这个题,我们定义dp: dp[h1][h2][w1][w2][cur]为在[h1,h2], [w1, w2]这个子矩阵中,还要载再切cur刀的最小平方和。 这个题耗了很长时间。找不着毛病,就是不过样例。最后发现,woc应该是切n-1刀不是n刀。。于是改搜索入口为n-1,遂过。 下面是ac代码: #include <iostr

  • 从零开始搭建神经网络2019-08-06 13:44:24

    欢迎访问我的博客留言讨论呀,有问必答哦^_^ PS:花了一个晚上终于搞定了第三周的作业,下周也要加油啊!

  • Pytorch 链式法则求梯度2019-07-30 10:06:00

    x经过参数w1和b1得到y1,y1再通过w2和b2得到y2,要求y2对w1的导数,可以求y2对y1然后y1对w1的导数。PyTorch可以自动使用链式法则对复杂的导数求解。 import torch x = torch.tensor(1.2) w1 = torch.tensor(2.3, requires_grad=True) b1 = torch.tensor(1.3) y1 = x * w1 + b1 w2

  • [pytorch] 自定义激活函数中的注意事项2019-07-17 16:00:09

    最近在尝试在pytorch中自定义激活函数,如何在pytorch中使用自定义的激活函数? 如果自定义的激活函数是可导的,那么可以直接写一个python function来定义并调用,因为pytorch的autograd会自动对其求导。 如果自定义的激活函数不是可导的,比如类似于ReLU的分段可导的函数,需要写一个继承torc

  • 朴树贝叶斯分类算法2019-07-11 15:50:23

    对于本例中,朴素贝叶斯公式:p(A|w)=p(w|A).p(A)/p(w),其中w为待测试文本,由每一个单词wi构成,w=w0,w1,w2,...,wn,所以,要想知道测试本次是否属于侮辱性,则求 侮辱性概率:p(1|w)=p(w0,w1,w2,...,wn|1).p(1)/p(w0,w1,w2,...,wn) 非侮辱性概率:p(0|w)=p(w0,w1,w2,...,wn|0).p(0)/p(w0,w1,w2,...,

  • 语言模型2019-07-09 16:40:56

    语言模型 语言模型定义 一个语言模型通常构建为字符串S的概率分布P(s),这里的P(s)实际反映的是s作为句子出现的概率 如何建立盖里统计语言模型 对于一个由T个词顺序构成的句子s=w1w2w3w4⋯wTs=w_1w_2w_3w_4\cdots w_Ts=w1​w2​w3​w4​⋯wT​,p(s)p(s)p(s)实际上求解

  • HTTP协议2019-07-08 15:56:43

    HTTP 协议 Table of Contents 1 HTTP 基于 "请求" -> "响应" 机制的 无状态的(服务器内心OS: 我不知道你是谁,你跟上一个请求是不是同一个,我真的不知道,我也不屑于知道。有什么好处?) 明文传输的,基于文本的,不安全 基于 TCP/IP 协议,OSI,网卡 事情的本质就是: 客户端,要发送某些数据到

  • 位运算2019-07-07 09:01:35

    位运算 Delphi 的按位运算符共有六个: not and or xor shr shl; 其中的 not and or xor 也叫逻辑运算符, 其实功能都是一样的, 因为不管什么数据追到底都是 0 和 1 的组合 unit Unit1;interfaceuses Windows, Messages, SysUtils, Variants, Classes, Graphics, Controls, Forms,

  • 基于嵌入式的远程温度检测控制(论文)2019-07-01 20:53:51

            摘 要:该文设计了基于嵌入式树莓派为核心控制器的远程温度监测系统,并通过温度传感器DS18B20获得数据加以融合以及模糊算法对其进行处理,用户可在手机或电脑客户终端上了解到居室温度变化情况。该系统可以被广泛地用于生产中的各领域,特别适合于人体无法接近的高温

  • 生成模型和判别模型2019-07-01 19:25:16

    分类器的一般形式为决策函数Y=f(X)或者条件概率分布P(Y|X)。 a. 决策函数Y=f(X):你输入一个X,它就输出一个Y,这个Y与一个阈值比较,根据比较结果判定X属于哪个类别。例如两类(w1和w2)分类问题,如果Y大于阈值,X就属于类w1,如果小于阈值就属于类w2。这样就得到了该X对应的类别了。 b.

  • 先看看装饰器2019-06-23 15:43:18

    # 最简单的装饰器,运行顺序 def w1(func): print('装饰器正在装饰....') print(func) def inner(): print('正在进行权限验证...') func() # f1() return inner @w1 # 执行到这里就会调用函数w1,并且将f1作为参数传递给w1,并把返回值inner函

  • tensorflow中gradients的使用以及TypeError: Fetch argument None has invalid type <class 'NoneType�2019-06-16 13:02:56

    在反向传播过程中,神经网络需要对每一个loss对应的学习参数求偏导,算出的这个值也就是梯度,用来乘以学习率更新学习参数使用的,它是通过tensorflow中gradients函数使用的。 我们根据官方文档对函数原型进行解析 官方文档中函数原型以及参数如下: tf.gradients( ys, xs, grad_y

  • NLP之语言模型2019-06-12 23:03:30

    参考: https://mp.weixin.qq.com/s/NvwB9H71JUivFyL_Or_ENA http://yangminz.coding.me/blog/post/MinkolovRNNLM/MinkolovRNNLM_thesis.html   语言模型本质上是在回答一个问题:出现的语句是否合理。   在历史的发展中,语言模型经历了专家语法规则模型(至80年代),统计语言模型(至00年),神

  • uoj455 雪灾与外卖2019-06-10 21:48:42

    题面:uoj455 题意:有nnn只老鼠和mmm个洞,每个洞有容量限制和一个费用。要求每只老鼠进一个洞,使所有老鼠的移动距离和加进洞费用和最小。 题解:模拟费用流(贪心+反悔) 将所有的老鼠和洞按位置排序。考虑先让老鼠向左边的洞匹配。 维护老鼠和洞两个堆:MMM,HHH。老鼠移动的距离为右减

  • YUV切割2019-06-02 13:52:44

    YUV分割原理是对Y、U、V三个分量分别处理。以下使用I420做例子列举出左右、上下、切块三种方式,原理都一样。 不画图直接上代码。   左右切割: void CutLR(const char* src1, int w, int h) { int w1 = w / 2, w2 = w - w1; int h1 = h, h2 = h; char* cut_L = new char[w1

  • YUV叠加2019-06-02 13:49:10

    知道了YUV切割和合并的原理,叠加其实就是覆盖相应位置的数据,如果用或运算符就是混合,前面合并一篇有提及。 下面还是使用I420数据,直接上代码。 /* * src1: background yuv * src2: source yuv * w1: src1 width * h1: src1 height * w2: src2 width * h2: src2 height * x,y: s

  • 学习率的选取-滑动平均2019-06-01 21:51:55

    在神经网络模型中,将 MOVING_AVERAGE_DECAY 设置为 0.99,参数 w1 设置为 0,w1 的滑动平均值设置为 0。 ①开始时,轮数 global_step 设置为 0,参数 w1 更新为 1,则 w1 的滑动平均值为: w1 滑动平均值=min(0.99,1/10)*0+(1– min(0.99,1/10)*1 = 0.9 ②当轮数 global_step 设置为 100 时,参

  • 20175203 2018-2019 实验五《网络编程与安全》2019-05-29 23:01:33

    20175203 2018-2019 实验五《网络编程与安全》 任务一 要求 两人一组结对编程: 参考http://www.cnblogs.com/rocedu/p/6766748.html#SECDSA 结对实现中缀表达式转后缀表达式的功能 MyBC.java 结对实现从上面功能中获取的表达式中实现后缀表达式求值的功能,调用MyDC.java 上传测试代

  • Tensorflow框架(人工智能实践笔记)2019-05-20 16:48:11

    基于TensorFlow的NN: 用张量表示数据,用计算图搭建神经网络,用会话执行计算图,优化线上的权重(参数),得到模型。 张量(Tensor):多维数组(列表) 阶: 张量的维数 n阶 张量 名字及例子 0 标量,s=123 1 向量,v=[1,2,3] 2 矩阵,m=[[1,2,3],[4,5,6],[7,8,9]] n 张量 ,t=[[[…n个 张

  • 【CS231n】主成分分析(Principal Component Analysis)2019-04-13 13:47:39

    【CS231n】斯坦福大学李飞飞视觉识别课程笔记 数学原理推导和证明之类的大都一样,所以这里变身网络裁缝,借用网上的相应的博文等进行了总结,最后的最后只要知道是怎么回事就可以了。 一、引言 主成分分析(Principal Component Analysis,PCA), 是一种统计方法。通过正交变换将一组可

  • UVa8392019-04-07 22:37:37

    这个引用好精髓。 1 #include <iostream> 2 #include <cstring> 3 #include <string> 4 #include <map> 5 #include <set> 6 #include <algorithm> 7 #include <fstream> 8 #include <cstdio> 9 #include <cmath>10 #include

  • Tensorflow的初学习进程(9)——完整神经网络样例程序2019-04-05 11:51:41

    这是将前面的所学的结合起来的样例函数,里面包括了数据的定义,变量的定义,神经网络前向传播以及反向传播,不过损失函数和反向传播的算法在之后的学习中将会继续深一步的学习,目前先是写着。 import tensorflow as tf #numpy是一个科学计算的工具包,这里通过numpy工具包生成模拟数据

  • loss反向传播2019-03-31 15:55:13

    1 理论 损失函数的反向传播就是层层链式求导,得到每个矩阵或者向量的增量,然后更新。 2 实践 import numpy as np x = np.array([[0,0,1], [0,1,1],[1,0,1],[1,1,1]]) y = np.array([[0,1,1,0]]).T w0 = 2*np.random.random((3,4))-1 w1 = 2*np.random.random((4,1))-1 for j i

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有