ICode9

精准搜索请尝试: 精确搜索
  • 面试基础知识准备(一)2021-01-30 15:29:54

    最近准备实习面试,阅读师兄博客,把重要重点都记录下来,博客内容涉及大量他人总结的知识,如侵删。 目录 L1、L2、smooth L1 损失函数L1 为什么比L2 更容易得到稀疏解L1和L2正则化反卷积与反卷积的棋盘格现象下采样的滤波解释一阶动量和二阶动量Adam、SGD、RMSProp区别分类问题

  • 深度学习--优化器2020-12-17 15:32:41

    深度学习-优化器 基本框架非自适应学习率SGDMomentumNesterov 自适应学习率AdagradAdadeltaAdamAdamaxNadam 小结 这里是引用https://blog.csdn.net/u012759136/article/details/52302426/?ops_request_misc=&request_id=&biz_id=102&utm_term=sgd%2520adam&utm_medium=

  • 如何使用数据库实现动量交易策略详解?2020-12-08 11:02:01

    动量策略是最流行的量化策略之一。商品期货的CTA策略,绝大多数都是基于动量策略。在股票市场,动量策略也是常用的量化因子之一。通俗地讲,动量策略就是“追涨杀跌”。下面我们将介绍如何在DolphinDB中测试动量交易策略,并计算动量交易策略的累积回报。DolphinDB database 是一款高性能

  • pytorch:动量与学习率衰减2020-08-22 14:31:39

                                         

  • torch.optim.SGD()各参数的解释2020-06-26 12:09:12

    看pytorch中文文档摘抄的笔记。 class torch.optim.SGD(params, lr=, momentum=0, dampening=0, weight_decay=0, nesterov=False)[source] 实现随机梯度下降算法(momentum可选)。 Nesterov动量基于On the importance of initialization and momentum in deep learning中的公式.

  • 《强化学习精要 核心算法与TensorFlow实现》【1】2020-06-20 16:04:40

                                                               --> 不一定要沿梯度方向下降? 通过不同的方向 来探测/估计当前地形?   --> 如何衡量 zigzig 的程度——如果从历史的迭代中学习掌握规律?   -->  动量方法 --> 数据驱动~ 每个方向算

  • 深度学习中的优化问题以及常用优化算法2020-02-24 11:37:38

            3、神经网络优化中的挑战 优化是一个很困难的任务,在传统机器学习中一般会很小心的设计目标函数和约束,以使得优化问题是凸的;然而在训练神经网络时,我们遇到的问题大多是非凸,这就给优化带来更大的挑战。 3.1 局部极小值 凸优化问题通常可以简化为寻找一个局部极小值

  • 路遥知马力——Momentum动量梯度2020-02-23 20:37:42

    NAG:在滑板下降过程中 也就是速度加快的时候 增大水平方向的力(累计的动量方向) 而在上升的过程中 也就是速度下降的时候 减少垂直方向的力(当前的梯度方向?) 本文收录在无痛的机器学习第一季。 写在前面:感谢@夏龙对本文的审阅和提出的宝贵意见,欢迎各位大神多多指点。上一回

  • 优化器2019-09-26 14:03:40

    首先定义:待优化参数:  ,目标函数:  ,初始学习率 。 而后,开始进行迭代优化。在每个epoch  : 计算目标函数关于当前参数的梯度:  根据历史梯度计算一阶动量和二阶动量:, 计算当前时刻的下降梯度:  根据下降梯度进行更新:    SGD    SGD with Momentum    AdaGrad AdaDelta /

  • 英世曼 | 动量是否具有行为性?2019-08-23 21:02:36

    原文链接:https://mp.weixin.qq.com/s/uvmjnQkjFnjW-6UncnixJw 英世曼 | 动量是否具有行为性? 原创: 英世曼 交易门 今天 作者:英世曼 翻译:雷闻 原文章来自英世曼网站,本文为原文章的中文翻译。本文仅用于交流学习使用,不得用于商业用途。如对相关著作人造

  • 深度学习面试题03:改进版梯度下降法Adagrad、RMSprop、Momentum、Adam2019-08-20 09:55:48

    目录   Adagrad法   RMSprop法   Momentum法   Adam法   参考资料 发展历史   标准梯度下降法的缺陷 如果学习率选的不恰当会出现以上情况   因此有一些自动调学习率的方法。一般来说,随着迭代次数的增加,学习率应该越来越小,因为迭代次数增加后,得到的解应该比较靠近

  • 稀疏学习:从人脑得到灵感,让深度学习突破算力限制2019-08-06 15:07:25

    大数据文摘出品来源:timdettmers编译:张秋玥、Luciana、钱天培深度学习的重要推动力是计算力的进步。从2010年到2018年,GPU性能提高了97倍。但是,由于我们几乎已达到了半导体技术的物理极限,可以预计,在未来5-8年内GPU性能的提升仅会略高于80%。在无法进一步提高计算能力的情况下,我

  • 深度学习里面的而优化函数2019-06-09 21:49:16

    From:https://www.cnblogs.com/adong7639/p/9850379.html 建议看原文,没图 (一)一个框架看懂优化算法 “ 说到优化算法,入门级必从 SGD 学起,老司机则会告诉你更好的还有AdaGrad / AdaDelta,或者直接无脑用 Adam。可是看看学术界的最新 paper,却发现一众大神还在用着入门级的 SGD,最多

  • 动量因子的日内重构探索2019-05-27 18:54:10

      本文参考方正证券《枯树生花:基于日内模式的动量因子革新》,基于“市场行为特征在日内不同时段存在差异”的基本事实,对动量因子进行创新性的探索,通过时间分割的方法,重新构造了动量因子,并对收益进行统计分析。 未经授权,严禁转载 引言 >>> 研究内容 在量化投资的领域, 动量是最

  • 物理选修3-5学习笔记2019-04-11 11:50:00

    物理选修3-5学习笔记 课本 视频 动量及冲量的理解 实际上就是对"一个运动过程"的另一种理解方式(其他的有牛顿第一定律,动能定律) 基本概念 1.动量(p) \(p = mv\) 1.状态量 2.矢量,与\(v\)的方向相同, \(p^2 = 2mE_k\) 3.动量的变化量:\(\Delta p = \vec{p_2} - \vec{p_1}\)(与\(\De

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有