嗨咯!a ni o~!空妮七挖!大家好久不见呀~今天小Mi继续给大家讲解正则化! 目前深度模型在各种复杂的任务中固然表现十分优秀,但是其架构的学习要求大量数据,对计算能力的要求很高。神经元和参数之间的大量连接需要通过梯度下降及其变体以迭代的方式不断调整。向全局最小值的收敛过程较慢,容
好久不见,甚是想念!小Mi最近一直在忙着消化深度学习的各种知识点,这不就马不停蹄地就给大家安排上啦!今天小Mi给大家介绍简单的深度学习网络(Deep Neural Networks, DNN),废话不多说,赶紧开始吧~ 感知机 首先隆重介绍下神经网络的基础单元——感知机,整体过程就是对若干输入进行加权求和,再加
有序向量的查找 查找 接口:tempalte static Rank search(T* a,T const& e, Rank lo, Rank hi) 语义规定:在有序向量的区间[lo, hi)内,确定不大于e的最后一个节点的秩 复杂度:若采用最朴素的二分策略,那么每次都将问题规模缩小一半左右,这样经过至多\(log_2(hi-lo)\)次迭代,复杂度不超过
办公中我们经常会处理很多复杂的excel、word、pdf等文件,大家有没有设想过用一个平台就可以同时处理这些东西呢?没错,小Mi又给大家挖掘了新的神技能,今天就显摆下如何用python处理excel表格(嘴硬党是不是可以承认python是最好的语言了吧,哈哈)! 1. 安装库 首先,准备工作自然是需要安装一系
一周未见,甚是想念,今天小Mi带大家学习异常检测(Anomaly detection)!废话不多说,我们开始吧~ 1 定义 异常检测(Anomaly detection)这个算法很有意思:它虽然主要用于非监督学习问题,但从某些角度看,它又和一些监督学习问题很类似。 什么是异常检测: 通常飞机的引擎从生产线上流出时需要进
一周未见,甚是想念,今天小Mi带大家学习异常检测(Anomaly detection)的多元部分!废话不多说,我们开始吧~ 7 多元高斯分布 今天学习的内容是异常检测算法的更进一步,涉及到多元高斯分布,它有一些优势,也有一些劣势,它能捕捉到之前的算法检测不出来的异常,首先我们来看一个例子。 假设有上图
转眼间,小Mi带大家已经机器学习了两个月了,今天带大家一起放松放松,我们和电脑来几场简单的“决斗”! 场景1: 在没有丰富表情包的聊天时代,大家的表情是不是纯粹靠兔斯基和石头剪刀布来简单进行娱乐,要不今天安排下和计算机无聊来几局? 逻辑分析: 代码展示: import random #导入随机模
小Mi学习,向上积极!在上一篇机器学习中,小Mi已经带大家认识了单变量线性回归的数学模型,以及对应代价函数的图形解释,小Mi也提及过,我们真正需要的是一种有效的算法,能够自动地找出这些使代价函数J取最小值的参数,来,因此它来了它来了!今天小Mi在此基础上,继续带大家一起学习梯度下降算法。 3
今天小Mi带大家学习如何设计一个机器学习系统,也会带大家了解设计复杂的机器学习系统时可能会遇到的一些问题。当然啦,除此之外,小Mi还会提供一些关于巧妙构建复杂机器学习系统的小tips。哦,对了,偷偷告诉你们,可能会帮助大家在构建大型的机器学习系统时,节省大量的时间哦~ 1 初始步骤
问题 D: 连续质数和 时间限制: 1.000 Sec 内存限制: 128 M 题目描述 质数又称素数,是大于 1 的正整数,除了 1 和它本身外不能被其他自然数整除,有无限 个,比如,2、3、5、7 等都是质数,但比如 9 就不是质数,因为它除了能被 1 和它自己整 除外,还能被 3 整除。 悦悦小朋友对这类质
Windows 多屏情况下,EnumDisplayMonitors() 枚举所有显示器,通过 GetMonitorInfo() 可以取得指定显示器的相关信息,如物理显示区大小等。MonitorInfo 结构中保存着相应显示器的相关信息,如坐标、是否为主显示器等。该结构体中有个 dwFlags 变量表示该显示器是否为主显示器,当值为
kill触发条件 static void mp_event_common(int data, uint32_t events __unused) { .... 省略 //meminfo_parse 解析 /proc/meminfo,完成mi初始化 //zoneinfo_parse 解析 /proc/zoneinfo,完成zi初始化 //详见 1.1 if (meminfo_parse(&mi) < 0 || zone
危险,危险,危险——好久不见,等你在这里见面~在经过前两期关于神经网络的简单介绍后,今天小Mi将进一步介绍神经网络的代价函数、前向传播和反向传播,废话不多说,我们开干吧~ 1 代价函数 首先引入一些便于稍后讨论的新标记方法: 假设神经网络的训练样本有m个,每个包含一组输入x和一组输出信
在上周小Mi给大家的介绍中,我们谈到了怎样使用反向传播算法计算代价函数的导数。今天,小Mi将继续带大家了解神经网络的实现过程,废话不多说,赶快跟小Mi一起学起来吧~ 4 实现注意:展开参数 首先,有一个细节的实现过程值得关注一下,就是如何把参数从矩阵展开成向量,以便我们在高级最优化步骤
今天小Mi带大家学习如何设计一个机器学习系统,也会带大家了解设计复杂的机器学习系统时可能会遇到的一些问题。当然啦,除此之外,小Mi还会提供一些关于巧妙构建复杂机器学习系统的小tips。哦,对了,偷偷告诉你们,可能会帮助大家在构建大型的机器学习系统时,节省大量的时间哦~ 1 初始步骤
一周未见,动力不减!小Mi又带着知识点和大家见面啦!(敲黑板~) 上周小Mi带着大家简单地学习了机器学习的概念,还有其常见的两个大类,监督学习和无监督学习,这次小Mi决定跟大家一起复习下机器学习中常用的线性代数知识。话说矩阵、向量还记得不,逆和转置到底是什么玩意儿?你的大学老师是不是已
小Mi学习,向上积极!前两节小Mi带大家学习了单变量线性回归,还具体分析了自动求解最小代价函数参数的梯度下降法。这不有了单变量,是不是肯定有多变量?!今天小Mi跟大家一起讨论的就是一种更为有效,适合实际情况的形式-多变量线性回归~~ 1 多维特征 既然是多变量线性回归,那么肯定是存在多
几天不见,甚是想念!小Mi系列的活动正在如火如荼地进行中,小Mi看到大伙儿的热情,动力更加十足,这不又迫不及待地更新来了! 在上期的多变量线性回归介绍中,我们学习了多维特征、多变量的梯度下降法以及在实现梯度下降过程中的特征缩放和如何选择学习率这两个技巧,今天小Mi在其基础上,继续带领
一周未见,,甚是想念!今天小Mi带大家学习如何降维,这是我们遇到的第二种类型的无监督学习问题!废话不多说,我们开始吧~ 1 降维示例 首先,什么是降维呢?这个问题应该最先搞清楚,由于数据集通常有许多特征,我们可以举一个简单的例子来分析: 假设有未知两个的特征: 长度,用厘米表示; 是用英寸
https://www.luogu.com.cn/problem/CF704D 假设 r < c r<c r<c 首先肯定是建成二分图,通关简单分析可以知道每个点可以取的范围是
Update \(\texttt{2021.11.27}\) 修复了代码中的 \(10000\) 写成 \(n\) 的错误。 Content 一个家庭住在一个胡同里面,门牌号从 \(1\) 开始编号。其余门牌号的和减去这个家庭的门牌号的两倍恰好等于 \(n\),求这个家庭的门牌号和胡同的门牌号总数。 数据范围:\(n<10^5\)。 Solution
概述 一、Oracle查询最近几天每小时归档日志产生数量的脚本写法 SELECT SUBSTR(TO_CHAR(first_time, 'MM/DD/RR HH:MI:SS'), 1, 5) Day, SUM(DECODE(SUBSTR(TO_CHAR(first_time, 'MM/DD/RR HH24:MI:SS'), 10, 2), '00', 1, 0)) H00,
题目:C. Necklace 题意: https://codeforces.com/gym/103415/problem/C 长度为 n 的项链上有 m 个珠子,每个珠子分一段,问最长段长度的最小值 思路:二分+贪心 每次check贪心地从第一个位置开始,所以一开始偏移量最大为:n-a[m]+a[1]-1,mi表示当前起始位置最大的偏移量,每经过一段区间
Announcement 链接 某些题过水没有加入。 CF1584D Guess the Permutation 原本有一个长度为 \(n\) 的序列 \(a\) 满足 \(a_i=i\)。现在我们将 \([i,j-1]\) 与 \([j,k]\) 进行翻转,我们不会告诉你 \(i,j,k\),你每次可以向交互库询问一个区间的逆序对数,试在 \(40\) 次询问内求出 \(i,j
【python】 求数组最小值,最大值,最小偶数,最大奇数 lst = [3, 6, 1, 8, 1, 9 , 8,10,21] min=lst[0] max=lst[0] mi=lst[0] ma=lst[0] for i in lst : if i>max: max=i if min>i: min=i if i%2==0: if mi>i: mi=i eli