本文为吴恩达 Deep Learning 笔记 深度学习概述 什么是神经网络: Neural Network 神经网络 Neuron 神经元 Rectified Linear Unit (ReLU) 线性整流函数 房价预测案例 用神经网络进行监督学习: Supervised Learning / Unsupervised Learning 监督学习 / 无监督学习 Structured
\(\large\text{Date: 7.5}\) \(\text{OI Maths}\) \(\text{I - CRT}\) 一句话: \(\large Ans=\sum\limits_{i=1}^nr_iM_i\operatorname{inv}(M_i, m_i) (\mod M)\) (\(\large M_i=\dfrac{M}{m_i},M=\prod m_i\)) \(\rm exgcd\) 求 逆元: LL exgcd(LL a, LL
P1891 疯狂 LCM 题意: 给定 \(n\),求: \[\sum_{i = 1}^n \operatorname{lcm}(i, n) \]思路: 先把 \(lcm\) 换成 \(gcd\): \[\ n\sum_{i = 1}^n \frac{i}{gcd(i,n)} \]加一个枚举因数的 \(\sum\) \[\ n\sum_{d|n} \sum_{i = 1}^n \frac{i}{d}[gcd(i,n)=d] \]即 \[\ n\sum_
预测函数 单变量线性回归:\(h{_\theta(x)} = \theta{_0} + \theta{_1}x\);令\(x_0 = 1\);则\(h{_\theta(x)} = \theta{_0}x_0 + \theta{_1}x_1\) ; 多变量线性回归:\({{h}_{\theta }}\left( x \right)={{\theta }_{0}}{{x}_{0}}+{{\theta }_{1}}{{x}_{1}}+{{\theta }_{2}}{{x}_
原理论述部分引用自浅谈邻项交换排序的应用以及需要注意的问题 luogu题单 引言 邻项交换排序是一种常见的贪心算法,通过比较两个相邻元素交换前后的优劣对整个序列进行排序,从而使得这个序列成为题目所求的最优解。 然而,邻项交换排序的应用有一些需要注意的地方,稍有不慎便会成为一个
一、定理内容 当$p$为质数的时候,$(p-1)+1$可以被$p$整除, 也就是$(p-1)!+1$ $\equiv 0$ $(mod$ $p$),即$(p-1)! \equiv -1 \pmod{p} $ 该条件为$p$为质数的充分必要条件 二、证明 当p为完全平方数时: 当p不是完全平方数时:
摘要 本文是早期的对抗文章,本文最最主要的工作是:提出了一个生成对抗样本的算法--JSMA(Jacobian Saliency Map)。然后在实验阶段,作者首先证明了这个方法使用的扰动很小,但对抗性很强,然后给出了一系列的方法用于计算不同的自然样本和不同的类别被攻击的难易程度,最后证明了JSMA 对抗样本
简要题意 一个 \(K\) 面骰子扔 \(N\) 次,记 \(i\) 的出现次数为 \(a_i\),求: \[E[\ \prod_{i=1}^La_i^F\ ] \]\(0<N,K\le 10^9,0<F\le 1000,0<L\cdot F\le 50000,1\le L\le K\). 解题思路 首先不难写出单个数贡献的生成函数 \(A(x)=\sum\dfrac{i^Fx^i}{i!}\),那么前 \(L\) 个数贡献的
对于 \(\sum_{i=0}^{n}f(i)\) 的这种问题但是 \(f(i)\) 不是多项式函数且 \(n\) 很大时可以考虑一个用矩阵做的 DP: \[\begin{bmatrix}\binom{n}{m}\\\sum_{i=0}^{m}\binom{n}{i}\end{bmatrix}=\begin{bmatrix}\frac{n-m+1}{m}&0\\\frac{n-m+1}{m}&1\end{bmatrix}\begin{bmatri
论文信息 论文标题:Attributed Graph Clustering via Adaptive Graph Convolution论文作者:Xiaotong Zhang, Han Liu, Qimai Li, Xiao-Ming Wu论文来源:2019, IJCAI论文地址:download 论文代码:download 1 Introduction 关于GNN 是低通滤波器的好文。 2 Method 2.1 Graph Co
传送门 题目 扔色子和金币, 色子会有 \(n\) 个面,而金币会有 \(k\) 的价值, 扔色子时,分数为色子的大小。当色子的大小在 \(\left[1,k-1\right]\) 时扔金币,否则不扔。 扔金币时,金币朝上,分数翻倍;否则,分数变零。 当分数大于等于 \(k\) 或 等于 \(0\) 时,结束。 总之,求分数大于等于 \(k\)
题目链接 2702. problem b 同215. 破译密码 对于给出的 \(n\) 个询问,每次求有多少个数对 \((x,y)\),满足 \(a≤x≤b,c≤y≤d\),且 \(\text{gcd}(x,y) = k\),\(\text{gcd}(x,y)\) 函数为 \(x\) 和 \(y\) 的最大公约数。 输入格式 第一行一个整数 \(n\)。 接下来 \(n\) 行每行五个整数,分
洛谷题面 题目大意 在古埃及,人们使用单位分数的和(形如 \(\dfrac{1}{a}\) 的,\(a\) 是自然数)表示一切有理数。如:\(\dfrac{2}{3} = \dfrac{1}{2} + \dfrac{1}{6}\),但不允许 \(\dfrac{2}{3} = \dfrac{1}{3} + \dfrac{1}{3}\),因为加数中有相同的。对于一个分数 \(\dfrac{a}{b}\),表示方
欢迎来到HowardZhangdqs的劝退小课堂。这是狭义相对论从入门到入土(建议初一以上)系列的第二个集合版,修订了大量之前未发现的错误,如果大家在阅读时发现了错误欢迎联系我 zjh@shanghaiit.com 1.1 导言 何为相对论? 相对论(Theory of relativity)是关于时空和引力的理论,主要由爱因斯坦创
弗里德曼-迪亚科尼斯规则 在统计学中,Freedman-Diaconis规则用于确定直方图中的条柱宽度, 它以David A.Freedman和Persi Diaconis的名字命名。该规则定义: \[条柱宽度 = 2 \times \frac{IQR}{\sqrt[3]{n}} \]其中,IQR是四分位距,n是观测样本数目。 偏度(Skewness) 偏度用来度量随机变量
Description 设 \(F_n\) 表示用 \(1\times 2\) 的骨牌填满 \(2\times n\) 的矩阵的方案数,\(G_n\) 表示用 \(1\times 2\) 的骨牌填满 \(3\times n\) 的矩阵的方案数。给出 \(l,r,k\),分别求出: \[\frac{1}{r-l+1}\sum_{n=l}^r\binom{F_n}{k} \] \[\frac{1}{r-l+1}\sum_{n=l}^r\binom{
有关蒸馏 (Distillation)的论文: (2006)Model Compression (2014)Do Deep Nets Really Need to be Deep?--- 论文笔记 (2015)Distilling the Knowledge in a Neural Network--- 论文笔记 摘要 本文提出了防御蒸馏(defensive distillation),主要思想为:使用从DNN中提取的知识来降低
有限小数 给定三个整数 $p,q,b$,请你计算十进制表示下的 $p/q$ 的结果在 $b$ 进制下是否为有限小数。 输入格式 第一行包含整数 $T$,表示共有 $T$ 组测试数据。 每组数据占一行,包含三个整数 $p,q,b$。 输出格式 每组数据输出一行结果,如果 $p/q$ 的结果在 $b$ 进制下是有限小数,则输出
cache命中率 定义 Cache是用来对内存数据的缓存。 CPU要访问的数据在Cache中有缓存,称为“命中” (Hit),反之则称为“缺失” (Miss)。 cache命中率 \(N_c\)表示cache完成存取的总次数(命中的次数) \(N_m\)表示主存完成存取的总次数 h定义为命中率(用cache完成存取的次数在总存
介绍 我也不知道为啥叫这个名字。 更可口的英文版 用于解决分治算法复杂度。 主定理适用于以下形式的递归: \[T(n)=aT(\frac{n}{b})+f(n) \]其中 \(a\ge 1,b>1\) 为常数,\(f(n)\) 是渐近正函数。 啊啊啊更标准的去看英文版的吧,我这里说人话。 比较 \(X=f(n)\) 和 \(Y=af(\dfrac{n}{b
2022年南京大学强基测试数学试题 复试 考试时间2022年6月18日10:00-11:30 备注:一共是考两门:数学和物理各45分钟,数学一共三道题目 1. (2022年南京大学强基计划)设$n>1$为正整数,证明:$$\left( \frac{n+1}{3} \right) ^n< n! <\left( \frac{n+1}{2} \right) ^n.$$ 解法一. 先证明
给国与地震 一种暴力的想法就是将所有当前可以合并的边扔到优先队列里面,每次取出来堆顶合并,然后扫描这条边两端点所在联通块当前没有被合并的所有出边,如果能合并就合并 看起来每次合并就把所有出边都扫描一遍非常亏,所以可以给每条边权为 \(w\) 的边设置一个 \(\frac{w-a_u-a_v}2\)
拉格朗日反演 多项式复合:\(F(G(x))=x\),则称\(F(x)\)与\(G(x)\)互为复合逆 存在条件:\([x^0]F(x)=0\),\([x^1]F(x)\ne 0\) 拉格朗日反演: \([x^n]G(x)=\frac{1}{n}[x^{-1}](\frac{1}{F(x)})^n\) 但由于\([x^0]F(x)=0\)无法求逆,所以更通用的是:\([x^n]G(x)=\frac{1}{n}[x^{n-1}](\frac
题意 有\(N\)件物品,每件物品价格为\(A_i\)元。 你现在有\(K\)张优惠券。对于一个价格为\(X\)的物品,如果你使用\(y\)张优惠券,则你需要花费\(\lfloor \frac{X}{2^y} \rfloor\)元。 求购买所有物品需要花费多少元钱? 题目链接:https://atcoder.jp/contests/abc141/tasks/abc141_d 数据
ID3决策树 自信息 \[I(x)=-log_bp(x) \]可以先把自信息理解成跟米,公顷一样的一种单位,不必在这纠结 信息熵 度量随机变量 \(X\)的不确定性,信息熵越大越不确定 \[H(x) = E[I(X)] = -\sum_xp(x)log_bp(x)\tag{以离散型为例} \] 在计算时约定 如果 p(x) = 0 ,则 \(p(x)log_bp(x)=0\)