ICode9

精准搜索请尝试: 精确搜索
  • 「题解」老头子的话2021-07-04 20:32:47

    本文将同步发布于: 洛谷博客; csdn; 博客园; 简书。 题目 题目链接:「集训队作业 2018」喂鸽子。 题目描述 老头子是小学校长,小学生(大哥)们都很听老头子的话。一天,老头子给小学生(大哥)们发苹果吃。一共有 \(n\) 个小学生(大哥),老头子每一次会等概率选择一位小学生(大哥)并给他一个苹果。一

  • MML ch 10 主成分分析降维(Dimensionality Reduction with Principal Component Analysis)2021-07-02 13:01:32

    文章目录 问题设置(Problem Setting)最大化方差的角度看PCA(Maximum Variance Perspective)最大方差的方向(Direction with Maximal Variance)M维子空间下的最大方差(M-dimensional Subspace with Maximal Variance) 投影的角度看待PCA(Projection Perspective)问题设置和问题目标(S

  • MLP-Mixer: An all-MLP Architecture for Vision2021-06-29 18:01:54

    目录概主要内容代码 Tolstlkhin I., Houlsby N., Kolesnikov A., Beyer L., Zhai X., Unterthiner T., Yung J., Steiner A., Keysers D., Uszkoreit J., Lucic M., Dosovitskly A. MLP-mixer: an all-mlp architecture for vision. In International Conference on Learning Rep

  • 【实变函数】证明(一)2021-06-27 19:00:57

    证明1 1-1 若\(E\)是开集,则\(E^c\)是闭集。 设\(\{x_k\}\in E^c\)使得\(x_k\to y\)。若\(y\in E\),则因\(E\)是开集,存在某\(B_r(y)\subset E\),从而有\(x_k\in B_r(y)\),这与\(x_k\in E^c\)矛盾。 1-2 Cantor集是完全不连通的完备集。 由Cantor集的构造,我们知道对于\(C_k\),其每一

  • 《强化学习》中的第10章:基于函数逼近的同轨策略控制2021-06-22 16:04:11

    前言: 本次笔记对《强化学习(第二版)》第十章进行概括性描述。 以下概括都是基于我个人的理解,可能有误,欢迎交流:piperliu@qq.com。 正文 很短的一章,是对于第九章的延续。 第九章中,我们用函数逼近的方法为 V (

  • 机器学习总结2021-06-16 00:02:35

    机器学习总结 0 前言1理论部分1.1 优化问题1.2 泛化1.3 过拟合1.4 优化算法 2 应用2.1 SVM2.2 decision tree 0 前言 机器学习是人工智能的核心,从历史数据中学习信息,总结规律。 学会概率论与数理统计,矩阵分析以及凸优化,机器学习就掌握了大部分。 其中贝叶斯,梯度下降,sv

  • Attention Is All You Need2021-06-13 16:33:43

    目录概主要内容Positional Encodingauto_regressive额外的细节代码 Vaswani A., Shazeer N., Parmar N., Uszkoreit J., Jones L., Gomez A. N., and Kaiser L. Attention is all you need. In Advances in Neural Information Processing Systems (NIPS), 2017. 概 Transformer

  • Variational Autoencoders and Nonlinear ICA: A Unifying Framework2021-06-06 20:32:53

    目录概主要内容本文的模型Identifiability Khemakhem I., Kingma D. P., Monti R. P. and Hyv"{a}rinen A. Variational autoencoders and nonlinear ICA: a unifying framework. In International Conference on Artificial Intelligence and Statistics (AISTATS), 2020. 概

  • DAG-GNN: DAG Structure Learning with Graph Neural Networks2021-05-30 19:34:36

    目录概主要内容代码 Yu Y., Chen J., Gao T. and Yu M. DAG-GNN: DAG structure learning with graph neural networks. In International Conference on Machine Learning (ICML), 2019. 概 有向无环图 + GNN + VAE. 主要内容 先前已经有工作(NOTEARS)讨论了如何处理线性SEM模

  • 【抽样调查】:不等概抽样2021-05-28 21:03:48

    第5部分 不等概抽样 目录第5部分 不等概抽样不等概抽样简单的放回不等概抽样概述HH统计量的期望、方差HH统计量方差的无偏估计放回不等概多阶段抽样放回不等概整群抽样放回不等概两阶段抽样两阶段放回不等概抽样中自加权统计量的设计多阶段放回不等概抽样概述不放回不等概抽样概述

  • Infinite Sets2021-05-04 20:33:17

    无穷集合 集合的比较 : \(=\) ,\(\le\) \(\quad\quad\) 工具:\(function\) Definition: 集合等势 \(\vert A \vert = \vert B \vert \Leftrightarrow \exists f:A \to B( f \text{ is bijective})\) note: 等势是一个具有等价性质的概念。 Definition :无穷和有穷 \(X\text{ is fini

  • 访问结构总结2021-05-03 15:05:31

    定义 访问结构: 设 P = { P 1 , P

  • 【抽样调查】等概率整群抽样2021-04-29 19:03:51

    第3部分:等概率整群抽样 目录第3部分:等概率整群抽样概述与符号说明群规模相等时的估计均值估计总值估计效率分析群规模不等时的估计估计方法无偏估计比率估计 概述与符号说明 整群抽样:将总体划分为若干群(cluster),然后以群为抽样单元,从总体中随机抽取一部分群,对入选群内的所有单元

  • latex 集合相关符号:实数集,整数集,并,包含,真包含2021-04-25 21:34:51

    参考https://blog.csdn.net/robert_chen1988/article/details/76209634   一些特殊的集合符号,使用 \mathbb 命令:   \mathbb{R} 或 \mathbb R:      ℝR   \mathbb{z}:       ℤZ   \mathbb{N}:      ℕN     集合的相关操作:     真包含 \subset     ⊂⊂  

  • Direct and Indirect Effects2021-04-03 21:34:13

    目录概主要内容CDENDENIETDE, TIE, PDE, PIE Judea Pearl. Direct and indirect effects. In Proceedings of the 17th conference on uncertainty in artificial intelligence. Morgan Kaufmann Publishers Inc., 2001. 概 CDE: Controlled Direct Effect; NDE: Natural Direct

  • 交换代数笔记82021-04-01 05:32:08

    设\(\text{Spec}(A)\)是环\(A\)全体素理想的集合,对于每个集合\(I \subset A\),包含\(I\)的所有素理想\(V(I) \subset \text{Spec}(A)\)满足拓扑空间闭集的性质,构成\(X\)上的扎里斯基拓扑,拓扑空间\(\text{Spec}(A)\)称为环的谱。例如 \(\text{Spec}(\mathbb{Z}) = \{(0)\}\) \(\tex

  • 通过 Euler integral2021-03-29 23:00:13

    Gamma公式展示 Γ ( n ) = ( n −

  • cauchy problem of 1st order PDE from Partial Differential Equations2021-03-08 12:29:07

    pure math 加一个一个Episodes pde进可攻退可守 pure math f : R → R ,

  • 1.3 数域2021-02-23 08:33:22

    定义 1: 复数集的一个非空子集\(K\)如果: \(0, 1 \in K\) \(\forall a, b \in K\),有\(a \pm b, ab \in K\) \(\forall a, b \in K\)且\(b \neq 0\)有\(\frac{a}{b} \in K\) 则\(K\)是一个数域。 例:有理数域\(\mathbb{Q}\),实数域\(\mathbb{R}\),复数域\(\mathbb{C}\)。 命题

  • Chapter 3 Observational Studies2021-02-14 21:02:58

    目录概3.13.2 Exchangeability3.3 Positivity3.4 ConsistencyFirstSecondFine Point3.1 Identifiability of causal effects3.2 Crossover randomized experiments3.3 Possible worlds3.4 Attributable fractionTechnical Point3.1 Positivity for standardization and IP weight

  • 【笔记】Pearson Correlation Coefficient2021-02-09 14:02:20

    Intro 衡量线性关系,一般要求变量(近似地)服从正态分布,并且是连续性的。 在进行归一化之后,Pearson 相关系数实际上类似于先进行中心化再做余弦相似度。 给出的结果,负相关为 -1,正相关为 1. Pearson Correlation Coefficient 是用协方差除以两个变量的标准差得到的 输入两组数据,Pearson

  • 【随机过程】01. 初等概率论(一)2021-02-04 10:02:01

    文章目录 初等概率论(一)概率空间条件概率与独立性随机变量及其分布二元随机向量及其分布数字特征条件期望 初等概率论(一) 概率空间 概率空间是随机现象的数学模型,它由三个基本要素组成,通常写作 ( Ω

  • 数理统计6:泊松分布,泊松分布与指数分布的联系,离散分布参数估计2021-02-04 02:04:05

    前两天对两大连续型分布:均匀分布和指数分布的点估计进行了讨论,导出了我们以后会用到的两大分布:\(\beta\)分布和\(\Gamma\)分布。今天,我们将讨论离散分布中的泊松分布。其实,最简单的离散分布应该是两点分布,但由于在上一篇文章的最后,提到了\(\Gamma\)分布和泊松分布的联系,因此本文从

  • [计算机视觉]论文笔记—Group Equivariante Convolutional Networks2021-02-03 16:59:05

    论文笔记—Group Equivariante Convolutional Networks 前言 提到等变性就不得不提不变性这一性质。在卷积神经网络诞生之初,大家普遍认为使得其性能如此之好的原因之一便是其具有一定的平移不变性。起初人们为了增强其拥有的不变性,普遍采用的一些trick都是属于数据增强的类

  • 数理统计4:均匀分布的参数估计,次序统计量的分布,Beta分布2021-02-01 18:00:59

    接下来我们就对除了正态分布以外的常用参数分布族进行参数估计,具体对连续型分布有指数分布、均匀分布,对离散型分布有二项分布、泊松分布几何分布。 今天的主要内容是均匀分布的参数估计,内容比较简单,读者应尝试一边阅读,一边独立推导出本文的结论。由于本系列为我独自完成的,缺少审阅

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有