Introduction 1. 概念 机器学习可以应用到很多场景中,例如语音识别、图像识别、AI智能下棋等。 它的输入可以是一段声音信号/图片/物体之间的位置关系,数据类型例如:Vector、Matrix、Sequence等。之后通过机器学习寻找一种将输入进行转化为你想要的输出结
1..向量的范数 \(非负性:x\ne 0,则||x||>0,如果x=0,则||x||=0\) \(齐次性:||kx||=|k|||x||,k\in P\) \(三角不等式:||x+y||\le ||x||+||y||\) 1-范数 \[||x||_1=\sum\limits_{i=1}^{n}|x_i| \]2-范数/欧式范数 \[||x||_2=\sqrt{x_1^2+x_2^2+...,+x_n^2}=(x^Tx)^{\frac{1}{2}} \]
作者:韩信子@ShowMeAI 教程地址:http://www.showmeai.tech/tutorials/36 本文地址:http://www.showmeai.tech/article-detail/230 声明:版权所有,转载请联系平台与作者并注明出处 收藏ShowMeAI查看更多精彩内容 本系列为斯坦福CS224n《自然语言处理与深度学习(Natural Language Proc
向量基础知识: 单位向量e:模(向量算出来的长度)等于1的向量 AB=(a,b,c) BC=(d,e,f) 向量的长度|AB|= √(a2 +b2+c2) 单位向量、长度、向量的关系:AB=|AB|*e 向量加减:AB±BC=AC= (a±d,b±e,c±f) 向量数乘:k*AB=(k*a,k*b,k*c) 向量数除:AB/k=(a/k,b/k,c/k) 向量相乘:AB*BC=|AB|*|BC
看了李沐老师在B站讲的零基础多图详解图神经网络(视频),博客地址,这里稍微总结一下。图神经网络部分看得不是很清楚,建议感兴趣的同学看一下视频或者博客 1.什么是图 图是表示一些实体之间的一些关系,实体为顶点,关系为边,图上面可以有三种问题:1.图的分类,如分出包括两个环的图。2.
https://blog.razrlele.com/p/2594 这篇文章还不错哦,讲了Faiss的两个重要概念: PQ:Product Quantizer IVF:Inverted File System Faiss是什么 Faiss是FAIR出品的一个用于向量k-NN搜索的计算库,其作用主要在保证高准确度的前提下大幅提升搜索速度,根据我们的实际测试,基于1600w 512
核支持向量机(SVM)是可以推广到更复杂模型的扩展,这些模型无法被输入空间的超平面定义。 SVM可以同时用于分类和回归 1、线性模型与非线性特征 线性模型在低维空间中可能非常受限,因为线和平面的灵活性有限。有一种方法可以让线性模型变得更加灵活,就是添加更多的特征(添加输入特征的
首先了解一下SVM是干什么的,SVM用来分类样本的。SVM的目标是寻找到一个最佳的超平面使得(超平面可能有很多,最佳超平面和支持向量之间的间隔最可能大)。划分超平面可以通过线性方程来描述: $$ w^Tx+b = 0 $$ $w=(w_1;w_2;...;w_d)$为法向量,决定了超平面的方向,$b$为位移项,据定了超平面
Faiss是一个Facebook AI团队开源的库,全称为Facebook AI Similarity Search,该开源库针对高维空间中的海量数据(稠密向量),提供了高效且可靠的相似性聚类和检索方法,可支持十亿级别向量的搜索,是目前最为成熟的近似近邻搜索库。 官方资源地址https://github.com/facebookresearch/faiss F
Fauce:Fast and Accurate Deep Ensembles with Uncertainty for Cardinality Estimation 论文解读(VLDB 2021) 本篇博客是对Fauce:Fast and Accurate Deep Ensembles with Uncertainty for Cardinality Estimation 论文的解读。原文链接为p1950-liu.pdf (vldb.org) 本文设计一种基于
https://zhuanlan.zhihu.com/p/137702347 这篇文章讲得不错 好像下面这篇文章也写得不错,之后有空再看 https://zhuanlan.zhihu.com/p/24709748 虽然说学过微积分理论上就能推导出矩阵求导的法则,但是矩阵求导的确是很麻烦,先不提张量相关,简单的来组合一下就很多可能:
第一讲:方程组的几何解释 我们从求解线性方程组来开始这门课,从一个普通的例子讲起:方程组有\(2\)个未知数,一共有\(2\)个方程,分别来看方程组的“行图像”和“列图像”。 有方程组\(\begin{cases}2x&-y&=0\\-x&+2y&=3\end{cases}\),写作矩阵形式有\(\begin{bmatrix}2&-1\\-1&2\end{bmat
特征值和特征向量 reference的内容为唯一教程,接下来的内容仅为本人的课后感悟,对他人或无法起到任何指导作用。 Reference Course website: Eigenvalues and Eigenvectors | Unit II: Least Squares, Determinants and Eigenvalues | Linear Algebra | Mathematics | MIT OpenCo
特征向量和对角化的几何意义 (涉及基变换) reference的内容为唯一教程,接下来的内容仅为本人的课后感悟,对他人或无法起到任何指导作用。 Reference Extra videos (3Blue1Brown): Change of basis | Chapter 13, Essence of linear algebra - YouTube Eigenvectors and eigenval
原文:https://www.jianshu.com/p/5ae644748f21 要介绍Tensor这个数据类型,我觉得有必要扯一下数学。 我们都知道: 标量(Scalar)是只有大小,没有方向的量,如1,2,3等 向量(Vector)是有大小和方向的量,其实就是一串数字,如(1,2) 矩阵(Matrix)是好几个向量拍成一排合并而成的一堆数字,如[1,2;3,4]
1. 纯色 最简单的着色方式。整个模型都只有一种颜色。 2. 顶点颜色 每个顶点取一种颜色,图元内的像素,则使用插值法生成颜色。 纯色也可以视为这种方式,可以认为是所有顶点都共用一种颜色。 3. 贴图 每个像素都可以对应到贴图中的一个位置,然后使用插值或者临近点的方法来得到一
4.9 IP协议及距离向量算法 如何让一个系统的各路由器知道目标最短路径——RIP协议 RIP是一种分布式的基于距离向量的路由选择协议,是因特网的协议标准,最大优点是简单。 特点:要求网络中每一个路由器都维护从它自己到其他每一个目的网络的唯一最佳距离记录(即一组距离)。 距离:通常为“
目录反对称矩阵参考 反对称矩阵 反对称矩阵将二个定义在同一个坐标系的向量叉乘运算转换为矩阵和向量的乘法运算。 已知向量\(v=[x1, y1, z1]\), 根据v构造的反对陈矩阵(skew-symmetric matrix)为 \[A= \begin{bmatrix} 0 & z_{1} & y_{1} \\ z_1 & 0 & -x_1\\ -y_1 & x_1 & 0
支持向量机 \(R^n\)空间中的点\(x\in R^n\),超平面\(f(x)=w^Tx+b=0,w\in R^n,b\in R\)。 整个n维空间被分成两部分。\(w\)就是这个超平面的法向量。\(w\)指向的那个方向就是\(f(x)\)为正的那一部分。 点到超平面距离:\(\frac{|ax_0+by_0+c|}{\sqrt{a^2+b^2}}\)。为了想让距离体现出
A - Vector 题目链接: https://vjudge.net/contest/484569#problem/A 方法: 使用C++中的vector 其中含有的函数及作用: vector():创建一个空vector vector(int nSize):创建一个vector,元素个数为nSize vector(int nSize,const t& t):创建一个vector,元素个数为nSize,且值均为t vector(
A.分步骤实现 1.准备文本文件 2.读文件 3.分词 4.排除大小写lower(),map() 标点符号re.split(pattern,str),flatMap() 停用词,可网盘下载stopwords.txt,filter() 长度小于2的词filter() 5.统计 映射成键值对 6.排序 7.写文件 8.查看文件
代价函数 假设神经网络的训练样本有m个,每个包含一组输入x和一组输出信号y,L表示神经网络层数,\(s_I\)表示每层的neuron个数,\(s_L\)表示最后一层(输出层)神经单元个数 神经网络可分为二分类和多分类情况 二分类:\(S_L = 1,y=0 \ or \ 1\)可以表示哪类 K分类:\(S_L=k,y_i=1\)
学tranformers的时候记得一种什么~~~流的降维方法,经过查看 链接:https://mp.weixin.qq.com/s?__biz=MzAxOTU5NTU4MQ==&mid=2247489739&idx=1&sn=c766511d71bd9ffcd17fb29536f59ca4&chksm=9bc5f099acb2798f5443ae6fccfedaf333c125dd723d4670dc32b8733ed1c665b8824e9e99f8&scene=
扩展——向量矩阵张量 参考 【科普向/中英字幕】What's a Tensor? 张量简介_哔哩哔哩_bilibili 标量就是数值,几何含义为数轴上的线段的长度 向量(矢量)有着方向和大小,其几何含义为带有箭头的一个线段 矩阵是一个二维的表,其几何含义为空间基的变换 张量 张量是一个定义在一些向量空
概要: 该文提出通过传输side信息来减弱基于神经网络压缩方法的伪影。 6.1 应用场景: 该文的工作是初步的探索端到端学习边信息的压缩,为得到增强的解码信息提供了借鉴。 6.2 关键设计思路: 边信息是由编码器通过分析原始图像和压缩图像之间的差别而获得的伪影描述符。在解码器中,接收到