ICode9

精准搜索请尝试: 精确搜索
  • 【笔记】Ref-Nerf2022-07-12 22:36:28

    Ref-NeRF 介绍 NeRF在镜面反射上,有着许多artifacts,有两个原因。一个是,用外向辐射作为视角,不好插值;另一个是,NeRF会用各向同相的内部光源来假装镜面反射,结果是半透明或雾状的artifacts。 Ref-NeRF用反射光作为输入,因为表面的取向不影响它,因此MLP能在上面更好地插值。 一个问题是,反射

  • 10 Self-Attention(自注意力机制)2022-07-12 17:04:09

    博客配套视频链接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看 配套 github 链接:https://github.com/nickchen121/Pre-training-language-model 配套博客链接:https://www.cnblogs.com/nickchen121/p/15105048.html 注意力机制 看一个物体的时候,

  • 13 Multi-Head Self-Attention(从空间角度解释为什么做多头)2022-07-12 17:01:03

    博客配套视频链接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看 配套 github 链接:https://github.com/nickchen121/Pre-training-language-model 配套博客链接:https://www.cnblogs.com/nickchen121/p/15105048.html 上节课回顾 0:40 Attention Se

  • 05 神经网络语言模型(独热编码+词向量的起源)2022-07-12 16:36:21

    博客配套视频链接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看 配套 github 链接:https://github.com/nickchen121/Pre-training-language-model 配套博客链接:https://www.cnblogs.com/nickchen121/p/15105048.html 统计语言模型 统计+语言模型--

  • 06 Word2Vec模型(第一个专门做词向量的模型,CBOW和Skip-gram)2022-07-12 16:34:17

    博客配套视频链接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看 配套 github 链接:https://github.com/nickchen121/Pre-training-language-model 配套博客链接:https://www.cnblogs.com/nickchen121/p/15105048.html 神经网络语言模型(NNLM)--》为了

  • Word Embedding2022-07-11 11:07:17

    一、Embedding定义 Embedding在数学上表示一个maping, f: X -> Y, 也就是一个function,其中该函数是injective(就是我们所说的单射函数,每个Y只有唯一的X对应,反之亦然)和structure-preserving (结构保存,比如在X所属的空间上X1 < X2,那么映射后在Y所属空间上同理 Y1 < Y2)。那么对于wor

  • 特征降维以及对比正规方程法和梯度下降法2022-07-08 17:36:13

    特征降维   通过定义一个新的特征,可以得到一个更好的模型 对于一些不适合使用线性拟合方式的例子,可以通过使用将一个参数即面积的平方,立方看做不同的参数,然后将其看做多元线性拟合,但是其中就需要注意特征缩放了           正规方程法   单元线性回归: 对于线性函数,只需要对

  • 知识推理算法总结2022-07-08 11:33:06

    前言: 【知识图谱】知识图谱(一)—— 综述 一、知识推理概念介绍 面向知识图谱的推理主要围绕关系的推理展开,即基于图谱中已有的事实或关系推断出未知的事实或关系,一般着重考察实体、关系和 图谱结构三个方面的特征信息。具体来说,知识图谱推理主要能够辅助推理出新的事实、新

  • 根据三点坐标计算角度(python,三维坐标,向量法)2022-07-06 22:04:46

    https://blog.csdn.net/shengyutou/article/details/119670615?utm_term=python%E7%9F%A5%E9%81%93%E4%B8%89%E4%B8%AA%E7%82%B9%E7%9A%84%E5%9D%90%E6%A0%87%E6%B1%82%E6%9F%90%E4%B8%AA%E7%82%B9%E7%9A%84%E8%A7%92%E5%BA%A6&utm_medium=distribute.pc_aggpage_search_r

  • 深入浅出理解SVM支持向量机算法2022-07-05 08:00:10

      支持向量机是Vapnik等人于1995年首先提出的,它是基于VC维理论和结构风险最小化原则的学习机器。它在解决小样本、非线性和高维模式识别问题中表现出许多特有的优势,并在一定程度上克服了“维数灾难”和“过学习”等传统困难,再加上它具有坚实的理论基础,简单明了的数学模型,使得支

  • 算法竞赛进阶指南0x35高斯消元与线性空间2022-07-04 20:04:21

    高斯消元 目录高斯消元ACWing207. 球形空间产生器(点击访问)求解思路代码ACWing208. 开关问题(点击访问)思路代码总结欣赏线性空间定义 ACWing209. 装备购买代码总结:AcWing210. 异或运算思路:注意线性空间的推广!DEBUG总结 高斯消元对应的矩阵有两种: 常规的线性方程组 异或操作(不需

  • 基于CNN-BiLSTM和注意力机制的知识图谱补全的路径推理方法2022-07-04 11:34:44

    论文原文 Path-based reasoning approach for knowledge graph completion using CNN-BiLSTM with attention mechanism 出版 Expert Systems With Applications 142 (2020) 112960 代码 github 摘要 知识图谱是构建智能系统(如问答或推荐系统)的宝贵资源。然而,大多数知识图都受到

  • 机器学习:支持向量机2022-07-03 10:01:35

    1、间隔与支持向量 支持向量机(support vector machine)是一种经典的二分类模型,基本模型定义为特征空间中最大间隔的线性分类器,其学习的优化目标便是间隔最大化,因此支持向量机本身可以转化为一个凸二次规划求解的问题。 对于二分类学习,假设现在的数据是线性可分的,这时分类学习最基

  • 相似变换与相似矩阵2022-07-03 09:33:12

    基底不同,向量的坐标值就不同 。对于同一个向量,选取的基底不同,其所对应的坐标值就不同。 例如: 向量 \(a\) 在空间中的位置是固定的,如果使用第一组基底 \((e_1,e_2)=(\begin{bmatrix}1\\0 \end{bmatrix},\begin{bmatrix}0\\1 \end{bmatrix})\)。 向量 \(a\) 表示为 \(3\begin{bmat

  • 机器学习—支持向量机2022-07-01 13:02:08

    支持向量机(support vector machines, SVM)是一种二分类模型,它的基本模型是定义在特征空间上的间隔最大的线性分类器,间隔最大使它有别于感知机;SVM还包括核技巧,这使它成为实质上的非线性分类器。SVM的的学习策略就是间隔最大化,可形式化为一个求解凸二次规划的问题,也等价于正则化的合

  • 12、优化算法2022-06-27 16:34:25

    在机器学习算法中,对于很多监督学习模型,需要对原始的模型构建损失函数,之后通过优化算法对损失函数进行优化,寻找到最优的参数。求解机器学习参数的优化算法中,使用较多的是基于梯度下降的优化算法(Gradient Descent, GD),梯度下降法的含义是通过当前点的梯度方向寻找到新的迭代点。基

  • L1和L2正则化的概率解释2022-06-27 14:04:27

    https://zhuanlan.zhihu.com/p/56185913  正则化可以产生稀疏权值矩阵,即产生一个稀疏模型,用于特征筛选;  正则化可以防止过拟合,提升模型的泛化能力。   假设待优化函数为  ,其中  ,那么优化问题可以转化为求  正则化,即对参数  加上  范数约束  正则化,即对参数  

  • 100+数据科学面试问题和答案总结 - 机器学习和深度学习2022-06-27 11:00:06

    来自Amazon,谷歌,Meta, Microsoft等的面试问题,本文接着昨天的文章整理了机器学习和深度学习的问题 机器学习 54、什么是机器学习? 机器学习是一门多学科交叉专业,涵盖概率论知识,统计学知识,近似理论知识和复杂算法知识,使用计算机作为工具并致力于真实实时的模拟人类学习方式,并将现有内

  • 机器学习:神经网络(下)2022-06-26 08:33:15

    下面介绍一些常见的神经网络 1、其他常见神经网络 1.1RBF网络   RBF网络是一种单隐层前馈神经网络,它使用径向基函数作为隐层神经元激活函数,而输出层则是对隐层神经元输出的线性组合。径向基函数,是某种沿径向对称的标量函数,通常定义为样本到数据中心之间欧氏距离的单调函数。具有

  • 2、一个向量乘它的转置,其几何意义是什么?2022-06-25 21:32:07

    参考:https://www.zhihu.com/question/40049682/answer/1420483558 分两种情况: 一、行 X 列 就是它长度的平方。 二、列 X 行  通常对它进行一下处理(归一化):  对任意一个向量  b , 它投影到  a  上的向量一定是:  ------------------------------------------------------

  • 1、对范数的理解2022-06-25 18:02:11

    转载自:https://www.zhihu.com/question/20473040/answer/102907063 一、向量范数 ①  1 范数: ,即向量元素绝对值之和,matlab  调用函数  norm(x, 1) 。 ②  2 范数:(经常用到) ,Euclidean norm(欧几里得范数,常用计算向量长度),即向量元素绝对值的平方和再开方,matlab  调用函数  norm

  • 3D数学基础知识2022-06-22 12:03:12

    二维坐标系    二维向量    二维向量运算                    单位向量    二维坐标系旋转变换     二维坐标系平移变换    二维坐标系平移+旋转    三维坐标系    矩阵    矩阵乘法                                    

  • 学习人工智能预备知识2022-06-21 13:02:37

    1, 从一个例子理解维数: 0维,就是一个像素点,一个标量,比如0.3 1维,一个特征向量 2维,一个矩阵,比如一张灰度图片的像素点分布 3维,一张三通道的彩色图片 4维,一个三通道图片批量,许多张图片 5维,一个视频批量,比三维多了时间序列           2, 范数 L-0范数:用来统计向量中非零元素的个

  • 不归则四边行内部点寻找(基于向量方法非for循环)2022-06-10 13:00:44

    本文记录使用向量方法寻找非规则四边行的内部区域,可不使用for循环语句,加快代码运行,其详细代码如下:   import numpy import numpy as np import torch def distinguish_point_pos(corners_list, point): """ :param corners_list: tensor(8), eight corner coordinate,

  • 【简读】3DConvCaps: 3DUnet with Convolutional Capsule Encoder for Medical Image Segmentation2022-06-08 22:34:07

    简读 还是源于Unet的,将Unet的模块替换成了胶囊网络,替换源于CNN中存在以下原因: (1)CNN中的池化会丢失一部分空间信息(个人觉得这个是见仁见智的,如果不通过池化,特征提取就可能满足不了平移不变性了) (2)CNN对旋转和仿射变换敏感(CNN的卷积有良好的平移不变性,若发生旋转特征识别就可能失效了

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有