ICode9

精准搜索请尝试: 精确搜索
  • 全景分割MaX-DeepLab2021-11-06 13:00:30

    摘要 MaX-DeepLab优势: 加了遮罩:基于包围框的方法是预测包围框,不用包围框的是预测遮罩 端到端,无代理子任务:直接通过transformer预测类别标签,用二匹配方法,以PQ-style loss指标训练。 最重要的transformer:引入全局memory路径,再加上原来的像素CNN路径,合成双路径结构,使得各CNN层可以直

  • Transformer详解2021-10-24 00:03:06

    本文是根据台大李宏毅教授网课整理,主要是记笔记以供自己复习。 这里写目录标题 Transformer是什么应用 Seq2Seq架构详解EncoderDecoderAutoregressive(AT)Non-autoregressive(NAT) 训练exposure bias训练Seq2Seq Model的Tips1、Copy Mechanism复制机制2、Beam Search

  • transformer代码笔记----transformer.py2021-10-19 20:04:25

    import torch.nn as nn from .decoder import Decoder from .encoder import Encoder class Transformer(nn.Module): #定义类,继承父类nn.Module """An encoder-decoder framework only includes attention. """ def __init__(self,

  • 机器学习之深度学习学习笔记(五)2021-10-09 10:06:15

    文章目录 (一)TransformerEncoderDecoderAutoregressive(AT)Non-autoregressive(NAT) Encoder和Decoder之间的桥梁训练 (二)结语 (一)Transformer Transformer是Sequence-toSequence(Seq2Seq)的一个模型,我们之前在作一些实验的时候,当我们输入一个Sequence时,我们的输出也会是一个Seque

  • 动手学深度学习 | 序列到序列学习(seq2seq)| 622021-10-07 20:31:07

    目录Seq2Seq代码QA Seq2Seq seq2seq,从一个句子翻译到另外一个句子。 封面是一个基因转录,这个也是一个seq2seq的过程。 seq2seq最早是来做机器翻译的,不过现在基本都使用bert。(听说google的翻译和搜索都使用了bert) seq2seq是一个encoder-decoder的架构。 encoder是一个RNN,读取输

  • 动手学深度学习 | 编码器-解码器架构 | 612021-10-04 21:01:37

    目录编码器-解码器架构代码 编码器-解码器架构 encoder-decoder是一个框架,这是近几年影响比较大的对一个模型的抽象。 代码 encoder-decoder是一种编程接口,后面基本NLP都是使用这种编程接口来实现的。

  • Transformer架构记录(四)2021-10-03 18:01:10

    Transformer架构记录(一、二、三)针对Transformer的Encoder-block部分做了简要介绍,本文作为该系列的最终章,将以Decoder-block介绍结束本系列。 一个完整的Decoder-block的结构如下所示: Decoder-block与Encoder-block的差别在以下几处: 第一个 Multi-Head Attention 层采用了 Masked

  • Transformer架构记录(一)2021-10-03 13:33:21

    Transformer架构是2017年由google研究团队提出的一项全新的自然语言处理模型架构,首次应用于机器翻译任务中,该模型出自论文《Attention is all you need》。 有别于传统的CNN、RNN架构,Transformer摒弃以往的序列建模思想,全面采用自注意力机制。 Transformer的提出开启了自然语言处

  • Transformer《Attention Is All You Need》的理论理解2021-09-30 21:03:27

    2021-09-23至2021-10-30关于transformer的学习   Transformer的提出解决了两个问题:   (1) 首先它使用了Attention机制,将序列中的任意两个位置之间的距离是缩小为一个常量;   (2) 其次它不是类似RNN(不能并行)的顺序结构,因此具有更好的并行性,符合现有的GPU框架。          t

  • Transformer总结2021-09-26 21:05:06

    一、提出背景        因为之前的LSTM、GRU等RNN的结构,虽然一定程度上解决了长程依赖的问题,但是还是没有根本解决超过一定范围的长程依赖问题。并且,RNN的顺序计算使得模型训练速度慢的问题。   提出Tranformer:1、并行计算,大大减少训练时间,摒弃了RNN、CNN的使用。      2、

  • transformer的encoder和decoder的差别2021-09-17 20:04:21

    包含两个 Multi-Head Attention 层。第一个 Multi-Head Attention 层采用了 Masked 操作。第二个 Multi-Head Attention 层的K, V矩阵使用 Encoder 的编码信息矩阵C进行计算,而Q使用上一个 Decoder block 的输出计算。最后有一个 Softmax 层计算下一个翻译单词的概率。 更详细的

  • Ubuntu18使用FFMPEG实现QSV硬解2021-09-13 11:35:00

    前言 由于项目需要,需要在一块I7-8850H上进行H264解码成YUV并显示的功能。由于系统是Ubuntu18,故打算使用QT+FFMPEG来实现。先前的一路软解发现CPU占用率去到了20%以上,我们需要同时进行四路解码,这个占用率是无法接受的,故打算使用FFMPEG进行硬解。由于只有I7的集显,所以只能使用QS

  • RTOS系统 音频player对比分析2021-09-11 18:02:01

    公司乐鑫MTK炬芯全志平台ESP32LinkIt/mt2523ATS3503_WIFIXR871许可证MIT License需要MTK许可Apache License 2必须保留版权信息工程地址https://github.com/espressif/esp-adf淘宝淘宝淘宝player主文件(个人理解)https://github.com/espressif/esp-adf/tree/3305749c93763b7a

  • 自动驾驶入门(十一):深度估计2021-09-09 19:01:48

    在自动驾驶感知算法中,有一个重要的分支是单目视觉检测,在检测目标是单目相机最困难的地方在于恢复目标物的深度信息,无论使用小孔成像还是逆透视变换等方法都无法做到任意场景的鲁棒,并且在远距离也有较好的深度回复能力。 神经网络给我们提供了一种全新的解决思路,使用cnn直接回归

  • 需求预测——Predicting origin-destination ride-sourcing demand with a spatio-temporal encoder-decoder2021-09-03 19:01:50

    Predicting origin-destination ride-sourcing demand with a spatio-temporal encoder-decoder residual multi-graph convolutional network 相关工作缺陷 地图网格划分运用CNN和LSTM进行预测,CNN仅以地理方式捕获局部空间相关性,而无法对两个区域之间的语义相关性建模。大多

  • NLP与深度学习(三)Seq2Seq模型与Attention机制2021-09-02 01:00:58

    1.   Attention与Transformer模型 Attention机制与Transformer模型,以及基于Transformer模型的预训练模型BERT的出现,对NLP领域产生了变革性提升。现在在大型NLP任务、比赛中,基本很少能见到RNN的影子了。大部分是BERT(或是其各种变体,或者还加上TextCNN)做特征提取(feature extraction

  • ffmpeg交叉2021-08-24 22:32:54

    #!/bin/bashNDK=/home/wang/program/android-ndk-r19c#ADDI_LDFLAGS="-fPIE -pie"#ADDI_CFLAGS="-fPIE -pie -march=armv7-a -mfloat-abi=softfp -mfpu=neon"#CPU=armv7-a#ARCH=arm#CPU=x86ARCH=x86#HOST=arm-linuxSYSROOT=$NDK/toolchains/llvm/prebuilt

  • Attention和Transformer详解2021-07-28 18:00:06

    目录Transformer引入Encoder 详解输入部分Embedding位置嵌入注意力机制人类的注意力机制Attention 计算多头 Attention 计算残差及其作用BatchNorm 和 LayerNorm前馈神经网络Decoder 详解Transformer 最终输出TRM 面试题讲解RNN、LSTM、Transformer 三者的区别?为什么有缩放因子 [

  • gst 笔记:信号、消息、事件、状态2021-07-27 18:30:37

    基本操作示例 gst-launch-1.0 filesrc location="/home/e0005055/Videos/test1.mp4" ! decodebin ! videoconvert ! autovideosink 代码: #include <gst/gst.h> static gboolean bus_call (GstBus *bus, GstMessage *msg, gpointer data) { GM

  • 【分享】查看VCU ctrlsw_decoder解码的XV20视频2021-07-27 14:36:51

    VCU ctrlsw_decoder解码后,都会把图像从semi-planar转换为planar。 如果要查看VCU ctrlsw_decoder解码的XV20视频,也需要使用planar格式。 在电脑上,可以使用如下的ffplay命令,查看解码得到的YUV文件。 ffplay -f rawvideo -pixel_format yuv422p10le -video_size 1920x1080 -i dec.xv

  • 论文笔记4:Segmenter: Transformer for Semantic Segmentation2021-07-26 13:32:39

    论文地址:https://arxiv.org/abs/2105.05633 1 引言 图像语义分割在单个图像块级别通常表现得比较模糊,文章提出了一种基于tansformer的语义分割模型,可以在网络传播过程中建模全局上下文信息。其网络结构是在ViT模型的基础上进行扩展,以适应语义分割任务。decoder部分使用linear deco

  • 在ffmpeg中添加编解码器2021-07-02 17:59:40

    本文基于ffmpeg-2.2,添加基于QSV(Intel Media SDK / Quick Sync Video)的系列编解码器qsvavc_enc、qsvavc_dec、qsvmpeg2_dec、 qsvvc1_dec,通过一个命令行参数--enable-qsv打开和关闭。 1. 在libavcodec目录添加相应的代码实现   可参考hevc.c, libx265

  • WDK李宏毅学习笔记第十一周02_More about Auto-encoder2021-06-27 20:58:41

    More about Auto-encoder 文章目录 More about Auto-encoder摘要1、More than minimizing reconstruction error1.1 回顾Auto-encoder1.2 What is good embedding?1.3 Typical auto-encoder is a special case 2 Squential Data2.1 Skip thought2.2 Quick thought2.3 Contr

  • DETR:Facebook提出基于Transformer的目标检测新范式,性能媲美Faster RCNN | ECCV 2020 Oral2021-06-04 14:01:37

    DETR基于标准的Transorfmer结构,性能能够媲美Faster RCNN,而论文整体思想十分简洁,希望能像Faster RCNN为后续的很多研究提供了大致的思路   来源:晓飞的算法工程笔记 公众号 论文: End-to-End Object Detection with Transformers 论文地址:https://arxiv.org/abs/2005.12872 论

  • NLP(十九):基于seq2seq-attention的对话系统2021-05-30 15:36:10

    参考了pytorch官方文档:https://pytorch.org/tutorials/beginner/chatbot_tutorial.html 一、概述 使用pycharm编写项目,代码分为四个文件:process.py、neural_network.py、train.py、evaluate.py。 先大致说一下搭建chatbot的思路吧,其实很简单:这里的chatbot是基于带Luong attention

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有