ICode9

精准搜索请尝试: 精确搜索
  • Transformer自下而上理解(5) 从Attention层到Transformer网络2021-05-27 21:08:29

    本文参考Wang Shusen老师的教学视频:https://www.youtube.com/watch?v=aJRsr39F4dI&list=PLvOO0btloRntpSWSxFbwPIjIum3Ub4GSC&index=2 1. Multi-Head (Self-)Attention Layer 在上一篇文章中我们介绍了Attention层和Self-Attention层,计算逻辑大同小异。只不过之前介绍的都只是Si

  • 读一下End-to-End Object Detection with Transformers2021-05-24 16:01:50

    目标检测旨在为感兴趣目标预测bounding boxes以及类别(category). 现代检测器多通过在数据庞大的proposals,anchors,window centers等集合上面,设计可替代的回归和分类模块,以后处理方式去处理该预测问题。这种方式的算法性能严重依赖于前述后处理操作。本文将目标检测问题视为一个直

  • 生成对抗网络前言(2)——自动编码器(auto-encoder)介绍2021-05-19 21:00:07

    目录 一、自动编码器介绍 1.1 自动编码器介绍 1.2 自动编码器特点 1.3 自动编码器伪代码实现 1.4 自动编码器的应用 二、利用自动编码器实现生成模型 三、自动编码器的代码实现与结果显示 四、自动编码器的不足与改进 一、自动编码器介绍 1.1 自动编码器介绍

  • Transformer再下一城!Swin-Unet:首个纯Transformer的医学图像分割网络2021-05-17 13:34:03

    Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation 论文:https://arxiv.org/abs/2105.05537 代码:https://github.com/HuCaoFighting/Swin-Unet 首个基于纯Transformer的U-Net形的医学图像分割网络,其中利用Swin Transformer构建encoder、bottleneck和decoder

  • Self-Supervised Learning with Swin Transformers2021-05-11 21:32:30

    Self-Supervised Learning with Swin Transformers 2021-05-11 20:32:02 Paper: https://arxiv.org/pdf/2105.04553.pdf  Code: https://github.com/SwinTransformer/Transformer-SSL    1. Background and Motivation:  作者提到最近 cv 领域的两个技术潮流,一个是以 MoCo

  • logback.xml 日志配置2021-05-09 10:03:32

    <?xml version="1.0" encoding="UTF-8"?> <configuration scan="true" scanPeriod="60 seconds" debug="false"> <property name="LOG_HOME" value="./logs"/> <proper

  • 自监督图像论文复现 | BYOL(pytorch)| 20202021-05-09 09:35:59

    转: 自监督图像论文复现 | BYOL(pytorch)| 2020 继续上一篇的内容,上一篇讲解了Bootstrap Your Onw Latent自监督模型的论文和结构: https://juejin.cn/post/6922347006144970760 现在我们看看如何用pytorch来实现这个结构,并且在学习的过程中加深对论文的理解。 github:https://github.

  • AI+无线通信总结——初赛赛题2021-05-08 15:58:01

    赛题任务大赛将提供真实无线通信场景下采集的信道数据,鼓励参赛选手采取数据驱动的思路和采用机器学习的方法来设计符合真实信道数据的低复杂度神经网络结构和鲁棒的AI算法,以此提升在不同压缩尺度下的信道信息恢复的准确度。针对真实大规模天线阵列通信信道,采集到的数据是32万个信道

  • 基于seq2seq架构实现短文本翻译2021-05-08 12:30:56

    数据集 下载地址: https://download.pytorch.org/tutorial/data.zip 数据预览–部分 She folded her handkerchief neatly. Elle plia soigneusement son mouchoir. She folded her handkerchief neatly. Elle a soigneusement plié son mouchoir. She found a need and sh

  • 关于深度学习中的注意力机制2021-05-07 17:06:45

    最近两年,注意力模型(Attention Model)被广泛使用在自然语言处理、图像识别及语音识别等各种不同类型的深度学习任务中,是深度学习技术中最值得关注与深入了解的核心技术之一。本文以机器翻译为例,深入浅出地介绍了深度学习中注意力机制的原理及关键计算机制,同时也抽象出其本质思想,并介

  • ESP32音频开发板ESP32-Korvo V1.1踩坑2021-04-29 09:01:39

    电池供电ESP32-Korvo V1.1开发板供电电压低于3.9V不断复位: 报错->Brownout detector was triggered 断电探测器触发复位 根据同行资料发现,禁用断电探测器: make menuconfig->component config->ESP32-specific->Hardware brownout detect & reset禁用掉这个选项,将不再检测电平。

  • 论文阅读:TRAINING ASR MODELS BY GENERATION OF CONTEXTUAL INFORMATION2021-04-16 16:03:34

    (icassp2020)论文阅读:TRAINING ASR MODELS BY GENERATION OF CONTEXTUAL INFORMATION 下载链接:https://arxiv.org/abs/1910.12367 主要思想:        利用海量的弱监督数据和部分常规的标注数据进行e2e模型训练。【这里的弱监督数据主要指的是仅含有上下文相关文本的音频数据(E

  • pytorch训练多分支网络2021-04-08 23:01:27

      How to train multi-branch output network? How to train the network with multiple branches 一个多分支输出网络(一个Encoder,多个Decoder) 我们期望每个分支的损失L_i分别对各自的参数进行优化,而共享参数部分采用各分支损失之和Sum(L_i)进行优化。     params = list

  • DL - RNN2021-04-05 09:05:59

    文章目录 seq2seq相关资料 RNN: recurrent neural network,递归(循环)神经网络 优点 输入是多个且有序的,可以模拟人类阅读的顺序 去读取文本或别的序列化数据。通过隐藏层神经元的编码,上一个隐藏层神经元的信息,可以传递到下一个隐藏层神经元,因而形成一定记忆能力,能够更好

  • ELECTRA:Efficiently Learning an Encoder that Classifies Token Replacements Accurately2021-04-03 13:59:26

    1 简介 ELECTRA:Efficiently Learning an Encoder that Classifies Token Replacements Accurately. 本文根据2020年《ELECTRA: PRE-TRAINING TEXT ENCODERS AS DISCRIMINATORS RATHER THAN GENERATORS》翻译总结。根据标题可以知道ELECTRA更关注识别,而不是生成;像BERT这种其实

  • 【Transformer】从零详细解读2021-03-30 19:02:12

    本文是对B站视频“transformer从零详细解读”的笔记,视频:https://www.bilibili.com/video/BV1Di4y1c7Zm?p=1 一、概述 TRM在做一个什么事情? transformer包含encoder和decoder encoder和decoder分别有六个 原论文中transformer模型结构 encoder包含以下三个部分: 二、位置编

  • SSRF+gopher协议渗透struts22021-03-29 23:03:23

    SSRF+gopher协议渗透struts2 实验主机 windows10 192.168.1.120 #SSFR漏洞主机 centos8搭建struts2-045环境 192.168.1.106 实验环境 SSRF漏洞代码curl_exec.php: php版本>5.3才可使用gopher协议 可用var_dump(curl_version())来调试 #win10主机 curl_exec.php <?php $url =

  • bert-for-tf2源码解读10------权重参数对应的结构图2021-03-19 13:33:59

    从bert之中读取出来的权重矩阵内容如下: { 'cls/seq_relationship/output_bias': [2], Unused weights 'cls/predictions/transform/dense/kernel': [768, 768], Unus

  • Pytorch基础教程(8): 强化——混合前端的seq2seq模型部署2021-03-13 12:58:02

    本节将介绍如何把seq2seq模型转换为PyTorch可用的前端混合Torch脚本。我们要转换的模型来自于聊天机器人教程Chatbot tutorial。 1. 混合前端 在一个基于深度学习项目的研发阶段, 使用像PyTorch这样即时eager、命令式的界面进行交互能带来很大便利。 这使用户能够在使用Pytho

  • 论文阅读笔记——Attention is all you need2021-03-07 21:57:16

    (!!!!事先声明!这不是技术分享贴!CSDN虽说都是大佬们的分享平台,但是我只是想把它当做是我的云笔记,内容不敢保证全部正确,风格也都只用自己能懂的大白话,写的时候当做日记记录心情,所以请不要随便评价别人日记写的如何如何,作者童心未泯脾气大,不接受批评,只接受表扬与讨论,不想看请移步大佬

  • (论文解读)RAFT: Recurrent All-Pairs Field Transforms for Optical Flow2021-02-23 23:57:05

    目录 论文解读之:RAFT: Recurrent All-Pairs Field Transforms for Optical Flow写在前面回顾光流领域RAFTFeature Encoder与Context EncoderUpdate 总结 论文解读之: RAFT: Recurrent All-Pairs Field Transforms for Optical Flow 由于前段时间太忙了,这篇博客拖了很久才

  • 深度学习系列13:Transformer2021-02-21 22:32:40

    数年前,encoder-decoder还是深度学习书籍里面一个非常不惹眼的章节,随着如今算力不断提高,已然要取代CNN一统天下了。 1. 基础 1.1 Embedding 首先需要用到embedding:从数学上来说其实是一种降维技术,把K维的0-1特征向量用k维的浮点数特征向量表示。直观代码如下: from keras.model

  • ndk ffmpeg2021-02-17 23:05:11

    参考这个 https://blog.csdn.net/bobcat_kay/article/details/80889398 下载r17 的ndk(按文章版本)和最新的ffmpeg   建立 build.sh #!/bin/bash NDK=/home/wang/program/android-ndk-r19c ADDI_LDFLAGS="-fPIE -pie" ADDI_CFLAGS="-fPIE -pie -march=armv7-a -mfloat-abi=softf

  • Transformer 模型详解2021-02-15 10:29:38

      Transformer 是 Google 的团队在 2017 年提出的一种 NLP 经典模型,现在比较火热的 Bert 也是基于 Transformer。Transformer 模型使用了 Self-Attention 机制,不采用 RNN 的顺序结构,使得模型可以并行化训练,而且能够拥有全局信息。 1. Transformer 结构 首先介绍 Transformer 的

  • Transformer 详解2021-02-15 10:01:43

    Transformer 是谷歌大脑在 2017 年底发表的论文 attention is all you need 中所提出的 seq2seq 模型。现在已经取得了大范围的应用和扩展,而 BERT 就是从 Transformer 中衍生出来的预训练语言模型 这篇文章分为以下几个部分 Transformer 直观认识Positional EncodingSelf Atte

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有