ICode9

精准搜索请尝试: 精确搜索
  • FastAPI(28)- JSON Compatible Encoder 利器之 jsonable_encoder2022-01-05 13:03:15

    FastAPI(28)- JSON Compatible Encoder 利器之 jsonable_encoder    jsonable_encoder 在实际应用场景中,可能需要将数据类型(如:Pydantic 模型)转换为与 JSON 兼容的类型(如:字典、列表) 比如:需要将数据存储在数据库中 为此,FastAPI 提供了一个 jsonable_encoder() 函数 jsonable

  • STM32(五)——EXTI外部中断2022-01-03 16:32:28

    文章笔记源于——江科大自化协的视频 一. 中断系统 中断 : 在主程序运行过程中,出现特定的中断触发条件,使得CPU暂停当前正在运行的程序,而去处理中断程序,完成后,又返回原来被暂停的位置继续工作 中断优先 : 当有多个中断开始时,CPU会根据事情的轻重响应更加紧急的中断 中断嵌套 : 一个

  • 【自然语言处理三】SequenceToSequence 模型2021-12-31 15:06:11

    1.简介 Seq2Seq技术,全称Sequence to Sequence,该技术突破了传统的固定大小输入问题框架,开通了将经典深度神经网络模型(DNNs)运用于在翻译,文本自动摘要和机器人自动问答以及一些回归预测任务上,并被证实在英语-法语翻译、英语-德语翻译以及人机短问快答的应用中有着不俗的表现。 2.

  • Transformer2021-12-24 16:05:19

    https://zhuanlan.zhihu.com/p/338817680 前言 Transformer由论文《Attention is All You Need》提出,现在是谷歌云TPU推荐的参考模型。论文相关的Tensorflow的代码可以从GitHub获取,其作为Tensor2Tensor包的一部分。哈佛的NLP团队也实现了一个基于PyTorch的版本,并注释该论文。 在本

  • BERT预训练模型(Bidirectional Encoder Representations from Transformers)-原理详解2021-12-21 15:31:02

    Bert: BERT(Bidirectional Encoder Representations from Transformers)近期提出之后,作为一个Word2Vec的替代者,其在NLP领域的11个方向大幅刷新了精度,可以说是近年来自残差网络最优突破性的一项技术了。论文的主要特点以下几点: 使用了Transformer [2]作为算法的主要框架,Transform

  • logback_2-Encoder,Layout2021-12-17 23:31:30

    文章目录 一 What is an encoder二 Encoder interface三 LayoutWrappingEncoder四 PatternLayoutEncoder五 Layouts六 PatternLayout七 一 What is an encoder Encoders就是把 LoggingEvent转化为字节数组并向 OutputStream(输出流)写出的这么个东东. Layouts 就是能够把

  • Unet为代表的医学图像分割小记2021-12-17 15:04:52

    写在开头: 由于本人才疏学浅,加下刚刚开始学习医学图像分割,因此对这个领域有许许多多的未知,文章内容也会有很多错误,还希望各位不吝赐教 医学图像分割 在FCN网络模型提出之后,语义分割领域得到了长足的进展,而在医学图像医学图像上 流行的模型个人认为目前主要分为两大种 1.以Une

  • Transformer学习笔记2021-12-14 00:00:18

            Transformer 这一概念是在论文Attention is All You Need 中提出,感兴趣的可以通过链接阅读原文。这篇文章主要讲讲我对Transformer这个模型学习的理解。 什么是Transformer?         Transformer可以理解为一个黑盒,我们将一段序列输入模型,经过Transform

  • XML中输入特殊符号2021-12-11 16:58:19

    特殊符号比如 ™, 要在xml中使用的话, 其实和html的转码是一样的, 参考下面这个表(使用十进制编码那一列) 要在C#代码中直接使用的话, 可以直接 string str = “™”; 或者 string str="\u2122"; 其中的2122是其Unicode的16进制表示; 要得到十六进制表示,可以用如下代码:

  • Gavin老师Transformer直播课感悟 - 基于Retrieval的具有Fine-grained架构的对话系统(二)2021-12-10 20:30:20

    一、Related work介绍         最近的研究多集中于在基于retrieval的多轮对话系统中,当一个包含多轮对话的上下文被提供时,系统应该如何选择最合适的响应,如使用BERT对上下文序列进行编码,产生一个dense vector,然后把这个vector同一组可选响应的矩阵进行相乘,比较它们的相关

  • C#: Save a canvas as an image2021-12-03 22:05:03

    private void CreateSaveBitmap(Canvas canvas, string filename) { RenderTargetBitmap renderBitmap = new RenderTargetBitmap( (int)canvas.Width, (int)canvas.Height, 96d, 96d, PixelFormats.Pbgra32); // needed otherwise the ima

  • 分享 | 视觉无监督学习新范式:MAE2021-12-03 19:00:37

    近日,FAIR的最新论文《Masked Autoencoders Are Scalable Vision Learners》 提出了一种更简单有效的用于ViT无监督训练的方法MAE,并在ImageNet-1K数据集上的top-1 acc达到新的SOTA:87.8%(无额外训练数据)。 自从ViT火了之后,一些研究者就开始尝试研究ViT的无监督学习,比如Mocov3用对

  • C# 使用Aspose.Words在Word模板中的MergeField插入界面控件截图2021-11-29 18:31:59

    在Word模板中添加MergeField,如图:   后台代码: 1 var sfd = new SaveFileDialog(); 2 //设置保存的文件的类型,注意过滤器的语法 3 sfd.Filter = "word文档|*.docx"; 4 //调用ShowDialog()方法显示该对话框,该方法的返回值代表用户是否点击了确定按钮 5 if (sfd.ShowDialog()

  • 自编码器AE2021-11-23 09:59:24

    目录 自编码器 组成 应用 分类 自编码器 autoencoder,是神经网络的一种,经过训练后能尝试将输入复制到输出。自编码器内部有一个隐藏层 h,可以产生编码(code)表示输入。该网络可以看作由两部分组成:一个由函数 h = f ( x ) h = f(x)h=f(x) 表示的编码器和一个生成重构的解码器 r = g

  • Transformer2021-11-21 23:04:59

    胡乱写的!!!!!! 目录 一、初探Encoder-Decoder 1.Encoder 2.回到transformer的图 二、Decoder – Autoregressive (AT) 1、Decoder内部结构 1)带Masked的MHA 三、Decoder – Non-autoregressive (NAT) 四、Encoder-Decoder 五、Training 六、训练的Tips 一、初探Encoder-Decoder 一

  • 自监督-SelfGNN: Self-supervised Graph Neural Networks without explicit negative sampling2021-11-19 12:03:43

    自监督-SelfGNN: Self-supervised Graph Neural Networks without explicit negative sampling 标签:自监督、图神经网络、对比学习 动机 在真实世界中许多数据大部分是有没有标签的,而打上标签的是需要很大花费的 现存的对比学习框架关键主要是对数据加强并生成正负样本对,而最

  • 理解Encoder-Decoder 和 Seq2Seq的关系2021-11-11 13:02:56

    本问参考自原文连接 1 什么是 Encoder-Decoder ? Encoder-Decoder 模型主要是 NLP 领域里的概念。它并不特值某种具体的算法,而是一类算法的统称。Encoder-Decoder 算是一个通用的框架,在这个框架下可以使用不同的算法来解决不同的任务。 Encoder-Decoder 这个框架很好的诠释了机器学

  • Pytorch简单实现seq2seq+Attention机器人问答2021-11-09 13:30:37

    一、准备数据 1.seq_example代表问题,seq_answer代表答案,数据内容如下所示: seq_example = ["你认识我吗", "你住在哪里", "你知道我的名字吗", "你是谁", "你会唱歌吗", "你有父母吗"] seq_answer = ["当然认识", "我住在成都", "我不知道", "

  • X264性能优化2021-10-27 21:00:58

    一、X264性能分析 测试环境 测试环境:Intel Pentium4 3.00GHz  (双核cpu),开启超线程 内存:    DDR 1.00G 操作系统: Windows sever 2003 Enterprise Edition 分析软件: Intel(R) VTune(TM) Performance Analyzer 8.0(评估版lic) 编译软件: VC71+nasm0.98 Bus Speed: 800MHz

  • transformer代码笔记----transformer.py2021-10-19 20:04:25

    import torch.nn as nn from .decoder import Decoder from .encoder import Encoder class Transformer(nn.Module): #定义类,继承父类nn.Module """An encoder-decoder framework only includes attention. """ def __init__(self,

  • 【语义分割专题】语义分割相关工作--ENet网络相关工作2021-10-19 13:02:17

    ENet: A Deep Neural Network Architecture for Real-Time Semantic Segmentation Paszke, A., Chaurasia, A., Kim, S., & Culurciello, E. (2016). ENet: A Deep Neural Network Architecture for Real-Time Semantic Segmentation. ArXiv, abs/1606.02147. # Initia

  • 机器学习之深度学习学习笔记(五)2021-10-09 10:06:15

    文章目录 (一)TransformerEncoderDecoderAutoregressive(AT)Non-autoregressive(NAT) Encoder和Decoder之间的桥梁训练 (二)结语 (一)Transformer Transformer是Sequence-toSequence(Seq2Seq)的一个模型,我们之前在作一些实验的时候,当我们输入一个Sequence时,我们的输出也会是一个Seque

  • 动手学深度学习 | 序列到序列学习(seq2seq)| 622021-10-07 20:31:07

    目录Seq2Seq代码QA Seq2Seq seq2seq,从一个句子翻译到另外一个句子。 封面是一个基因转录,这个也是一个seq2seq的过程。 seq2seq最早是来做机器翻译的,不过现在基本都使用bert。(听说google的翻译和搜索都使用了bert) seq2seq是一个encoder-decoder的架构。 encoder是一个RNN,读取输

  • Self-Supervised Learning2021-10-06 19:02:39

    Self-Supervised Learning 参考知乎文章:https://zhuanlan.zhihu.com/p/108906502(Self-supervised Learning 再次入门) 自监督学习主要是利用辅助任务(pretext)从大规模的无监督数据中挖掘自身的监督信息,通过这种构造的监督信息对网络进行训练,从而可以学习到对下游任务有价值的表征。

  • 动手学深度学习 | 编码器-解码器架构 | 612021-10-04 21:01:37

    目录编码器-解码器架构代码 编码器-解码器架构 encoder-decoder是一个框架,这是近几年影响比较大的对一个模型的抽象。 代码 encoder-decoder是一种编程接口,后面基本NLP都是使用这种编程接口来实现的。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有