ICode9

精准搜索请尝试: 精确搜索
  • RelationNet:学习目标间关系来增强特征以及去除NMS | CVPR 20182021-07-29 13:32:07

    论文基于NLP的注意力机制提出了目标关系模块,通过与其它目标的比对增强当前目标的特征,而且还可以代替NMS进行端到端的重复结果去除,思想十分新颖,效果也不错   来源:晓飞的算法工程笔记 公众号 论文: Relation Networks for Object Detection 论文地址:https://arxiv.org/abs/

  • Guided Anchoring:在线稀疏anchor生成方案,嵌入即提2AP | CVPR 20192021-07-13 13:33:04

    Guided Anchoring通过在线生成anchor的方式解决常规手工预设anchor存在的问题,以及能够根据生成的anchor自适应特征,在嵌入方面提供了两种实施方法,是一个很完整的解决方案   来源:晓飞的算法工程笔记 公众号 论文: Region Proposal by Guided Anchoring 论文地址:https://arxiv.o

  • [论文阅读] Exploring Dense Context for Salient Object Detection2021-07-12 20:32:21

    论文地址:https://dx.doi.org/10.1109/TCSVT.2021.3069848 发表于:TCSVT 2021 Abstract 上下文在显著目标检测中起着重要作用。高级上下文描述了不同物体/物体不同部分之间的关系,因此有助于发现显著目标的具体位置;而低级上下文可以为显著目标边界的划分提供精细的信息。然而,现

  • DenseBox:思想超前的早期Anchor-free研究 | CVPR 20152021-07-09 13:34:31

    DenseBox检测算法的设计十分超前,如今很多Anchor-free方法有其影子,如果当时不是比Faster R-CNN晚了一点出现,可能目标检测领域很早就开始往Anchor-free的方向发展了   来源:晓飞的算法工程笔记 公众号 论文: DenseBox: Unifying Landmark Localization withEnd to End Object Dete

  • 怎么看一篇文章是不是顶会(CVPR)?2021-07-06 17:30:21

    直接进入此网站: https://dblp.uni-trier.de/db/conf/cvpr/index.html 在这里进行搜索,如果可以得到结果,那么它就是CVPR 我们进行论文阅读的步骤一般就是: 1.进入https://arxiv.org/搜索你想要的论文 2.此时就可以看到他们的源码地址,直接进入,就可以看到readme.... 3.有的github

  • Pix2Pix GAN(CVPR. 2017)2021-06-28 23:02:27

    1. Motivation Image-to-Image translation的定义 We define automatic image-to-image translation as the task of translating one possible representation of a scene into another.Our goal in this paper is to develop a common framework for all these problems.

  • 字节跳动多篇论文入选 CVPR 2021,精选干货都在这里了2021-06-28 20:00:11

    CVPR 2021,近期刚刚落下帷幕。 作为计算机视觉领域三大顶级学术会议之一,CVPR每年都吸引了各大高校、科研机构与科技公司的论文投稿,许多重要的计算机视觉技术成果都在CVPR上中选发布。 今天,为大家精选了14篇字节跳动技术团队入选本届CVPR的论文,其中包含2篇Oral(口头演讲论文),分享

  • CVPR 2021最佳论文奖的候选名单,华人占据半壁江山,何恺明、陶大程、沈春华等人上榜义目录标题)2021-06-22 12:59:56

    作者: 清华AMiner团队 CVPR 2021最佳论文奖的候选名单,华人占据半壁江山,何恺明、陶大程、沈春华等人上榜,共32篇论文,可直接下载! CVPR 今年共有7015篇有效投稿,有1663篇被收录,录用率为23.7%。 近期,官方公布了最佳论文奖的候选名单,候选论文有32篇。在候选名单中,有华人参与的论文

  • cvpr顶会热词爬取2021-06-21 10:01:27

    import requests from bs4 import BeautifulSoup import re import pymysql url = 'https://openaccess.thecvf.com/CVPR2020?day=2020-06-18' response = requests.get(url) obj1 = re.compile(r'<dt class="ptitle"><br>.*?.html&qu

  • CentripetalNet:更合理的角点匹配,多方面改进CornerNet | CVPR 20202021-06-17 13:34:29

    CentripetalNet的核心在于新的角点匹配方式,额外学习一个向心偏移值,偏移值足够小的角点即为匹配,相对于embedding向量的匹配方式,这种方法更为鲁棒,解释性更好。另外论文提出的十字星变形卷积也很好地贴合角点目标检测的场景,增强角点特征   来源:晓飞的算法工程笔记 公众号 论文: Ce

  • ExtremeNet:通过极点进行目标检测,更细致的目标区域 | CVPR 20192021-06-16 13:35:52

    ExtremeNet检测目标的四个极点,然后以几何的方式将其组合起来进行目标检测,性能与其它传统形式的检测算法相当。ExtremeNet的检测方法十分独特,但是包含了较多的后处理方法,所以有很大的改进空间,感兴趣可以去看看论文实验中的错误分析部分   来源:晓飞的算法工程笔记 公众号 论文: B

  • CVPR 2021 妆容迁移 CPM SCGAN2021-06-13 23:31:19

    效果图: 有两种模式:肤色迁移和图案迁移 妆容迁移是指将目标图上的妆容直接迁移到原图上的技术。相比传统贴妆技术,妆容迁移具有极高的自由度,它可以让用户不再局限于设计师设计好的妆容,而是可以自主、任意地从真实模特图中获取妆容,极大地丰富了妆容的多样性。此外,妆容迁移技术不仅

  • CVPR顶会论文爬取2021-06-12 14:35:14

    main.py import pymysql import re import requests # 连接数据库函数 from bs4 import BeautifulSoup def insertCvpr(value): try: db = pymysql.connect(host="localhost", user="root", password="password", database="art

  • CVPR 2021 | 基于Transformer的端到端视频实例分割方法2021-06-07 02:33:30

    实例分割是计算机视觉中的基础问题之一。虽然静态图像中的实例分割已经有很多的研究,对视频的实例分割(Video Instance Segmentation,简称VIS)的研究却相对较少。而真实世界中的摄像头所接收的,无论自动驾驶背景下车辆实时感知的周围场景,还是网络媒体中的长短视频,大多数为视频流的信息

  • mmdetection README.md2021-05-25 22:29:32

    https://github.com/open-mmlab/mmdetection 新闻:我们在ArXiv上发布了技术报告。 文档:https://mmdetection.readthedocs.io/ Introduction MMDetection是基于PyTorch的开源对象检测工具箱。 它是OpenMMLab项目的一部分。 master分支可与PyTorch 1.3+一起使用。 旧的v1.x分

  • CVPR 2020 | Semantically Multi-Modal Image Synthesis 阅读笔记(翻译)2021-05-11 22:00:38

    Semantically Multi-modal Image Synthesis 作者:Zhen Zhu, Zhiliang Xu, Xiang Bai{Huazhong University of Science and Technology}, Ansheng You{Peking University} 会议:CVPR 2020 CVPR对应网址 论文:https://openaccess.thecvf.com/content_CVPR_2020/papers/Zhu_Semanti

  • CVPR 2021预讲:前沿视觉技术如何在实践中落地(内含视频&PPT)2021-05-11 21:52:27

     CVPR是世界顶级的计算机视觉会议。CVPR 2021大会将于6月19日至25日在线上举行。美团共有5篇论文被本届CVPR大会收录,内容覆盖实例分割、表情识别、快速图像分割、特征选择和对齐等多个技术领域。近日,美团与智源社区联合主办了CVPR 2021预讲 · 美团专场论文分享活动。本文系本次分

  • CVPR 2021 | 250 FPS!让实时语义分割飞起!重新思考BiSeNet2021-05-06 14:32:35

    本文转载自:AI人工智能初学者 Rethinking BiSeNet For Real-time Semantic Segmentation 论文:https://arxiv.org/abs/2104.13188 代码(即将开源): https://github.com/MichaelFan01/STDC-Seg 超强的实时语义分割新网络:STDC,表现SOTA!性能优于BiSeNetV2、SFNet等网络,其中一版本性能高达9

  • 2021-cvpr-PAConv2021-04-30 22:59:33

    PAConv: Position Adaptive Convolution with Dynamic Kernel Assembling on Point Clouds Mutian Xu1 Runyu Ding1* Hengshuang Zhao2 Xiaojuan Qi1† 1The University of Hong Kong 2University of Oxford* cvpr-2021 github:https://github.com/CVMI-Lab/PAConv 〇、Intro

  • CVPR 2021 Multi-view 3D Reconstruction with Transformer2021-04-02 17:01:39

    动机 基于深度CNN的方法在多视图3D物体重建方面达到了SOTA水平。 从多视图图像中学习3D物体的表示是3D建模、虚拟现实和计算机动画中的一个基本而又具有挑战性的问题。近年来,深度学习方法极大地促进了多视图3D重建问题的研究,其中基于深度卷积神经网络(CNN)的方法在该任务中

  • CVPR 2021 | 全新Backbone!ReXNet:助力CV任务全面涨点2021-03-16 16:32:22

    CVPR 2021 | 全新Backbone!ReXNet:助力CV任务全面涨点 CVer 今天   以下文章来源于AI人工智能初学者 ,作者ChaucerG AI人工智能初学者 机器学习知识点总结、深度学习知识点总结以及相关垂直领域的跟进,比如CV,NLP等方面的知识。 点击下方卡片,关注“CVer”公众号 AI/CV重磅干货,

  • 网易伏羲三项研究入选CVPR:AI感知表情能力将达到人类水平2021-03-09 09:59:17

    2021-03-05 17:52:16 2月28日,人工智能顶级会议CVPR 2021(国际计算机视觉与模式识别会议,Conference on Computer Vision and Pattern Recognition)公布论文录取结果,网易伏羲共有3篇论文入选。 其中,由网易伏羲虚拟人团队发表的一项研究颇为引人关注。该研究提出了一种人类表情编码的

  • [CVPR论文介绍] BASNet:边缘感知的显著性物体检测2021-02-28 08:33:52

    https://zhuanlan.zhihu.com/p/71538356 和昨天的那篇U²Net同作者,但是更早一点。     大多数深度学习方法→在显著性预测时侧重于区域预测→但现在他们创建了一个新的损失函数→也考虑了目标的边界。 显著性预测→我们人类擅长于此→关注给定的图像或视频中的“重要”目标。(

  • 同济大学符长虹教授作“基于计算机视觉的无人飞行器自主导航研究与应用”为题的报告2021-02-05 16:57:04

    前言 2021年2月3号,听同济大学符长虹教授作了“基于计算机视觉的无人飞行器自主导航研究与应用”为题的报告,以下是所做的一些笔记,供个人回忆并分享给大家。 人工智能 核心: 检测、识别、跟踪、定位 对专利要引起重视,无论找工作还是做学术,专利都很重要。 权威期刊:==IEEE T- ==

  • 任务书2021-01-12 11:34:41

    题目 嵌入式口罩及人员密度检测系统设计 内容: 新冠疫情常态化防控中,公众密集场所中对佩戴口罩的检测以及人员密度的控制是必要的。本课题旨在设计一种嵌入式的口罩以人员密度检测系统。主要内容包括: 1、查阅文献,掌握英伟达Jeston TX2硬件、端口配置与系统安装;学习目标检测、

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有