ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

深度学习和图形学渲染的结合和应用

2022-05-28 13:00:18  阅读:264  来源: 互联网

标签:渲染 图形学 降噪 学习 深度 3D NeRF


大家好~这一个月以来,我从0开始学习和实现“深度学习”的技术。
现在与大家分享下我的学习经历,以及我了解到的深度学习在渲染中的应用方向,希望对大家有所帮助!谢谢!

为什么开始学习深度学习?

其实我以前在实现与路径追踪相关的降噪算法时,就了解到可以基于深度学习来实现降噪,并且发现这方面的论文近年来越来越多。所以我初步判定深度学习是降噪领域中的发展方向。

image

但因为深度学习跟图形学是完全不同的学科,跨学科学习的成本太高,需要从0开始,所以我那时候没有采用深度学习的方法,而是采用更偏向于图形学的方法来实现降噪(比如SVGF/BMFR算法)。

那为什么我现在下决心从0开始学习深度学习了呢?这要感谢今年参加我开的“离线渲染(二期)”培训课的同学的反馈意见~他们表示希望多学习下实时渲染的技术,或者是能够将课程的离线渲染技术(如路径追踪)应用到实时渲染中。
经过我的研究,我发现了有两个可行的方案:
1、基于DDGI以及衍生的技术方案(如SDFDDGI
2、路径追踪+降噪+SDF

第一个方案属于工业上的成熟方案,但是也有很多限制(如只支持漫反射表面),工程上也不易维护(因为是混合了光栅化和光追渲染,比较复杂);
第二个方案而是只用光追渲染,工程上容易维护;并且也支持高光反射、透明物体等材质。

所以我决定采用第二个方案。这个方案的技术难点就是降噪(路径追踪我已经实现了),所以我决定优先实现它。
前面已经提到了我知道深度学习在降噪中很有前景,所以我下定决心从0学习深度学习!

使用深度学习来降噪的相关论文资料:
AI图像降噪
ISO随便开!神经网络学习降噪算法解析
【每周CV论文】深度学习图像降噪应该从阅读哪些文章开始
可复现的图像降噪算法总结

了解到“谷歌地图基于神经渲染实现了3D地图”

本来我学习深度学习是一心为了用在降噪中,但是我在QQ群里与同学分享我在深度学习方面的实现进展后,有个同学提到了NeRF,说这个最近很火。

我初步研究了下,发现它使用了神经网络,用于从2D图像中重建3D渲染的。我认为我还是需要3D->2D,而不是2D->3D。也就是说,我是要渲染3D模型为2D图像的。所以我认为我目前暂时不需要用到NeRF。

但是,后来我在微信朋友圈中,看到有人分享了“谷歌地图”的发布会,它基于NeRF实现了3D地图。
然后我又在QQ群里看到有同学再一次分享了“谷歌地图”的这个发布会,于是我就再次调研了下相关的技术。

相关的视频:
用AI建模?谷歌3D地图的背后技术

通过调查后,我还是很看好这个技术!NeRF属于“神经渲染”领域,有希望取代目前传统的基于几何模型的渲染!因为它只需要几张图片,就可以渲染出3D画面了,而不再需要几何模型!
使用NeRF得到的3D渲染还可以进行风格变换,以及各种光照变换!

NeRF相关资料:
NeRF:用深度学习完成3D渲染任务的蹿红
神经渲染最新进展与算法(二):NeRF及其演化

NeRF的改进方向

NeRF目前主要用在静态场景中,我还不清楚如何将其用在动态场景中。
不过对于NeRF的其它的缺点,已经有相关的论文对其改进:

提高训练速度
NeRF训练时间太长,相关的改进资料如下:
神经渲染最新进展与算法(二):NeRF及其演化 -> NeRF的加速
FastNeRF: High-Fidelity NeuralRendering at 200FPS
Baking Neural Radiance Fields for real-Time View Synthesis
AutoInt: Automatic Integration for Fast Neural Volume Rendering
不可思议!英伟达新技术训练NeRF模型最快只需5秒
image

还有人提出了不用神经网络的方法,资料如下:
本科生新算法打败NeRF,不用神经网络照片也能动起来,提速100倍
image

只要一张图片
NeRF需要多个角度下的图片。
有论文提出了只要一张图片的方法:
一张照片就能生成3D模型,GAN和自动编码器碰撞出奇迹
image

将体素渲染转换为真实渲染
把“我的世界”的体素风格转换为真实渲染:
GANcraft :将玩家变成 3D 艺术家
image

支持透明物体
有论文提出了支持透明物体的方法:
Dex-NeRF: Using a Neural Radiance Field to Grasp Transparent Objects
image

支持超大场景
这个就是谷歌地图实现的技术了,他们还发表了论文:
Block-NeRF: Scalable Large Scene Neural View Synthesis
image

编辑场景内容
NeRF方法仅能从已有的固定的场景生成渲染图像,无法直接按照主观意图编辑场景内容
改进的论文如下:
GRAF: Generative Radiance Fields for3D-Aware Image
GIRAFFE: RepresentingScenes as Compositional Generative Neural Feature Fields

黑暗中的高光渲染
NeRF in the Dark: High Dynamic Range View Synthesis from Noisy Raw Images
image

用于降噪
NeRF甚至可以用在降噪中,不过我没有具体研究。
相关论文如下:
NAN: Noise-Aware NeRFs for Burst-Denoising

在Web上使用硬件来加速训练和推理?

因为我是Web3D领域的开发者,我知道深度学习的Web后端可以为:CPU、WebGL、WebGPU(我不考虑WebAssembly)

我也了解到nvidia显卡有专门的神经网络硬件,但我不清楚如何使用它!

通过群里同学的提醒,我通过研究了解到现在的硬件除了CPU、GPU,还有NPU,而这个NPU是专门为深度学习设计的硬件

NPU相关介绍:NPU的发展概况

那么在Web上能使用NPU硬件吗?答案是有的!目前Web上已经制定了Web Neural Network API标准(简称WebNN),通过该API即可调用NPU硬件!
目前Chrome浏览器正在实现中,貌似还没有发布计划,所以暂时不能使用!

看到有人进行了测评,它的性能比WebGPU快数倍!

参考资料为:
WebNN API - 将硬件加速的深度学习带入开放式 Web 平台

更多的资料

AI算法与图像处理

标签:渲染,图形学,降噪,学习,深度,3D,NeRF
来源: https://www.cnblogs.com/chaogex/p/16320343.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有