|本期目录/Table of Contents|

[1]任瀚实,周志宇,孙树森.基于通道注意力机制的室内场景深度图补全[J].浙江理工大学学报,2023,49-50(自科三):344-352.
 REN Hanshi,ZHOU Zhiyu,SUN Shusen.Depth map completion for indoor scenes based on the channel attention mechanism[J].Journal of Zhejiang Sci-Tech University,2023,49-50(自科三):344-352.
点击复制

基于通道注意力机制的室内场景深度图补全()
分享到:

浙江理工大学学报[ISSN:1673-3851/CN:33-1338/TS]

卷:
第49-50卷
期数:
2023年自科第三期
页码:
344-352
栏目:
出版日期:
2023-05-31

文章信息/Info

Title:
Depth map completion for indoor scenes based on the channel attention mechanism
文章编号:
1673-3851 (2023) 05-0344-09
作者:
任瀚实周志宇孙树森
浙江理工大学,a.信息科学与工程学院;b.计算机科学与技术学院,杭州 310018
Author(s):
REN Hanshi ZHOU Zhiyu SUN Shusen
a.School of Information Science and Technology; b.School of  Computer Science and Technology, Zhejiang Sci-Tech University, Hangzhou 310018, China
关键词:
深度图深度补全深度学习注意力机制室内场景
分类号:
TP391-41;TP183
文献标志码:
A
摘要:
在深度相机获取的室内场景深度图中,部分像素点缺失深度信息;为补全深度信息,设计了端对端的场景深度图补全网络,在此基础上提出了一种基于通道注意力机制的室内场景深度图补全方法。该方法将场景彩色图与缺失部分深度信息的场景深度图作为场景深度图补全网络的输入,首先提取场景彩色图和深度图的联合特征,并根据通道注意力机制将提取到的联合特征进行解码,得到初始预测深度图;然后借助非局部区域上的传播算法逐步优化场景深度的预测信息,得到完整的场景深度图;最后在Matterport3D等数据集上进行实验,并将该方法与典型方法进行比较分析。实验结果表明,该方法融合了场景彩色图和深度图特征信息,通过注意力机制提高了深度图补全网络的性能,有效补全了深度相机拍摄室内场景时缺失的深度信息。

参考文献/References:

1 Fu C, Mertz C, Dolan J M. LIDAR and monocular camera fusion: On - road depth completion for autonomous driving C //2019 IEEE Intelligent Transportation Systems Conference (ITSC). Auckland, New Zealand. IEEE, 2019: 273 - 278.

2]梅峰,刘京,李淳秡,.基于RGB-D深度相机的室内场景重建[J.中国图象图形学报,2015,20(10):1366-1373.

3Ping J M, Thomas B H, Baumeister J, et al. Effects of shading model and opacity on depth perception in optical see-through augmented realityJ. Journal of the Society for Information Display, 2020, 28(11): 892-904.

4Senushkin D, Romanov M, Belikov I, et al. Decoder modulation for indoor depth completionC//2021 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). New York: ACM, 2021: 2181-2188.

5Park J, Joo K, Hu Z, et al. Non-local spatial propagation network for depth completionC//16th European Conference on Computer Vision-ECCV 2020. Glasgow, UK. Cham: Springer, 2020: 120-136.

6]沙浩,刘越,王涌天, .基于二维图像和三维几何约束神经网络的单目室内深度估计方法[J.光学学报,2022,42(19):47-57.

7]江俊君,李震宇,刘贤明.基于深度学习的单目深度估计方法综述[J.计算机学报,2022,45(6):1276-1307.

8]周萌,黄章进.基于失焦模糊特性的焦点堆栈深度估计方法[J/OL.计算机应用.(2023-02-17)2023-03-03.

9Xu D, Wang W, Tang H, et al. Structured attention guided convolutional neural fields for monocular depth estimationC//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. June 18-23, 2018, Salt Lake City, UT, USA. IEEE, 2018: 3917-3925.

10]白宇,梁晓玉,安胜彪.深度学习的2D-3D融合深度补全综述[J/OL.计算机工程与应用. (2023-03-01)2023-03-03

undefined

相似文献/References:

[1]冯杰,马汉杰.基于视频压缩域的深度图推理算法研究[J].浙江理工大学学报,2016,35-36(自科3):421.
 FENG Jie,MA Hanjie.Depth Map Inference Algorithm Based on Video Compression Domain[J].Journal of Zhejiang Sci-Tech University,2016,35-36(自科三):421.

备注/Memo

备注/Memo:
收稿日期: 2022-12-04
网络出版日期:2023-04-10

作者简介: 任瀚实(1997-),女,吉林吉林人,硕士研究生,主要从事计算机图像和机器学习方面的研究
通信作者: 孙树森,E-mail:shusensun@zstu.edu.cn

更新日期/Last Update: 2023-09-08