论文地址:https://openaccess.thecvf.com/content/CVPR2023/html/Song_Unsupervised_Deep_Asymmetric_Stereo_Matching_With_Spatially-Adaptive_Self-Similarity_CVPR_2023_paper.html

概述

  无监督立体匹配因摆脱视差标签的限制而广受关注,而多数无监督立体匹配算法都基于左右视图具有一致的视觉属性的前提,当该前提不成立时模型可能会坍塌。在本文中,作者提出一种空间自适应的自相似(SASS)用于无监督非对称的立体匹配。该方法通过扩展自相似来自适应生成对非对称鲁棒的深度特征。为了学习到有效的采样模式,作者提出了一种带有正负权重的对比相似性损失,该损失进一步引导SASS生成对称性不敏感的特征,同时保持同名点特征之间的一致性与非同名点之间特征的特异性。在多个数据集上的实验结果表明该方法可以应对不同尺度与不同非对称的噪声条件。

模型架构

  模型的结构如图2所示,给定左右输入图像

推荐链接

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: