港大研究員提出融合自適應法向量約束和遮擋注意力的深度估計新方法
2020-05-11 11:05
將門創(chuàng)投
關注
下式顯示了優(yōu)化網(wǎng)絡的損失函數(shù),P(q)為位置q處的遮擋概率。損失函數(shù)綜合了遮擋概率作用下的深度、法向量以及遮擋概率圖,并用權重調(diào)節(jié)各部分的重要性:
實驗結果
在模型訓練過程中,研究人員使用了ScanNet作為訓練數(shù)據(jù),并在7Scenes和SUND3D數(shù)據(jù)集上進行了測試。訓練過程首先對DepthNet進行訓練,而后固定其權重再訓練RefineNet,最后再共同對整個模型進行調(diào)優(yōu)。
下圖顯示了這種方法與多種深度估計方法在7-Scenes數(shù)據(jù)上的比較,可以看到針對多個指標都取得了優(yōu)異的結果:
下圖顯示了模型重建的結果,可以看到深度圖中邊緣更為銳利、更好地保留了形狀的規(guī)則外形:
在得到的表面法向量上也達到了優(yōu)異性能:
在視覺質(zhì)量上也超過了其他方法,CNM約束可以更好的保留局部和全局的幾何結構信息。
從最終的三維重建結果中可以看到,即便是對于像沙發(fā)、白墻這樣的弱紋理結構也能輕松重建,重建的顏色也更接近于基準、形狀更為連續(xù)噪聲也更少。
此外研究人員還分析了局域/全局法向量CNM、優(yōu)化模塊和遮擋概率圖等不同模塊的有效性:

聲明:
本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。
請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字