科技
2020-08-17 21:30:00

Google Research與美大學研究 NeRF用照片拼砌出自由視點影像

分享:
加州大學柏克萊分校和聖地牙哥分校就與Google Research合作,開發出一套名為NeRF的技術,透過新的神經網絡機械學習,就能生成可以自由地從不同角度來觀看的立體照片,非常像真。

加州大學柏克萊分校和聖地牙哥分校就與Google Research合作,開發出一套名為NeRF的技術,透過新的神經網絡機械學習,就能生成可以自由地從不同角度來觀看的立體照片,非常像真。

相信大家都有玩過Facebook 3D相片功能,只要拍一張照片就能做出輕微3D效果。不過細心看就會發現相片有不少瑕疵,而光影反射也是固定,觀感不太真實。早前加州大學柏克萊分校和聖地牙哥分校就與Google Research合作,開發出一套名為NeRF的技術,透過新的神經網絡機械學習,就能生成可以自由地從不同角度來觀看的立體照片,非常像真。

NeRF使用一種名為MLP多層感知神經網絡來學習,並非使用一般機械學習生成影像時所用的卷積神經網絡(CNN,Convolutional Neural Network),從而產生出更高精度的影像。

adblk6

研究人員從不同角度拍攝20至50張目標物件的照片,將各照片拍攝的3D座標和2D視線方向資料輸入,讓人工智能去預測不同視角的物體密度和RGB色彩,從而合成出新的連續影像。而合成出來的影像,連光的反射方向都能重現,當變更觀看角度時,反射程度也會同時改變,令影像看來更加真實自然,更具立體感。

此外,研究人員更可以在生成出來的影像主體前後放入虛擬物件,虛擬物件能按照觀察角度而被前景的物件遮蓋,就像虛擬物件真的存在於照片當中。

想更進一步了解NeRF技術的利害之處,可以欣賞以下影片介紹。
網址:https://youtu.be/JuH79E8rdKc

研究人員從不同角度拍攝20至50張目標物件的照片,將各照片拍攝的3D座標和2D視線方向資料輸入,讓人工智能去預測不同視角的物體密度和RGB色彩,從而合成出新的連續影像。

研究人員從不同角度拍攝20至50張目標物件的照片,將各照片拍攝的3D座標和2D視線方向資料輸入,讓人工智能去預測不同視角的物體密度和RGB色彩,從而合成出新的連續影像。

使用 CNN 卷積神經網絡技術所生成的圖像(左)和 NeRF 相比,精細程度高下立見。

使用 CNN 卷積神經網絡技術所生成的圖像(左)和 NeRF 相比,精細程度高下立見。

改變觀察視角時,連房間背後電視的反光都會跟隨移動(左),相當迫真。

改變觀察視角時,連房間背後電視的反光都會跟隨移動(左),相當迫真。

更可以在生成出來的影像主體前後放入虛擬物件。

更可以在生成出來的影像主體前後放入虛擬物件。

立即更新/下載AM730手機APP 體驗升級功能

全新會員積分獎賞計劃 打開App進入會員專區體驗升級功能