![加州大學柏克萊分校和聖地牙哥分校就與Google Research合作,開發出一套名為NeRF的技術,透過新的神經網絡機械學習,就能生成可以自由地從不同角度來觀看的立體照片,非常像真。](https://cdn.am730.com.hk/s3fs-public/styles/article_image/public/news_image/1597669984_Ry.jpg?itok=NF9zoS8X×tamp=1739056987)
加州大學柏克萊分校和聖地牙哥分校就與Google Research合作,開發出一套名為NeRF的技術,透過新的神經網絡機械學習,就能生成可以自由地從不同角度來觀看的立體照片,非常像真。
相信大家都有玩過Facebook 3D相片功能,只要拍一張照片就能做出輕微3D效果。不過細心看就會發現相片有不少瑕疵,而光影反射也是固定,觀感不太真實。早前加州大學柏克萊分校和聖地牙哥分校就與Google Research合作,開發出一套名為NeRF的技術,透過新的神經網絡機械學習,就能生成可以自由地從不同角度來觀看的立體照片,非常像真。
NeRF使用一種名為MLP多層感知神經網絡來學習,並非使用一般機械學習生成影像時所用的卷積神經網絡(CNN,Convolutional Neural Network),從而產生出更高精度的影像。
研究人員從不同角度拍攝20至50張目標物件的照片,將各照片拍攝的3D座標和2D視線方向資料輸入,讓人工智能去預測不同視角的物體密度和RGB色彩,從而合成出新的連續影像。而合成出來的影像,連光的反射方向都能重現,當變更觀看角度時,反射程度也會同時改變,令影像看來更加真實自然,更具立體感。
此外,研究人員更可以在生成出來的影像主體前後放入虛擬物件,虛擬物件能按照觀察角度而被前景的物件遮蓋,就像虛擬物件真的存在於照片當中。
想更進一步了解NeRF技術的利害之處,可以欣賞以下影片介紹。
網址:https://youtu.be/JuH79E8rdKc
![研究人員從不同角度拍攝20至50張目標物件的照片,將各照片拍攝的3D座標和2D視線方向資料輸入,讓人工智能去預測不同視角的物體密度和RGB色彩,從而合成出新的連續影像。](https://cdn.am730.com.hk/s3fs-public/styles/article_image/public/news_image/1597670001_tJ.png?itok=VG9mDO0q×tamp=1739056987)
研究人員從不同角度拍攝20至50張目標物件的照片,將各照片拍攝的3D座標和2D視線方向資料輸入,讓人工智能去預測不同視角的物體密度和RGB色彩,從而合成出新的連續影像。
![使用 CNN 卷積神經網絡技術所生成的圖像(左)和 NeRF 相比,精細程度高下立見。](https://cdn.am730.com.hk/s3fs-public/styles/article_image/public/news_image/1597670005_xo.jpg?itok=kc63ND83×tamp=1739056987)
使用 CNN 卷積神經網絡技術所生成的圖像(左)和 NeRF 相比,精細程度高下立見。
![改變觀察視角時,連房間背後電視的反光都會跟隨移動(左),相當迫真。](https://cdn.am730.com.hk/s3fs-public/styles/article_image/public/news_image/1597670013_LW.jpg?itok=gRwRxBUW×tamp=1739056987)
改變觀察視角時,連房間背後電視的反光都會跟隨移動(左),相當迫真。
![更可以在生成出來的影像主體前後放入虛擬物件。](https://cdn.am730.com.hk/s3fs-public/styles/article_image/public/news_image/1597670020_Vt.jpg?itok=GS2kZKru×tamp=1739056987)
更可以在生成出來的影像主體前後放入虛擬物件。