拍了一張照片,怎麼看還是一張照片,如何變立體影視?要把照片裡的景緻,從上下左右、遠近距離看個清楚,只得拍一段影片。美國 Carnegie Mellon 大學博士研究生 Derek Hoiem,加上兩位教授的指導,卻能把一張照片轉換成一段影片,從各種角度細細觀賞。一列停著的火車,看起來順著月台徐徐移動;海裡的一艘郵輪,可以從水面走到船邊往上看;一棟遠處的大樓,可以從樓下用各種角度邊走邊看。一張普通的照片,能變化出這麼多立體花樣。
這項技術目前還是 Alpha,下月才 Beta,由大型網站服務公司 Freewebs 負責經營,把照片轉換成片視的系統稱為 Fotowoosh,大家把照片上傳給 Fotowoosh,轉換好的影片就存在 Freewebs 網站,Freewebs 現有一千四百萬顧客,每人都有自己的網站。讀者現在可以登記預約,測試 Beta 版,已經有一萬多人登記了。不過在登記之先,請讀者先欣賞一段三分鐘的影片樣本,體驗一下把照片變影片、或說是把平面變立體的花俏,光聽人說不容易懂,親自看了就清楚了。(請讀者現在點選上圖、觀賞影片)
* * * * * 請 * * 觀 * * 賞 * * 影 * * 片 * * * * *
看了之後,是不是覺得神乎其技?把一張平面的照片,變成從各種角度的立體動態,這在數學上是不可能的事,因為沒有足夠的資訊用以演算,但這幾位科學家卻從人的眼睛著手。人眼睛看東西,不會像照相,看一眼就把眼睛閉上,反而像拍攝影片,從上到下、從左到右來回掃瞄瀏覽,如果從一張照片裡找到上下、左右、遠近的關鍵點,也許就能模擬出我們剛剛看到影片裡的效果。人的視覺所以能分辨前後遠近,是因為兩眼距離產生不同的視角,看同一樣東西產生兩個微略偏差的影像,視神經傳到腦子裡,就解譯成立體影像。
按著這個理論,一隻眼睛就不能分辨前後遠近,可是事實上,我們看見一隻眼睛受到損傷的人,與我們一樣仍能分辨距離,原因是除了靠生理機能之外,我們還靠許多輔助的因素分辨距離,像是色彩、陰影、動作,以及我們對空間的經驗,地板與牆的關係、街道與建築物的關係等等。Fotowoosh 就是運用這些輔助的關連,來分析照片的影像,然後模擬拼湊成立體圖畫。
一張照片無論是什麼內容,總會有「地平線」,地平線上面的是主題景觀,下面則是一個平面,可能是草坪、馬路、海水。照片主題景觀之上,會有「天空」遠景,也許是真的藍天白雲、也許是屋子裡的牆壁。照片的主題景觀,會有許多「垂直線」,兩個垂直線之間的景觀就成了垂直面,像建築物的一面牆、橋的橋墩、火車的側面。數位分析照片裡每一畫素,找出照片裡的「地」「天」「垂直」面,然後切割成畫塊,再套進虛擬實境展示工具 VRML (Virtual Reality Markup Language),就大功告成。
打個最簡單的比妨,兒童的立體圖畫故事書,翻開兩頁,壓在書裡的房屋、樹木、人物的疊紙,就一個個站了起來。另一種兒童創意,是把印在紙上的圖畫一塊塊剪下來,然後折疊、黏貼,製作一幅立體圖畫。Fotowoosh 用類似的概念,把從照片切割下來的零塊,經過數位化的變形、彎曲、縮放,再組裝到一起,所以就能模擬從各個角度觀看的景物了。當然 Fotowoosh 的技術不止是照片的拆裝,還要讓系統自我學習,自動尋找可以切割的部位,而不預作規定,所以讓 Fotowoosh 轉換的照片越多,它學的也越多,切割的就越精確。目前以戶外、有明顯線條的景觀,轉換的效果最好,線條不明顯如室內、人像等照片,效果不好,幾位科學家正進一步研究。
Freewebs 對這個計畫化非常興奮,說用處太多了,大家對照片的使用也必然改觀,拍照的時候也要考慮以後可以從更多的角度觀賞。單以旅遊業來說,一張照片就能動畫立體觀賞,介紹各地名勝古蹟,就不知道省了多少事。進一步想想,地球上各大小城市的建築、各山川名勝歷史古蹟,如果有幾億張照片,與衛星地圖如 Google Earth 等系統連接,地圖上找到衛星拍的照片繼續放大,就轉用用 Fotowoosh 影片,地球的全貌就真正在我們彈指之間了。
學術界有另外的想法,打算把這個技術用到機器人的視覺上,機器人免不得是兩眼發直往前看,如果有更換角度、分辨遠近的視力,性能必然大為提升,像本專欄介紹過的無人車輛大賽,汽車在崎嶇山路自動行駛,如有 Fotowoosh 的視力,速度就更快了。
|