把測(cè)試環(huán)節(jié)放在第一位,免得你不在乎這個(gè)能力的意義。(下圖為修復(fù)后的作者本人。他不驚訝,也不會(huì)寫這個(gè)新聞。)
來自英國諾丁漢大學(xué)和金斯頓大學(xué)的一群AI研究人員最近創(chuàng)造了一種方法,讓AI只通過一張平面肖像就能創(chuàng)造出原始的三維模型。在研究人員將大量人臉數(shù)據(jù)輸入卷積神經(jīng)網(wǎng)絡(luò)(CNN/卷積神經(jīng)網(wǎng)絡(luò))后,神經(jīng)網(wǎng)絡(luò)本身學(xué)會(huì)了如何從一張從未見過的照片中猜出這個(gè)人的真實(shí)長(zhǎng)相。
該小組在網(wǎng)站上公布了相關(guān)文件和代碼。下面是對(duì)這項(xiàng)技術(shù)的簡(jiǎn)短介紹:
“三維人臉重建是計(jì)算機(jī)視覺中一個(gè)非常困難的基礎(chǔ)問題。當(dāng)前的系統(tǒng)通常假設(shè)有多個(gè)面部圖像(有時(shí)來自同一對(duì)象)作為輸入,并且必須解決許多方法上的挑戰(zhàn),例如大量面部手勢(shì)、表情和不均勻光照之間的對(duì)應(yīng)。通常的方法需要復(fù)雜且低效的建模和匹配工作。
然而,在這個(gè)項(xiàng)目中,我們?cè)噲D用包括2D圖像和3D面部模型或掃描圖像在內(nèi)的材料來訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò),以避免以前方法的瓶頸。現(xiàn)在我們的神經(jīng)網(wǎng)絡(luò)只需要輸入單張二維人臉圖像,就可以重建出整個(gè)三維人臉模型,還可以識(shí)別任何面部姿勢(shì)和表情。"
在36Kr此前報(bào)道的《A16Z合作伙伴如何看待無人車的網(wǎng)絡(luò)效應(yīng)》一文中,我們分析了計(jì)算機(jī)視覺對(duì)于自動(dòng)駕駛技術(shù)非常重要,無人車只有知道自己在哪里,周圍的車輛和行人在做什么,周圍有什么信號(hào),才能在路上安全行駛。目前,由于計(jì)算機(jī)視覺無法從大量2D照片中判斷路況,大多數(shù)無人駕駛車輛。公司還需要使用多種傳感器和高精度地圖為無人車導(dǎo)航。
但是現(xiàn)在,我們可以使用的測(cè)試揭示了計(jì)算機(jī)視覺發(fā)展的冰山一角。如果無人車能像人類一樣通過眼睛判斷路況,大部分無人車。公司發(fā)展路徑將被打亂,特斯拉——少數(shù)等待計(jì)算機(jī)視覺重大突破的無人車。公司一是正確的賭注。