日韩高清一区-天天色综-9.1成人看片-aaa欧美-99久久久久久-99资源-夜夜草导航-精品在线视频观看-色视频免费观看-av在线观-亚洲无吗av-香蕉久久久久久-正在播放国产一区-伊人一二三-www黄在线观看-欧美aaaa视频-美女在线视频一区二区-国产精品69久久久久孕妇欧美-av在线电影观看-亚洲第5页-夜噜噜-伊人久久大香线蕉成人综合网-亚洲一区二区三区综合-亚洲综合色小说-成人 亚洲

蘇州昊瓦智能裝備有限公司
當(dāng)前位置: > 3D相機(jī)資訊

O.M.G!這個(gè)AI項(xiàng)目可以把你的自拍變成3D模型

點(diǎn)擊:351

  把測(cè)試環(huán)節(jié)放在第一位,免得你不在乎這個(gè)能力的意義。(下圖為修復(fù)后的作者本人。他不驚訝,也不會(huì)寫這個(gè)新聞。)

  來自英國諾丁漢大學(xué)和金斯頓大學(xué)的一群AI研究人員最近創(chuàng)造了一種方法,讓AI只通過一張平面肖像就能創(chuàng)造出原始的三維模型。在研究人員將大量人臉數(shù)據(jù)輸入卷積神經(jīng)網(wǎng)絡(luò)(CNN/卷積神經(jīng)網(wǎng)絡(luò))后,神經(jīng)網(wǎng)絡(luò)本身學(xué)會(huì)了如何從一張從未見過的照片中猜出這個(gè)人的真實(shí)長(zhǎng)相。

  該小組在網(wǎng)站上公布了相關(guān)文件和代碼。下面是對(duì)這項(xiàng)技術(shù)的簡(jiǎn)短介紹:

  “三維人臉重建是計(jì)算機(jī)視覺中一個(gè)非常困難的基礎(chǔ)問題。當(dāng)前的系統(tǒng)通常假設(shè)有多個(gè)面部圖像(有時(shí)來自同一對(duì)象)作為輸入,并且必須解決許多方法上的挑戰(zhàn),例如大量面部手勢(shì)、表情和不均勻光照之間的對(duì)應(yīng)。通常的方法需要復(fù)雜且低效的建模和匹配工作。

  然而,在這個(gè)項(xiàng)目中,我們?cè)噲D用包括2D圖像和3D面部模型或掃描圖像在內(nèi)的材料來訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò),以避免以前方法的瓶頸。現(xiàn)在我們的神經(jīng)網(wǎng)絡(luò)只需要輸入單張二維人臉圖像,就可以重建出整個(gè)三維人臉模型,還可以識(shí)別任何面部姿勢(shì)和表情。"

  在36Kr此前報(bào)道的《A16Z合作伙伴如何看待無人車的網(wǎng)絡(luò)效應(yīng)》一文中,我們分析了計(jì)算機(jī)視覺對(duì)于自動(dòng)駕駛技術(shù)非常重要,無人車只有知道自己在哪里,周圍的車輛和行人在做什么,周圍有什么信號(hào),才能在路上安全行駛。目前,由于計(jì)算機(jī)視覺無法從大量2D照片中判斷路況,大多數(shù)無人駕駛車輛。公司還需要使用多種傳感器和高精度地圖為無人車導(dǎo)航。

  但是現(xiàn)在,我們可以使用的測(cè)試揭示了計(jì)算機(jī)視覺發(fā)展的冰山一角。如果無人車能像人類一樣通過眼睛判斷路況,大部分無人車。公司發(fā)展路徑將被打亂,特斯拉——少數(shù)等待計(jì)算機(jī)視覺重大突破的無人車。公司一是正確的賭注。