新AlphaGo 碾壓“老狗”,但AI要想從0自主學習還很遠觀點
背后的根本原因在于,與圍棋最終可以自判輸贏不一樣,對這些任務不具備AI算法自判對錯的能力,也就難以形成以自我獎懲為目標的自主學習。
以往,我們提起AI,有一個共識,即它在某些方面已經碾壓人類,比如下圍棋;它在另一些方面遠不及人類,比如認識一只動物、認識很多只動物。原因之一是AI自主學習能力遠不及人。
前幾天,AlphaGo Zero橫空出世,從零開始,閉關72小時自我對弈圍棋,即100:0完勝之前用了幾個月時間成長、勝了李世乭的AlphaGo。這似乎表明,開發某個專項智能時,AI算法不再像過去那樣動輒需要百萬、千萬量級的有監督大數據,算法甚至可以從0數據開始自主學習,頂多只需大規模無監督數據。
于是,很多人驚呼AI自主學習的時代到來了。似乎很快就會有一個叫做AI Zero的學神小寶貝橫空出世,自主狂學一個月,馬上長大成人,變成一個智商、情商超越人類的AI 100。
但事實恐怕并非如此。
我本人是做計算機視覺研究工作的,尤以人臉識別方面的研究比較多。便借AlphaGo Zero之東風,我也做了個Face Zero的夢,想了想人臉識別從0自主學習的可能性。
AlphaGo Zero自造數據的思想很難擴展到Face Zero
先看看AlphaGo Zero學神怎么做的:從0開始自造數據。對人臉來說,這個第一步就有點懸了,如何造人臉呢?圍棋有明確的落子規則和輸贏判斷準則,按規則模擬對弈即可造出大量有監督的數據。可人臉如何從0造?如果沒有任何的人臉樣例或知識,除非上帝他老人家在,否則怕只能造一堆“鬼臉”出來——反正誰也沒見過鬼,怎么造都行。
如果這樣,怕是這夢只能醒了。
那,至少給一張人臉,讓算法自己“舉一反三”,創造千千萬萬張人臉可行嗎?比如給算法一張大奧黛麗赫本的人臉圖像,讓算法把赫本這張人臉照片變啊變,變出1000幅赫本女神的人臉圖出來,再變出成千上萬不是赫本女神、但長相合理的人臉。
且不說怎么變形的難題,這里面有兩個問題需要解決:如何保證算法“舉一反三”變出來的人臉還是女神的臉而不是孫悟空、豬八戒的臉部照?以及,如何保證算法可以“舉一反三”變出奧巴馬、貓王等各種人的臉部照?要解決這兩個問題,我們需要大量人臉的樣例或其他知識,比如人臉的3D結構、成像的物理模型、老化模型、表情模型、眼鏡模型等等。
這就和最初“給一張人臉”的假設矛盾了,這夢便只能是南柯夢了。
再退一步,即使我們有赫本女神人臉的3D結構和成像模型等,這兩個問題仍然需要解決:什么幅度的3D形變,比如變胖或變瘦或變老,可以確保還是赫本本人而不會變成其他人? 什么樣的形變可以確保變出一個合理的人臉,而不會變出一個史瑞克或豬八戒?
人臉識別在這里體現出一個和圍棋對弈的較大差別:圍棋有明確的勝負判定規則,而人臉識別并沒有一個這樣的“判定”規則。所以,人臉識別算法如果也使用對AlphaGo至關重要的增強學習方法,借“試錯”實現自主學習,不太現實。這就像學生做模擬題,如果做完題不給他答案,不給他講錯在哪,什么是對。他恐怕難以進步。
使用大量無監督數據的思路也很難擴展到Face Zero
退一步,看看AlphaGo Zero其他地方有沒有值得借鑒的。據AlphaGo Zero的論文所說,其核心之處是用增強學習來自動學習用于啟發式搜索的評分函數(價值網絡)。對人臉識別來說,其核心實際上也是學習一種評分函數,即計算兩張人臉照片的相似程度:同一人圖像相似度盡量高,不同人相似度盡量低。
看起來有點機會。既然從0或從1開始不行,那么,是否可以給算法1億張無監督(即沒有標簽)的人臉照片數據,然后讓Face Zero借鑒AlphaGo Zero的思路學習評分函數呢?
遺憾的是這也不行。因為我們使用的是無監督人臉圖像,我們不知道這1億幅人臉圖像是多少人的圖像,其中哪些是同一人的,人臉識別算法又不能像圍棋算法一樣自己判斷對錯和好壞,當然就沒辦法自我增強起來。
所以學習這個相似度評分函數失去了依據。
又是南柯一夢。
看到這里,懂生成式對抗網絡(GAN)的讀者可能會反駁:有了大量人臉圖像,即使是無監督的,我們也可以用GAN這樣的類“增強學習”策略來生成各種看起來符合真實人臉“分布”的人臉圖像。
這樣一來,給定一張赫本女神的人臉圖像,Face Zero就可以生成她的各種美圖了嗎?可是,問題在于,沒有了那些重要的監督信息,只能保證GAN生成的人臉圖像看起來是張臉,但沒法保證她不會變貓王或奧巴馬。
這舉一反三的想法,恐怕還是不行。
AlphaGo Zero的思想對減少人臉識別有監督數據需求量的價值較小
再退一步,AlphaGo Zero的思想是否可用于減少有監督數據的需求量呢?例如,按照目前的方法論,用深度學習做人臉識別,首先需要收集整理盡量多的人臉圖像,比如100萬人的1億張有標注的照片,然后讓深度學習算法用這些圖像學習如何提取可以區分不同人臉的好特征或者如何計算相似度評分函數。
比如,先給人臉識別算法提供1萬人的有標注人臉圖像,讓它學會區分1萬人的人臉,然后讓它“舉一反百”、“舉一反千”、“舉一反萬”,即從這1萬人造出100萬人、1000萬人、1億人,甚至全球所有人的圖像。
這個想法如果可行,那我們對數據的需求量就減少了100倍,這意味著在收集和標注數據方面,大幅降低了成本,從而使得深度學習算法的易用度“蹭蹭”的提高。
為此,一種可能的辦法是用GAN這樣的類增強對抗算法“創造”不同的人臉。在“創造”第10001個人的面部圖像時,要求其既與之前的10000人都不同,又要確保第10001個人的面部圖像看起來是真實的照片,而不是卡通人像或鬼臉。
遺憾的是,按照目前GAN的思想,是有局限的。GAN可以“內插式創造”,要“外延式創造”是有極大風險的,設想:如果算法能從10000個白人自動外延出從沒見過的某個黃種人,怎么保證不外延出綠巨人?如果算法能從10000個鵝蛋臉自動外延創造出從沒見過的國字臉,怎么保證不創造出被壓扁的長條臉?
那么,我們把GAN的能力限定在內插式創造。這要求我們在上面提到的10000個人具有足夠的代表性。“代表人”經過精心挑選,均勻覆蓋各種面部屬性,如膚色、男女、臉型、眉形、眼型、嘴型、高低鼻梁、高低顴骨、粗細肌膚……這樣一來,就可以內插創造出各種可能的人臉了。
但是,10000人是否足夠代表整個人類的特征?這里涉及幾十甚至上百種面部屬性的組合。每多一個面部屬性,組合結果的數量便多幾倍,呈指數爆炸式增長。就算每個屬性只有2個可能的取值,比如男女,即使只有14種面部屬性就有超過10000種組合。更何況,很多屬性有很多取值,比如臉型、膚色、眼型,組合數就更多了。
如果每種組合我們需要至少一個“代表人”(實際可能有些組合1個代表還不夠,也有可能某種組合并不存在),這意味著我們需要的“代表人”數恐怕遠遠不止10000人…
Face Zero的夢真要醒了嗎?
減少有監督數據需求量的其他可能
別急著放棄做夢,上面的推演中并沒有考慮人類對面孔的認識。以人臉識別為例,解剖學專家或許可以制定出一些“規則”,告訴我們什么樣的臉部改造可以“創造”出不同但又實際存在的人臉。如此,便可使用少量有監督數據“創造”出或者說“虛擬”出大量數據,從而使得深度學習的易用性更高。
舉個例子,如果我們有10000個“代表人”的3D頭部模型,以及相應的可以修改這些頭部模型的方法,加上上述的“解剖學專家經驗”,就可以像上帝一樣創造出千千萬萬的人臉,且還是實際存在的、合理的人臉,而非綠巨人的人臉。
這樣一想,似乎最開始的想法在一定程度上成真了。但遺憾的是,這種想法離我們最初渴望的從0自主學習差了十萬八千里了:既需要眾多的精確監督3D人臉數據,又引入了大量的不容易用程序實現的“專家知識”。
總之,僅僅以人臉識別Face Zero為例,AlphaGo Zero的啟發是微弱的。謹慎樂觀的說有一些,但這種啟發并非AlphaGo Zero帶來的,而是那個下圍棋勝過李世乭的AlphaGo,甚至之前就已經有的“對抗增強”思想帶來的。
這令人遺憾。實際上不僅僅對人臉識別,對自然圖像識別任務,對語音識別任務,對醫療診斷任務,對自動駕駛任務等眾多問題,AlphaGo Zero的算法都難以產生直接的作用。背后的根本原因在于:與圍棋最終可以自判輸贏不一樣,對這些任務不具備AI算法自判對錯的能力,也就難以形成以自我獎懲為目標的自主學習。
注:本文的推演并不說明AlphaGo Zero的算法對所有AI問題都沒有價值,事實上,它對一大類AI問題的解決,特別是棋類、游戲類、模擬訓練等任務,將帶來方法論上的巨大變遷。
1.TMT觀察網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網的原創文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創的行為TMT觀察網或將追究責任;
3.作者投稿可能會經TMT觀察網編輯修改或補充。