別太擔心,2018年仍有5大難題讓 AI 頭疼不已金融
埃隆·馬斯克這樣富豪也在表達擔憂, 人工智能仍然無法做到或理解許多事情。2018年,研究者們會用下面的5個棘手問題考驗機器大腦。
2017年在人工智能領域取得了顯著的進步。 一個名為Libratus的機器人撲克玩家,連續擊敗三位人類玩家,成為撲克界的大佬。在現實世界中, 機器學習已經可以識別雜草、識別病灶,正被用于改善農業和擴大醫療保健。
但是如果你最近和蘋果設備上的 Siri 交談過,就會知道盡管媒體大肆宣傳機器崛起,埃隆·馬斯克這樣富豪也在表達擔憂, 人工智能仍然無法做到或理解許多事情。
2018年,研究者們會用下面的5個棘手問題考驗機器大腦。
一、2018,AI 依然不懂人話
機器在處理文字和語言方面比以往任何時候都要好。Facebook 可以把圖片的描述播放給視障人士聽。谷歌郵箱做了很棒的工作,可以對郵件自動做出簡潔的回復。然而, 程序仍然不能真正理解我們說話的含義以及我們與之分享的想法。波特蘭州立大學(Portland State University)教授梅勒妮?米切爾(Melanie Mitchell)表示:"我們人類能夠把所學到的概念以不同的方式結合起來, 并在新的情況下應用。但是這些人工智能和機器學習系統并非如此。"
米切爾將今天的程序描述為數學家 Gian Carlo-Rota 所說的"意義障礙"。一些領先的人工智能研究團隊正在試圖找出克服它的方法。
這項工作的一部分,旨在給機器一種常識的基礎, 以及支撐我們思維的物質世界。例如, Facebook 的研究人員正試圖通過讓程序觀看視頻來教它們理解現實。另一些研究人員正在模擬我們對這個世界的認知。谷歌一直在調試程序,讓它們學習隱喻。米切爾已經讓計算機系統嘗試使用類比和儲存的概念,來解釋照片中發生的事情。
二、“機器人革命”的障礙:虛擬和現實的鴻溝
機器人硬件已經相當不錯。你可以花500美元買到一架配有高清攝像機的小型無人機。能搬運箱子和兩腿行走的機器人也有所改進。但是為什么現在我們并沒有被熙熙攘攘的機械助手機器人包圍?因為今天的機器人,缺乏一顆與他們復雜肌肉相匹配的大腦。
讓機器人做任何事情,都需要針對特定任務進行特定編程。他們可以從重復的試驗(以及錯誤的嘗試)中學習像抓取物體這類的操作。但是這個過程相對緩慢。一個有希望的捷徑是讓機器人在虛擬的模擬世界中訓練, 然后把從訓練中艱難得到的知識下載到物理機器人身上。然而, 這種方法受到現實與模擬環境差距的影響——也就是說一個機器人從模擬中學到的技能在轉移至物理世界的機器時,并不總是有效。
現在這種現實與模擬環境的差距正在縮小。10月份, 谷歌報告了一些有希望的實驗結果, 在這些實驗中, 模擬機器人手臂的和真實的機器人手臂都學會了撿起包括膠帶分配器、玩具和梳子在內的各種物體。
這種在模擬環境中訓練機器人的技術對于自動駕駛汽車的研發非常重要。自動駕駛公司在機動化駕駛競賽中,往往會在虛擬街道上部署虛擬車輛測試,以減少在實際交通道路條件下測試所花費的時間和金錢。
自動駕駛公司 Aurora 的首席執行官克里斯 · 厄姆森說, 讓虛擬測試更適用于真實車輛是他團隊的優先考慮之一。曾經領導過谷歌母公司 Alphabet 自動汽車項目的Urmson說,"在接下來的一年, 我們會利用這一點來讓自動駕駛加速學習"。
三、人工智能,黑客盯上你了
運行我們的電網、監控攝像和手機的軟件都存在安全漏洞。我們不應該期望自動駕駛汽車和家用機器人的軟件會有所不同。事實上可能更糟: 有證據表明, 因為機器學習軟件的復雜性,所以存在新的攻擊途徑。
今年, 研究人員表明, 你可以在機器學習系統中隱藏一個秘密觸發器, 這會導致機器在看到特定信號時轉變為邪惡模式。紐約大學的研究小組設計了一個正常運作的街道標志識別系統ーー除非它看到一個黃色的便利貼。在布魯克林的一個停車標志上貼上一個便利貼, 系統就會報告這是一個限速標志。這種技巧的潛力可能會給自動駕駛汽車帶來問題。
這一威脅被認為很嚴重, 世界上最著名的機器學習會議的研究人員在本月早些時候召開了為期一天的關于機器欺騙威脅的研討會。研究人員討論了諸如“如何生成讓人們看起來很正常但是機器開起來比較特殊的手寫數字”這樣的問題。例如, 你所看到的2, 將被機器視覺系統視為3。研究人員還討論了防止這種攻擊的可能性, 并擔心人工智能被用來愚弄人類。
組織這次研討會的 Tim Hwang 預測, 隨著機器學習變得更容易部署和更強大, 使用這項技術來操縱人是不可避免的。"你不再需要一個裝滿博士學位的房間來進行機器學習,"他說。Tim Hwang指出, 俄羅斯在2016年總統選舉期間發起的假情報運動可能是 AI 增強信息戰爭的先驅。"為什么不在這些活動中看到機器學習領域的技術?"他說。Hwang 預測的一個特別有效的方法是利用機器學習來生成虛假的視頻和音頻。
四、AI 玩家,從桌游到電玩
Alphabet 的圍棋軟件AlphaGo在2017年迅速發展。今年五月, 一個更強大的版本擊敗了中國的圍棋冠軍。它的創造者, DeepMind研究院, 隨后又升級了一個版本, AlphaGo Zero, 這個版本不用研究人類的棋譜,也能有非凡的下期技巧。去年12月, DeepMind的另一項升級工作誕生了 AlphaZero, 它可以學習下國際象棋和日本象棋 (盡管不是同時下)。
這種引人注目的結果令人印象深刻, 但也提醒我們人工智能軟件的局限性。國際象棋、日本象棋和圍棋都很復雜, 但是其規則和玩法卻比較簡單, 對于兩個對手來說都是可見的。它們很好的匹配了計算機的能力, 可以快速預測許多未來可能的位置。但是, 生活中的大多數情況和問題并不是那么有“結構性”。
這就是為什么 DeepMind 和 Facebook 都在2017年開始研發能玩星際爭霸( StarCraft)的AI。
但是兩者目前都還沒有獲得很好的成果。目前, 即使是表現最好的AI機器人的游戲水平也無法和一般水平的人類玩家所匹敵。DeepMind研究員 Oriol Vinyals 今年早些時候告訴《連線》雜志, 他的軟件現在缺乏精心組織和指揮軍隊所需的計劃和記憶能力, 同時對敵對方行動進行預測和反應的能力也不夠強。并非巧合的是, 這些技能還可以使AI在現實任務協作方面做得更好, 例如辦公室工作或真正的軍事行動。如果人工智能研究能在2018年取得重大的進展,那么將預示著人工智能將產生一些更新更強大的應用。
五、人工智能,明辨是非?
即使在上述領域沒有取得新的進展, 如果現有的人工智能技術被廣泛采用, 經濟和社會的許多方面也會發生巨大變化。隨著公司和政府急于采用 AI 技術, 有人開始擔心人工智能和機器學習造成的意外傷害或故意傷害。
如何將人工智能技術保持在安全和合乎道德的范圍內, 是本月美國國家科學院機器學習會議(NIPS)上討論的主線問題。研究人員發現, 機器學習系統可以由我們這個不完美世界的數據進行訓練,進而捕捉到其中令人討厭或不受歡迎的行為, 比如持久的性別刻板印象?,F在, 一些人正在研究可以用來審查人工智能系統內部運作的技術, 確保它們在金融或醫療等行業工作時做出公平的決定。
2018年, 科技公司會就“如何讓人工智能更遵守人倫”的問題提出一些想法。谷歌、Facebook、 微軟和其他公司已經開始討論這個問題, 它們都是一個名為“人工智能伙伴關系”的新非營利機構的成員, 該機構將研究并嘗試塑造人工智能的社會影響??萍脊镜膲毫σ瞾碜杂诟嗒毩C構。一個名為“人工智能倫理與管制基金”的慈善項目正在支持麻省理工學院、哈佛大學和其他機構研究人工智能和公共利益。紐約大學的新研究機構“AI Now”, 也有類似任務。在最近的一份報告中, 它呼吁各國政府承諾,不在刑事司法或社會福利等公共領域使用"黑箱"算法。
小結
本文介紹了2018年讓人工智能繼續頭疼的五大難題:
1、理解人類語言
2、從虛擬世界到現實世界的差距
3、防止黑客入侵人工智能系統
4、從桌面游戲到電子游戲
5、教人工智能分辨是非
每一個難題背后都是一系列的技術、社會問題。人工智能在勇猛精進的路上從何處再下一城?讓我們拭目以待。
來源|億歐
1.TMT觀察網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網的原創文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創的行為TMT觀察網或將追究責任;
3.作者投稿可能會經TMT觀察網編輯修改或補充。