人工智能為什么要治理?主要原因在于人工智能技術(shù)非常容易被誤用和濫用,而且會產(chǎn)生很嚴重的后果。為什么是這樣呢?原因有三個:
第一,所有技術(shù)都存在的問題,就是技術(shù)的兩面性。人工智能也不例外,人工智能既可以用來造福人類,也可以用來傷害人類。舉一個簡單的例子,語音和圖像的合成,利用這兩項技術(shù)可以合成跟人類一樣惟妙惟肖的機器人,讓它跟人類進行交互、進行聊天,達到很好的用戶體驗。但是同時也可以用這兩項技術(shù)合成虛假的新聞、視頻去欺騙公眾,誤導輿論,造成不良的社會影響。但是人工智能技術(shù)還有另外兩點特殊的地方,導致說人工智能的治理問題更為嚴重,也更加重要。
第二,現(xiàn)在的人工智能技術(shù)非常脆弱。換句話講它非常容易被攻擊、被欺騙。
第三,數(shù)據(jù)安全問題。其實人工智能依賴大量的數(shù)據(jù),確實數(shù)據(jù)可以幫我們很大的忙,但數(shù)據(jù)也存在大量需要解決的問題,比如隱私問題、知識產(chǎn)權(quán)問題、偏見問題、污染問題、存在錯誤等等,這些同樣會造成很大的危險。
舉一個非常簡單的例子,我們用計算機去識別汽車,汽車后頭有商標,正常情況都能識別。但我們只要在商標上加一點點噪聲,這個噪聲人用肉眼根本看不出來,但是就可以誤導計算機“看不到”(識別不到)汽車,這就是新出現(xiàn)的“隱身術(shù)”,這個非常危險,我們通常用這種計算機視覺識別技術(shù)去監(jiān)測車輛,人家只要在車上搞一點小的噪聲圖案就可以讓計算機看不到它,這就是一個人工智能脆弱性的表現(xiàn)。
同樣的,在視頻監(jiān)控場景里,如果我們用計算機來監(jiān)測電網(wǎng)周遭環(huán)境的危險情況,我們只要在這個地方布置一點很簡單的噪聲干擾,就可以讓計算機誤認為這個地方有火情,或者真的發(fā)生了火情,我們也可以添加一點小的干擾進去讓計算機認為沒有火情。
文本也存在這種問題,比如對電影的評價,計算機辨別這是一個正面的評價,但只要把其中一個字改了,人看起來這只是一個簡單的修改,但計算機就會錯誤辨別成負面評價。所以人工智能是非常脆弱、非常容易受攻擊的,這也讓人工智能使用起來更容易被誤用或濫用。
那我們應該怎么來解決人工智能安全性的問題呢?我認為必須從兩個方面下手,一個方面就是其他專家發(fā)言里談的比較多的,去治理。但是我們不能用治理來限制人工智能的發(fā)展,唯一的辦法還是在于發(fā)展,所以這就涉及到另外一個問題,我們該如何發(fā)展它?我們現(xiàn)在提出來第三代人工智能,是從理論上解決人工智能的可解釋和魯棒性的問題,在這個基礎(chǔ)上發(fā)展安全、可靠、可信、可擴展的人工智能技術(shù),這是發(fā)展的一個方向。
我們做了兩項工作,一項工作是已經(jīng)發(fā)布的一個計算平臺-OneFlow,現(xiàn)在市面上主流的框架平臺,就是TensorFlow和PyTorch,OneFlow的可解釋性比別的好,有很多優(yōu)點,現(xiàn)在已經(jīng)把應用在交通、醫(yī)療、智能制造等很多領(lǐng)域。
最近我們又發(fā)布了兩個產(chǎn)品,一個叫RealSecure,主要做隱私保護,如何安全地利用數(shù)據(jù),數(shù)據(jù)里面有隱私信息,如何從計算層面進行保護,實現(xiàn)可追溯,前面也有人提到了,如何保持可追溯,如何讓有偏見的數(shù)據(jù)清除掉,這是我們在這個方面做的一款產(chǎn)品。另外一個產(chǎn)品是RealSafe2.0,可以抵御攻擊。
從這里可以看出來治理和發(fā)展的一個關(guān)系,一方面根據(jù)現(xiàn)階段人工智能的發(fā)展狀況,應該提出來一系列治理的政策、方針,但隨著技術(shù)的發(fā)展,治理的方式應該與時俱進,兩者結(jié)合起來。這是一個長期任務,因為我們不可能發(fā)展出來一個絕對安全的人工智能算法,整個是在發(fā)展過程中間,我們認為要跟治理兩者相輔相成,共同前進。
最后,我們希望跟大家一起分享我們的研究成果,全世界團結(jié)起來共同發(fā)展安全、可靠、可信、可拓展的第三代人工智能技術(shù),讓人工智能更加安全,謝謝大家!
(作者為中國科學院院士、清華大學人工智能研究院名譽院長,本文根據(jù)作者在首屆“清華大學人工智能合作與治理國際論壇”上的發(fā)言整理)