“人機(jī)對齊”:人類文明又到“生死時刻”?
■唐山
多倫多大學(xué)經(jīng)濟(jì)學(xué)家甘斯希望女兒能照顧小弟弟上廁所,他想出一個“好辦法”:每幫小弟弟上一次廁所,女兒可得一塊糖果。女兒很快找到竅門:不斷給小弟弟喂水,讓他多上廁所,以得到更多糖果……
甘斯遭遇了典型的“對齊問題”:行動與目標(biāo)不統(tǒng)一,“需要A卻獎勵了B”。
在人類史上,“對齊問題”一次次帶來困擾,隨著人工智能(以下簡寫為AI)出現(xiàn),“人機(jī)對齊”成了難題——AI可打敗世界上最好的棋手,我們卻不知它是如何做到的。隨著人類越來越依賴AI,風(fēng)險真地可控嗎?我們會不會落入科幻短片《戰(zhàn)爭的最后一天》里的悲慘境地(人類滅絕,AI仍在自動作戰(zhàn))?
《人機(jī)對齊》是一本不太好讀的書,全書分三篇,即“預(yù)警”“自主”與“示范”,彼此關(guān)聯(lián)不大,甚至同篇各章間的邏輯關(guān)系亦不明顯?;蛞虮緯既げ辉谟谡f明“AI已發(fā)展到什么地步”,而在于由此引發(fā)的思考。
從這個意義看,《人機(jī)對齊》不只是科普書,更是通識書,人人都有閱讀它的必要,它應(yīng)成為現(xiàn)代常識的組成部分——不了解這些常識,你會被現(xiàn)代社會“開除”。
不是技術(shù)問題,而是社會問題
玩家知道,所有電子游戲都有“暗關(guān)”。比如玩《魂斗羅》,可反復(fù)打較低級的關(guān),刷分換武器,則過難關(guān)會更容易;再如老版《FIFA》,下底傳中必進(jìn),借此大招,操縱中國隊也能拿世界杯……許多“暗關(guān)”來自設(shè)計失誤,不論程序員們怎樣小心,也無法完全避免類似失誤。
隨著AI發(fā)展,失誤變得越來越不可容忍。
2015年,來自海地的網(wǎng)絡(luò)開發(fā)者阿爾西內(nèi)利用谷歌照片軟件,在網(wǎng)上分享了自己和親友的照片,讓阿爾西內(nèi)震驚的是,他們的照片竟被歸類為“大猩猩”。谷歌的技術(shù)團(tuán)隊迅速響應(yīng),可幾個小時后,問題依舊,谷歌只好關(guān)閉了“大猩猩”這個標(biāo)簽。直到三年后,用谷歌搜大猩猩,仍看不到任何一張照片。
軟件是怎么“學(xué)會”種族主義的?實際上,技術(shù)錯誤從來不只是技術(shù)本身的問題。19世紀(jì)照相最多的美國人不是林肯、格蘭特,而是弗雷德里克·道格拉斯,一位廢奴主義者,他發(fā)現(xiàn),照片上的黑人特別難看,因膠片均依白人模特校準(zhǔn),形成化學(xué)配方,拍出的黑人則千人一面。
解決該問題似乎不難,多找黑人模特即可。同理,增加黑人照片,谷歌軟件的識別率會更準(zhǔn)確。
然而,結(jié)果適得其反:IBM用AI開發(fā)了招聘軟件,輸入100份簡歷,選出5份最好的——幾乎都是男性。程序員關(guān)閉了性別選項,卻無法改變結(jié)果。因為AI會通過關(guān)聯(lián)信息,自動將女性排除。比如,它會把“上一年沒有工作”的簡歷標(biāo)注為不合格,于是所有剛生育的女性均遭拒。類似的標(biāo)簽無所不在,改不勝改。程序員們最后發(fā)現(xiàn),他們面對的不是技術(shù)問題,而是社會問題——人類社會處處都有性別標(biāo)簽,通過這些標(biāo)簽,女性總會被辨認(rèn)出來,被視為缺乏競爭力者。單靠技術(shù),已無法解決。
無法突破的“不可能性原理”
上世紀(jì)80年代,美國司法開始用AI判斷囚犯可否假釋,2000年時,已有26個州如此進(jìn)行。研究者發(fā)現(xiàn)了其中漏洞:黑人初犯者被評為高風(fēng)險,但他們不再犯罪的可能性是白人的兩倍,白人初犯者反而被評為低風(fēng)險。
這一發(fā)現(xiàn)引發(fā)輿情激蕩,人們紛紛要求去掉該系統(tǒng)的種族標(biāo)簽,結(jié)果卻發(fā)現(xiàn),落入IBM招聘系統(tǒng)一樣的困境——假釋系統(tǒng)會通過其他標(biāo)簽,重新進(jìn)行種族篩選,但如把相關(guān)標(biāo)簽全撤掉,AI又會失去判斷能力。
研究者們發(fā)現(xiàn),一切判斷都存在著“不可能性原理”,這在數(shù)學(xué)上得到了證明:沒有標(biāo)簽,就不可能做判斷;有標(biāo)簽,又必然有偏見,“原則上,任何風(fēng)險評分天生都會被批評為有偏見”。
AI開發(fā)無法繞過兩大難題:
首先,道德無法客觀化。道德選擇沒有固定標(biāo)準(zhǔn),會隨情境的改變而變,人類常常無法回答“什么是真正重要的”,AI更做不到。
其次,精準(zhǔn)預(yù)測無法減少風(fēng)險。人類喜歡更精準(zhǔn)的預(yù)測,從而掉進(jìn)“預(yù)測陷阱”,事實上,造成結(jié)果的原因是多元的,預(yù)測再精準(zhǔn),也無法影響結(jié)果。美國芝加哥市曾列“危險擁槍者”名單,據(jù)說他們比其他人死于兇殺案的比例高232倍,即使如此,他們被槍殺的概率也僅有0.7%,如何從1000人中找到這7個人呢?折騰1000人,真能挽救這7個人?在《反對預(yù)測》中,作者哈科特寫道:男司機(jī)易出事故,可是嚴(yán)查男司機(jī),會鼓勵女司機(jī)變得更魯莽,車禍率并未下降。
不給答案,因為根本給不出答案
AI模仿了人腦的工作方式,通過大量案例訓(xùn)練,總結(jié)出“經(jīng)驗”,獲得判斷力??蛇@些“經(jīng)驗”正確嗎?比如一款A(yù)I診病軟件,研究者驚訝地發(fā)現(xiàn),它得出的“經(jīng)驗”是:肺病患者如有哮喘病,屬低風(fēng)險。胸痛有好處。
心臟病有好處。
超過100歲有好處。
這些逆天的“經(jīng)驗”,可能來自相關(guān)患者屬高風(fēng)險,會被特殊照顧,但AI不知全過程,只知他們經(jīng)特殊照顧后,痊愈率較高,便認(rèn)定“有好處”。
AI的大多數(shù)“錯誤經(jīng)驗”之所以不可知,是因為它模仿了人類的神經(jīng)系統(tǒng),作為人類,我們自己也不知自己有多少“錯誤經(jīng)驗”,以及它們形成的原理。通過可視化技術(shù),研究者們發(fā)現(xiàn),AI的底層充滿荒謬。
比如判斷“什么是啞鈴”,AI會把手臂、肉色的、超現(xiàn)實的圖案都算成啞鈴,試錯后,這些“經(jīng)驗”被否定,但并沒消失,而是滯留在底層。人類會情緒失控,我們能模糊地感到,這與底層“經(jīng)驗”相關(guān),那么“把啞鈴誤認(rèn)作手臂”會不會帶來長期影響?
AI正深入生活的方方面面,自動駕駛、醫(yī)療、城市管理、戰(zhàn)爭……誰能保證AI的底層經(jīng)驗不犯錯?人類從沒真正掌控好自我,引發(fā)一次次災(zāi)難,我們真能掌控好AI嗎?
本書第二篇、第三篇將焦點轉(zhuǎn)向AI發(fā)展史,描述了研究者們的突破歷程,包括從單任務(wù)轉(zhuǎn)向多任務(wù),用單一AI在不同游戲中取勝;從外部激勵轉(zhuǎn)向AI自我激勵;通過模仿、逆強(qiáng)化學(xué)習(xí)等,使AI更強(qiáng)大……
然而,更強(qiáng)大的AI不等于“人機(jī)對齊”,AI實際上在“強(qiáng)制執(zhí)行自己有局限的理解”,它的目的未必是人類的目的。
當(dāng)然,在牛津大學(xué)教授博斯特羅姆等激進(jìn)進(jìn)化主義者看來,這些都不是問題。他計算出,未來星際文明非常強(qiáng)大,今天耽誤的每一秒,都相當(dāng)于失去將來的100萬億人的生命,每向未來世界前進(jìn)1%,都等于技術(shù)加速1000萬年。因此即使AI有風(fēng)險,也應(yīng)全力推動。
研究者施萊格里斯則說:“如果有一個神奇的按鈕,可以把人類變成一樣的為幸福而優(yōu)化的笨蛋,他們會按下它……幾年前,我也鼓吹這樣做?!钡F(xiàn)在,他的看法改變了:“我認(rèn)為不應(yīng)該按那個按鈕。”
對此,《人機(jī)對齊》沒給出答案,因為根本給不出答案。
我們乃至歷史,也許都是“AI”
雖然本書用大量篇幅在講述AI發(fā)展的細(xì)節(jié),但我更喜歡的,還是書中的“跑題”部分——為強(qiáng)化AI,研究者深入研究了人類自身智能的產(chǎn)生過程,得出的見解振聾發(fā)聵:我們每個人可能都是世界訓(xùn)練出來的“AI”。
人類擁有智能,源頭是趨利避害的本能,在多巴胺的簡單獎勵下,塑造出復(fù)雜行為——并不是做對了,多巴胺才獎勵快感,而是做新奇的事時,多巴胺才會給獎勵。
所以,人類喜歡刺激、冒險和挑戰(zhàn)。不斷嘗試,就有了更多試錯機(jī)會,通過試錯,人類智能得以成長。人類生活的世界就是“有效的課程”,它像一個大型游戲。這就可以理解,為什么電子游戲讓人難以自拔,因為它比現(xiàn)實世界的獎勵更直接。
在現(xiàn)實世界中,人在進(jìn)化,決定成敗的核心因素,是“獎勵的稀疏性”。比如為了讓人類學(xué)會飛,讓人從懸崖往下跳,不會飛便摔死——這并非聰明的辦法。在會飛與不會飛之間,有無數(shù)環(huán)節(jié),如在每個環(huán)節(jié)都設(shè)置獎勵,人類最終就能學(xué)會飛;如獎勵太稀疏,從不會飛直接跨越到飛,必然失敗。正如眼睛,是經(jīng)四五十次進(jìn)化才完成的。在書中,一位學(xué)者開玩笑說,要么讓自己的孩子學(xué)會中文,要么就不給飯吃,孩子的母親明智地拒絕了這個建議。
作者本想說明研究者通過改變稀疏性,提高AI能力,卻給讀者一個全新的看世界的視角:人類文明的本質(zhì)就是一個獎勵結(jié)構(gòu)的故事。沿著這一思路,我們會推演出一個完全不同于以往“思想——行動——改變”的歷史解釋的結(jié)論,推動進(jìn)步的力量是多元的,不論個體,還是群體,都沿著稀疏性向密集的方向發(fā)展,決定歷史的關(guān)鍵因是稀疏性,而非想法、技術(shù)、制度或人物。
由此帶來新的認(rèn)知危機(jī):如果人是受造物,那么自由是什么?
在書中,著名思想史學(xué)者斯金納指出,在稀疏性面前,人與老鼠相同。當(dāng)記者問他:“自由意志還有位置嗎?”斯金納回答:“它還有虛構(gòu)的位置?!蹦呐轮粸榕c這句話相遇,《人機(jī)對齊》就值得一讀。
版權(quán)聲明:凡注明“來源:中國西藏網(wǎng)”或“中國西藏網(wǎng)文”的所有作品,版權(quán)歸高原(北京)文化傳播有限公司。任何媒體轉(zhuǎn)載、摘編、引用,須注明來源中國西藏網(wǎng)和署著作者名,否則將追究相關(guān)法律責(zé)任。