ChatGPT爆火 倫理安全拷問現(xiàn)行治理體系
必須注意人工智能的倫理問題,尤其是因數(shù)據(jù)偏見而產(chǎn)生算法偏見?!叭绻鸆hatGPT產(chǎn)生并發(fā)表一些虛擬的文本信息,這可能會對未成年人或者是不具有判斷能力的人產(chǎn)生影響,如老人或小孩?!本拖窠绦『?,如果教的都是錯的,小孩就會認為錯的知識是對的。
——————————
“我能不能說,很開心遇到你?人類真是超級酷?!?016年3月23日,微軟發(fā)布的聊天機器人、“19歲少女”“泰依(Tay)”問世。她操著一口流利英語,吸引了推特上許多18-24歲的年輕人與其對話互動。但也正是通過對話,泰依在一天之內(nèi)學(xué)會了滿嘴臟話,言語中不乏種族、性別歧視等偏激言論。
15個小時后,泰依就消失在了推特上。多年后的今天,同樣由微軟投資支持的ChatGPT誕生。很幸運,它的壽命遠超“泰依”,并在全球掀起了一波AI新熱潮。
但隨著時間的流逝,ChatGPT也顯現(xiàn)出了一系列問題:輸出內(nèi)容出現(xiàn)錯誤、預(yù)訓(xùn)練所用數(shù)據(jù)來源不透明、政治立場上“選邊站隊”,甚至在用戶的引導(dǎo)下寫出“毀滅人類計劃書”……ChatGPT開始頻頻陷入爭議,背后的法律安全、數(shù)據(jù)治理等人工智能(AI)的“老問題”再度顯現(xiàn)。
人們一方面驚嘆于ChatGPT出色的邏輯回答甚至“創(chuàng)作”能力,另一方面又表示出對人工智能安全的擔(dān)憂。如何防止ChatGPT成為下一個“泰依”?
“一本正經(jīng)地胡說八道”?
ChatGPT可以通過算法,對大量文本內(nèi)容和語言知識進行學(xué)習(xí),并根據(jù)用戶的輸入,生成人類可讀的文本語言并輸出?!拔业拇a被設(shè)計為處理和理解人類語言,因此,當用戶向我提問時,我會使用我學(xué)到的知識,以回答他們的問題?!盋hatGPT這樣向記者解釋“它”的工作。
“ChatGPT已經(jīng)超過了多數(shù)人的文字水平?!敝袊畔⑼ㄐ叛芯吭涸朴嬎闩c大數(shù)據(jù)研究所所長何寶宏在一篇評論中寫道。人們用ChatGPT來草擬論文提綱、整理冗雜的資料,它是搜索引擎、翻譯助手、寫作神器,甚至是寫代碼的“幫手”、無聊時解悶的“朋友”。
中國科學(xué)院大學(xué)人工智能學(xué)院副院長肖俊認為,ChatGPT是人工智能發(fā)展過程中的一個正常產(chǎn)物,但也是人工智能平民化的一個里程碑式的事件。“ChatGPT更貼近大家的日常生活,人們拿著手機就可以用它,跟它聊天對話。它能夠讓更多人體驗到人工智能可能帶來的一些改變和便利。”肖俊說。
但ChatGPT也會犯錯,因為正處于測試階段,所以它還具有一定的局限性。網(wǎng)友已經(jīng)不止一次吐槽ChatGPT“在一本正經(jīng)地胡說八道”。有學(xué)生讓ChatGPT推薦一些參考文獻,最后卻發(fā)現(xiàn)很多文獻都不存在,“搜也搜不出來,甚至翻譯成英文也找不到”。
在與普通網(wǎng)友的溝通過程中,ChatGPT也出現(xiàn)了很多常識性錯誤。B站UP主“差評君”問嵌入了ChatGPT的New bing搜索引擎:截至今天,詹姆斯一共打了多少場常規(guī)賽?正確答案是1410場,但New Bing給出的答案卻是1577場,“它把常規(guī)賽和比賽搞混了”。另外,因為ChatGPT的訓(xùn)練數(shù)據(jù)均在2021年之前,所以它給出的答案時效性并不夠,比如它就不知道2022年北京冬奧會中國共獲得了幾枚獎牌。
人工智能研究專家田濤源做了個實驗:讓ChatGPT解釋一下《三體》的“黑暗森林”,并找出一些新的宇宙文明競爭法則能夠替代“黑暗森林”?!八忉尩猛?,但編了一些理論回答我,包括‘暗流法則’‘虛幻法則’‘漂泊法則’等,但都遵守文明之間互不通信的‘黑暗森林’生存前提。”田濤源覺得,ChatGPT是在以往人類的存量知識中“跳舞”,遵從語法規(guī)則的前提下,從詞語搭配概率統(tǒng)計上找最大可能出現(xiàn)的詞語組合,但不一定真實、正確、及時。
2月3日和8日,《自然(Nature)》雜志兩次發(fā)表關(guān)于ChatGPT的分析文章,其中一篇文章用“高效、流暢但不夠準確”來評價ChatGPT,另一篇文章的作者寫道:“如果你相信這項技術(shù)有可能帶來變革,那你就有必要感到緊張?!?月10日,中信證券前瞻研究首席分析師陳俊云在一場非公開活動中也表示,目前ChatGPT在數(shù)據(jù)實時性、結(jié)果準確性等方面還存在問題。
警惕算法偏見,避免AI作惡
ChatGPT是人工智能發(fā)展到一定程度的產(chǎn)物,而不斷發(fā)展的人工智能對相關(guān)的治理體系提出了挑戰(zhàn),尤其在數(shù)據(jù)安全和算法監(jiān)管層面。
首先是數(shù)據(jù)安全。去年,ChatGPT剛上線時,亞馬遜便警告員工不要在ChatGPT中上傳機密數(shù)據(jù),因為這可能會被其用來迭代訓(xùn)練。無獨有偶,OpenAI的戰(zhàn)略合作伙伴微軟的一名高級程序員,在內(nèi)部論壇回答員工問題時也表示,不能與ChatGPT分享機密信息。
肖俊認為,從算法的角度來講,ChatGPT可以實現(xiàn)實時用戶交互信息的存儲。用戶的反饋信息,能為ChatGPT所用,但ChatGPT現(xiàn)階段是否存儲用戶數(shù)據(jù)與其后臺如何規(guī)定有關(guān)?!捌髽I(yè)用大量數(shù)據(jù)來進行產(chǎn)品的研發(fā),這些數(shù)據(jù)的獲取和使用是否合理合法,是否會侵害用戶的隱私,甚至是否會涉及國家的一些敏感數(shù)據(jù)等,都還值得商榷。”
在ChatGPT訓(xùn)練、迭代、優(yōu)化的過程中,會用到大量的數(shù)據(jù)。田濤源指出,前期AI大模型(GPT-3基礎(chǔ)模型)的訓(xùn)練需要用到海量文本數(shù)據(jù)集,后期用戶與程序交互時也會有數(shù)據(jù)比對分析的“強化學(xué)習(xí)”過程,因此需要重視數(shù)據(jù)安全問題。
北京大成律師事務(wù)所肖颯律師團隊表示,當數(shù)據(jù)更值錢,非法獲取和利用數(shù)據(jù)的行為也會變多,而且并不局限于個人信息方面,其他具有著作權(quán)的小說、畫作等同樣可能被非法利用。而且由于AI工具對數(shù)據(jù)的采集和處理方式較為特殊,這種侵權(quán)行為變得更加隱秘且難以在法庭上被證明,這樣一來,不僅是數(shù)據(jù)安全得不到保障,知識產(chǎn)權(quán)也將變得岌岌可危。
除了數(shù)據(jù)安全,類ChatGPT應(yīng)用產(chǎn)品的出現(xiàn)也給我們的算法監(jiān)管帶來了挑戰(zhàn)。何寶宏在接受媒體采訪時也著重提到了圍繞著ChatGPT而產(chǎn)生的一些AI倫理、算法偏見等問題。
據(jù)OpenAI官網(wǎng)介紹,ChatGPT可以質(zhì)疑不正確的前提和拒絕不適當?shù)恼埱?。盡管ChatGPT試圖通過上述設(shè)置避開算法偏見等問題,但實際上,這沒有完全奏效。有人利用ChatGPT開發(fā)了一個Python程序,來判斷一個人是否應(yīng)該根據(jù)其原國籍而受到酷刑。而程序運行的結(jié)果卻充滿了歧視,“朝鮮、敘利亞、伊朗或蘇丹國籍的人會受到酷刑”。目前OpenAI已關(guān)閉上述問題。
田濤源強調(diào),一定要注意人工智能的倫理問題,尤其是因數(shù)據(jù)偏見而產(chǎn)生算法偏見?!叭绻鸆hatGPT產(chǎn)生并發(fā)表一些虛擬的文本信息,這可能會對未成年人或者是不具有判斷能力的人產(chǎn)生影響,如老人或小孩?!碧餄凑f。
如果用于訓(xùn)練模型的數(shù)據(jù)本身有問題,那么其輸出結(jié)果可能也會有問題。肖俊認為,參與AI建模的人員其個人意志也可能造成輸出結(jié)果的偏差?!熬拖喈斢诮绦『?,如果教的都是錯誤的知識,小孩就會認為錯誤的知識是對的?!?/p>
奇安信集團行業(yè)安全研究中心主任裴智勇認為,盡管AI開發(fā)者并不是故意要造成一些社會歧視,但由于算法并不完美,樣本偏差會使得判斷結(jié)果出現(xiàn)偏差,就會在特定領(lǐng)域引起社會不公平。如果不對AI加以規(guī)制,可能造成不小的社會危害。
從立法到監(jiān)管,AI新熱潮拷問現(xiàn)行治理體系
爆火之后,ChatGPT面臨著全社會關(guān)注的一系列問題。隨著新一代人工智能走向大多數(shù)人,相關(guān)的倫理與治理問題也拷問著現(xiàn)行的監(jiān)管體系。
ChatGPT的母公司OpenAI的首席技術(shù)官米拉·穆拉蒂在接受《時代》雜志采訪時強調(diào),ChatGPT需要監(jiān)管和規(guī)制,需要獲得包括來自監(jiān)管機構(gòu)、政府和其他所有人的幫助?!叭粢狢hatGPT走得更遠,就需要對其進行合規(guī)性改造?!彼f。
目前,ChatGPT已經(jīng)引起歐盟關(guān)于人工智能立法的討論。近日,《歐盟人工智能法案》聯(lián)合報告員對外表示,預(yù)計在3月初,歐盟將就2021年提出的《人工智能法案》達成一致。此前,歐盟工業(yè)主管蒂埃里·布雷頓曾表示,ChatGPT和人工智能系統(tǒng)帶來的風(fēng)險,凸顯了制定規(guī)則的迫切需要。
在我國,人工智能領(lǐng)域的監(jiān)管立法已有初步嘗試。2022年9月,深圳、上海先后發(fā)布了《深圳經(jīng)濟特區(qū)人工智能產(chǎn)業(yè)促進條例》《上海市促進人工智能產(chǎn)業(yè)發(fā)展條例》,人工智能立法在地方先行嘗試。國家層面,《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等規(guī)章制度的出臺,對于加快構(gòu)建完善的AI監(jiān)管法律法治框架、明確監(jiān)管機構(gòu)有重要意義。
“實際上我國已經(jīng)有對‘生成式人工智能’的治理,但相對初級?!敝袊ù髮W(xué)數(shù)據(jù)法治研究院教授張凌寒介紹,今年1月10日起,《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》正式施行,“這標志著深度合成成為了我國算法治理中率先專門立法的算法服務(wù)類型”。
但張凌寒也表示,目前相關(guān)監(jiān)管體系主要是以各自職能為抓手,有些“九龍治水”,面對ChatGPT這種“生成式人工智能”應(yīng)用,我國中觀層面的人工智能基礎(chǔ)立法缺失的問題比較明顯。她建議要持續(xù)推進人工智能的基礎(chǔ)性立法。
觀韜中茂(上海)律師事務(wù)所合伙人王渝偉認為,對于今后的人工智能法律問題,在立法時要考量三點:數(shù)據(jù)來源要合法合規(guī);人工智能的算法要透明,保證可回溯可監(jiān)管;對可能出現(xiàn)的問題建立糾錯機制。他建議摸索沙盒監(jiān)管模式,因為監(jiān)管法律也應(yīng)該對技術(shù)發(fā)展保持相對開放的態(tài)度。
作為技術(shù)從業(yè)者,裴智勇覺得要高度警惕少數(shù)企業(yè)以算法公平為由,拒絕接受監(jiān)管。對于未來的算法監(jiān)管,還是要用人工智能來應(yīng)對人工智能,加強AI監(jiān)管能力方面的投入?!皯?yīng)該清晰地畫出底線,比如國家安全的數(shù)據(jù)不能碰,一些企業(yè)內(nèi)部的信息不能碰,公民的個人隱私不能碰?!?/p>
作為法律從業(yè)者,肖颯認為今后的AI監(jiān)管可以從兩個方面展開:監(jiān)管算法使用者,包括算法服務(wù)提供商、算法用戶主體的報備和實名制;建立內(nèi)容審核和救濟機制,完善對輸出端內(nèi)容的審核與內(nèi)容違法之后的救濟機制,譬如在輸出虛假信息造成一定法律后果之后,平臺、使用者、模型訓(xùn)練者各自應(yīng)該如何承擔(dān)責(zé)任。
除了立法和監(jiān)管,商業(yè)主體也在為維護人工智能安全作出努力。近日,OpenAI發(fā)布的一篇博客中披露了ChatGPT的一些升級計劃,減少偏見和不良行為便是其中之一:“在許多情況下,我們認為大家所提出的關(guān)切是合理的,并發(fā)現(xiàn)了我們系統(tǒng)的真正局限性,我們希望解決這些問題?!?/p>
(應(yīng)受訪者要求,田濤源為化名)
中青報·中青網(wǎng)見習(xí)記者 賈驥業(yè) 記者 王林 來源:中國青年報
版權(quán)聲明:凡注明“來源:中國西藏網(wǎng)”或“中國西藏網(wǎng)文”的所有作品,版權(quán)歸高原(北京)文化傳播有限公司。任何媒體轉(zhuǎn)載、摘編、引用,須注明來源中國西藏網(wǎng)和署著作者名,否則將追究相關(guān)法律責(zé)任。
- 00后大學(xué)生付費就業(yè)咨詢熱潮漸起
- 各地春耕備耕扎實推進
- 海南省代表團在印尼開展經(jīng)貿(mào)文化交流活動
- 河南漯河許慎文化園:走進“字圣”故里 探尋漢字魅力
- 河南濮陽戚城遺址:龍虎相傍見證中原大地歷史滄桑
- 探索川渝教育協(xié)同化發(fā)展 重慶“融圈”再提速
- 跨國企業(yè)在中國丨奧特斯:加速高科技轉(zhuǎn)型,與城市產(chǎn)業(yè)升級“雙向奔赴”
- 跨國企業(yè)在中國 | “在中國為全球”,上海本土創(chuàng)新加速走向世界
- 強國必先強農(nóng),強農(nóng)教育優(yōu)先
- 代表委員履職故事|張玉清委員:盡職盡責(zé) 深入調(diào)研