給“算法應用”立規(guī)矩 保護個人信息護航數(shù)字經(jīng)濟發(fā)展
保護個人信息,護航數(shù)字經(jīng)濟發(fā)展
給“算法應用”立規(guī)矩
使用某個應用程序后,它就能“猜”到你喜歡什么,并且精準推送相關(guān)內(nèi)容,滋生“信息繭房”、大數(shù)據(jù)“殺熟”等問題。這樣的情況最近終于開始有了改變。隨著國家網(wǎng)信辦等4部門聯(lián)合發(fā)布的《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》近日正式施行,很多APP先后上線算法關(guān)閉鍵,允許用戶在后臺一鍵關(guān)閉“個性化推薦”。專家表示,要繼續(xù)壓實平臺責任,促進算法應用向上向善,讓算法更好地為用戶服務,推動信息服務行業(yè)長遠、健康發(fā)展。
可一鍵關(guān)閉“個性化推薦”
通過參考互聯(lián)網(wǎng)上的“攻略”,北京的王女士最近終于將一款社交應用中的“個性化推薦”服務選項關(guān)閉,“再打開這個APP,感覺安心不少”。
王女士之所以下決心關(guān)掉“個性化推薦”服務,源于此前遇到的一些糟心經(jīng)歷。她在這款應用里曾發(fā)表過皮膚干燥的言論,此后便在各個平臺不斷收到面部“保鮮”秘笈的文章、美容產(chǎn)品的推銷廣告,讓王女士不堪其擾。
在移動互聯(lián)網(wǎng)時代,每一個人都在生產(chǎn)“數(shù)據(jù)”。此前,這些“數(shù)據(jù)”被平臺以各種方式采集,然后通過算法分析出用戶行為、習慣和喜好,進而精準地提供信息、娛樂、消費等各類服務。這種基于算法的技術(shù)創(chuàng)新在為用戶提供精準信息服務的同時,也滋生出不少問題。
《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》(以下簡稱《管理規(guī)定》)近日正式施行,將算法推薦服務全面納入監(jiān)管?!豆芾硪?guī)定》提出,算法推薦服務提供者應當向用戶提供不針對其個人特征的選項,或者向用戶提供便捷的關(guān)閉算法推薦服務的選項。
《管理規(guī)定》出臺后,多家平臺先后上線算法關(guān)閉鍵,允許用戶在后臺一鍵關(guān)閉“個性化推薦”。用戶關(guān)閉“個性化推薦”后,平臺會根據(jù)內(nèi)容的熱門程度進行分發(fā),推送內(nèi)容更加體現(xiàn)應用特色。很多網(wǎng)友表示,以前總是被“安排”看一些內(nèi)容,關(guān)閉“個性化推薦”后,感覺看到了更廣闊的世界。
記者在體驗后發(fā)現(xiàn),目前多數(shù)APP還是默認打開“個性化推薦”,要找到“個性化推薦”關(guān)閉鍵并不太容易。以一款電商應用為例,需先后點擊進入數(shù)個頁面,然后在呈現(xiàn)的10多個選項里找到“個性化推薦”的關(guān)閉按鈕。有用戶認為,這樣的設置方式難言“便捷”,其目的是讓用戶“知難而退”。
關(guān)閉個性化推薦,是否意味著算法推薦技術(shù)走到盡頭?中國人民大學信息學院教授程絮森分析,隨著新規(guī)實施,如何使個性化推薦更加規(guī)范,是很大的挑戰(zhàn),但也相應促進了各互聯(lián)網(wǎng)平臺的技術(shù)發(fā)展進步,有利于加速推進相關(guān)行業(yè)的數(shù)字化轉(zhuǎn)型與平臺經(jīng)濟的健康發(fā)展。
合力推動產(chǎn)品向善
同樣的訂單,熟客比新客多付錢,被用戶質(zhì)疑平臺利用算法模型進行大數(shù)據(jù)“殺熟”。《管理規(guī)定》提出,算法推薦服務提供者向消費者銷售商品或者提供服務的,應當保護消費者公平交易的權(quán)利,不得根據(jù)消費者的偏好、交易習慣等特征,利用算法在交易價格等交易條件上實施不合理的差別待遇等違法行為。
中國信息安全研究院副院長左曉棟認為,大數(shù)據(jù)“殺熟”等頑疾歸根結(jié)底是濫用用戶個人信息導致的。解決這類問題首先要在治理違法違規(guī)收集用戶個人信息上下功夫,其次要保障用戶的選擇權(quán)、刪除權(quán)等權(quán)益。
“刷短視頻、玩游戲的時候,沒感覺時間過得很快,但每次放下手機,發(fā)現(xiàn)已經(jīng)幾個小時過去了?!痹谏虾R患移髽I(yè)工作的陳先生感慨,每次拿起手機娛樂時,感覺像中毒一樣停不下來。另有不少網(wǎng)友抱怨,當自己反復瀏覽某件商品時,平臺就會顯示一連串促銷優(yōu)惠信息,很多人因此盲目下單。
《管理規(guī)定》提出,算法推薦服務提供者應當定期審核、評估、驗證算法機制機理、模型、數(shù)據(jù)和應用結(jié)果等,不得設置誘導用戶沉迷、過度消費等違反法律法規(guī)或者違背倫理道德的算法模型。
北京大學中國社會與發(fā)展研究中心主任邱澤奇對記者說,社會學把人們偏好的內(nèi)容區(qū)分為兩個理想類型,一類是理性的,類似于對人對事物的觀點,這種對“自我”的偏好是人類認知偏好的一部分,容易形成“信息繭房”效應或“回音壁”效應;另一類是感性的,類似于對人對事物的情感,人們在情感上容易受到他人的感染,易產(chǎn)生“情緒傳染”效應。
邱澤奇認為,在數(shù)字時代,諸多產(chǎn)品都是動態(tài)產(chǎn)品,需要根據(jù)交互數(shù)據(jù)對產(chǎn)品不斷進行優(yōu)化迭代,通過產(chǎn)品升級、算法升級以滿足用戶需求?;谌祟愓J知偏好的復雜性,企業(yè)除了承擔產(chǎn)品責任,還要承擔起相應社會責任,把用戶納入產(chǎn)品的開發(fā)、生產(chǎn)與服務中,通過政府、企業(yè)和用戶共同參與、建立相應規(guī)則,不斷推動產(chǎn)品向善、科技向善。
實現(xiàn)負責任的創(chuàng)新
近年來,一些企業(yè)利用算法注冊虛假賬號、雇傭網(wǎng)絡“水軍”,鼓動“飯圈”粉絲互撕謾罵、刷量控評;操縱干預熱搜、榜單或檢索結(jié)果排序;向未成年人推送不良內(nèi)容……針對這些問題,《管理規(guī)定》提出“建立健全算法機制機理審核、科技倫理審查、用戶注冊、信息發(fā)布審核等管理制度”“提供算法推薦服務,應當遵守法律法規(guī),尊重社會公德和倫理,遵守商業(yè)道德和職業(yè)道德”等措施。
從更深層意義看,因算法技術(shù)創(chuàng)新而衍生的一系列問題涉及科技倫理。中共中央辦公廳、國務院辦公廳近日印發(fā)的《關(guān)于加強科技倫理治理的意見》提出,加強源頭治理,注重預防,將科技倫理要求貫穿科學研究、技術(shù)開發(fā)等科技活動全過程,促進科技活動與科技倫理協(xié)調(diào)發(fā)展、良性互動,實現(xiàn)負責任的創(chuàng)新。
中國社科院信息化研究中心主任姜奇平表示,從技術(shù)創(chuàng)新層面看,應推動算法技術(shù)回到正常軌道,比如單純基于人們的偏好推薦閱讀內(nèi)容,錯誤之處在于對人的理解不足,把人理解成機器,沒有考慮到人還具有自由意志。從價值倫理層面看,哲學上的善和倫理的本質(zhì)都源于自由意志,因此應該在技術(shù)創(chuàng)新過程中把人之為人的一面、人和人的關(guān)系擺進技術(shù)里考慮。
專家認為,數(shù)字時代的算法技術(shù)創(chuàng)新應是一種負責任的創(chuàng)新,要進一步壓實平臺責任,確保科技活動符合科技倫理。只有堅持把消費者對信息服務的評判權(quán)置于采集權(quán)之上,才能更好把握個性化信息服務業(yè)態(tài)的發(fā)展方向,促進數(shù)字經(jīng)濟高質(zhì)量發(fā)展。(記者彭訓文)
版權(quán)聲明:凡注明“來源:中國西藏網(wǎng)”或“中國西藏網(wǎng)文”的所有作品,版權(quán)歸高原(北京)文化傳播有限公司。任何媒體轉(zhuǎn)載、摘編、引用,須注明來源中國西藏網(wǎng)和署著作者名,否則將追究相關(guān)法律責任。