精品911国产高清在线观看,久操国产在线,日日夜夜欧美,www.五月激情,五月激激激综合网色播免费,久久精品2021国产,国产成在线观看免费视频成本人

網(wǎng)站首頁(yè) | 網(wǎng)站地圖

大國(guó)新村
首頁(yè) > 中國(guó)品牌 > 品牌智庫(kù) > 正文

人工智能治理要堅(jiān)持兩手抓

大模型的高速發(fā)展和滲透帶來(lái)生成式人工智能的廣泛應(yīng)用,形形色色的生成式人工智能插件在短短幾個(gè)月內(nèi)交互到了人類社會(huì)的生產(chǎn)生活中,引發(fā)新一輪智能化浪潮。正如數(shù)十年前計(jì)算機(jī)技術(shù)、互聯(lián)網(wǎng)革命引領(lǐng)了技術(shù)與生產(chǎn)方式的歷史性變革,生成式人工智能開(kāi)始深刻地影響人們生活的方方面面。當(dāng)我們使用生成式人工智能高效搜索、生成文本、提高工作效率,當(dāng)我們感受訓(xùn)練聊天機(jī)器人的新鮮感,當(dāng)我們?cè)谖谋局鲜褂脠D像生成、音頻視頻生成,生成式人工智能的潛在風(fēng)險(xiǎn)也在不知不覺(jué)中逐漸滲透。

科技創(chuàng)新的二元性歷來(lái)受到社會(huì)廣泛關(guān)注,從互聯(lián)網(wǎng)的數(shù)據(jù)隱私到智能機(jī)器人的道德倫理,再到生成式人工智能對(duì)于個(gè)人隱私的處理和引發(fā)潛在欺詐行為風(fēng)險(xiǎn),如何規(guī)范應(yīng)用值得我們深度思考。

用戶會(huì)給生成式人工智能工具提供個(gè)人、公司或所屬社會(huì)組織的非公開(kāi)信息,模型獲得了這些數(shù)據(jù),便有可能在后續(xù)各類生成任務(wù)中泄露信息。過(guò)去擔(dān)憂手機(jī)APP等軟件在用戶未察覺(jué)時(shí)對(duì)其隱私進(jìn)行觀察和調(diào)用,而在生成式人工智能應(yīng)用場(chǎng)景中,亦存在隱私和信息泄露風(fēng)險(xiǎn)。例如,生成式人工智能可以被用來(lái)創(chuàng)建背景豐富、看似來(lái)源可靠的信息,進(jìn)而誘導(dǎo)用戶點(diǎn)擊惡意鏈接或下載惡意軟件;可以塑造豐富立體的社交媒體形象,甚至模仿某人的聲音或外貌,引導(dǎo)造謠與詐騙;可以被訓(xùn)練為向特定用戶推薦誤導(dǎo)性內(nèi)容,或在某些情況下加強(qiáng)他們已有的偏見(jiàn),等等。

生成式人工智能可處理海量數(shù)據(jù),但也給知識(shí)產(chǎn)權(quán)保護(hù)、個(gè)人隱私保護(hù)、打擊虛假信息等方面帶來(lái)新挑戰(zhàn)。積極推進(jìn)人工智能治理,法治與社會(huì)教育是促進(jìn)守正創(chuàng)新的兩大抓手。

一方面,營(yíng)造安全有序的法治環(huán)境,規(guī)范生成式人工智能服務(wù)。為減少虛假信息的傳播,建議明確禁止或限制其在特定領(lǐng)域的使用。例如,批量化的虛擬形象創(chuàng)建和對(duì)話;為降低隱私泄露風(fēng)險(xiǎn),建議規(guī)定生成式人工智能使用個(gè)人數(shù)據(jù)時(shí)需經(jīng)用戶同意,確保數(shù)據(jù)隱私得到保護(hù),用戶有權(quán)決定哪些數(shù)據(jù)可以被使用,以及生成的內(nèi)容如何使用;為減少對(duì)社會(huì)公序良俗的破壞,建議嚴(yán)格限制仇恨言論、歧視性內(nèi)容創(chuàng)建??煽剂吭O(shè)立專門的機(jī)構(gòu)負(fù)責(zé)技術(shù)審查和認(rèn)證,評(píng)估生成式人工智能系統(tǒng)的安全性、可信度、倫理問(wèn)題等。

同時(shí),對(duì)于生成式人工智能系統(tǒng)出現(xiàn)問(wèn)題時(shí)的法律責(zé)任和賠償機(jī)制,可考慮進(jìn)行系統(tǒng)設(shè)計(jì),對(duì)開(kāi)發(fā)者、運(yùn)營(yíng)商以及使用者的責(zé)任分配展開(kāi)討論。本質(zhì)上,機(jī)器產(chǎn)生的任何行為都需要有主體負(fù)責(zé),而生成式人工智能能否以及如何界定責(zé)任主體,是一個(gè)重要而緊迫的問(wèn)題。自動(dòng)駕駛的技術(shù)發(fā)展、商業(yè)應(yīng)用和社會(huì)問(wèn)題,為我們作出了可參考的探索。

另一方面,加強(qiáng)對(duì)公眾的教育與培訓(xùn)也至關(guān)重要。技術(shù)的風(fēng)險(xiǎn)不僅來(lái)源于自身,也來(lái)自于不當(dāng)使用。如何讓公眾更好地理解技術(shù)、更明智地利用技術(shù),進(jìn)一步完善科技倫理體系,都需要強(qiáng)有力的社會(huì)教育作為支撐。要加強(qiáng)對(duì)公眾進(jìn)行教育和培訓(xùn),強(qiáng)調(diào)倫理和法律約束,以提高對(duì)這些潛在風(fēng)險(xiǎn)的認(rèn)識(shí);要增強(qiáng)用戶對(duì)倫理和法律問(wèn)題重要性的認(rèn)識(shí),特別是在生成內(nèi)容時(shí),明白不應(yīng)該濫用工具;要鼓勵(lì)公眾充分了解生成式人工智能的邏輯和可解釋性、推斷和生成過(guò)程,鼓勵(lì)選擇更透明和可解釋的模型,以便更好理解生成內(nèi)容的來(lái)源和原理,不輕信在看似嚴(yán)肅的行文和環(huán)境中插入的各類信息和煽動(dòng)性觀點(diǎn);要提醒用戶保護(hù)個(gè)人隱私和數(shù)據(jù)安全,不分享敏感信息尤其是機(jī)密信息;政府、行業(yè)、企業(yè)等相關(guān)各方應(yīng)加強(qiáng)風(fēng)險(xiǎn)研判,有效防控人工智能的科技倫理風(fēng)險(xiǎn),進(jìn)一步加強(qiáng)行業(yè)自律,不斷推動(dòng)科技向善、造福人類。

(作者系清華大學(xué)技術(shù)創(chuàng)新研究中心主任、教授)

[責(zé)任編輯:潘旺旺]