精品911国产高清在线观看,久操国产在线,日日夜夜欧美,www.五月激情,五月激激激综合网色播免费,久久精品2021国产,国产成在线观看免费视频成本人

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 原創(chuàng)精品 > 成果首發(fā) > 正文

“強(qiáng)人工智能”將如何改變世界(3)

——人工智能的技術(shù)飛躍與應(yīng)用倫理前瞻

結(jié)語:“強(qiáng)人工智能”與人類繁殖倫理前瞻

如上所述,沒進(jìn)入量子力學(xué)之前,所有的人造機(jī)器,包括AlphaGo,必然只是在某些方面具備高于人類的能力。這本來就是人造機(jī)器的目的,即人為了自身的內(nèi)在價值實(shí)現(xiàn)同時不斷改進(jìn)人類的生存處境而作出的努力。在現(xiàn)有條件下,人造機(jī)器不會失控,如果有所謂“失控”的話,這與我們對飛機(jī)、高鐵、大壩、核能之類的失控基本上屬于同類性質(zhì)。

AlphaGo的確有隱喻意義上的“學(xué)習(xí)”能力,自行調(diào)整累積迭代的能力,但說到底仍是一種工具能力,是“弱人工智能”。這種“弱人工智能”很可能通過圖靈測試,但這與人的意向性(intentionality)及主體感受內(nèi)容(qualia)不相干。

當(dāng)然,基于人類理性和道德能力的限度,我們有理由相信,即便是弱人工智能,在其應(yīng)用中也應(yīng)當(dāng)秉持審慎的人文理性態(tài)度。

不少比較理性的研究者提出,由于人工智能的發(fā)展呈“加速回報(bào)”的態(tài)勢,人類既有的道德資源和倫理框架或許難以覆蓋技術(shù)飛躍變革提出的新議題。他們提出應(yīng)當(dāng)發(fā)展一種叫做機(jī)器倫理(Machine ethics)的道德態(tài)度,加利福尼亞大學(xué)伯克利分校計(jì)算機(jī)學(xué)教授拉塞爾(StuartRussell)在美國時代雜志發(fā)表觀點(diǎn)認(rèn)為,避免機(jī)器的不當(dāng)使用威脅人類的生存,就應(yīng)該考慮如何把人類價值變成可編程的代碼,把人類的道德轉(zhuǎn)化為人工智能語言。他認(rèn)為,在機(jī)器人領(lǐng)域,“道德哲學(xué)將是一個非常重要的產(chǎn)業(yè)部門”。

歸根結(jié)底,這些訴求跟當(dāng)前的一系列技術(shù)推進(jìn)所遭遇的倫理困境并無實(shí)質(zhì)上的差異,就像我們已經(jīng)提出的在虛擬現(xiàn)實(shí)、擴(kuò)展現(xiàn)實(shí)領(lǐng)域應(yīng)當(dāng)引起重視的“大憲章”問題一樣,指向的都是如何避免少數(shù)人掌控技術(shù)以更便捷更隱蔽的手段損害人的自由與尊嚴(yán)的問題。其中需要的關(guān)鍵要素有兩點(diǎn):第一,如何更準(zhǔn)確更敏銳地分析科技推進(jìn)中的結(jié)構(gòu)性變革,以技術(shù)手段防范技術(shù)黑箱操作,這需要技術(shù)的發(fā)展始終在一個社會開放空間中進(jìn)行,使技術(shù)不被少數(shù)人的權(quán)力和資本所壟斷;第二,如何在技術(shù)推進(jìn)中注入人文理性,這需要哲學(xué)家、藝術(shù)家以及社會科學(xué)各界在技術(shù)變革中積極參與,及時發(fā)現(xiàn)技術(shù)當(dāng)中隱含的道德議題、社會議題,向科學(xué)界、技術(shù)界和企業(yè)界發(fā)出他們觀察慎思后的最強(qiáng)音,以起到建立一個人文倫理防火墻的作用。

此外,我們需要著重提出的是,弱人工智能和強(qiáng)人工智能之間,鑒于其生發(fā)機(jī)理性質(zhì)的全然不同,在應(yīng)對的倫理規(guī)則方面,也必然需要在認(rèn)清本有的界限的基礎(chǔ)上分別制定。

如果讓我們對“強(qiáng)人工智能”的可能實(shí)現(xiàn)做一點(diǎn)倫理前瞻的話,那么,基于上述分析,“強(qiáng)人工智能”實(shí)現(xiàn)以后的這種造物就不能被當(dāng)做純粹的工具了。這時,它們已經(jīng)具有自主意識,具有與人類對等的人格結(jié)構(gòu),今日人類成員所擁有的權(quán)利地位、道德地位、社會尊嚴(yán)等等,他們就應(yīng)該平等地?fù)碛小?/p>

與我們平起平坐的具有獨(dú)立人格的“機(jī)器人”,還是機(jī)器嗎?不是了,這才是真正的“奇點(diǎn)”和“智能大爆發(fā)”。但是,有人會認(rèn)為,最為關(guān)鍵的問題是,這樣的“強(qiáng)人工智能”主體,不就可以與人類對抗,毀滅人類了嗎?

要理解這種擔(dān)憂的實(shí)質(zhì),就需要我們以價值理性和科學(xué)理性出發(fā)進(jìn)行自我反思。所謂的人類毀滅恐懼與人類身份認(rèn)同焦慮,實(shí)際上是把基于個體經(jīng)驗(yàn)形成的一己情懷,等價于有效的價值判斷了。我們主動設(shè)計(jì)、制造了某種新型主體的存在,但并不對他們的個體特質(zhì)進(jìn)行設(shè)計(jì),不就等于以新的途徑繁殖了我們的后代嗎?我們千萬不要以一時的人文情懷來遮掩甚至拒斥可普遍化的人文理性,將人類引入迷途。

因此,如果真有強(qiáng)人工智能實(shí)現(xiàn)的一天,最合理的態(tài)度就是:承認(rèn)他們是我們自己進(jìn)化了的后代,人類進(jìn)入了一種改變了繁殖方式的發(fā)展新階段。后代取代前輩繼續(xù)生存,實(shí)現(xiàn)更好的發(fā)展,這不是人類的災(zāi)難,而是人類的進(jìn)化飛躍到了一個新階段。退一萬步講,假如“后人類”真的聯(lián)合起來向“前人類”造反并將前輩“征服”,那也不過就像以往發(fā)生過的征服一樣,一批人征服了另一批人或新人征服了舊人,而不是人類的末日。

至于以量子計(jì)算為基礎(chǔ)的人工智能到底會給我們的生活帶來何種沖擊,恐怕我們的想象力暫時還是鞭長莫及。

注釋

【1】http://www.thinkwithgoogle.co.uk/quarterly/innovation/transgressive-man.html.

【2】Crevier, Daniel, AI: The Tumultuous Search for Artificial Intelligence, NewYork, NY: BasicBooks, 1993, p.115. Moravec explains, "Their initialpromises to DARPA had been much too optimistic. Of course, what they deliveredstopped considerably short of that. But they felt they couldn't in their nextproposal promise less than in the first one, so they promised more."

【3】https://www.newscientist.com/blogs/onepercent/2012/06/bot-with-boyish-personality-wi.html?DCMP=OTC-rss&nsref=online-news.

【4】TheSingularity Is Near: When Humans Transcend Biology是Raymond Kurzweil于2005年出版的關(guān)于未來學(xué)的書籍。中文譯著已由機(jī)械工業(yè)出版社于2011年10月1日出版發(fā)行,譯著書名為“奇點(diǎn)臨近”。

【5】[英]尼克·波斯特洛姆:《超級智能:路線圖、危險(xiǎn)性與應(yīng)對策略》,北京:中信出版股份有限公司,2015年,Kindle位置:328/5236。

【6】http://sports.sina.com.cn/go/2016-01-30/doc-ifxnzanh0397466.shtml.

【7】Wired,"Google's Go Victory Is Just a Glimpse of How Powerful AI Will Be, "http://www.wired.com/2016/01/googles-go-victory-is-just-a-glimpse-of-how-powerful-ai-will-be/,2016.1.29.

【8】[英]尼克·波斯特洛姆:《超級智能:路線圖、危險(xiǎn)性與應(yīng)對策略》,Kindle位置:518/5236。

【9】[英]尼克·波斯特洛姆:《超級智能:路線圖、危險(xiǎn)性與應(yīng)對策略》,Kindle位置:1199/5236。

【10】One can imaginesuch technology outsmarting financial markets, out-inventing human researchers,out-manipulating human leaders, and developing weapons we cannot evenunderstand. Whereas the short-term impact of AI depends on who controls it, thelong-term impact depends on whether it can be controlled at all.見http://www.huffingtonpost.com/stephen-hawking/artificial-intelligence_b_5174265.html.

【11】http://www.huffingtonpost.com/daniel-faggella/artificial-intelligence-r_b_9344088.html.

【12】[英]尼克·波斯特洛姆:《超級智能:路線圖、危險(xiǎn)性與應(yīng)對策略》,Kindle位置:2416/5236。

【13】Frankenstein or The Modern Prometheus,又譯作《弗蘭肯斯坦》,后世有部分學(xué)者認(rèn)為這部小說可視為科幻小說或恐怖小說的始祖。

【14】見翟振明:《虛擬現(xiàn)實(shí)比人工智能更具顛覆性》,《高科技與產(chǎn)業(yè)化》,2015年11月。

【15】[英]尼克·波斯特洛姆:《超級智能:路線圖、危險(xiǎn)性與應(yīng)對策略》,kindle版位置:685/5236。

【16】[英]尼克·波斯特洛姆:《超級智能:路線圖、危險(xiǎn)性與應(yīng)對策略》,kindle版位置:867/5236。

【17】翟振明:《有無之間——虛擬實(shí)在的哲學(xué)探險(xiǎn)》,北京大學(xué)出版社,2007年。(Zhai, Philip, Get real: A philosophical adventure invirtual reality,Rowman& Littlefield, 1998.)

【18】【19】詳見翟振明、李豐:《心智哲學(xué)中的整一性投射謬誤與物理主義困境》,《哲學(xué)研究》,2015年06期。

【20】見于:Dick J. Bierman and Stephen Whitmarsh, "Consciousness andQuantum Physics: Empirical Research on the Subjective Reduction of the StateVector," in Jack A. Tuszynski (Ed), The Emerging Physics ofConsciousness, 2006, pp. 27-48.C. M. H. Nunn et. al.,"Collapse of aQuantum Field May Affect Brain Function," Journal ofConsciousness Studies, 1994, 1(1), pp.127-139.

【21】Anderson, Michael,and Susan Leigh Anderson, "Machine ethics: Creating an ethical intelligentagent," AI Magazine 28.4 , 2007, p.15.

【22】Stuart Russell,"Moral Philosophy Will Become Part of the Tech Industry,"http://time.com/4026723/stuart-russell-will-ai-overtake-humans/.

【23】哲學(xué)家丹尼爾·丹尼特在其著作《意識的解釋》(Consciousness Explained)里錯誤地認(rèn)為,人也不過是一臺有靈魂的機(jī)器而已,為什么我們認(rèn)為:“人可以有智能,而普通機(jī)器就不能”呢?有的哲學(xué)家認(rèn)為如果弱人工智能是可實(shí)現(xiàn)的,那么強(qiáng)人工智能也是可實(shí)現(xiàn)的。比如西蒙·布萊克本(SimonBlackburn)在其哲學(xué)入門教材Think里說道,一個人的看起來是“智能”的行動并不能真正說明這個人就真的是智能的。我永遠(yuǎn)不可能知道另一個人是否真的像我一樣是智能的,還是說她/他僅僅是看起來是智能的。布萊克本認(rèn)為這個“他心問題”是一個主觀認(rèn)定的問題。本文引入量子力學(xué)解釋方向,就是試圖回答意識和智能的認(rèn)定問題的可能途徑的問題。量子力學(xué)中的遙距糾纏,很可能就是解決“他心問題”的有效途徑,最后并不需要訴諸“主觀認(rèn)定”。這種認(rèn)定的實(shí)現(xiàn),也許才是真正的“奇點(diǎn)來臨”。

How Will "Strong Artificial Intelligence" Change the World?

——Prospects of the Technological Progress and Application Ethics of Artificial Intelligence

Zhai Zhenming  Peng Xiaoyun

Abstract: After years of silence, artificial intelligence has become a heated topic of debate again recently. For software based on the "neural network" architecture, their progress in terms of the machine learning ability not only make people feel new and fresh, but also cause a lot of them to worry and fear. This is because the "learning" ability was originally thought to be a unique human ability which the machine could not acquire. Now the boundary between machine and humans seems to have been removed. Among all the concerns about artificial intelligence, the most important one is the ethics behind the application of artificial intelligence and the technical limitations about the value implanting. In fact, the application-related ethical issue resulting from the leap-forward technological development of artificial intelligence or the so-called "smart revolution" is not new, it is just the aggregation of a series of old problems. It will challenge our past experience, yet it is not completely "subversive". No matter how effectively artificial intelligence could imitate human brain's "neural network" or how much it is like people, as long as there is no breakthrough development in the ultimate explanation of the phenomenon of human mind, there will be a lack of the necessary premise for the question about whether artificial intelligence is gaining on human intelligence.

Keywords: weak artificial intelligence, strong artificial intelligence, quantum mechanics, physicalism, ethical dilemma, value rationality

作者簡介:

翟振明,中山大學(xué)哲學(xué)系教授,中山大學(xué)人機(jī)互聯(lián)實(shí)驗(yàn)室創(chuàng)始人、主任。研究方向?yàn)樘摂M現(xiàn)實(shí)哲學(xué)與技術(shù)、倫理學(xué)、現(xiàn)象學(xué)、心智哲學(xué)。主要著作有《Get Real: A Philosophical Adventure in Virtual Reality》《整一性投射謬誤與心智哲學(xué)中的物理主義困境》等。彭曉蕓,中山大學(xué)哲學(xué)系博士研究生。

上一頁 1 23下一頁
[責(zé)任編輯:鄭韶武]
標(biāo)簽: 人工智能   世界