吳童立:人工智能有資格成為道德主體嗎| 天天要聞

文章推薦指數: 80 %
投票人數:10人

關鍵詞]人工智能道德主體第一人稱本體論 關係性法則. 對於一個具有正常推理和行動能力的人,我們毫無疑問認為他是一個道德主體。

[1]但對於一個看起來不那麼像人的 ... 首頁 科學 正文 吳童立:人工智能有資格成為道德主體嗎 2021年07月26日 14:01:12 1663views 摘要 參見烏戈·帕加羅:《誰為機器人的行為負責?》,張卉林、王黎黎譯,上海人民出版社,2018,第110—132頁。

[摘要]當代關於人工智能主體性的討論主要有傳統觀點和非標準觀點兩種不同的立場。

前者對心靈的本體論要求過強,其中的主觀現象性和內在意向性對於主體性概念並不是必要的;後者對於智能的要求則過弱,應該添加概念化能力、因果推理能力、反事實思考能力和語義能力等高階智能要求。

根據丘奇-圖靈論題的一個擴展,對滿足主體性要求的人類核心能力的操作性描述表明,它們對人工智能而言是原則上可實現的,那麼人工智能就有資格成為一種類人的而非擬人的道德主體。

作為道德主體,人工智能需要植入一種關係性法則。

[關鍵詞]人工智能道德主體第一人稱本體論關係性法則對於一個具有正常推理和行動能力的人,我們毫無疑問認為他是一個道德主體。

[1]但對於一個看起來不那麼像人的生物,即便它能夠像人類一樣思考、交流和行動,很多人仍然會在“它是否擁有主體資格”這件事上保持高度懷疑和警惕。

如果面對的是一個人工智能,哪怕TA[2]在各方面表現得與人無異,甚至在某些方面超過人類,絕大多數人也會毫不猶豫地否認TA是一個主體,尤其拒絕認為TA是道德主體。

本文試圖說明,至少對強人工智能而言,這個強烈的直覺未必經得起檢驗。

文章第一部分將從觀念史角度簡要梳理人們對於主體的直覺的來源,並總結出當代關於人工智能主體性的兩種不同立場,即傳統觀點和非標準觀點。

第二部分旨在表明,傳統觀點中包含着一些混亂的類比,主觀現象性和內在意向性對於主體性概念並不是必要的。

第三部分則指出非標準觀點不能充分規定強人工智能的特徵,並對高階智能的要素及機器實現的可能性進行說明,從而表明這樣的智能體具有主體資格。

第四部分認為人工智能作為道德主體所需要的另一些特別要求同樣可以得到滿足,但這類主體與人類的差別在於,TA們具有更強的關係屬性和分布式特徵。

一主體性概念的思想資源在傳統觀念中,人類關於主體性的種種特徵和標準的思考是以自身為藍本的。

面對人工智能這一“新物種”探討我們將採取哪種主體立場,首先要簡要回顧一下我們對主體的那些基本直覺來自何處。

近代以來,第一個佔據顯著位置的關於主體性的直覺是笛卡爾給出的。

通過一個著名的思想實驗,精神的自我反思能力以及在這種反思中直觀到自身的能力得以顯現,並且依據此種特性與以身體為代表的物質世界區分開來。

[3]憑藉精神的這種自我證成的形式特徵,笛卡爾聲稱,人類具有獨一無二的主體性。

康德沿着這條道路又向前推進了一步。

如果說在笛卡爾那裡,主體性的核心是一種自我明證性,那麼在康德這裡,這種特性被進一步強化為一種自我構成性。

康德問道,在一個人的內部,什麼可以被看作真正地屬於他且構成了他的呢?康德的回答是,基於慾望的行動本質上只是在滿足一種外在的和被給予的需求,只有出於理性的行動才是內在於“我”的。

[4]於是,主體就被限定在一個更為狹窄和封閉的“內核”之中:人的本質就是理性存在者。

與之差別明顯但同樣產生了巨大影響力的是休謨的主體模型:提供內在動力的慾望和在認知上提供工具性手段的信念,共同構成了一個主體的獨立的心靈。

[5]不難發現,傳統觀點為主體描繪出一個“內在的獨立裁決者”的畫像。

當代哲學為主體性提供了兩種新的思想資源,它們分別是由分析哲學(主要是心靈哲學和語言哲學)和現象學給出的。

分析哲學對這一問題的看法,實質上仍是傳統進路的延續。

查爾莫斯(D.Chalmers)總結道,人類心靈由兩個部分組成:(1)一組可以被客觀研究的信息處理程序;(2)伴隨這些程序的主觀感受。

[6]前者被稱為“智能”,後者則是通常用“意識”來談論的東西。

智能問題與主體性的關聯主要體現在關於“意向性”的討論中。

所謂意向性指的是心靈狀態對世界中的事物或事態具有一種指向性或表徵關係。

[7]主流觀點認為,一方面,要建立這種表徵關係,必不可少的是一種“內在意向性”,即主體的內在表徵能力,它可以把純粹的語法形式與具有內容的語義關聯起來,從而產生真正意義上的“理解”。

另一方面,意識則讓我們把一個行動識別為由自己作出的,從而能夠為這個行動負責,這也是成為主體的一個前提條件。

較之分析哲學對傳統觀點的延續,現象學則為主體性問題開闢了一個不同的視角。

胡塞爾認為,主體通過本質直觀的能力把自己從與環境構成的場域中凸顯和辨認出來。

[8]其與傳統觀點的差異在於,主體與世界首先處於一種形而上學的“共在”關係中,然後才是主體的自我發現。

舍勒反對源自布倫塔諾的內感知學說,從被給予的質料先天出發構築出主體性。

[9]梅洛-龐蒂以主體間性問題為起點,試圖構建一種對他人心靈的直接感知理論。

他利用兒童發生學的研究方法,說明“身體圖式互移”如何在對他心的融合互通方面發揮了關鍵作用。

[10]在這裡,身體成為主體構成中的一種本質要素,從而提供了一種與笛卡爾傳統迥然相異的理論視角。

近半個世紀以來,隨着認知科學與神經腦科學的蓬勃發展,一些歷史悠久的共識開始受到挑戰。

例如,利伯特實驗(TheLibetExperiment)發現,在人們作出一個決定之前大腦就已經出現了明確的行動信號,這無疑對自由意志的古老信念造成了衝擊。

但是,這些新學說的發展尚未形成一種完整的哲學—倫理—社會思潮,來撼動笛卡爾和康德建立的主流話語體系。

正如赫拉利(Y.N.Harari)在《未來簡史:從智人到智神》中不無擔憂地指出的,時至21世紀,整個世界的運轉依然主要依據17、18世紀的倫理與哲學思想,那些思想建立在啟蒙運動所形成的對人性的理解之上,它們已經難以為受到新科技深刻影響的當下社會尤其是未來社會提供有效的指引。

[11]近二十年來,人工智能的研究迎來了一次高潮。

研究者們迫切地想知道基於何種設計架構可以讓人工智能更有“智慧”,公眾也越來越關心這場方興未艾的“革命”將把人類社會引向何方。

在這場大討論中,人工智能的主體性問題居於一個基礎性地位,它不僅關係到設計和技術問題,也關係到人工智能的倫理規則問題,以及人類如何與人工智能共處的問題。

兩種不同理念的對立依然存在:一方是“傳統觀點”,另一方是“非標準觀點”。

在傳統觀點中,約翰遜(D.Johnson)對人類和人工道德主體的比較很有代表性。

他總結了人類主體性的五個條件:條件1:存在一種內在狀態,即主體具有由慾望、信念和其他意向狀態所組成的內在狀態,這種心靈狀態可以導致行動。

條件2:存在一種具身性的外在事件,即主體可以支配他的身體並引發行動。

條件3:內在狀態是外在事件的原因。

條件4:主體的外在行為具有外在的效果。

條件5:外在效果具有一個道德上的承受者。

[12]這裡與主體自身相關的是前面四個要求,條件1可稱作“心靈要求”,條件2和4是“具身性要求”,條件3則是“支配性要求”。

可見,條件1集中體現了一種傳統的主體觀點。

正是出於這種考慮,約翰遜認為人工智能可以滿足條件2—5,但無法滿足條件1,因此它們可以算作一種道德實體(moralentities)而非道德主體(moralagents)。

[13]非標準觀點的代表是弗洛里迪(L.Floridi)和桑德斯(J.W.Sanders)。

他們提出,人工智能要成為主體並不需要具有諸如自由意志和心靈狀態這些傳統特徵,它們可以表現出一種“無心的道德(mind-lessmorality)”。

在判定一個事物是否具有主體資格時,應該使用“抽象法(methodofabstraction)”來分析它處於何種抽象層次(levelofabstraction)。

[14]運用抽象法的具體方式,則依賴於人們的理論旨趣和現實需要。

弗洛里迪和桑德斯認為,對於人類的主體性而言,只要滿足以下三個條件,人們就足以涵括所有情況下對這一概念的使用。

(1)交互性:主體與環境可以相互作用。

(2)自主性:主體有能力改變自身的內在狀態,這種改變並非出於對環境的單純回應。

(3)適應性:在與環境的交互影響中,主體可以通過改變內部狀態來調整內部法則。

[15]不僅人類可以滿足上述標準,人工智能也可以做到。

這種非標準觀點常被認為帶有實用主義色彩,但不難發現,儘管拋棄了傳統觀點對心靈的假設,事實上它仍保留了日常直覺中對於主體性的基本看法。

傳統觀點與非標準觀點的核心分歧就在於,說一個事物擁有主體資格是否必須承諾它有心靈或者有類似心靈的東西。

筆者想要說明的是,該承諾對於主體性而言是一種多餘的要求,因此傳統觀點過強了;而非標準觀點在摒棄這種要求時又過於“徹底”,以至於去除了主體的一些重要內核,因此這種觀點又太弱了。

在下面兩小節中,筆者將分別討論這兩點。

二傳統觀點中的心靈冗餘從上一節的梳理可以發現,在傳統觀點中,對於“心靈是什麼”並沒有統一的、明確的看法。

籠統地說,它的本體論含義在逐步地弱化,但仍保留了一個可辨識的內核。

這一內核包含了能動性、封閉性和主觀性的特徵,現象學運動還賦予其具身性。

對能動性的說明各不相同,無論它的來源是什麼,在充當主體的必要條件這一點上,非標準觀點和傳統觀點並沒有爭議。

但傳統觀點的陣營還把能動性看作具有這樣一種特殊稟賦:它使得主體可以獨立於世界的因果鏈條而成為一種自主的原因。

這一點對於近代的幾位先驅無疑具有本體論的意義,不過,當代分析哲學家則謹慎得多。

塞爾(J.R.Searle)承認,鑒於大多數現代人都接受意識來自大腦的神經生理機制,沒有必要堅持一種實體二元論的極端立場,完全可以對意識進行自然化的說明。

但這並不表示意識可以被還原為一種自然屬性,它僅具有一種“第一人稱本體論”的特性,即它的主觀性特徵無法納入自然化的因果說明。

[16]這種觀點並不新鮮,但相當有代表性,筆者將以此入手討論傳統觀點的當代版本。

塞爾的第一個論證是,儘管從一種自然主義的觀點看,人類和人工智能在底層都是物理的,但他們在二階意義上具有一種本質的差別:人類在這一層面具有意識,人工智能則什麼都沒有。

該論證的具體策略就是指出,所有意識狀態有三種不可還原的共同特徵:內在的、質的和主觀的。

“內在的”是指,意識狀態和過程是在身體特別是大腦內部進行的,不能脫離這個機體或系統而存在。

“質的”是指,對於每一種意識狀態而言,都存在一種特定的、不可還原的感知方式。

“主觀的”是指,意識狀態總是在人類主體的自我視角內被感知的,具有“第一人稱本體論”的性質。

[17]從這些特徵能夠定義出一種人類所獨有的、把人類與人工智能相區別的主體性嗎?它們對於一個完備的主體性概念而言都是必要的嗎?內在性特徵實質上就是主體的封閉性。

人們之所以認為人工智能不具有這種特性,或許是出於這樣一種認知:人工智能本質上就是一些程序代碼,它們可以被寫在紙上或存儲在硬盤上。

算法程序是通用的,既沒有個體性也沒有系統封閉性。

這種說法貌似有理但經不住推敲。

一方面,人類的意識系統並沒有那麼“特殊”,它在算法層面來自大腦和神經系統,這個系統也是通用的。

另一方面,人工智能的程序也沒有那麼“一般”,因為它和人類思維一樣可以實現具身化。

只要把這個程序安置在某種形態的軀體中,讓程序能夠操控軀體並對外界輸出行動,人工智能就擁有了某種意義上的封閉性。

我們也完全可以說TA引發的行動是歸屬於TA的。

塞爾所說的意識的內在性和封閉性,實際上來自“具身性”要求,這個條件對於人類和人工智能是同等地可滿足的。

意識的另外兩個特徵即質的和主觀的性質,聚焦在一般所說的意識的“現象性”層面。

然而,我們把一個人視為一個主體,是因為他具有某種獨特的“感受質”嗎?在筆者看來並非如此。

設想,一個叫王二的人在車禍中腦部嚴重受傷,喪失了大部分感官能力和心理感知能力,但他的記憶、認知、推理和語言等大腦功能恰好沒有損傷。

他可以藉助一個導盲機器來完成生活中的大部分行動,也可以與朋友一起聊天,唯一不幸的是,他再也無法形成任何感官感覺和心理“感觸”。

我們可以說王二不再擁有感受質,這種情況至少是可以想象的,但應該很少有人認為他因此就喪失了作為一個真正主體的那種資格。

王二具有獨一無二的經歷和記憶,他有自己獨特的見解和行為模式,甚至會說一種“王二式冷笑話”,但這並不是感受質賦予他的。

王二的確具有某種“第一人稱視角”,這構成了其主體資格的重要基礎。

然而,是否可以由此推出存在着一個作為“第一人稱本體”的心靈,尤其是這個心靈對於主體性而言是否必需,則並非顯而易見。

人們確實對第一人稱本體有一種強烈的直覺。

反觀這種直覺,一方面,它來自人們的“自我中心光環”:我們感知到自己的身體在功能和空間上是與他人相區隔的;從“包裹”在這個身體中的意識產生出行動,我們把這些行動看作完全出於自身的。

另一方面,我們也通過類比把他人想象成如此這般的“個體”。

主觀感受的人際不可通達性,進一步強化了這種封閉性自我的想象。

經過這樣的反觀可以看到,第一人稱本體的直覺很大程度上基於我們在生理上的限定和心理上的想象性類比,但在理論上,這並不必然構成一種對主體性含義的限制。

不過,傳統觀點也沒有那麼容易被擊敗。

塞爾還有一個更強的論證,它不再側重於心靈的意識方面,而是把焦點放在了心靈的智能方面。

這就是關於“內在意向性”的著名觀點。

這一觀點也得到了常識立場的強有力的支持,如約翰遜所說,我們無法理解機器人具有一種原初的、內生性的意向性——它們的意向性顯然是由設計者植入的。

[18]德雷斯基(F.Dretske)進一步指出,只有內在意向性才能在句法和語義之間建立關聯:計算機通過操作某種內部符號就能處理信息,但它們沒有通向符號的意義和通向這些表徵所表徵之物的通道。

[19]因此,人工智能至多具有一種“派生的意向性”,它們無法“理解”自己在做什麼,故並不擁有真正的智能。

這一立場為塞爾贏得了眾多擁護者,其中不乏克里普克(S.Kripke)[20]、內格爾(T.Nagel)[21]、福多(J.Fodor)[22]等知名人士(儘管他們在其他方面的觀點與塞爾相當不同)。

在陳述塞爾的觀點之前,首先需要指出,這裡的“第一人稱本體”特性已經發生了變化。

塞爾的第一個論證強調的是第一人稱的主觀感受界定了個體本身的獨特性,這個論證強調的則是人類群體具有的一種普遍能力。

它在實質上並不是關於個體的,但就其必然有一個發出者而言,第一人稱的本體特性又被視作本源性的。

在《心、腦與科學》一書中,塞爾發明了後來廣為人知的“中文屋”思想實驗,試圖證明人工智能不具有內在意向性,據此,強人工智能“在原則上”是不可能的。

塞爾要求我們設想:只懂英文的你在一間屋子裡,只有幾個放滿漢語字符的筐子和一本用英文書寫的規則手冊,當外面遞進來用中文書寫的問題字條,你只通過這些東西就可以組成漢語句子進行回答,這樣,在外面的人看來你懂中文,但實際上你並不懂。

不僅如此,由你、手冊、字符組成的“系統”也不懂中文。

[23]注意,這裡的規則手冊並不是一本字典式的翻譯手冊,而是只包含形如“當看到某些漢語語句,則從甲筐拿A字符、從乙筐拿B字符進行某某組合”這樣的操作規則。

塞爾通過這個思想實驗想要完成如下證明:前提1:計算機程序只是純句法的;前提2:僅從句法無法得出語義;前提3:真正的智能/心靈具有語義內容/心理內容;結論:計算機程序不具有真正的智能。

對“中文屋”的討論文獻汗牛充棟,筆者不打算在此重述前人的觀點,而是要提出一個論證,表明塞爾對人工智能的刻畫中蘊含了一種“無智能預設”。

應該看到,這個思想實驗表面上具有一種基於歸謬法的“論證結構”,實際上卻是一種通過直觀類比而實現的“闡明論題”。

這也是為什麼有論者認為它有邏輯缺陷,甚至是一種乞題論證。

[24]闡明的過程以前提3為起點,其背後的預設是塞爾的意向性理論,即心智具有的能動的指向性,是從句法到語義的關聯得以建立的根基。

他舉例道,我們對於“克林頓”的信念就指向當時現實中的那個美國總統,這使得“克林頓”一詞具有了語義內容。

然而,意義怎麼就從這種“指向”的心理動作中自然而然地衍生出來了呢?塞爾從未對這一過程的機制和條件給出說明。

這就使得前提2“僅從句法無法得出語義”也成為未經說明的,從而構成了一個內在的困難。

事實上,“中文屋”的情景設置恰恰充當了對前提2與前提1之合取的實質性支撐。

這個被精心設計出來的計算系統具有以下三個特點。

第一,它是一階的,程序無法對自身的內部規則進行運算和檢測。

第二,它是用於處理封閉問題的,回答中文問題被看作和下棋一樣,只需要按照既定規則進行運算,但無法對不確定信息提供開放性解法。

第三,它的程序架構是線性的,其結構序列是串聯而非並聯。

可以看到,對“中文屋”的這種設計就決定了它無法產生出語義。

與之形成強烈反差的是,前提3中的人類意向性是在一個更加廣闊和開放的場景中被提取出來的(不具有上述三個特點的任何一個),語義內容則是這種能力的結果。

因此,用前提3證偽前提1與2的合取,犯了“範疇錯誤”:一方面在一個極其限定的語境中說明人工機器語義內容的不可能性,另一方面在一個幾乎無限開放的語境中說明人類語義內容的現實性。

不過,上述論證僅僅表明了前提2的可錯性,並不說明它就一定是錯的。

要想進一步呈現前提2真的很可能是錯的(至少“它是錯的”是可理解的),需要提供一個更加實質性的論證。

上面的分析為這個論證指出了方向:我們可以嘗試把計算機和人類放在對等的語境中去構造一個類似的思想實驗。

請看“霍比特語屋”思想實驗。

設想《指環王》的導演彼得·傑克遜(P.Jackson)需要為電影中的霍比特人設計一套完整的語言,恰好他的御用語言學家(也是原著作者)托爾金(J.Tolkien)正在度假,他只好求助於微軟公司最新生產的智能語言機器人JJ。

JJ所在的屋子裡只有幾個裝滿奇怪字符卡片的筐子(人類語言中從未出現過這些字符),JJ根據古芬蘭語設計了一套全新的語法規則,然後把筐子里的字符與自己數據庫中的各種事物進行對應,半個小時後,“霍比特語”誕生了。

設想此時另一個可能世界中的一個霍比特人突然穿越到屋子裡(劉易斯和霍金的理論讓這件事看起來沒有那麼瘋狂),JJ用霍比特語和他流暢地聊天,他們還給彼此寫了一封信留作紀念。

那麼,JJ真的“懂”霍比特語嗎?在筆者看來,不少人的答案會是肯定的。

於是(這並不令人驚訝),JJ具有了語義內容。

誠然,該故事並沒有說明這個語義內容是如何嵌入無意義的字符中的(這將在下一節說明)。

這裡想要強調的是,既然句法和語義以某種方式建立了關聯,JJ就具有了某種意向性,但這顯然不是塞爾所說的那種神秘的內在意向性(也是原初意向性)。

所以,內在意向性對於獲得語義來說並不是必要的。

有人可能會提出質疑:儘管霍比特人和JJ都掌握了霍比特語,但前者是通過實踐活動獲得語義的,後者則僅僅通過一種對應關係獲得語義,而這種對應關係恰是由實踐活動建立起來的。

因此,後者的語義實際上是來自前者的。

人工智能學界不乏類似的聲音,格勞岑斯基(F.S.Grodzinsky)指出,即使一個人工智能具有某種自主能力,以至於它的部分意圖和行動無法通過最初的設計被識別,它依然在某種意義上受到了設計者的限制。

[25]但是,即使這種意向性是派生的又怎樣呢?只要人工智能可以用它建立起句法和語義的關聯,內在意向性的神秘魔戒就已經被摧毀了。

塞爾把內在意向性視為意義的“特殊通道”的觀點,可能潛在地來自他認為意向性與意識在主觀性方面是一體的。

這種獨一無二的感受質使得他產生了一個錯覺:內在意向性具有一種源於第一人稱本體的獨特能力。

正如丹尼特(D.C.Dennett)所說,“塞爾顯然把語義不能從句法中派生出來的主張,與對語義的意識不能從句法中派生出來的主張混為一談了”[26]。

在本小節中,筆者分析梳理了傳統觀點中混雜在一起的關於主體的各種特徵,並說明了為何其中關於心靈的假設是冗餘的。

筆者保留了能動性、具身意義上的封閉性和意向性等主體特徵,但清除了主觀現象性和內在意向性。

三非標準觀點中的智能缺失通過比較可以發現,筆者在上一節從傳統觀點中去除的東西也是非標準觀點所拋棄的。

儘管如此,兩種觀點也有不少共性。

非標準觀點給出的主體性要素是:互動性、自主性和適應性。

互動性要求主體能夠通過行動與環境進行交互影響,這一點可以被具有身體的智能體實現,它等同於我們保留下來的傳統觀點中的“具身意義上的主體封閉性”。

自主性和適應性要求,行動者可以自發地改變內部狀態和規則,同時這種調整能夠回應環境因素的改變,這相當於我們保留下來的傳統觀點中的“具有智能的能動性”。

那麼,非標準觀點對於說明主體資格是足夠的嗎?筆者的回答是否定的,因為它還不足以刻畫一種類人的(但並不一定是“擬人的”)主體所需要的“真正的智能”。

一隻貓可以滿足非標準觀點的三項要求,它可以對外部世界施加影響,也可以主動地調整自己適應環境變化。

但沒有人會認為貓可以擁有與人等同或近似的主體資格,我們也不會因為一隻貓打碎了花瓶而對它進行道德譴責。

想要釐清智能的含義,不妨看一看貓和人類相比缺少了什麼,再考慮一下這種“非凡的能力”是否能被人工智能所實現。

丹尼特設想了這樣一個智能機器人。

在假想中的25世紀,人類已經發明了人體冷凍機,可以讓得絕症的人一直“冬眠”到醫療手段能夠治癒這種疾病的年代。

問題是,如果中途發生了災變或者戰爭以至於威脅到冬眠者的生存,該怎麼辦?於是冷凍艙被設計到一個巨型智能機器人體內,TA要能夠識別環境的變化並判斷是否已經影響到冬眠者的生存,要尋找一個合適的地點隱藏起來,要預測可能發生的危險,還要獲取足夠能源保證自己和冬眠者的生存,當然,還要在正確的時刻“喚醒”冬眠者。

為了能實現這一切,丹尼特說道:“對於我們所想象的機器人,我們給予它‘規劃’新行動方案、從以前的錯誤中‘學習’、保持忠誠以及與競爭者‘交流’等能力,它在我們讓它接受的任何圖靈測試中的表現大概都很可靠。

此外,要從事所有這些‘計劃’‘學習’和‘交流’,它幾乎肯定必須裝備一些富有自我反思、自我監測能力的控制結構,因而它對自己的內部狀態就有和人一樣的通道,並且也能報告、宣稱和評論它‘認為’其自身內部狀態中有價值的東西。

”[27]對於這樣一個機器人,想必大多數讀者會認為,至少在智能方面TA與人的相似性要遠高於與貓的相似性——TA已經可以說是具有真正的智能了。

關鍵是,這種智能真的能夠通過對0和1進行編程來實現嗎?“中文屋”的陰影又一次浮現出來。

通過上一節的分析可知,塞爾對內在意向性機制的緘默留下了一個開放問題:如果智能的產生不是(僅僅)依賴原初的內在意向性,那它依賴於什麼呢?這需要我們對智能的具體要素和機制給出實質性說明。

這個說明不一定是完備的,但必須足以讓人們理解機器智能的可能性。

我們的論證基於一個基本策略,這個策略是對丘奇-圖靈論題(TheChurch-TuringThesis)的一種延伸。

丘奇-圖靈論題認為,任何一種算法或計算機程序都可以由圖靈機來實現。

如果人類的智能也可以被描述為一種算法,那麼,儘管碳基生命的腦神經-化學過程和硅基生命的程序-物理過程在實現方式上有根本差異,但只要能夠給出對人類智能的充分描述以及這些描述的操作性說明,它們對於人工智能體就是原則上可實現的。

由此可知,人工智能可以具有真正的智能。

綜合各種文獻的論述,筆者認為人類智能可以被下列要素刻畫:概念化能力、因果推理能力、反事實思考能力和語義能力。

接下來筆者將分別予以簡要說明。

生物要適應環境,這要求它們能夠對感官輸入賦予意義,以對環境中的重要刺激進行正確的反應。

人類獨特的能力就是把想法當作事物來看待,也就是使之“概念化”。

大腦可以把不同要素組合成一個意義單元,然後把它們組合成更高層次單元,以此類推。

[28]進一步地,大腦能夠把這些意義在不同層次上進行分配,形成概念網絡。

這些概念網絡也可以通過不同方式進行拆分、合併或重組,或者在關聯的基礎上調用一個新概念,通過將這些想法串聯在一起得出結論。

2005年,神經腦科學家在大腦的內側顳葉中發現了“概念神經元(ConceptCell)”,它們組成的神經網絡可以從不同的概念角度(如地點、形狀、顏色甚至輸贏等)對同一個對象進行表徵和識別。

[29]正如蒙洛迪諾(L.Mlodinow)指出的,概念網絡是任何高級智能活動的基石。

[30]與其他哺乳動物相比,人腦的概念神經元還能夠表徵“概念的概念”這類更為抽象的東西。

對於人工智能而言,概念網絡以及對概念的抽象表徵在功能上是可以實現的。

用概念神經元模型表徵元知識如何在計算機上實現,已經有學者作出了一些研究。

[31]“全局工作空間(TheGlobalWorkspace)”理論描述了一種根據各個概念網絡的功能和偏好來對“關注”進行分配的靈活而鬆散的整體機制。

[32]如果大腦更像是一個“集體審議機構”,那麼計算機的聯結主義(connectionism)方案就很適合實現它的功能。

如果說概念化能力是智能的必要準備工作,那麼如何有效地聯結和提取這些概念,則是對智能的進一步的規定。

人類認識世界的核心方式是因果推理,這也是其他哺乳動物所不具有的。

動物的規則獲取方式可以用“if→do”來表示,它本質上是基於刺激—反應的二元結構以及一種激勵機制。

人工智能中比較流行的神經網絡算法和深度學習正是來自這種模式。

但是,越來越多的計算機科學家意識到,這種“大數據、小任務”的模式可以實現的智能相當有限。

計算機可以在一個邊界清晰的問題域(如下棋)里做得很好,但對於哪怕是極其簡單的開放問題卻難以解決。

基於條件概率的底層算法只能評估相關性但無法建立真正的原因概念,而人類則是依據因果推理來認識世界和解決問題的。

我們對發生的事情進行觀察和分類,通過類比和歸納提出假設,在這些假設的基礎上演繹出其他結論,同時也在其他經驗中檢驗和修正自己的假設。

通過這樣的過程,人類可以依據有限的經驗對開放式問題求解,即“小數據、大任務”模式。

曾獲得圖靈獎的計算機學家珀爾(J.Pearl)就是沿着這個方向設計人工智能算法的,他使用帶有方向箭頭的因果圖和代表干預能力的“do”算子刻畫了可以在計算機上實現的某種形式的因果推理。

[33]反事實思考能力是因果推理的一個值得單獨說明的方面。

在形而上學意義上,珀爾解釋道:“你不能聲稱是夏娃導致你吃了樹上的蘋果,除非你可以想象一個世界,在那個世界裡,情況與事實相反,她沒有給你那個蘋果。

”[34]反事實推理離不開假設分析,當我們考慮如何作出選擇時,就需要某種方法來預測和比較每種行動的可能結果。

這時候,我們就使用了“if+do→then”的思維方式,每個“then”代表行動的一個可能結果。

不難發現它與動物的“if→do”方式的區別:它不再是一種被正向反饋所固化的對刺激的直接反應,相反地,任何人類行動總要通過一個中介機制的評估才能作出。

這樣的行動被視為經過反思的和“真正地出於行動者”的。

由此,一種被稱為自主性或能動性的特質,第一次出現在主體描述的核心位置。

對這種思考方式的算法化,可以讓人工智能模擬人類對外部世界的因果關係思考。

當這種“反思程序”針對人工智能的內部規則和概念網絡進行操作的時候,TA就是在對自身進行反思。

於是,一個“意圖生成器”出現了:經過反事實推理而得出的“決定”可以用意圖來描述,這些“意圖”又可以成為其他因果推理的證據/理由。

如果人工智能產生了X=x的意圖,但反而去做X=x,TA就相當於擁有了自由意志。

這一點是可能的,反事實推理能力為作為自由意志基本條件的“可供取捨的可能性”提供了空間,概念網絡的多維聯結方式為這種選擇提供了進一步的可能性。

這個過程的算法化一旦實現,人工智能就擁有了說“不”的能力。

即使具有了上述所有能力,離塞爾的要求似乎還有一步之遙。

動物行為學研究已經有說服力地表明,某些高等動物如黑猩猩不僅具有因果推理能力,甚至掌握了某些相當高級的“政治智謀”。

[35]但唯有人類具有語言能力,這也許是對智能的終極要求。

在這個方面,“中文屋”思想實驗是誤導性的——塞爾在系統設計中就預設了句法和語義的分離。

一種帶有語義特徵的符號和句法是可能的嗎?筆者認為是可能的。

中文字符里的象形和會意特徵即提供了一個方向。

“人工智能之父”馬文·明斯基(M.L.Minsky)在《情感機器:人類思維與人工智能的未來》一書中則展示了一種更加完整的設計思路。

筆者把他的“語義網絡”總結為以下五個方面或步驟。

(1)任何符號之所以能夠進行“表徵”,是因為開始就處於其他符號形成的結構中,而每一個這樣的結構都是帶有語義特徵的。

明斯基以三塊積木構成的拱門型結構為例指出,傳統計算機建模只用數字的雙向聯結表徵這個結構(如圖1),但完全可以使用多維關係特徵表達這個結構(如圖2)。

可以看到,語義一開始就被植入符號的關係算法中去了。

(2)這些小的語義網絡可以通過“傳送框架(transframe)”進行連接以構成對行動的表徵。

如圖3所示,“查爾斯送給瓊一本書”就可以用三個語義網絡構成的傳送框架來表示。

(3)為了完整地表達一條“行動線”,我們需要知道很多默會性的背景或常識知識,它們被明斯基稱作“插口”。

如圖4所示,要理解瓊從波士頓到紐約的行動線,需要了解諸如時間、位置、交通工具、出行方式、路線、距離和支出等多種背景要素。

在其中,每一個這樣的“插口”又延伸出多個關係特性以表明它可以和哪些其他框架相連(如圖5)。

(4)行動線或傳送框架上層的結構是“知識線”,對語義網絡進行更加宏觀層面的整合與分類。

創造性地建構這些知識框架的過程,則需要我們之前提到的因果推理能力。

(5)一個鬆散的全局處理系統對這些知識框架進行排列、關聯與分層,從而形成最後一級的語義網絡。

[36]不難發現,這也是一個知識網絡。

按照我們的論證策略,對這個網絡的上述操作性說明,也就表明了它的算法化實現是可能的。

人工智能可以通過特定的意圖來選擇使用不同的語義標準,這就相當於可以自主地使用這種“語言”。

同時,TA還必須能夠用這種語言與其他人工智能或人類進行交流,這就要求TA具有格賴斯(H.P.Grice)所說的“三階意向狀態”:“我”打算讓你認識到“我”打算讓你產生某個反應x。

[37]通過對人工智能規則識別能力的分層(但並不需要無窮後退),這也是原則上可實現的。

綜上,非標準觀點的主體性三要素對於一種類人的強人工智能而言是不充足的,還需要添加“高階智能”要素。

它可以被概念化能力、因果推理能力、反事實思考能力和語義能力所闡明。

符合這些要求的人工智能原則上是可以被創造出來的,一旦那一天到來,我們沒有理由不把TA們當成真正的主體。

四人工道德主體:一種分布式關係主體如果我們可以接受上文對於人工智能主體資格的論述,就可以認為這樣一種主體是類人的,而不僅僅是擬人的。

我們應當以一種比較對等的方式來與TA們相處,於是,TA們也就具有道德主體的資格。

但仍有人對此有所疑慮:即使人工智能具備了充分的自主性,它擁有道德能力嗎?對於一個道德主體而言,的確還有一些其他的要求。

計算機倫理學的奠基人之一詹姆斯·摩爾(J.M.Moor)曾經把“倫理智能體”按照道德能力的程度分為四個層次:倫理效果智能體、內隱倫理智能體、外顯倫理智能體和完全倫理智能體。

[38]本文要討論的人工智能主體是最高層級的“完全倫理智能體”。

許多人對這種主體應該具備的能力作出了說明。

泰勒(P.Taylor)提出了五個需要滿足的標準:(1)判斷道德上正確與錯誤的能力;(2)對道德所依據的理由進行權衡和選擇的能力;(3)依據選擇作出決定的能力;(4)依據決定作出行動的能力;(5)對自己未能履行義務的行為作出解釋的能力。

[39]希瑪(K.E.Himma)則着重強調了辨識道德規則和作出道德推理的能力:第一,人工智能知道“應當”做什麼;第二,要能夠按照道德規則來行動;第三,要在具體事例中正確理解和運用道德規則。

[40]考克伯格(M.Coeckelbergh)指出情感在道德中的重要性,認為道德主體需要具有同情心和正義感,還能體會諸如憤怒、羞恥、自責這些與道德相關的情感。

[41]薩林斯(J.P.Sullins)則把人們對道德主體的看法總結為三個基本要求:自主行動、具有意圖和能夠負責。

[42]筆者把以上各種對道德主體的要求總結為六個:自主行動要求、自發意圖要求、遵守規則要求、道德判斷要求、道德情感要求和道德責任要求。

在前文的論述中筆者已經表明,前三個要求原則上可以在智能設計方面被滿足,這裡主要針對後三個要求作一個簡要說明。

許多人對人工智能是否擁有道德的質疑,源於他們認為道德是一類獨特的、至高的事物,要求一種非凡的能力。

的確,道德是一種人類獨有的志業,我們不會用道德詞彙描述任何其他高等動物的行為。

問題是,如果一個物種與人類有類似的智能和社會行為,道德也依然被看作一種獨特而非凡的能力嗎?這其實是一個偽問題。

沒有人會質疑,道德法則可以被寫入人工智能的程序。

那麼,如果前文對TA具有“理解”“推理”“意圖”等能力的闡釋是成功的,就可以表明,TA能夠理解道德,也能夠作出道德判斷和行動。

道德能力的確是一種高階能力,它基於一種規範性思考能力,這種能力是人類以外的動物所缺乏的,但對於人工智能,這種能力並不是神秘的,而是顯見的。

類似地,對於人工智能缺乏道德情感的質疑,也來自一種人類經驗的立場:我們的確是在各種情感和感受中建構起自我的人格,辨識和塑造了自身的道德品質。

這裡存在一種典型的混淆,即把一種“彷彿的充分性”當作了必要條件。

正如心靈的主觀現象性特徵對於主體性並不是必要的,主觀的情感體驗對於道德而言也是無關宏旨的。

一方面,一個能作出道德行為的人工智能,的確需要諸如同情心、羞恥感等“情感反應”,但TA並不需要具有一種“情感體驗”。

事實上,反駁者的主要論據恰恰在於這種心理體驗的不可實現性,這顯然離題了。

另一方面,“情感反應”則完全可以用一些等價的行為規則來實現。

例如,把同情心定義為“己所不欲勿施於人”的規則,把羞恥感定義為“對於被規定為錯誤的行為,每觀察到一次則增加一個負值的權重標記”的規則。

最後一個道德要求是為自己的行動負責的能力。

有人認為,人工智能無法被懲罰所威懾,也就不會成為負責任的智能體。

然而,懲罰的關鍵並不在於被懲罰者能否體驗到威懾,而在於對其後續行為產生的實際影響,可以通過內置一種反饋機制使得懲罰對人工智能構成客觀制約。

至於負責任所需要的補償能力,法學家烏戈·帕加羅(U.Pagallo)建議通過數字賬戶的形式賦予人工智能以“數字特有產”,它可以是一種保險,也可以是主人私有產權的延伸(例如增加擔保)。

[43]筆者認為,其中一部分還可以通過社會公共基金的形式來支付,其數額可用事故概率和補償成本經過大數據測算來決定。

一旦擁有了獨立產權,人工智能就可以作為法律上的代理人自主行動(例如,與交易方簽訂合同),並有能力對自己的行動負責。

可以看到,在人工智能成長為真正道德主體的道路上並沒有理論方面的阻礙。

但TA們與人類的確在起源上是不對等的,我們常常由於這種附屬的地位把TA們視為工具而非主體。

這裡存在一個在情感上逐漸認同的過程。

就如飼養寵物的家庭經過多年的共同生活逐漸把寵物當作家庭中的一員,人工智能被“賦予”主體資格可能也要經歷這樣一個認同的過程。

雙方的這種歷時的交互性要求,對應着一種設計思路上的改進。

人們往往習慣於把人工智能的行動規則看作一個機械的詞典式體系,但越來越多的人工智能科學家意識到,這種看法在技術上是成問題的。

瓦拉赫(W.Wallach)和艾倫(C.Allen)在《道德機器:如何教機器人明辨是非》一書中區分了人工智能倫理法則建構的兩種進路:自上而下和自下而上。

[44]前者是一套標準化的理想規則體系或行為守則,如十誡和阿西莫夫(I.Asimov)三原則;後者則旨在創造一個激發自主學習的鬆散的能力性規則。

自上而下進路的優點是可以讓人工智能的行為更加“透明”,從而相對安全和可控。

但正如阿西莫夫在《我,機器人》(I,Robot,1950)這本著名的科幻小說中認識到的,這種方式會經常使機器人陷入自我矛盾的情境,無法應對複雜的狀況。

在那種情況下,機器人要麼無法行動,要麼會作出不可預測的隨機行為,這潛藏着更大的危險。

自下而上的進路則可以讓人工智能的自主性和適應性大大提高,但也可能帶來不可控的危險。

筆者認為,一種混合型進路似乎更加合理。

亞里士多德為此提供了重要啟示,他認為理智德性是可教授的,倫理德性則需要通過實踐獲得。

這就告訴我們,將不同的德性安置在人工智能上需要不同的方式。

在筆者看來,這兩種方式並不是對等的。

自上而下的規定雖然必要,但自下而上的學習更為基礎。

保羅·丘奇蘭德(P.M.Churchland)論證指出,聯結主義的學習方法對於發展道德認知是充分的。

[45]通過實際案例讓人工智能獲得對於豐富的特殊情境的敏感性,是作出合適道德行為的關鍵,規則手冊起到的則是引導性而非決定性作用。

道德行為是一個主體間動態的交互過程,人工智能需要“處於”這樣一個交互的情境,學習諸如讀取他人情緒、判斷他人性格,以及估計對方願為一段關係承受的風險等技能。

反過來看,如果在這樣的交互中TA表現出越來越多的“理解”與“恰當行為”,人們也會開始把TA作為主體來對待。

因此,人工智能的道德呈現出強烈的關係特性。

與之適配的倫理法則是一種“關係性法則”,即引導與共同體達成合理關係的那些機制性行動框架。

自上而下的“正確性法則”則應該被視為在它之內的和次級的。

例如,人工智能應當做那些其所處的共同體會給予正面反應的事情,避免做共同體會給予負面反應的事情。

[46]這條關係性法則規定了TA的行動在共同體內的約束條件,但並不給出具體的行為準則。

這與亞里士多德對道德法則的看法正相吻合:存在一個概況性的行動方向,但無法先天地發現對這一行動精確的規則描述。

[47]次級的準則是在人工智能的功能性任務和TA所在的共同體的特徵的雙重規範下,通過動態的觀察和交流獲得的。

實際上,人類的道德行為也符合這種習得模式。

不過,也要清醒地看到人工智能與人類的區別:人工智能道德的關係屬性更加顯著,因為TA們被設計為具有相對狹窄和明確的功能性目標。

這儘管不能取消TA的主體資格,但確實削弱了TA的個體特徵。

如第二節顯示的那樣,個體性的弱化會帶來一個後果,即人工智能主體將不會像人類那樣表現為一個較封閉的自我。

在一個隱喻的說法中,共同的基礎設置與共同的核心目標,將讓TA們(部分地)分享一個公共的“自我”。

換言之,每一個人工智能都是這個公共自我的一個載體,即具有某種比人類更顯著的分布式特徵。

這種特徵也許會使得人工智能的社會結構更加扁平化。

這會對人類過於垂直的社會結構帶來衝擊嗎?抑或會進一步強化我們固有的社會結構?恐怕很難對此作出精確的設想。

唯一可以預知的是,當這個“新物種”參與到人類社會中的那一天,我們會第一次擁有一個看待自我與他者的全新視角。

無論如何,這將是一個深刻的改變。

本文來自《哲學動態》2021年第6期“倫理學”專欄歡迎關注@文以傳道注釋[1]在傳統的哲學討論中,“主體”一詞的英文是subject,相應地,“主體性”對應的英文是subjectivity。

在本文中,這兩個詞對應的英文則是agent和agenthood。

這不僅僅是因為在人工智能領域一般用agent(智能體)一詞進行討論,更是出於這樣的考慮:本文的主旨不是在主-客體(subject-object)這個範疇里談論問題,而是側重於說明人工智能是否能夠成為一種與人類相似的“行動者(agent)”,是否具有“能動性(agency)”,以及在這個意義上是否具有“主體資格(agenthood)”。

[2]這些實體是否具有主體性正是本文要討論的,因此在這裡還不能定論地使用“他”或“它”,暫且用TA來指代這類實體。

[3]參見勒內·笛卡爾:《第一哲學沉思集》,龐景仁譯,商務印書館,2017,第16—36頁。

[4]參見伊曼努爾·康德:《道德形而上學奠基》,楊雲飛譯,人民出版社,2013,第80—91頁。

[5]參見大衛·休謨:《人性論》,關文運譯,商務印書館,2017,第9—14頁。

[6]Cf.D.Chalmers,TheConsciousofMind:InSearchofaFundamentalTheory,OxfordUniversityPress,1996,pp.25-31.[7]參見約翰·塞爾:《心靈、語言和社會——實在世界中的哲學》,李步樓譯,上海譯文出版社,2001,第64頁。

[8]參見埃德蒙德·胡塞爾:《現象學的方法》,克勞斯·黑爾德編,倪梁康譯,上海譯文出版社,2005,第215—224頁。

[9]參見馬克斯·舍勒:《倫理學中的形式主義與質料的價值倫理學》,倪梁康譯,商務印書館,2011,第172—180頁。

[10]Cf.Merlea-Ponty,PhenomenologyofPerception,RoutledgeandKeganPaul,1962,pp.112-170.[11]參見尤瓦爾·赫拉利:《未來簡史:從智人到智神》,林俊宏譯,中信出版社,2018,第348頁。

[12][13]Cf.D.Johnson,“ComputerSystems:MoralEntitiesbutnotMoralAgents”,EthicsandInformationTechnology,8:4(2006),pp.195-204.[14]Cf.L.FloridiandJ.W.Sanders,“OntheMoralityofArtificialAgents”,MindsandMachines,14:3(2006),pp.349-379.[15]Cf.L.FloridiandJ.W.Sanders,“OntheMoralityofArtificialAgents”,pp.349-379.[16][17]參見約翰·塞爾:《心靈、語言和社會——實在世界中的哲學》,第50—53頁;第41—42頁。

[18]Cf.D.Johnson,“ComputerSystems:MoralEntitiesbutnotMoralAgents”,pp.195-204.[19]Cf.F.Dretske,“MachinesandtheMental”,ProceedingsandAddressesoftheAPA,59(1985),p.26.[20]Cf.S.Kripke,WittgensteinonRulesandPrivateLanguage:AnElementaryExposition,HarvardUniversityPress,1982,p.34.[21]Cf.T.Nagel,TheViewfromNowhere,OxfordUniversityPress,1986,pp.25-26.[22]C.J.Fodor,Psychosemantics:TheProblemofMeaninginthePhilosophyofMind(ExplorationsinCognitiveScience),TheMITPress,1987,p.99.[23]參見約翰·塞爾:《心、腦與科學》,楊音萊譯,上海譯文出版社,2016,第23—26頁。

[24]Cf.L.Hauser,“Searle'sChineseBox:DebunkingtheChineseRoomArgument”,MindandMachine,7(1997),pp.199-226.[25]Cf.F.SGrodzinsky,K.W.MillerandM.J.Wolf,“TheEthicsofDesigningArtificialAgents”,EthicsandInformationTechnology,10:2-3(2008),pp.115-121.[26]D.C.Dennett,TheIntentionalStance,TheMITPress,1998,p.335.[27]D.C.Dennett,TheIntentionalStance,pp.297-298.[28]哺乳動物的大腦都或多或少地具有這種要素組合能力,但還沒有證據表明它們能夠把這些東西作為“概念”進行組合。

[29]Cf.R.Q.Quiroga,“ConceptCellsintheHumanBrain”,AdvancesinCognitiveNeurodynamics(VI),Springer,2015,pp.143-146.[30]參見列納德·蒙洛迪諾:《彈性——在極速變化的世界中靈活思考》,張媚、張玥譯,中信出版社,2019,第72頁。

[31]Cf.J.Zheng,C.Zheng,“MetaModelonConceptCell”,VariantConstructionfromTheoreticalFoundationtoApplications,2019,pp.159-167.[32]http://www.impritit.eo.tLk/online/newl.html.[33]參見朱迪亞·珀爾、達納·麥肯齊:《為什麼:關於因果關係的新科學》,江生、於華譯,中信出版社,2019,第199—219頁。

[34]朱迪亞·珀爾、達納·麥肯齊:《為什麼:關於因果關係的新科學》,第5頁。

[35]參見弗朗斯·德瓦爾:《黑猩猩的政治——猿類社會中的權力與性》,趙芊里譯,上海譯文出版社,2014,第137—164頁。

[36]參見馬文·明斯基:《情感機器:人類思維與人工智能的未來》,王文革、程玉婷、李小剛譯,浙江人民出版社,2016,第286—293頁。

[37]Cf.H.P.Grice,“Utterer'sMeaningandIntentions”,PhilosophicalReview,78(1969),pp.147-177.[38]Cf.J.M.Moor,“TheNature,Importance,andDifficultyofMachineEthics”,IntelligentSystems,IEEE,21:4(2006),pp.18-21.[39]Cf.P.Taylor,RespectofNature:ATheoryofEnvironmentalEthics,PrincetonUniversityPress,1986,p.14.[40]Cf.K.E.Himma,“ArtificialAgency,Consciousness,andtheCriteriaforMoralAgency:WhatPropertiesMustanArtificialAgentHavetobeaMoralAgent?”,EthicsandInformationTechnology,11:1(2008),pp.19-29.[41]Cf.M.Coeckelbergh,“MoralAppearances:Emotions,Robots,andHumanMorality”,EthicsandInformationTechnology,12:3(2010),pp.235-241.[42]Cf.J.P.Sullins,“WhenIsaRobotaMoralAgent?”,MachineEthics,CambridgeUniversityPress,2011,pp.151-162.[43]參見烏戈·帕加羅:《誰為機器人的行為負責?》,張卉林、王黎黎譯,上海人民出版社,2018,第110—132頁。

[44]Cf.W.WallachandC.Allen,MoralMachines:TeachingRobotsRightfromWrong,OxfordUniversityPress,2009,pp.79-81.[45]Cf.P.M.Churchland,“TheNeuralRepresentationoftheSocialWorld”,MindandMorals:EssaysonCognitiveScienceandEthics,TheMITPress,1996,pp.91-108.[46]對於關係性法則的更加詳細的論述,參見吳童立:《人工智能倫理規範是什麼類型的規範?——從〈儒家機器人倫理〉說開去》,《文史哲》2020年第2期,第51—59頁。

[47]參見亞里士多德:《尼各馬可倫理學》,廖申白註譯,商務印書館,2009,第17—21頁。

#吳童立 #人工智能 #有資格 #成為 #道德 #主體 所屬分類: 科學 版權聲明:本文源自網路,於2021年07月26日,由天天要聞整理髮表,共20054字。

轉載請註明:吳童立:人工智能有資格成為道德主體嗎|天天要聞 相關文章推薦~ 工信部發布智能網聯汽車標準化工作要點,一汽投資5000萬元成立人工智能公司 加速布局智能網聯一汽5000萬成立人工智能公司 一汽集團5000萬成立人工智能公司,加速布局智能網聯 武漢大學成立人工智能研究院,教育部50家人工智能院所的小目標已經完成4/5 3秒發萬人工資!釘釘發布智能薪酬、智能工資條兩款新應用 中國人工合成澱粉,有資格獲諾獎嗎? 從“人工智能”變成“人工智障”有多簡單?一個單詞就夠了! 20個重大創新成果發布,多個人工智能創新平台成立 吳文俊人工智能科學技術獎揭曉 華為兒童機器人,不一樣的人工智能 人工智能公司西井科技完成億元新一輪融資 山東省人工智能學會視覺應用與智能技術專業委員會(籌)成立大會 頻道熱榜~ 1 不明金屬物出現在隼鳥2號帶回的小行星樣本中,具體來源暫未確定 熱 2 這一次是我們中國科學家!利用最新方法,測出了銀河系的總質量 延伸閱讀 奇妙腦洞,人類死後的未知空間,竟是處和我們現實生活類似的世界 1010views 04/18 難以置信!人類發現已探測規模最大的宇宙爆炸 1548views 04/18 旅行者號發現巨大火牆,這堵牆究竟是什麼?科學家都覺得神奇! 1241views 04/18 兩個月研發出新冠疫苗,Moderna是怎麼做到的? 1836views 04/18 神秘“7號冰”到底有多強大?專家:若這種冰出現,可能毀滅地球 1586views 04/18 科學家發現黑暗“冥界”奇觀,在裡面待一年等於地球的248年 1901views 04/18 我國最先突破機械外骨骼的動力瓶頸,軍事意義令人膽寒 1461views 04/18 60億光年外出現神秘信號,中國科學家破譯信號,結論顛覆人們認知 1116views 04/18 我們的祖先智人在5萬年前欠下的風流債,卻讓現代人埋單。

1093views 04/18 羅布泊現大量乾屍,專家鑒定有驚人發現,難道山海經的記載是真的 1931views 04/18 相對小留學生這位女學霸更應接回,訪問學者在美髮表《自然》論文 1414views 04/18 聯盟號宇宙飛船發射成功,總設計師確診新冠,國際空間站或有危機 1086views 04/18 人類文明真的在輪迴?如果不是,那麼這些證據又該怎麼解釋? 1709views 04/18 羅布泊現大量“乾屍“,專家鑒定有驚人發現,難道山海經記載是真的? 1237views 04/18 愛因斯坦死前銷毀手稿之謎研究成果嚇死美國 1067views 04/18 中國軍力如此強大,離不開這5位科學家,美國都忌憚不已 1688views 04/18 分類目錄 美女 娛樂 情感 體育 歷史 遊戲 英超 NBA 養生 星座 減肥 國際 科技 搞笑 時尚 汽車 美食 育兒 熱門 軍事 明星 動漫 寵物 電影 電視劇 綜藝 八卦 數碼 健康 科學 心理 故事 佛學 美文 教育 家居 資訊 財經 風水 每日要聞 陸劇吧



請為這篇文章評分?