從人工智慧難題反思AI倫理原則| 尋夢科技 - 尋夢園
文章推薦指數: 80 %
但是這一框架切斷了技術與倫理、法律和社會之間的內在關聯性。
基於這樣的考慮,本文指出發出AI倫理的中國聲音從根本上來說還是要從應對人工智慧發展面臨的 ...
最新快訊
[2021-12-24]
解決行業痛點:峰米引領家用激光大屏進入全色「高品質」時代
科技
[2021-12-24]
華為再發折疊屏旗艦P50Poket,還有鴻蒙智能汽車來炸場
科技
[2021-12-24]
量產98配列Gasket嘗鮮,達爾優A98三模機械鍵盤開箱拆解
科技
[2021-12-24]
全球僅有的兩個98靜電容鍵盤,有何不同?
科技
[2021-12-24]
港股恒指高開0.79%,科技股反彈,京東漲3%,中石油漲2%
科技
Home科技從人工智慧難題反思AI倫理原則
尋夢新聞[email protected]每日推播熱門推薦文章,趣聞不漏接❤️
加入LINE好友
從人工智慧難題反思AI倫理原則
楊慶峰
摘要:不同於以往的任何技術類型,人工智慧是人類社會發展的重大歷史事件,開創了一個新的時代。
基於這樣的背景,應對AI本身及其應用過程中產生的社會倫理問題就變成AI倫理思考的重要目標。
目前AI倫理的很多思考多是從人類的權利和原則出發來構建倫理框架,如信任、安全、自主和尊嚴。
事實上,人工智慧倫理問題的產生很多是源自人工智慧發展中的難題。
人工智慧發展給人類社會帶來了哲學、社會和技術等三個方面的基本難題。
因此,發出AI倫理的中國聲音從根本上來說還是要從應對人工智慧發展面臨的難題入手。
一旦從難題入手,就會發現不可解釋性成為上述人工智慧發展帶來難題的本質。
僅僅從技術上理解不可解釋性已經不足以為AI倫理構建提供原則基礎。
通過人工智慧與解釋學兩個路徑的梳理,透明性與關聯性成為支撐AI倫理的兩個必要概念。
關鍵字:人工智慧不可解釋性透明性關聯性
註:原文發表於《哲學分析》2020年第2期;本文系國家社科基金重大項目「智能革命與人類深度科技化前景的哲學研究」(17ZDA028)階段性成果;中科院學部「大數據倫理問題及其治理研究」階段性成果。
展開全文
楊慶峰
復旦大學應用倫理學研究中心、復旦發展研究院教授,主要研究方向是記憶哲學與人工智慧倫理、科學技術哲學等。
在AI倫理的思考中,以人類權利為核心的倫理路徑是非常典型的一種方式,這種路徑將人類尊嚴和人類福利作為道德考慮的重心。
但是這種路徑也遭遇到了一些問題,如人類權利的龐雜標準、人類尊嚴的界定、人類福利的標準等等。
丹尼爾.姆洛(DanielMunro)指出了這條路徑有三個方面的困境:人類權利的保障機制、解釋方面的挑戰和超越最小標準。
馬庫斯.杜波(MarkusDubber)等人即將出版的一部著作《人工智慧倫理中的視角與路徑:東亞》闡述了東亞地區的AI倫理的視角與路徑。
面對這一情形,如何發出人工智慧倫理的中國聲音就變得異常重要了。
剛剛通過的世界人工智慧大會發布的《中國青年科學家2019人工智慧創新治理上海宣言》(簡稱上海宣言)提出的四大責任——倫理、安全、法律和社會——尤其突出了將技術帶來難題(如穩健問題、算法透明)作為責任的出發點。
但是這一框架切斷了技術與倫理、法律和社會之間的內在關聯性。
基於這樣的考慮,本文指出發出AI倫理的中國聲音從根本上來說還是要從應對人工智慧發展面臨的難題入手,即從人工智慧發展帶來的哲學、社會和技術難題出發進行分析,闡述其內在的相互關係,並指出透明性作為基礎概念的必要性和問題所在,並從解釋學角度澄清關聯性如何作為另一個必要原則存在。
一、機器智能及其超越:AI帶來的哲學難題
人工智慧不同於以往技術的本質特征是什麼?簡單來說,就是多於工具的東西。
以往的技術都是人類實現某種目的的工具,而人工智慧多於工具的東西就是「智能」。
目前大多數智能的討論主要集中在諸如深度學習等算法原理上。
但是這種理解並不是唯一的,如果從人工智慧學家斯特阿特.羅素(StuartJ.Russell)出發,就會獲得新的理解。
他對人工智慧給出這樣的根本定義:人工智慧是理性行動者(rationalagent),即在某一個情境中採取最好可能行動的理性行動者。
「在本書中,我們採取了這樣的觀點:智能主要與理性行動有關,一個智能行動者在一個情景中採取最好可能的行動。
我們研究了這個意義上被構造為智能的行動者問題。
」在這個理解中,我們更多是看到了人工智慧行動者與行動的內在關係,即智能行動者能夠產生中採取理性行為;也看到了行動與情境的內在聯繫:人工智慧體的行動是在某一個情境中做出最好的決策和行動。
此外,這個定義有效地避免了一個難題,人工智慧體不是主體,而是行動者。
這個規定避免了難纏的形而上學問題,而是從情境與行動的角度對人工行動者進行了界定。
這裡也意味著人工智慧的可解釋性問題可以從行動與情境的關聯為根據來演繹。
超越問題是精神性活動維度,即機器智能能否超越人類智能,更多觸及的是人工智慧的終極指向,涉及到通用人工智慧和強人工智慧的問題。
奇點理論指出,到達「技術奇點」就會實現機器與人類的最終博弈:機器超越人類還是依然處於人類的控制之下。
基於這一問題引發了很多倫理擔憂:比如人類的自主性、自由和尊嚴都會受到極大影響。
應該說,對這個問題的關註引發了科學界和哲學界的眾多討論。
如果繼續思考就會發現,以上關於超越問題的思考都源自一個基本前提:人類與機器都是進化的。
如果從羅素的人工智慧定義出發,我們會發現超越問題的基礎是智能行動者,如果智能行動者具備自主意識或者自主意識獲得覺醒,那麼它就會成為一個與人類相異的他者。
根據人工智慧學者根本定義,人工智慧是像人一樣思維或者行動。
我們具有認知、判斷、情感等能力,而人工智慧研究已經沿著這條道路前進。
人工智慧具備認知、判斷能力,人工智慧也能夠顯示出自己的情感狀態。
超越話語中,人工智慧被描述為類似於人類的行動者,弱人工智慧表現得就像兒童一樣,而強人工智慧表現得像聰明的成人一樣,而超級人工智慧表現得像超人一樣。
在思考及行動的結構方面,人工智慧類似於一面鏡子,通過技術實現著人類的相應行為。
但是,超越話語沒有注意到的情況是:人類與機器之間存在著的相似關係。
這種相似關係類似於二元論:在人類與機器之間存在著先驗的相似性。
一篇有26位作者署名的論文研究了人工智慧走迷宮問題並提出了一個值得關註的結論:人工智慧中類似網格的表征給行動者提供了一種歐式幾何框架:如同哺乳動物發展出的網格結構,其功能如同康德的空間形式來組織知覺體驗。
這篇論文極力說明了三個問題:(1)智能行動體表現出與人、動物相似的類似網格表征;(2)在應對龐雜的外部環境時,類似網格的表征有助於人工行動者在空間中定位、組織路徑。
(3)如果沒有外部因素的干擾,這種表征結構是比較穩定的。
如果說在人與智能體之間存在著先天的相似性,機器智能的發生就變得極其可能了。
人工智慧
二、智能機器及其取代:AI帶來的社會難題
取代問題是物質性活動維度,即是人類實踐活動能否被智能機器取代。
在這一問題中,實際上具有雙重意義:其一是從人類活動的本性看,機器取代人類活動是人類活動技術化的必然結果。
如果某些人類活動可以自動化的話,意味著能夠被自動機器取代,所以這種取代會根據人類活動的自動化趨勢而擴展;其二是從超級智能的角度看,機器取代人類意味著機器獲得自主意識之後產生的必然後果。
當機器智能超越人類智能之後,按照進化邏輯,機器智能必然會以高級的形式來改造低級的形式,出現的結果就是取代人類活動。
比如自動駕駛汽車取代人類司機、智能法官取代人類法官、智能醫生取代人類醫生。
所以取代問題實質是雙重的,人類活動的自動化趨勢及其超級智能生成的結果。
從第二個方面看,它是超越問題衍生的必然結果。
首先我們考察第一點。
何謂人類活動的技術化?在日常的表達中,人類活動的自動化意味著人類活動的一種本性,能夠被某種功能同構的其他活動取代。
人類活動技術化的整體經歷了一個從身體部分的技術化、身體功能的技術化到個體身體的技術化以及人類整體的技術化的演變過程。
這一點我們從技術發展史中可以感受到。
以喝水為例,最初人們喝水是靠手捧,從河水裡面捧水喝。
但是這樣的效率很低,隨著不同種類的容器出現,容器的裝水功能取代了人體[手]的功用,這樣可以獲得更多的水,效率也隨著提高。
在這個過程中,我們一方面看到的是喝水功能的演變,從手到容器的出現;另一方面看到的是手之容納功能被同構的容器取代。
這一點是人類學考察的結果。
所以,這個過程是身體器官的技術化。
所謂器官延伸論的哲學解釋就是身體器官的技術化,身體功能能夠以技術化的方式被替代,如同上面的被子的容納功能取代了手的容納功能。
其次是身體功能的技術化,如五感的技術化,五感指的是視聽味觸嗅,它與身體相幹,但不是身體部分,而是身體功能。
人類的身體功能多半以感知功能的形式表達出來,如眼睛的遠望、耳朵的傾聽、腿部的、腰部的等器官的力量。
大部分都可以實現技術化,人類身體的功能不斷技術化在不同時代表現不同。
接著是整體身體的技術化意味著人類個體的技術化,這一點已經是馬爾庫塞在《單向度的人》中加以揭示的結果,個體變成了技術系統上的一個環節,其功能被取代。
這一取代的自然推演結果是人類整體的技術化,20世紀60年代以來,控制論-系統論等科學與人工智慧技術帶來的是自動化的趨勢,這種取代更為徹底,實現的是整體身體的取代或者整個類的取代。
所以,這個過程表現出的是不斷技術化的過程,從身體部分、身體功能到個體身體和人類整體的技術化。
從這個發展脈絡出發,我們就可以看到不同社會中這一過程如何表現為社會難題了。
身體部分與身體功能的技術化帶來的社會問題並不是很明顯,因為這個時期技術僅僅表現為具體的器物,以眼鏡為例,望遠鏡、顯微鏡等器物的出現,掀起的僅僅是一些日常的爭議,很快被人類社會所接受。
但是當個體身體被技術化的時候,哲學家表示了極大的批判,這種技術導致的異化成為了猛烈的批判目標。
人類整體的技術化更是如此。
這種批判更加徹底化,我們從馬克思那裡能夠感受到,當他討論工業機器帶來工人失業的問題時,更多不是指個體的被取代,而是人類整體的異化。
所以,從這個角度來看,這是人類活動不斷外化的結果,外化通過技術化的方式表現出來。
超越問題和取代問題會把我們帶入到實體論中,即把人工智慧看作是超越人類自身實體力量,能夠自主進化、自主發展的力量。
這會帶來一個嚴重的倫理問題:人類創造的工具最終擺脫人類自身的控制,變成異化的力量。
取代問題是技術異化的最終結果。
人工智慧何以發展出自主意識超越並且取代人類就成為難以理解的問題了,我們把這一問題稱之為人工智慧的不可解釋性問題。
目前,這一問題主要被看作是技術問題,而且這一問題的存在對人工智慧倫理的構建產生了不容忽視的影響。
盡管如此,上述考慮並沒有充分意識到不可解釋性問題從根本上來說還是哲學問題。
三、深度學習及其解釋:AI帶來的技術難題
清華大學的張跋院士及其團隊指出第二代人工智慧遇到了魯棒性和不可解釋性問題,技術界提出可解釋的人工智慧(XAI)目標,然後提出諸多破解XAI的路徑和方法,如孿生系統路徑(twin-systems)、對話路徑(DialogModel)。
牛津大學的一些學者指出,不可解釋性問題的存在使得人工智慧倫理的信任原則難以構建,不可解釋的AI包含的倫理問題如透明性、偏見、隱私安全、可理解性、信任等(BostromandYudkowsky,2014)。
作為技術難題的不可解釋性主要表現為三個方面:首先是表現為人工智慧代際發展中的一個難題。
從代際發展看,不可解釋性是人工智慧發展過程出現的一個現象。
第一代AI不存在不可解釋性問題,不可解釋性問題出現在第二代。
清華大學人工智慧研究院基礎理論研究中心成立大會上,張跋院士指出,第三代人工智慧需要「探索發展魯棒、可解釋的第三代人工智慧基礎理論和方法」。
其次是表現為人工智慧自身有關的技術難題,如深度學習方面。
算法不可解釋性主要是指伴隨深度學習產生的不可解釋性。
深度學習(80年代僅3-4層、2014,22層)中的不可解釋性是阻礙其發展的障礙,特別是在圖像(GAN)和文檔處理上,很難解釋模型到底學習到了什麼。
生成對抗網路(GAN)的圖像生成中深度神經網路構成了「黑盒系統」,實際解釋起來也非常難。
「例如醫療等一些領域需要高的可解釋性和透明性,這意味著我們需要能夠解釋機器決策和預測,證實它們的可靠性。
這需要更高的可解釋性,這意味著我們需要理解算法的機制。
不幸的是,深度學習的黑箱本質始終沒有被解決,許多機器學習很少被理解。
」第三是表現為人工智慧體行動有關的難題,如行動者的感知、思考/決策和行動環節中的不可解釋性問題。
「解釋對於關乎它們的行動、行為和決策透明[與否]的AI系統來說是重要的,尤其是在人類需要基於AI系統結果決策的場景[情境]中更加重要。
一種合適的解釋能夠提升人類對於系統的信任,在交互關係中能夠允許更好地合作」。
針對上述三個方面的問題,人工智慧學者提出可解釋的人工智慧(explainableAI,XAI),來破解不可解釋性問題,比如利用孿生系統路徑(twin-systemapproach)來破解不可解釋性問題。
「提出孿生系統來解決XAI問題,不可解釋的黑箱系統被匹配到更易解釋的白盒雙胞胎。
」還有學者提出「掌握能力測試」來把握一個哪個解釋更好地解釋算法?並將其作為一個可實現的目標。
在中國計算機學會即將召開的「可解釋的AI」工作坊圍繞幾個方面的論題展開研討:針對可解釋AI的算法、工具和框架、修正的具有可解釋特性的深度學習模式、可解釋的結構、因果模式、從作為黑箱的任一模式中推演出可解釋的模式、評價可解釋性、特征與度量、可解釋AI的商業應用、AI中的公平、可解釋性與透明、倫理方面和法律、法律問題和社會責任等話題。
人工智慧
四、人工智慧不可解釋性的多重維度
不可解釋性作為哲學難題表現為對不可解釋性與可解釋性的哲學區分,澄清可解釋的哲學本質,更基本的是直接指向解釋概念本身。
我們最終面對的問題是:現有的可解釋人工智慧依據的基本概念及其局限是什麼?對於這一問題,我們更多看到的是計算機學者的一些工作。
有學者對不可解釋性問題的多元維度進行了分析。
「研究者嘗試發展可解釋的AI(XAI)來滿足實踐的(例如可解釋性積極地與使用者的學習績效相幹)、法律的(可解釋性滿足S.E.C.的需求去仔細檢查AI驅動的貿易技術;可靠性問題)和倫理的(例如解釋的權利、信任和自主性)預期。
」帕拉珊.馬杜邁(PrashanMadumal)被揭示出來的這些維度說明人工智慧被看作是一種工具,可以應用到不同性質的人類社會場景中。
如自動駕駛汽車的不可解釋性問題就會和法律相幹、醫療中的診療機器人的診斷何以被采信就關係到倫理;而利用人工智慧來產生藝術品和制造知識就會牽涉到重要的人類實踐活動。
從這一點上來看,這裡的維度均可以還原到技術之上。
沿循著工具路徑,不可解釋性就等同於與技術原理或者過程有關的「黑箱」。
黑箱多少是一種比喻性的說法,針對技術而言,主要是指技術自身的龐雜性。
因此,克服不可解釋性的問題就意味著破解技術黑箱的秘密,將黑箱秘密呈現出來,讓整個過程變得透明起來。
正如我們看到的,針對深度學習,需要構建修正的可解釋的深度學習模式,構建與黑箱相對的白箱等等模式。
這些方法都是力圖讓技術原理或算法變得清楚可見。
所以,這樣一來,透明性(transparency)成為一個人工智慧領域共同認可的概念。
可解釋性意味著獲得技術的透明性,意味著讓技術原理(比如深度學習機制)變得透明起來,將如何運行的過程呈現出來。
在筆者看來,人工智慧的不可解釋難題根本上是人工智慧解釋問題。
那麼,它是科學解釋還是技術解釋還是哲學解釋的話題呢?人工智慧中的解釋問題並不純粹是科學解釋。
科學解釋的主要特性是因果解釋,而建立在大數據基礎上的人工智慧開始展現出非因果的特性。
眾所周知,科學解釋是追求背後的原因,回答為什麼的問題。
「因為科學解釋的主要原則是因果性的,表達理論定律的等式總是被虛擬描述為因果定律,例如原因和結果之間的常規關係。
……其中演繹-定律(D-N)模式借助定律,而不是理論來描述科學解釋。
」此外,根據原理—理論—定律(PTL)模式,「科學解釋主要是顯示經驗事實(定律或者規則)如何只是科學核心中定律的顯現。
」對於人工智慧而言,很顯然不是因果意義上的把握,也不是定律的經驗顯現。
但是由於它依據的神經科學、計算機科學等自然科學理論,所以它又無法完全與科學解釋分離開,從原理本身來說,人工智慧解釋是建立在科學解釋之上的。
但是,人工智慧的解釋性又帶有技術解釋的特性。
各個領域的機器人、各種操作程序等人工智慧本身又是技術裝置,這種裝置符合技術本身,所以從技術運用來說,人工智慧解釋是技術解釋。
但是人工智慧與生產中的機器、生活中的技術物品還是有著極大的不同。
這就是體現它自身之中的智能行動。
這種智能性意味著人工智慧如生物體一般進化,甚至能夠產生出自我意識或者讓自身自我意識在某一個時刻突然覺醒。
如此,人工智慧解釋又具有目的論解釋的特性,這就是它朝著自我意識產生這樣的目的進化。
為了更好地洞察不可解釋性可能出現的情境,我們梳理了四種相幹情境,以便更好地看到不可解釋性問題出現的場域以及克服相幹問題的可能性出路。
人工智慧的行為是類人行為,「像人一樣思考和行為」。
這一最初的定義可能是從比喻意義上說的,從外觀的類似和行為模式的類似,這些都可以看作是描述意義上的類似。
但是隨著神經科學、腦科學的發展,人工智慧的類人性已經超越了描述意義上的類似,而進入到機制上的類似,如制造出具有移情能力的機器人。
所以人工智慧的可解釋性還需要從人類行為的解釋中獲得啟發。
何為人類行為的解釋?「人類行為通常借助理性化而獲得解釋,例如引用行動者的信念和願望(以及其他意向的精神狀態,如感情、希望和期望),這些構成了做某事的理由。
……這種解釋通常會面臨兩個問題:是否合理的解釋是因果性的,例如它們是否將信念和欲望作為行動的原因,另一個問題是這樣的合理解釋是否必須吻合規律模式,如果是這樣,什麼樣的規律可能支持這樣的解釋。
」澄清信念-欲望與行動之間的關聯就成為解釋的主要任務了。
根據人類行為解釋的原則,需要給行為找到一個合理的認知、信念和願望的根據。
對於智能體行為來說,這一點是似乎有著實現的可能性,當具有情感、判斷、同感的機器人成為現實的時候,機器行為也找到類似於人類的認知、信念和願望等這樣的合理根據。
但是,這畢竟不是根本,人類解釋最根本的特性恐怕是與此在有關,也就是海德格爾揭示出來的在世之中的存在結構。
如果人工智慧的可解釋性與這種有關,這才是真正面臨的挑戰。
我們從技術本身出發,結合技術之行動、技術與人的關係制作了下表:
表1可解釋性與不可解釋性的辯證關係
表1讓我們充分感受到人工智慧中的不可解釋性問題恐怕不僅僅是技術黑箱意義上的,原理黑箱與技術理解、技術行動以及人與技術的關係等共同構成了人工智慧可解釋性的四個方面。
我們可以對這個表格進行分析:
(1)第一種情況是關於技術觀念的,即對什麼是技術的回答。
在技術觀念上,存在著兩種主要的解釋,一種是工具主義的解釋,另一種是實體主義的解釋。
工具論的解釋是大眾普遍接受的技術解釋,強調技術是人類學意義上的、實現目的之方式。
在這種觀點中,技術是人能夠制造、掌控和處置的工具,技術物廢棄可以丟棄、部件損壞可以更換。
「技術是工具意味著發揮功用是以其他事物為代價的,事物被控制、被改造、被組織。
」對這種觀點進行批判所產生的觀點就是實體主義的解釋。
這種解釋以海德格爾為代表,他將技術的本質看作是座架和天命。
在這種觀點中,技術表現為一種超越人類的力量,技術自身的神性因素開始顯現。
所以,在技術理解中,可解釋性指技術從工具主義的角度給予解釋,技術被理解為人類可以制造、掌控和處置的工具。
不可解釋性是指技術自身開始表現出超越人類的性質。
目前人工智慧的思考中,這種不可解釋性開始表現出來。
對人工智慧的意識問題的討論越加這個問題凸顯出來。
奇點理論、超越理論、覺醒理論等等都為實體主義觀念的形成起到了推進作用。
所以如果追求可解釋的AI,在這個意義上一定是基於工具論的理解,將人工智慧限制在「屬人」的性質上。
這意味著人工智慧僅僅表現為輔助工具,成為人類自身的助手。
所以,技術理解上的不可解釋性意味著AI的實體性理解,保持著這種性質會強化人們對人工智慧技術的無知和恐懼。
(2)第二個情況是關於技術原理的。
不可解釋性即技術運行和原理的黑箱;AI過程或者原理的黑箱特性使得人們對技術的信任度降低。
面對這一情況,技術界給出的方案是構建技術白箱。
這意味著讓黑箱變得透明,讓技術運行和原理變得可理解。
所以,在這種情況下,透明性就成一個重要的原則。
技術是可解釋的意味著技術黑箱變得透明化,不可解釋性意味著技術保持著黑箱狀況。
(3)第三種情況是關於技術行動的。
這裡的行動是與情境關聯在一起的。
行動是根據某種情境做出的行動,是依托於情境而獲得理解的。
從這一前提出發,不可解釋性是指技術行動完全脫離了情境變得不可理解;我們可以舉出一個例子,掃地機器人。
一個掃地機器人的工作環境是屋子,打掃屋子。
但是一旦掃地機器人不再掃地而變成了灑水功能,那麼就變得難以解釋。
而可解釋性是指技術行動符合預期的情境,比如掃地機器人在掃地。
這裡會牽涉到技術設計上,尤其是與功能設計有關。
但是,我們想表達的是,在整個技術行動的情況中,原先的技術物的功能僅僅表現為行動,而情境是功能得以實現的可能性前提,也是理解行動的前提。
所以,可解釋性不僅僅是關乎到行動的可解釋性,更關乎到與行動有關的情境的可解釋性,即構造出可解釋的情境。
這更多表現為合乎設計初衷的情境。
AI脫離情境[場景]導致人工智慧的變異,讓人工智慧變異為一種妖精的形態。
(4)第四種情況是關於技術與人的關係。
不可解釋性即技術以在手的狀態呈現出來。
這一模式是從這一前提出發,不可解釋性即人與技術關係的透明性(transparency)的斷裂,技術物以在手狀態出現;AI與人類關係的不透明,技術物處於在手狀態,技術物始終在場。
通過對上面四種相幹情境的梳理,我們發現透明性概念是針對技術原理的概念。
這一概念體現在技術原理和過程之中,其意思是打開技術黑箱;還體現在人與技術的使用關係中,人與技術之間的透明意味著技術物抽身而去,隱而不現。
如戴著近視眼鏡的人都有這樣的體驗,眼鏡並不妨礙人們的行動,在觀看和行動過程中,眼鏡這一技術物隱而不現。
對於這一關係,美國技術哲學家唐.伊德曾經做過極為詳盡的分析。
但是正如前面所說,透明性概念過於狹隘,對於技術本身來說,是沒有任何問題的。
但是無法涉及到技術與人的關係。
而涉及到這一維度的可解釋性時,透明性概念並不能讓我們更好地理解人工智慧。
畢竟這種概念存在的先天局限就是依然在「機器+行動」的模式種來理解人工智慧,而人工智慧的根本定義「智能體在場景/情境中採取最好的行動」是我們需要去解釋和面對的。
在這一情況下,人工智慧的可解釋性需要怎樣的哲學概念呢?解釋學和現象學能夠為這一概念的確立提供怎樣的新概念呢?
人類與人工智慧
五、關聯性:可解釋性的新基礎
本文認為,在情境與行為之間建立起有效關聯是人工智慧可解釋性可依托的關鍵,所謂不可解釋性也多是無法在場景和行為之間找到契合點,而可解釋性是指為行為設計出合乎的情境。
我們需要重新梳理解釋概念的才能夠確立起哲學根據。
在新的框架中,不僅經典現象學成為解釋學的緣起框架,而且後現象學也被考慮在這樣一個框架內。
在經典現象學-後現象學的框架中,解釋學所經歷的四個階段就可以被描述出來。
總體來說,在這樣一個框架中,解釋學的H-H-G-I模式就可以被勾勒出來。
H是指胡塞爾與海德格爾的現象學、G是指加達默爾的解釋學、I則是指伊德的解釋學。
H-H-G確立起來的是先驗的解釋模式,而I確立起來的是經驗的解釋模式。
他們共同點是將行為與先驗框架之間的關聯性給予不同的描述。
胡塞爾對解釋的分析指向了「世界—對象」的意向關聯。
他構造出了諸多先驗模式,如「世界-對象」「視域-對象」「意向行為—意向對象」等。
這些模式,展示了被知覺對象得以顯現的可能性條件,從不同層面展示了對象何以顯示出來。
從先驗模式中,我們能夠把握到的是,客體可以說是存在於背景之中的對象,當客體被感知到的時候,是相對於背景關聯被感知到的。
「在胡塞爾看來,客體不是被孤立知覺到的,而是相對於一種背景被知覺到的,而且是在由其他客體及其他軀體(也包括其他人、動物等等)組成的一種‘周圍世界’(Umwelt)之內被知覺到的。
」這段論述對我們意義較大:首先是在這個由對象組成的周圍世界中,其他軀體是很重要的一個因素,比如其他軀體。
「軀體」包括其他人和動物的軀體。
在這裡我們能夠看到機器軀體呈現的可能性。
在胡塞爾的生活世界之中,機器軀體並沒有被考慮在內,而且後來的標誌著賽博格時代開啟的人類、動物和機器混合的新的軀體。
如果我們把這一先驗論述的原則加以經驗化,就會看到機器軀體作為視域構成物的可能性。
其次視域不僅僅是靜態的條件,而且有著時間性的規定。
「每一體驗都具有一過去,此過去淡入一未決定的‘過去視域’,而且同樣,它也有‘未來視域’。
」這一先驗規定應該說非常重要,它揭示了視域自身的流變性,體驗自身要淡入‘過去視域’,而‘未來視域’之物會當下化。
這是視域變動之根本特征。
這也解釋了被解釋對象的時間性。
如果從記憶哲學的角度來說,對象在記憶意向性之中呈現出過去,而在預期意向性中將未來展現出來。
胡塞爾指出了「世界—對象」這一模式中還有一個非常重要的特性,這就是世界與對象的靜態構造性,即這是基於先驗現象學的靜態分析,並沒有對發生問題進行論述,所以其局限是沒有清楚地解答「世界何以使得對象呈現出來」這樣的問題。
海德格爾對解釋的分析直接指向了「世界-對象」的先後指向結構,他對解釋的闡述有兩點是值得我們注意的。
首先,海德格爾給我們了關於解釋的形而上學界定。
在他看來,「理解—解釋—語言」。
「解釋」根植於理解,奠定於先見,其首要的任務是「從事情本身出發來整理先有、先見和先行把握」。
不同於胡塞爾,海德格爾從對象轉移到了語言。
其次是他突出的是解釋的在先性,先有、先見和先行把握的特性。
所以,在海德格爾那裡,視域的在先性得到了保留。
這種解釋應該說進一步澄清了世界與對象之間的關係。
因為在胡塞爾的解釋中,世界與對象之間的在先性並不是那麼明顯,對象只是相對於背景做出的存在。
所以,海德格爾的闡述讓我們更清楚地意識到了世界視域的先行性。
加達默爾提出的模式是「文檔—視域—融合。
」他將這樣一種形而上學的闡述引入到文學文檔中。
這造就了一種文檔意義上的解釋學。
這意味著加達默爾接受了海德格爾的先行意義,即從效果歷史中將文檔的意義敞開。
在整個過程中,他將視域經驗化為多元的表達,也正式因為如此,才出現多元的視域融合、異質的視域融合。
在融合的基礎上,他為解釋奠定了一種可能性的前提。
當視域多元化之後,必然會出現彼此交融。
所以隱含在視域之中的這一規定性在海德格爾和伽達默爾那裡得到了充分展現。
「視域概念其後被海德格爾並特別是伽達默爾所借去。
後者認為相互理解是通過某種視域重疊而發生的。
在其《真理與方法》中,伽達默爾把一視域說成‘不是固定的界限,而是某種隨著人移動並促使人進一步前進者。
’」
但是,解釋不單單是經典現象學框架內得以回答的問題。
我們還需要將後現象學的框架考慮在內。
唐•伊德解釋這樣一個不可忽視的人。
他從一開始就對利科的解釋學現象學進行了比較深入的研究,後來對胡塞爾、海德格爾的研究也成為他的思想來源。
伊德給予我們的框架是「解釋—技術—透明」。
他運用海德格爾的一對范疇「在手狀態/上手狀態」對技術與人的關係給予了充分地說明。
在他看來,技術就像海德格所說的「抽身而去」,變成了準透明的,因此,技術在這裡並不是「像對象一樣的東西」。
這一觀點中實際上突出的是使用情境,在使用情境中,技術的可解釋性不單單是技術自身的事情,還與使用情境密切聯繫在一起。
所以,通過上述思想溯源我們可以看到,現象學家為我們構建出的是對象與視域、對象與世界的先驗論述,而這種先驗論述完全可以作為我們反思可解釋性的出發點。
解釋意味著使得對象成為可能的條件加以呈現出來,意味著將前提性和條件性的東西呈現出來。
這樣做的特點是將對象與世界之間的關聯給予描述。
在科學解釋中,對象與另一對象發生著因果關聯,但是在哲學的解釋中,正如我們看到因果關聯被包括在更大的關聯之中,並不是對象與對象之間的聯結,而是對象與世界的關聯,在這種關聯中,世界成為對象得以可能的條件。
那麼,從這一前提出發,可解釋性可以做出如下規定:哲學上的可解釋性意味著對象何以可能的條件呈現出來,所呈現之物是在先的,不僅如此,還要呈現二者關聯的內在規定。
而從此出發,不可解釋性是指對象何以可能的條件無法呈現,意味著走向不可知領域或者是超驗領域。
六、結語
通過上述分析,我們已經表明了一般情況下,人工智慧的不可解釋問題更多是從技術層面進行分析的,其內在的哲學根據是透明性,構建可解釋的人工智慧的方法就是獲得透明性的過程,這也成為可信的人工智慧的概念基礎。
但是,這一問題不僅僅是技術問題,而是哲學問題。
技術觀念、技術原理、技術行動和人與技術的關係是不容忽視的四個方面,尤其是技術行動是最為重要的環節。
從這一點出發,我們發現透明性無法作為澄清技術行動的有效概念,無法讓技術行為獲得更多的可解釋性。
對於日常人來說,即便技術機制變得清楚透明,由於術語、背景等多種因素的限制,依然是難以理解。
一味堅持透明性作為可解釋性的哲學基礎意味著在日常與技術之間劃出了很深的鴻溝。
但是從技術行動與情境出發,我們發現這一鴻溝有了被清除的可能性。
借助現象學-解釋學的理論資源,我們發現了行動與世界、行動與情境之間的內在關聯。
如此,只有構建合乎情境的行動才是可解釋人工智慧的真正根據。
這樣做將使得我們進一步對機器行為與情境的關係產生思考。
如果人工智慧機器的行為合乎情境,或者具有在其中的特性,那麼機器與人類的差距將再次被說明是一個偽命題。
也只有借助這兩個原則——透明和關聯——可解釋的人工智慧的構建才有了兩條腿的支撐,變得更加穩定了。
AI人工智慧
About尋夢園
尋夢園是台灣最大的聊天室及交友社群網站。
致力於發展能夠讓會員們彼此互動、盡情分享自我的平台。
擁有數百間不同的聊天室,讓您隨時隨地都能找到志同道合的好友!
Website
Facebook
Instagram
Twitter
更多文章
伴隨著網路技術、算力的提升,人工智能迎來新的發展期。
AI技術的價值最終[繼續閱讀]
隨著電視的互聯網化大潮,家庭娛樂的中心再次回到了客廳之中,全新的大屏經[繼續閱讀]
說起今年的國產手機品牌,當屬華為的榮耀手機最為出彩,其推出的榮耀mag[繼續閱讀]
蘋果再放飛機,Airpower所有消息被雪藏,果粉怎麼看?中國和美國[繼續閱讀]
2018年嵌入式系統展將於12月20-22日在深圳會展中心舉行。
在本屆[繼續閱讀]
導讀阿里達摩院官網公布2019十大科技趨勢:AI仍是最火方向,其中,[繼續閱讀]
為貫徹落實國務院辦公廳印發的《關於進一步做好政務新媒體工作的通知》以及[繼續閱讀]
作者:DIGITIMES韓丁2018年人工智能(AI)行業成為了最受[繼續閱讀]
本文首發平台:千氪(kg.com)1月2日上午消息,阿里巴巴達摩院發[繼續閱讀]
拆開兩層瓦楞紙包裝,取出500V,擺放好。
不得不說,看到它被設計成[繼續閱讀]
劃重點:AI產業鏈按基礎層、技術層和應用層可劃分為三個類別。
基礎層為[繼續閱讀]
京雄AI前沿記者報導(京雄AI前沿訊)1月4日,啟迪控股董事長王濟[繼續閱讀]
搜尋熱門話題電視
機器人
百度
AR
紅米
馬雲
支付寶
Google
互聯網
騰訊
驍龍
oppo
app
vivo
第一
電商
三星
AI
iPhone
小米
科技
蘋果
5G
華為
手機
Copyright©2021 隱私權聲明
/
用戶專區
/
駐站作家合作
/
DMCA / 聯絡我們
延伸文章資訊
- 1160部法規難解決AI倫理問題,專家稱面臨終極準則難題
6月2日下午,第三屆北京智源大會舉辦「人工智慧倫理、治理與可持續發展論壇」,多位專家學者就這些問題進行了深入討論,尋求實現負責任、可信賴、可 ...
- 2從人工智慧難題反思AI倫理原則| 尋夢科技 - 尋夢園
但是這一框架切斷了技術與倫理、法律和社會之間的內在關聯性。基於這樣的考慮,本文指出發出AI倫理的中國聲音從根本上來說還是要從應對人工智慧發展面臨的 ...
- 3解读AI宣言:人工智能面临伦理难题_人类 - 手机搜狐网
对此,对于人工智能技术研究比较深入的国家和地区纷纷给出了自己的“AI伦理准则”,如澳大利亚就有自己的《人工智能发展政策指导》,关注的话题是人工 ...
- 4人工智慧倫理學
人工智慧倫理學. 《科技部AI創新研究中心計畫》. 隨著人工智慧蓬勃發展,未來人類社會中將充斥智慧機器藉以提升生活品質。 然而當人工智慧面臨道德困境時,其道德判斷 ...
- 5張智皓/轉彎或直行?台灣AI倫理學計畫,需要你的道德判斷
2016年麻省理工學院以電車難題為基礎,推出了「道德機器」網站, ... 在該計畫架設的「人工智慧倫理學」網站中,受訪者同樣必須在他所面臨的各項情境 ...