【泛哲學】人工智能(AI) 的倫理學問題

文章推薦指數: 80 %
投票人數:10人

近年來,無論是科普社論、專題報導或科普、哲普文章,有許多作者都論及人工智能(Artificial Intelligence ,以下皆以AI 來稱呼),並且似乎都 ... 人訂閱 泛哲學 人工智能(AI)的倫理學問題 智能與責任 哲學界又不是真正研發AI的人,哲學家對智能的定義有那麼重要嗎?在某種程度上,我們不一定要依賴哲學家的定義,但哲學家確認「智能」的定義,是為了確定一件事:有智能,... by:enchihlin,03/17/2021-07:00 您在這裡首頁專欄泛哲學 Byenchihlinon三,03/17/2021-07:00 加入書籤,請先登入網站 泛哲學 難度: 2 近年來,無論是科普社論、專題報導或科普、哲普文章,有許多作者都論及人工智能(ArtificialIntelligence,以下皆以AI來稱呼),並且似乎都不約而同地提出各種科幻作品當中的共同想像:或許有一天,AI將會取代人類在地球上的統治地位。

這類的作品不勝枚舉,從希拉里.普特南(HilaryPutnam)提出缸中之腦(brainsinavat)外面存在的那個邪惡天才科學家(好吧,這位天才科學家仍然是人類——但你可以假想他是AI),到極其知名的科幻電影《駭客任務》(TheMatrix),彷彿位居現階段地球生態系統最高位的我們覺得下一個世代應該就是AI統治的世代一樣。

但AI究竟是什麼?事實上,截至目前為止,「人工智能」這個概念本身並沒有一個非常明確的定義。

「人工(artificial)」比較好理解:由人類創造,不是自然當中誕生的事物。

但是「智能(intelligence)」呢? 「智能」其實是一個非常歧異的字。

有學者對「智能」的分析是:在哲學裡,其中一種說法是若一個個體擁有智能,表示這個個體擁有心靈(mind)。

粗略的說,你會具備一個能夠思維的心智,有著意識以及意識活動,能夠思考……。

這表示對哲學家而言,(至少現階段的)AI並不具有智能。

AI不具備心智,沒有精神活動,沒辦法……思考。

不過,這個定義並沒有被現階段AI研究者所採納。

其中一種分析,是認為多數的AI研究者採納了精神醫學(psychology)的定義:具備一定的認知能力(cognitiveability),就可以說是擁有智能了。

因此,可以認識到資料,可以「學習」的AI,當然是一種智能1。

沒錯,你也可以指出哲學界又不是真正研發AI的人,哲學家對智能的定義有那麼重要嗎?在某種程度上,我們不一定要依賴哲學家的定義,但哲學家確認「智能」的定義,是為了確定一件事:有智能,是不是就代表能為自己的行為負起責任呢?現階段的AI,在本質上是一種進行機械學習(machinelearning)的自動化程序,能夠透過計算我們輸入的資料,然後產生出我們想得到的結果2。

而透過人工撰寫的演算法(algorithm),讓AI能夠在這些資料當中抽取資料的特徵,即是現在許多人會提及的深度學習(deeplearning)。

換言之,不管我們怎麼定義「智能」,最後我們要追問的是:當有「智能」的「它」犯錯時,「它」可以負起倫理學上的責任嗎? 以自動駕駛技術為例,現階段的自動駕駛技術,是透過大量的數據,讓AI學習如何辨識感應器當中回傳的各種資訊:感應器回傳前方30公尺有一個障礙物,而透過鏡頭,AI會辨識30公尺外那個作為障礙物的藍色物體是另一輛車,因此AI應該要控制車輛與其保持安全的距離。

但如果自動駕駛的車輛在不得已的情況下,必須要在兩輛車,或甚至是兩個人之間選一個人撞呢?這個堪比為電車難題(Trolleyproblem)的自駕車難題(driverless/self-drivingcarproblems)在學術上引發了各種爭議,同時也在網路上帶來熱切的討論,有人甚至製作了一系列的小遊戲,讓參與遊戲的人選擇他們應該要讓自駕車撞上高齡90歲的老奶奶,或是躺在娃娃車裡的嬰兒。

到底該撞誰?誰又該負責? 自駕車難題包含(但不限於)以下的兩種問題: (1)當自駕車必須從兩個目標當中選擇撞上其中一者時,我們應該如何幫自駕車制定「該撞誰」的規則? (2)自駕車帶來的任何傷亡,應該由誰擔負賠償與修復等責任? 問題(1)帶來的討論,其實可以粗糙的簡化為「哪一邊比較有價值?」換言之,如果你認為老奶奶比嬰兒有價值,那麼自駕車就應該撞上比較沒價值的那一邊。

自駕車難題使得麻省理工媒體實驗室(MITmediaLab)在2018年推出了一個線上實驗,並讓各個不同的國家使用者勾選他們在自駕車難題當中會做出什麼樣的選擇。

最終出來的結果是:誰比較有價值,取決於你詢問哪一個國家的人民。

拉丁美洲國家相信年輕人的生命價值比較高,而東方國家則比較重視老年人,也傾向於犧牲少數人來拯救多數人3。

這使得自駕車的廠商很可能會在各國販售的自駕車系統當中進行不同的設定,因為自駕車難題雖然是倫理學上極其值得討論的問題,但是設計自駕車的工程師並不是倫理學家,他們沒有興趣探討價值相關的問題,而只想盡可能遵守各國的風土民情。

問題(2)則更加的複雜。

讓我們假設一個已經簡化過的情境:假設法律已經通過了自駕車可以自行駕駛(即,法律允許駕駛員不須對車輛進行操作),有一輛自駕車為了閃避一個衝出馬路的行人,因此撞壞了一輛停在路邊的機車。

假設該行人需要負擔部份責任,而: (A)那台自駕車, (B)自駕車的持有人, (C)自駕車的駕駛員(可以跟A是不同人), (D)自駕車的研發公司,  (E)制定「允許自駕車上路」政策的政府官員, 誰應該肩負起剩下的責任? 那台自駕車嗎?那我們只能以拆掉它當作懲罰,但是沒辦法求償啊。

找車輛的持有人或駕駛員嗎?他(們)根本沒有駕駛車輛啊!自駕車的研發公司嗎?那應該由研發演算法的工程師,製作硬體的生產商,還是公司總裁來負責?但是那輛車已經賣給持有人了啊!政府官員嗎?那是不是每次自駕車發生意外,我們就開除某位立法委員或是體系裡面的某個官僚? 這一題是我已經盡量簡化過的案例,如果牽涉到多輛車撞傷/撞死人的意外事故,當中的責任可能更加難以釐清。

這表示自駕車難題牽涉到的倫理議題,不僅僅是網路上的一則調查或是有趣的小遊戲,而是直接與自駕車到底能不能上路密切相關。

目前比較明確的是,多數學者都同意在任何AI引發的意外當中,應該要負責的是人類,而不是AI。

如同前述,除非哪一天AI真的進步到可以依據「智能」而為自己的選擇負起責任,否則任何有關於「人工智能」的問責性(accountability),最終都需要由人來負責4。

AI的限制與弱點 但是AI不是超級萬能的嗎?演算法這個幾乎被每個科技人掛在嘴邊的字,難道不是指向一種可以幫我們解決所有問題的程式嗎? AI其實比你想像的還要脆弱許多。

現階段對演算法的想像,是認為演算法像是攝影機一樣,可以把所有的資料都照進去,然後在裡面劈哩啪啦的不知道經過什麼程序,就給出了我們要的答案。

但實際上,演算法的產出(output)完全仰賴我們輸入(input)的資料,而這使得演算法非常不穩定,也很容易被操縱。

舉個例子,假設我們有一套演算法會根據學生的各種表現來幫學生評分,最後會給出一個綜合分數然後進行排名。

下一件會發生的事,就是學生開始掌握這套演算法的規則是什麼:演算法比較重視數學成績嗎?那麼我應該要加強自己的數學能力。

參加特殊的比賽會讓演算法幫我額外加分嗎?那我應該盡可能報名各種不同的比賽。

一項公益服務就算0.5分?那絕對是多多益善啊。

換言之,一旦演算法的演算規則(應該輸入哪些資料)被掌握之後,演算法本身的產出就失去了公正性跟客觀性。

更容易懂的例子或許是臉書(facebook)與Youtube在計算哪些貼文跟影片能夠被推送到觀看者眼前的演算法。

找出這種不停變動的演算法規則,成了網紅跟Youtuber永遠無法停止的惡夢:每次他們找出一項規則,就會開始善用那項規則,讓自己在系統當中的排名向前移動,而因為大家都開始使用那項規則,工程師不得不調整演算法的運算規則……5。

是的,演算法或許會因為持續的修正而越來越難以捉摸,但這不表示演算法強悍無比:只要你知道規則,或是輸入的資料有所偏差,你就可以輕易地影響演算法。

想像一下,如果自駕車辨識「感應器前的物體是不是障礙物」的運算規則被有心人士擷取,而他只要在路上擺放一些感應器無法辨識出來的障礙物,就可以輕易地導致數十台自駕車撞毀6。

另一個最常被討論到的演算法弱點,是各種透過爬蟲程式(webcrawler)在網路上擷取資料的演算法(例如谷歌公司的搜尋引擎)其實飽含歧視與偏見。

理由也非常簡單:網路上的使用者寫了什麼,爬蟲程式就會擷取之後丟入演算法當中。

接納了這些資料的演算法,自然會直接呈現大部分使用者(無論是否有自覺)在網路上流露出的歧視。

由於這類的爭議越來越多,而導致谷歌以及臉書的工程師必須要持續調整他們的演算法參數,但仍然有許多部份留在網路上面,並持續帶來影響7 AI可以有道德一點嗎? 那麼,為什麼工程師不能把AI調整得更聰明一點?例如,把道德規範編寫進AI的演算法當中? 好吧,的確有許多學者考慮到這一點,但是問題在於我們應該挑選哪些道德規範?熟知倫理學的讀者,可能會記得倫理學當中包含各種不同的規範性架構(normativeframework),例如效益主義、自我主義、義務論、德性倫理學……。

哪一種規範性架構正確到值得寫入AI的演算法當中?還是我們就隨便挑一種? 在現實當中,我們總是會面對各種不同的道德規範或價值之間的衝突,有些人覺得這個比較重要,另外有些人覺得那個比較重要。

倫理學的研究之一,就是探討如何在道德規範或價值衝突的時候,引用某些模型或案例來仲裁這些衝突。

因此,要讓AI掌握倫理,就必須要不只輸入上述的規範性架構,還要讓AI也能夠像倫理學家一樣,引用某些模型來解決衝突,進而計算出其AI應該採取什麼樣的行為8。

大部分的倫理學家,的確在倫理學跟道德規範上有某些最基本的共識(例如,如果你只是為了取樂而殘暴地殺害一個嬰兒,對多數倫理學家而言,這幾乎不可能是對的),但是在哪一種規範性結構更適合作為AI的判斷原則上,倫理學家仍然爭執不休。

這表示現階段,我們恐怕很難提供給AI一種明確且能夠被程序化的具體規範。

這不表示倫理學家在這件事情上什麼事都不能做。

正好相反的是,為了解決這類的紛爭,有些學者指出我們應該要在AI的研發團隊當中,配置幾個專門處理倫理問題的倫理學家,並讓他們試著找出AI研究過程當中應該要遵守的最基本底限,同時思索如果AI出事的話,那麼AI研發團隊當中的責任歸屬跟釐清要如何處理。

這是因為,現階段大型且重要的AI研發團隊,絕大部分都是專業工程師組成的,而他們往往不具備倫理學方面的知識與訓練。

但是聘請倫理學家,並且為AI設下各種限制,真的符合以利益為導向的AI研發團隊嗎? 現階段的高端AI研發團隊,多數都是由跨國的大型科技企業所掌握的,而當中最具代表性的就是臉書、谷歌、亞馬遜與蘋果這四間科技產業的巨頭。

換言之,這四間公司對AI科技的投資與掌握,幾乎使他們能夠定義AI應該遵循的倫理。

當企業利益跟倫理學家提出的意見衝突時,我們不難想像這些企業家會選擇哪一邊。

AI能夠取代人類嗎? 我在這篇文章當中只能約略地提及幾個目前AI在倫理上要面對的問題,但仍然有更多問題是我沒能指出的,包括演算法對個人隱私的侵害,還有各種因為科技差距而帶來的弱勢迫害等。

這些問題並不是倫理學家探討了上千年的價值或道德規範,而是非常新進的問題。

這使得倫理學家們必須要在非常短促的時間內想出對策,而難免在論述上捉襟見肘。

雖然本文沒辦法提出哪怕上述任何一個AI倫理問題的解答,不過,我們仍然可以嘗試探索這篇文章開頭指出的科幻作品想像有沒有實現的可能:AI真的會取代人類嗎?讓我把這個問題再細分成兩個層面: (1)AI有取代人類工作的可能嗎? (2)AI有取代人類,成為地球生物鍊最高階存在的可能嗎? 對於問題(1),是的,有可能。

不過,與其說有可能,不如說當代的AI已經取代了極大量傳統上必須由人類來執行的精密工作,並且隨著演算法的持續改良以及數據的投入,AI還有可能在更多的工作上面取代人類。

不過對於問題(2),目前學界的研究人員們的共識是:「現在」以機械學習與演算法為主的AI,沒有任何取代人類統治地球的可能。

原因也相當地直接:「現在」的AI,仍然是由人類製作出來的工具,因為沒有工程師,就沒有演算法。

由AI得出的那些數據資料如何使用,也取決於研發AI團隊的目的,而不是讓AI自行決定如何運用。

WikimediaCommons 除了工作之外,科技巨頭也掌握著我們的隱私、金融等資訊。

因此,除非下一個世代的AI,與當代以演算法為主的AI有著截然不同的特性(例如他們真的具備自我思考以及自主學習的能力),否則短期內,我們應該不必擔心問題(2)的發生。

但是我們都該擔心的是,現階段的大型科技公司已經透過AI來取代許多原先由人類從事的工作,也逐漸開始藉此壟斷大量的資源。

那麼當包含銀行帳戶以及私人通訊在內的所有資料,完全存放在由科技公司所開設的伺服器之上,我們生活的一切,最終是否會被這些掌握AI的大型科技公司完全箝制? 或許這才是現階段的AI倫理當中,對我們而言最切身,並最值得關注的問題。

1.ThomasP.PowersandJean-GabrielGanascia,"TheEthicsofEthicsofAI"inTheOxfordhandbookofethicsofAI,OxfordUniversityPress,NewYork(2020),pp.32-33. 2.JoannaJ.Bryson,"TheArtificialIntelligenceoftheEthicsofArtificalIntelligence"inTheOxfordhandbookofethicsofAI,OxfordUniversityPress,NewYork(2020),p.6. 3.類似的報導相當多,在此只擷取一則:〈自駕車的道德難題〉 4.JoannaJ.Bryson,"TheArtificialIntelligenceoftheEthicsofArtificalIntelligence"inTheOxfordhandbookofethicsofAI,OxfordUniversityPress,NewYork(2020),p.5. 5.TomeSlee談了許多這方面的案例,包含學生的案例在內都是整理自Slee的文章。

參照TomSlee,"TheIncompatibleIncentivesofPrivate-SectorAI"inTheOxfordhandbookofethicsofAI,OxfordUniversityPress,NewYork(2020). 6.NicholasDiakopoulos,"Transparency"inTheOxfordhandbookofethicsofAI,OxfordUniversityPress,NewYork(2020),p.206. 7.在我撰寫這篇文章的時候,大部分報導與研究當中提及的關鍵字都已經被谷歌下架,但是類似的研究仍然存在,我簡單挑選了一篇作為範例:〈AI演算法帶有偏見!新研究:黑人用語較易被AI視為仇恨言論〉。

讀者可以自行以「搜尋引擎歧視」等關鍵字找出更多的報導與研究。

8.ThomasP.PowersandJean-GabrielGanascia,"TheEthicsofEthicsofAI"inTheOxfordhandbookofethicsofAI,OxfordUniversityPress,NewYork(2020),pp.39-41. 作者enchihlin 花了很長一段時間慢慢的唸書,但是興趣很廣泛。

覺得人跟人的倫理問題很困難,所以跑去研究人跟環境的倫理問題。

鑑於環境... enchihlin的專欄 發表回應前,請先登入 加入書籤,請先登入網站 泛哲學 心靈哲學 行動哲學 倫理學或道德哲學 人工智慧 人工智能 自駕車難題 AI 電車難題 智能 責任 工作 認知 演算法 科技 企業 訂閱哲學新媒體,支持作者持續創作、打造長長久久的哲普推廣與哲學教育平台。

收聽所有PODCAST節目 時事評論 泛哲學 書評 影評 劇評 相關內容 國際編譯 未來人工智能中的顯學:道德哲學 by:BenjaminLo,11/20/2015-06:00 專題 AI人工智能 哲學床邊談,甜甜的 思想實驗:電車難題 by:小英,06/07/2018-18:00   1of20 下一頁› 今日熱門專欄文章 1 泛哲學 別傻了,生命沒有(你以為的那種)意義 by:張毓思,12/04/2017-18:00 2 書評 你憑什麼厭世? by:Lynn,09/09/2020-12:00 3 泛哲學 什麼,佛教也講邏輯? by:劉吉宴,12/20/2021-12:00 哲學原力訓練所‧線上課程 More泛哲學 泛哲學 知道做不到,代表不知道?朱子學中「真知」意涵的詮釋方向問題 有的時候,我們知道何謂「對的」行動、做「對的」事情,但是很多時候我們還會不做出對的行動。

例如我們看到... by:梁奮程,06/01/2020-12:00 泛哲學 無心靈的人工智能可以生產藝術品嗎? 我覺得其實可以 幾個月前,人工智能「微軟小冰」在數個網路平台發表詩作,但直到微軟公開這件事,沒有讀者發現小冰不是人類... by:許昊仁,09/25/2017-17:00 泛哲學 沒內容的空殼電車  電車難題、終極審判,那些沒得選的選擇 這篇文章所要呈現的是電車難題在內容上的不完整:當所有人都一樣的時候,電車難題也許就是效益論的認同與否... by:philsheep,09/20/2021-07:00   1of60 下一頁› 相關文獻 哲學普及 當人工智慧懂哲學:7個危及人類未來的AI難題 哲學經典 論美論愛:柏拉圖《費德羅篇》譯註 學術專業 哲學跨領域 RobotEthics:TheEthicalandSocialImplicationsofRobotics 小說/故事 艾西莫夫機器人故事全集   1of49 下一頁› 哲學新媒體PhilosophyMedium是由一群哲學人組成的新創團隊,目標是結合哲學專業與網路新媒體,用富有創意的方式在社會上傳播哲學內容和推廣哲學教育。

我們提供哲學課程、服務與產品,​以期​點燃人們對智識和思辨的熱情,滿足大眾對哲學的需求與想望。

訂閱哲學新媒體 最新內容 翻譯班雅明 《班雅明》導論 by:哲學新媒體,12/22/2021-10:00 什麼,佛教也講邏輯? 立宗的要求與史東內克的斷說理論 by:劉吉宴,12/20/2021-12:00 有夠糾結的因果關係 《獅頭人身、毒蘋果與變化球:因果大革命》書摘 by:哲學新媒體,12/15/2021-09:00 標籤(Tags) 泛哲學 哲學教育 道德 自由 政治 藝術 獨立思考 愛 podcast 桌遊 書評 高中 台灣 法國 宗教 知識 正義 電影 科學 理性 搜尋表單 搜尋 Copyright©哲學新媒體,2014-2021.AllRightsReserved.◎未經授權.不得轉載



請為這篇文章評分?