AI倫理準則及其對臺灣法制的影響
文章推薦指數: 80 %
張麗卿(人工智慧法律國際研究基金會執行長、高雄大學特聘教授) ... 均已具有AI基本倫理的精神;此外,立法院亦曾有制定人工智慧發展基本法的討論。
Skiptocontent
Postcategory:Opinions&Comments
Postauthor:EditorialTeam
Postpublished:2021-03-03
Tags:asia-pacific,taiwan
◎張麗卿(人工智慧法律國際研究基金會執行長、高雄大學特聘教授)
AI倫理準則,是當前熱衷發展AI的國家,十分關注的議題。
為了避免AI造成人類的悲劇,必須事先建構一套足以因應AI研發與應用的倫理準則,並依此形成法律政策的原則。
以下,先簡介國際上的重要AI倫理準則,指出其中重點,再反思臺灣目前的狀況。
一、國際上的AI倫理準則
現在,積極發展AI的國家或地區,都逐漸設定一些AI倫理準則,特別是歐盟、美國及中國大陸、OECD等。
例如,歐盟的AI倫理準則,包括七大原則,分別是:
應由人類監督AIAI應穩健與安全並值得信賴重視隱私和數據管制使AI具有透明及可追溯性AI應確保多元和公平尊重社會和環境維護建立完善究責制度
美國為了確保AI發展的倫理和社會意識,於2016、2017年,電氣和電子工程師協會先後發布AI倫理設計準則,從技術角度設立AI發展標準。
其後,2018年,美國微軟公司提出的AI倫理準則應該最具代表性,即「公平、可靠安全、隱私保障、多元包容、透明責任」,並且成立AI倫理道德委員會,檢視產品是否符合AI倫理準則。
於此同時,中國大陸的百度公司,也在2018年提出關於AI倫理準則,認為AI首重「安全及可控」,AI的創新願景是促進人類更平等地獲取技術和能力;AI存在的價值是教人學習,讓人成長,而非超越人、替代人;AI的終極理想是為人類帶來更多的自由與可能。
在國際組織上,經濟合作暨發展組織(OECD)的AI倫理準則,較受國際社會(如G20峰會)青睞,其認為:AI發展應具有包容性,AI系統的設計應尊重法治及人權、民主價值觀及多樣性,AI應當具有透明性及負責性,AI應當足夠安全及可靠,以及AI開發、執行等相關人員應對AI負責。
PhotobyTimFosteronUnsplash
二、AI倫理準則不能忽視的重點
AI的發展帶給人們便利,但也可能同時侵犯人們的權利,所以AI的發展與運用,必須兼顧倫理的規範。
綜觀國際AI倫理趨勢,可以發現有個特色,那就是傾向於「以人為本」的AI藍圖,有以下幾個不能忽視的重點。
(一)AI應以人為本
AI發展應遵循以人為本的價值。
AI的研發與運用應當確保人類的自主權利。
AI僅能作為增強、補充人類的認知、社會和文化技能。
AI的發展,應以人為中心,確保可以受到人類的監督。
當人類決策時,AI的角色是輔助者,僅提供更多資訊以及選擇可能性,而不是替人類進行決策。
為了確保基本權利受到保障,必須有充分的人為監督,以確保AI不破壞人的自主權。
為了防止AI迫害人類基本權利,研發時應當搭配「監督機制」。
(二)AI潛在歧視的避免
AI應當公平與多元。
公平,是當代法制的基本精神,確保公平分配利益和成本,並確保個人和群體不受歧視和侮辱。
AI的技術也應當普及化,讓所有人有機會參與。
AI於社會中的運用,也不應使人們的選擇自由,受到不合理削弱。
為了避免演算法的開發偏見或不公平,應當讓開發流程透明,並建立監督機制,來分析AI系統的演算方式、目的、決策等。
(三)AI運用數據的限制
以醫療領域為例,AI對於敏感性資料的大規模收集、使用,可能威脅隱私。
數據資料使用涉及人類隱私,這是基本權保障的一環。
收集數據過程當中,很可能數據本身即包含偏見、不準確、錯誤,故必須於AI演算測試時,預先剔除不恰當的數據資料。
此外,數據資料必須健全,否則當具有惡意或不健全的資料進入機器學習系統,可能會使AI輸出時具有不正確或者惡性的決策。
(四)AI事故的法律責任
以自駕車為例,當發生意外,導致有人死傷,應由誰來承擔法律責任。
AI自主的活動,不會由使用者承擔責任;但是,讓生產者承擔法律責任是否合理,又是生產環節中的何人負責,可能都是問題。
AI的發展固然帶有潛藏的危險,但這是人類社會必須承受的現象。
自駕車如果發生事故,如果要對於特定人的法律責任追究到底,難免阻礙了AI科技的發展。
法律倫理上也許可用「可受容許的危險」這個概念去寬待意外;但意外發生後的賠償或補償,則不能忽略。
法律責任的追究,AI是否值得信任,「可解釋性」至關重要。
所謂的可解釋性,是指AI的決策應可被人類理解和追蹤。
若AI系統對人類社會生活產生重大影響,應該要求AI的決策過程進行適當的解釋。
值得留意的是,法律體系是否應該承認AI的權利主體地位,讓AI承擔相對的法律責任。
又,倘若AI具有權利主體地位,除了AI能否受到處罰以外,還必須思考AI的保護問題。
這些,都涉及AI機器人是否具有法律上的人格問題。
(五)AI系統的審慎設計
人們希望AI具有高度的智能,卻又擔心AI凌駕人類的思考,並因此侵犯人們的權利。
這就形成系統設計上的兩難。
AI具體應用中,決策演算法產生的倫理問題大致有:不確定性、不可理解性、誤導性、不公正性、變革性影響和可追溯性等困境。
這些困境集中在演算法的自主性所引發的倫理問題、演算法在具體應用下的倫理問題、演算法的歸責性困境問題。
針對AI的系統設計,值得留意:
應建立風險評估程序,評估各領域AI的各項能力及風險程度,以此訂立安全措施項目;如果能事先預見系統本身所帶來的特別風險,則應主動開發並測試該系統的安全。
AI的功能在於增進人類社會的福祉,但不應該只考量人類需求,也應重視一切生物與環境,並將眾生及環境也視為AI運用的利害關係者,鼓勵AI具有生態環境永續的觀念。
PhotobyClarisseMeyeronUnsplash
三、臺灣AI的倫理準則與立法動態
臺灣的政府部門已經開始重視AI的基本倫理。
雖然截至目前為止,還沒有官方版的AI倫理準則;但是,有關的法規陸續問世。
2018年的「無人載具創新實驗條例(簡稱無人載具條例)」、2019年的科技部「AI科研發展指引」,均已具有AI基本倫理的精神;此外,立法院亦曾有制定人工智慧發展基本法的討論。
(一)無人載具創新實驗條例
無人載具條例第3條第1款,「透過遠端駕駛或自動操作而運行」的「無人駕駛交通運輸工具」,如自駕車,即屬於無人載具。
由於相關的技術並不成熟,需要透過測試加以落實,所以該條例具有「實驗性」,規範無人載具在實驗場域的相關事項。
在無人載具條例中,已有呈現AI倫理準則。
例如,無人載具條例有尊重人類自主的部分,可以從該條例第17條獲悉,「申請人蒐集、處理或利用個人資料,應遵守個人資料保護法之相關規定。
」又如,確保人類安全的部分,於該條例第1條,「建構完善且安全之創新實驗環境」;或第5條以下,要求研發單位向主管機關提出實驗研發計畫,應提出「已評估潛在風險並定有相關因應措施,及其他與創新實驗計畫相關之安全或風險控管措施」。
這些規定,都是透過法律搭建安全的場域,供有志從事創新科技產業者進行實驗。
又或者,有關AI的透明性,使人們信賴的部分,在無人載具條例第11條規定,主管機關於創新實驗期間,應將申請人名稱、創新實驗內容、期間、範圍、排除適用的法規及其他相關資訊,「揭露」於機關網站;或第16條規定,申請人應於創新實驗開始執行測試之前,於媒體或電子網站公告實驗相關資訊,並於無人載具或實驗場域以適當方式進行「告示」。
(二)AI科研發展指引
AI的學術研究與產業發展,相互協調合作,彼此反饋,應該可以獲得更大的進步。
發展AI,科研上必須有所準據,方能使相關專業人員有所依循,避免在發展AI的過程中,造成不必要的風險。
於是,科技部的AI科研發展指引提到,之所以建構指引,是因為AI的發展,「複雜度極高,若不謹慎利用恐造成重大歧視、濫用之社會疑慮現象,使研發人員心血浪費,AI益處無法充分發揮」。
為了避免前述的風險發生,科技部以「以人為本」、「永續發展」、「多元與包容」三個面向,建構AI科研指引。
關於這三個面向,科技部的說明是:AI發展應以提升人類生活、增進人類福祉為目標,所以應以人為本,尊重人性尊嚴,保障人民權利。
AI研發,應在追求經濟發展、社會進步、環境保護上平衡努力,以成就永續發展的願景。
AI應該普惠大眾,而非個人,本於多元、包容的精神,建立跨領域的對話。
AI科研指引,是用於規範AI科研人員,提醒這些專業人士,在從事AI科研時候,勿忘AI發展的基本倫理要求。
具體而言,科技部建構八項指引:
共榮共利公平性與非歧視自主權與控制權安全性個人隱私與數據治理透明性與可追溯性可解釋性問責與溝通
四、結語
AI的發展與運用,人們既喜且憂,因為AI帶有各種可測與不可測的風險。
我們期望AI能夠如同人類一般思考,但也擔心對人類造成威脅,人類應該如何預為因應。
國際上的AI倫理準則的基本精神大抵一致,「安全」與「以人為本」可能AI倫理準則的核心。
主要工業國家與跨國科技企業提到的倫理準則,還另有可靠、可控、隱私保護等,但其實都屬於「安全」、「以人為本」的衍生。
臺灣在發展AI的同時,也注意到了國際間AI的倫理準則,並加以仿效。
已經公布施行的無人載具條例、科技部的AI科研指引,或曾經在立法院研議的人工智慧基本法,其實都有融入國際上AI倫理準則的身影。
惟臺灣的AI倫理準則,尚難稱具體明確,這或許是立法者可以努力的方向,透過人工智慧發展基本法的制定,使臺灣AI倫理準則法制化。
Readmorearticles
PreviousPost照顧機器人的法律與倫理議題NextPost遊走在疫情熱點與人權紅線的數位足跡
YouMightAlsoLike
自駕車道德難題與問卷調查的研究方法
2020-02-10
GPT-3帶來了什麼?——從哲學到社會學觀點的思考
2020-08-15
能否用人權法來審視國家運用人工智慧技術產生的決策?——簡析「UsingHumanRightsLawtoInformStates’DecisionstoDeployAI」短文
2021-12-21
CloseMenu
延伸文章資訊
- 1立法院議案關係文書(中華民國41年9月起編號)
發展倫理規範角色,爰擬具「人工智慧發展基本法」草案。 是否有當? ... 用有利於人工智慧研發的政府數據權限;法國年度有10 億歐元的AI 研發經費,其中約60%.
- 2韓國人工智慧風險管理趨勢研析
然而,隨智慧機器人技術逐漸深入社會,韓國旋即意識到人工智慧在權益維護、風險管控上仍有進一步補強之必要,進而提出《機器人基本法草案》,並開展韓國在機器人倫理 ...
- 3AI倫理準則及其對臺灣法制的影響
張麗卿(人工智慧法律國際研究基金會執行長、高雄大學特聘教授) ... 均已具有AI基本倫理的精神;此外,立法院亦曾有制定人工智慧發展基本法的討論。
- 4「人工智慧(AI) 倫理指南」的重要性與各國應對現況
Ethics)定義如下:「人工智慧相關利害關係人需遵守之普遍性社會規範與技術原則」。 ... 規範「智慧資訊化基本法」施行後需有完善的下層法令,將針對主要國家與國際 ...
- 5訂定國家AI戰略立委擬提「人工智慧發展基本法」 (行政院智慧 ...
許毓仁今日召開「人工智慧發展基本法草案公聽會」,並在會中做成三大決議,包括AI產業推動首重數據應用,而且應有立法上的授權,要以明確定義在科技數據與公共政策找尋 ...