近日來,與自動駕駛技術相關的車輛事故,陸續在各國出現。雖然它們的自動駕駛技術等級不同,而且駕駛人行為、道路狀況也各有影響,但當人工智慧(AI)技術逐漸普及到生活當中時,會產生哪些前所未見的風險?造成損害時又該如何決定責任歸屬?很明顯地,人工智慧的各種應用到底該如何加以規範,已經成為當前亟待解決的難題。
圖片來源 : shutterstock、達志影像
不過,在討論人工智慧該如何使用與規範前,必須先瞭解人工智慧到底能為人們做些什麼。以製造業為例,資策會科技法律研究所所長王偉霖說明,從生產流程、品質控制到供應規劃、需求預測,都有人工智慧的發揮空間。「像是生產流程需要機器人協助搬運或是控制產線流向,品質控制需要視覺、聲音檢測,連市場需求預測都可以從社群媒體討論和客服反應內容的文字進行分析。」
這也顯示人工智慧的技術進程,已經到達無需人類參與、又能自我學習的智慧化程度。王偉霖指出,從有無人類參與、能否自我學習兩個面向來分類,人工智慧技術可以分成決策輔助、自動化、擴增智慧以及智慧化四個階段(表1)。他補充,「當進入智慧化後,機械已經可以根據蒐集到的資訊自己判斷分析並且產出結果,而且這個結果不一定是人類能夠事先預測的,所以才需要進行規範。」
表1:人工智慧技術分類
有人類參與
無人類參與
固線系統
決策輔助: 使用資訊技術來輔助人類進行判斷與決策,但系統無法自我學習。
自動化: 生產線之自動化機械,從原物料、組裝、分配包裝等工作,皆由機器自動控制生產
自我學習系統
擴增智慧: 使用資訊技術來增強人類能力,系統可以進行自我學習。
智慧化: 機械依據不同情況可自主判斷、自主產出,不需要人類協助。
資料來源:「邁向智慧製造與智慧軟體之路首重AI、大數據研討會」資料,工業總會,2021/08/18
人工智慧應用愈廣,對使用規範的需求也就愈高
王偉霖認為:人工智慧的影響範圍可以分成以下四類:
產品安全: 軟體與硬體產品的安全規範、責任歸屬皆包括在內,
工安/勞工議題: 人機工作安全、合法解僱條件與勞工保障,
資料保護/資訊安全: 資料取得規範、資安攻擊因應,
人工智慧倫理: 機器人權利、貧富差距等社會影響。
在世界主要大國中,歐盟在AI相關的立法一直相當積極。為了因應這些潛在影響,今年4月時,歐盟頒布了《人工智慧規則》草案(Proposal for a Regulation on a European approach for Artificial Intelligence),作為成員國進行人工智慧立法時的指引。比起過去數年內歐盟對外公告過的種種政策文件或獎勵措施,王偉霖認為,這份草案具有特別重要的意義。「之前可能只是建議或者態度宣示,但這份草案對於會員國是有強制力的,就算各國還是根據自起的情況完成立法,但必須依照草案內框架來進行。」
根據這份草案的規劃,未來歐盟對於人工智慧的規範強度,將取決於四個風險等級:無法接受、高風險、有限風險以及極小風險。其中,對於風險等級最高(無法接受)以及最低(極小)兩類的規範方向最為明確:若使用後會嚴重威脅人民的基本權利(例如社會信用評等系統、有引誘犯罪之虞等)將會被禁止使用,但若對一般人民幾乎沒有影響,則無須特別立法規範。此外,如果人工智慧使用後可能對一般人造成有限風險,如目前相當盛行的聊天機器人(chatbot),則必須遵循透明原則,誠實告知使用者(表2)。
表2:歐盟建議的人工智慧規範框架
風險等級
應用領域描述
立法政策
無法接受的風險
(Unacceptable risk )
將嚴重威脅人民的生命、生活等權利。
此類AI技術必須嚴格禁止,在任何情形下均不得使用。
高風險
(High risk )
包括:
重要基礎建設
教育或職業訓練
與安全相關的產品或服務
人員聘雇和勞工管理
基本的公共或私人服務
可能影響人民基本權利的執法活動
移民或邊境管制
所有與生物識別(biometric identification)相關的應用
採用前將被課以嚴格義務:
事前充足的風險評估
高品質的資料集,以降低AI系統的風險
記錄系統活動以確保結果可被追溯
系統的使用目的與其他必要資訊必須完整保存,供監管單位評估是否合規
使用者必須能取得詳盡、完整的資訊
適當的人工監督
高度的系統強度,安全性與準確性
有限風險
(Limited risk )
對人民的風險較小且可控。
負有告知義務,即使用者必須明知正與機器互動,並可決定是否繼續。
極小風險
(Minimal risk )
對於人民權利與生活幾乎沒有影響。大部分AI應用均屬於此類。
無需特別制定法律規範。
資料來源:「邁向智慧製造與智慧軟體之路首重AI、大數據研討會」資料,工業總會,2021/08/18
歐盟將以風險高低程度作為人工智慧規範框架
最麻煩的,是被歸在高風險內的人工智慧應用,包括與基礎建設相關(如交通、運輸)、教育、員工聘雇、政府執法……等,而且只要會搜集人們的生物識別資訊(如指紋、聲紋、臉部辨識……等)也都會被歸類成高風險。王偉霖指出,對於這類人工智慧,歐盟的管制手段就複雜許多,包括事前的風險評估、資料集的品質、系統運作紀錄、人工監管…..等。「可以想見,對於這類高風險的人工智慧應用,以後在歐盟各國一定會被嚴格管理。」
除了立法框架外,回到各具體面向的風險控制,歐盟也提出了一些有突破性的想法。例如在產品責任上,目前各國都是採用嚴格責任原則,也就是對於產品本身瑕疵造成的損害,如果使用者沒有故意或過失,將由產品製造者負擔責任。
不過,在製造業逐漸採用人工智慧技術後,這項原則也開始進行檢討,「畢竟當人工智慧的自主程度越高,製造商、營運商、客戶能干涉的程度就越低,」王偉霖分析,歐盟正在研議的方向之一,就是突破傳統的嚴格責任,例如基於人工智慧的特殊性質來創限建新的法律。「在具體作法上,不見得會立刻創造人工智慧的人格,但可能讓機器具備某種程度的締約能力,然後透過強制險的方式,把人工智慧造成的產品瑕疵風險,分攤給製造商或開發者。」
有了這套《人工智慧規則》草案,再加上已經行之有年的GDPR(一般資料管理規則),歐盟已然成為人工智慧相關規範的領頭羊。目前,世界各國無不在積極探索人工智慧的應用可能,遲早也會進入立法加以規範的階段。可預見的是,當前歐盟提出的立法思維,必然會對其他國家造成領頭羊效應。因此,有著強大製造業的台灣,對AI技術的使用需求也只會愈來愈積極,更必須關注歐盟人工智慧立法的政策方向,才能夠及早因應對策。
資料來源:
「邁向智慧製造與智慧軟體之路首重AI、大數據研討會」資料,工業總會,2021/08/18
Europe fit for the Digital Age: Commission proposes new rules and actions for excellence and trust in Artificial Intelligence , European Commission, 2021/04/21
作者:
蔣士棋
現任:
北美智權報資深編輯
學歷:
政治大學企管系
經歷:
天下雜誌記者
今周刊記者
Facebook
在北美智權報粉絲團上追踪我們
Please enable JavaScript to view the comments.