272期
2020 年 11 月 11 日
  北美智權官網 歷期智權報   訂閱北美智權報  
 
《醫療法規專題報導》
從《2020歐盟建議書》看人工智慧及其民事責任
— 以醫療機械人和診療輔助技術為例
吳尊傑╱北美智權報 專欄作家

2020年7月,由歐洲議會下轄公民權利和憲法事務政策部(Policy Department for Citizens' Rights and Constitutional Affairs)出版《人工智慧及其民事責任》(Artificial Intelligence and Civil Liability)的研究報告。該研究第一章討論了人工智慧和基於人工智慧的技術的概念,其作為產品規格(qualification)以及法人格屬性(legal personhood)的討論;第二章則分析了現有歐洲產品安全和責任框架(European product safety and liability framework);第三章討論了當前被提出在歐盟層級的建議,即嘗試在專家組報告(Expert Group’s Report, EG’s Report)中就新技術型式(New Technology Formation)來涵蓋有關人工智慧的責任規範;並於第四章提出一種創新性責任監管模式(regulation of liability),即風險管理模式(the Risk Management Approach, RMA);最後第五章依據RMA對四個相關案例進行研究,以便在必要時提出改革建議。本文僅探討醫療機械人和診療輔助技術的部分。


圖片來源 : shutterstock、達志影像

首先定義人工智慧

這項研究參考了由十四國政府制定之國家戰略和相關政策中使用的人工智慧定義;儘管內容並不完全,惟其提供了有關政府、國際組織以及研究人員就如何看待人工智慧之廣泛資訊,並且是依據七個標準來對之進行定義:[1]

  1. 人工智慧是科學(science)、系統(system)還是功能(functionality)?
  2. 人工智慧是否可以同時指向硬體和軟體系統?
  3. 「弱人工智慧」(weak AI)和「強人工智慧」(strong AI)或「狹義人工智慧」(narrow AI)和「廣義人工智慧」(general AI)之間是否有區別?
  4. 是否僅能將有智慧的系統(Intelligence)視為人工智慧?
  5. 人工智慧是指實際應用(actual applications)抑或是未來應用(future applications)(由風險管理角度以觀,在規範人工智慧時必須考慮特定類別之應用)?
  6. 系統應顯示哪一類的功能才能被視為人工智慧(Features or capabilities)?
  7. 定義是否涉及人工智慧研究次領域和確切定義(Reference to AI research subfields)?

本文僅舉歐盟人工智慧高級專家組(High-Level Expert Group on Artificial Intelligence, AI HLEG)提出的定義為例說明之「人工智慧系統是由人類設計的軟體(可能還有硬體)系統,先給定一個複雜的目標,其會通過數據採集來感知週遭環境,以此來解釋收集而來的結構化或非結構化數據(structured or unstructured data),從這些數據中得到知識(reasoning on the knowledge)或處理資訊(processing the information),並決定為了實現該給定目標而採取的最佳措施;人工智慧系統既可以使用符號規則(symbolic rules),也可以學習數值模型(numeric model),還可以通過分析環境如何受到先前動作的影響來適應其行為(adapt their behaviour by analysing how the environment is affected by their previous actions);人工智慧作為一門學科,包括多種方法和技術,例如機器學習(machine learning)(深度學習和強化學習是其中的具體示例)、機器推理(machine reasoning)(包括計劃、調度、知識介紹暨推理、搜索和優化)以及機器人技術(robotics)(包括控制、感知、傳感器和執行器,以及將前述所有其他技術合併整合到虛實整合系統(cyber-physical systems)中)。」[2] 可見,該歐盟高級別專家組對AI的定義並不及於前述七項標準中的第3(AI類型化)、4(專家組使用「理性代理人」的概念)和5(AI應用面)項。

對人工智慧法人格的可能解釋—「電子人格」(electronic personhood)

在討論電子人格之前,讓我們先來回顧一下歐洲議會於2017年作出的《關於民法對機器人技術規定的決議》(European Parliament Resolution on Civil Law Rules on Robotics, CLRR)中指出:「長遠來看,為機器人創建特定的法律地位,以便至少可以將最先進的自主機器人(most sophisticated autonomous robots)確定為具有負責彌補可能造成任何損害的電子個體(electronic persons),並可能將此電子人格(electronic personality)適用於當機器人自主作出決定或與第三方互動時的情況。」該決議被解釋為對機器人以及更廣泛機器的權利的承認。[3]

2019年,歐洲委員會(the European Commission)任命的專家組(Expert Group on Liability and New Technologies)基於更加明確和實用的推理,從其作出《人工智慧責任報告》(Report on Liability for Artificial Intelligence)中否認電子人格的必要性:「當前沒有必要賦予新興數位技術的法人地位。因為縱使是由完全自主技術所造成的損害,也通常可以透過分配給自然人或現有法人類別來減低風險,在這種情況下,針對個體的新法律要比建立新法人格來得更好。基於新興數位技術的任何形式的法人地位都可能引發許多道德問題。更重要的是,只有創新法律體系這條路,因為它有助於法律體系應對新興數位技術的挑戰。任何其他人格都應與分配給此類電子個體的資金齊頭並進,以便可以有效地向其提出索賠。這將等於設置損害賠償責任的上限,正如公司通過對可歸責於電子人格的自然人或法人提出索賠,從而有效地「揭穿電子面紗」(piercing the electronic veil)。此外,為了體現其法律責任,電子代理人(electronic agents)必須有自行取得財產的能力。這就需要解決它們在從事有效法律行為時所面臨到的法律能力存否的若干立法問題。」[4]簡言之,建立額外法人格將牽涉更多法律和道德面問題,故不可不慎也。

然而,專家組(EG)對電子人格的批評是籠統和抽象的,其聲稱電子人格只會為公司已經存在的法人格簡單地增加一層,嚴格而言,這是不正確的;電子人格的不同概念可以使所表彰實體特徵趨向多元,而不是適用於公司等法人組織,就如同非營利組織和基金會等擁有法人格的組織。[5]

總之,現在或未來可能存在將機器歸為某種法人格的情況;並依照以下兩種方式來實現:(1)通過將今天專屬於公司等的法人格延伸到機器上;或者(2)創建法人格的不同觀點。[6]

進行產品責任指令(Product Liability Directive, PLD)的改革

一般而言,民事責任規則具有三個功能:第一個也是最重要的一個功能,是受害者的事後補償功能(ex post compensation),因為它們迫使負責賠償的人彌補所遭受的損失;此外,尚有事前嚇阻(ex ante deterrence)功能。基於若只有事後補償功能的話,則將使代理人經濟效率低下,導致無法意識到有害行為,故容易有積極侵權的情況出現;最後,如果確定侵權人不會規避非法行為的話,民事責任規則也可以起到事後懲罰(ex post punishment)的作用。[7]

因此,對產品責任指令的修訂應旨在克服以下所有之低效率和難題:[8]

(1)限制該指令的適用範圍(即該事實不含軟體所造成的損害,除非旨在通過不同而又具體的規定來解決該類的損害);

(2)被害人的舉證責任,要求被害人證明損害與瑕疵間的因果關係,但通常排除生產者揭露相關資訊的義務;

(3)指令是採用嚴格責任(或稱無過失責任)。

解決這些問題的一種可能方案是根據風險管理方法(Risk-Management-Approach, RMA)來確定產品責任,該方法基於能力相匹配原則,將責任分配予能從危險活動中獲利的當事人以賠償損失;根據這種方法,還必須提供一個明確訴訟進入點(one-stop-shop),以最大程度地減少受害人訴諸司法的成本,並增加受害人獲得賠償的機會;基此,損害賠償責任規則應依據自下而上的、功能性的以及針對特定行業作法來制定(bottom-up, functional and thus sector specific approach)規則,從而為具體應用的問題提供量身定制的解決方案;最後,應對該指令進行修訂,以確保高標準的協調。[9]

基於人工智慧的應用中民事責任規制的風險管理方法[10]

由於使用基於人工智慧的應用和先進技術而導致的民事損害賠償責任的一切管理工作都涉及兩個基本方面,即產品責任規則(product liability rules)和設想臨時法規(ad-hoc regulation)的可能性;這兩個選項通常被認為是並行運作的,並且不是互斥的。

風險管理方法將責任歸於最能承擔以下行為:(1)識別風險;(2)通過其選擇來控制和將風險最小化;以及(3)管理該風險(理想的作法是在所有其他各方之間匯總和分配風險);最終通過能提供保險賠付機制或無過失賠償金(no-fault compensation funds)的一方。因此,人工智慧的應用在民事責任規制上係採取嚴格的(非絕對)責任規則。

在進行規制之前,須先行評估以下:

首先,需要識別一類足夠統一的AI應用,並表現出相似的技術特徵以及相應的法律(在某些情況下是道德)問題;

其次,需要確定現有在歐盟成員國和歐盟層級的相關立法,可以專門適用於特定的AI應用,而在技術尚未廣泛普及的情況下,則需要進行前瞻性立法以及對可能引起的潛在法律和市場失靈的問題進行功能性分析;

最後,以風險管理方法(RMA)為基礎,當需要進行法律改革時,只有在這種情況下,才可以提出一項建議,明確要求一個特定當事人負責,若非絕對責任規則,則作為所有訴訟的唯一切入點,並授予追索權(rights to act in recourse),在適當時加以保證責任,最終確定其責任的上限。

以醫療機械人和診療輔助技術為例[11]

先進的機器人技術和人工智慧已經在各種不同的醫療環境中使用,並且有望越來越被依賴,包括從診斷(diagnosis)和醫學治療(medical treatment)再到外科手術(surgery),以及特定領域的應用,諸如放射學(radiology)或病毒學(virology)等。

由採用人工智慧的行業、自下而上和功能性監管以觀,因此應對醫療機器人和人工智慧帶來的挑戰尤為重要。

從政策制定者的角度出發,有必要分析如何在(1)執業醫師(the medical practitioner);(2)製造商/編程人員(the manufacturer/programmer)以及(3)決定採用基於人工智慧的解決方案的醫院或機構(hospital/structure)之間分配責任;或依據現有規則(即過失和產品責任(negligence and product liability))來僱用從業人員。

但正如在整個研究中明確指出的那樣,即使在相對狹窄的AI應用類別中,也不能採用一體適用的方法(no one-size-fits-all approach)。實際上,在「醫療機器人」(medical robots)或「醫療AI」(medical AI)的標籤下,出現了各式各樣的設備,這些設備在技術特徵(technical features)、傳播(diffusion)、功能(function)和用途(use)方面又彼此不同。

以外科手術機器人(Surgical robots)為例。在外科手術機器人和可能被非技術用語稱為「智能助手」(intelligent assistants)的一系列應用程式之間可能存在第一類區別。外科手術機器人是複雜的機器人設備,與傳統技術相比,外科機器人可以使醫師以更高的精度、靈活性和控制力來進行外科手術,並且侵入性較小。因此,在討論與使用此類系統有關的損害賠償責任時,我們應同時考慮產品責任的現行規則以及與醫療事故有關的規則。實際上,專家系統和電腦輔助診斷工具在人類手中是充當工具,人類可能會對受智能助手的影響或應為其受到影響的部分行為承擔責任。

在現有法律框架的情況下[12]

在第一種情況(醫師遵從決定,但系統錯了)下,可能適用兩種不同的責任規則:(1)產品責任規則(product liability rules),要求生產者承擔責任;(2)醫療責任規則(medical liability rules),由執行業務的醫療機構承擔責任。在典型情況下,患者將按照已被證明是錯誤的指示起訴醫師或醫院;如果生產者負有責任,後者可以起訴生產者。

在該種情況下,僅適用醫療法規則。因為患者會責怪醫師未選擇可能防止損害的措施,因之認為專家系統的診斷是正確的或者是對前述系統的依賴所致,即系統大大增加了患者確信取得最合適治療的機會。即使實際上不能客觀證明兩者存在因果關係。

因此,醫療責任構成了解決此一問題的首要、也是必要的法律框架。

小結:評估與建議[13]

在這種背景下,根據現行責任規則,執業醫師似乎傾向於採用防禦性醫療(defensive medicine practices)決策。這既可能涉及使用電腦輔助診斷系統(computer assisted diagnostic systems)的選擇,也可能取決於建議的診斷和治療方法。同樣,這種趨勢可以通過「醫師漸進去責任化」(progressive de-responsabilization of the physician)的方式來補充,醫師可以使用有關其選擇的公開資訊來符合或不符合系統的診斷,以此作為一種具體的固化策略(specific curing strategy)來轉移患者知情同意(informed consent)的風險。為了避免此種情況出現,可能的作法是適當的修改現有責任規則或無論如何限制醫師的責任範圍,以保護醫師免受與使用醫療系統有關的責任,而對醫院、生產者或醫療輔助技術提供者而言,則要之承擔嚴格且絕對(strictly and absolutely liable)的一種特定形式的企業責任(enterprise-liability)。

結論

該研究報告建議之監管方法,基於法律明確性原則,旨在透過法律來保護創新技術。再通過RMA來簡化責任規則:意謂優先考慮受害人的賠償問題,以鼓勵業者採用先進技術。以醫學診斷輔助技術(medical diagnostic assistive technologies)為例,由於源自歐盟及其成員國的法律框架設計尚難稱完善,故應予以緊急修訂,基於以下的考量:(1)認為產品責任立法和有關醫療事故的國家立法有重疊之處,無論是契約規定抑或是另外構成侵權行為,在專業過失(professional negligence)的情況下,主要是追究醫師的責任;(2)導致防禦性醫療決策的情況。應修訂現有的責任規則,以保護醫師免受與使用醫療系統有關的責任或最大程度地減少其直接責任的負擔。因此,報告建議應通過嚴格責任規則或通過為服務提供者建立企業責任形式,讓醫院或生產者承擔主要責任。

 

備註:

 

【本文僅反映專家作者意見,不代表本報立場。】

 
作者: 吳尊傑
現任: 北美智權報 專欄作家
經歷: 中央研究院法律學研究所研究助理
學歷: 國立中央大學法律與政府研究所法學碩士
輔仁大學金融與國際企業學系管理學士
專長: 憲法、公司法、金融法、智慧財產權法

 

Facebook 在北美智權報粉絲團上追踪我們       

 





感謝您閱讀「北美智權報」,歡迎分享智權報連結。如果您對北美智權電子報內容有任何建議或欲獲得授權,請洽:Editorial@naipo.com
本電子報所登載之文章皆受著作權保護,未經本公司授權, 請勿轉載!
© 北美智權股份有限公司 & 北美聯合專利商標事務所 版權所有     234新北市永和區福和路389號五樓 TEL:+886-2-8923-7350