2020年7月,由歐洲議會下轄公民權利和憲法事務政策部(Policy Department for Citizens' Rights and Constitutional Affairs)出版《人工智慧及其民事責任》(Artificial Intelligence and Civil Liability)的研究報告。該研究第一章討論了人工智慧和基於人工智慧的技術的概念,其作為產品規格(qualification)以及法人格屬性(legal personhood)的討論;第二章則分析了現有歐洲產品安全和責任框架(European product safety and liability framework);第三章討論了當前被提出在歐盟層級的建議,即嘗試在專家組報告(Expert Group’s Report, EG’s Report)中就新技術型式(New Technology Formation)來涵蓋有關人工智慧的責任規範;並於第四章提出一種創新性責任監管模式(regulation of liability),即風險管理模式(the Risk Management Approach, RMA);最後第五章依據RMA對四個相關案例進行研究,以便在必要時提出改革建議。本文僅探討醫療機械人和診療輔助技術的部分。
定義是否涉及人工智慧研究次領域和確切定義(Reference to AI research subfields)?
本文僅舉歐盟人工智慧高級專家組(High-Level Expert Group on Artificial Intelligence, AI HLEG)提出的定義為例說明之「人工智慧系統是由人類設計的軟體(可能還有硬體)系統,先給定一個複雜的目標,其會通過數據採集來感知週遭環境,以此來解釋收集而來的結構化或非結構化數據(structured or unstructured data),從這些數據中得到知識(reasoning on the knowledge)或處理資訊(processing the information),並決定為了實現該給定目標而採取的最佳措施;人工智慧系統既可以使用符號規則(symbolic rules),也可以學習數值模型(numeric model),還可以通過分析環境如何受到先前動作的影響來適應其行為(adapt their behaviour by analysing how the environment is affected by their previous actions);人工智慧作為一門學科,包括多種方法和技術,例如機器學習(machine learning)(深度學習和強化學習是其中的具體示例)、機器推理(machine reasoning)(包括計劃、調度、知識介紹暨推理、搜索和優化)以及機器人技術(robotics)(包括控制、感知、傳感器和執行器,以及將前述所有其他技術合併整合到虛實整合系統(cyber-physical systems)中)。」[2] 可見,該歐盟高級別專家組對AI的定義並不及於前述七項標準中的第3(AI類型化)、4(專家組使用「理性代理人」的概念)和5(AI應用面)項。
對人工智慧法人格的可能解釋—「電子人格」(electronic personhood)
在討論電子人格之前,讓我們先來回顧一下歐洲議會於2017年作出的《關於民法對機器人技術規定的決議》(European Parliament Resolution on Civil Law Rules on Robotics, CLRR)中指出:「長遠來看,為機器人創建特定的法律地位,以便至少可以將最先進的自主機器人(most sophisticated autonomous robots)確定為具有負責彌補可能造成任何損害的電子個體(electronic persons),並可能將此電子人格(electronic personality)適用於當機器人自主作出決定或與第三方互動時的情況。」該決議被解釋為對機器人以及更廣泛機器的權利的承認。[3]
2019年,歐洲委員會(the European Commission)任命的專家組(Expert Group on Liability and New Technologies)基於更加明確和實用的推理,從其作出《人工智慧責任報告》(Report on Liability for Artificial Intelligence)中否認電子人格的必要性:「當前沒有必要賦予新興數位技術的法人地位。因為縱使是由完全自主技術所造成的損害,也通常可以透過分配給自然人或現有法人類別來減低風險,在這種情況下,針對個體的新法律要比建立新法人格來得更好。基於新興數位技術的任何形式的法人地位都可能引發許多道德問題。更重要的是,只有創新法律體系這條路,因為它有助於法律體系應對新興數位技術的挑戰。任何其他人格都應與分配給此類電子個體的資金齊頭並進,以便可以有效地向其提出索賠。這將等於設置損害賠償責任的上限,正如公司通過對可歸責於電子人格的自然人或法人提出索賠,從而有效地「揭穿電子面紗」(piercing the electronic veil)。此外,為了體現其法律責任,電子代理人(electronic agents)必須有自行取得財產的能力。這就需要解決它們在從事有效法律行為時所面臨到的法律能力存否的若干立法問題。」[4]簡言之,建立額外法人格將牽涉更多法律和道德面問題,故不可不慎也。
一般而言,民事責任規則具有三個功能:第一個也是最重要的一個功能,是受害者的事後補償功能(ex post compensation),因為它們迫使負責賠償的人彌補所遭受的損失;此外,尚有事前嚇阻(ex ante deterrence)功能。基於若只有事後補償功能的話,則將使代理人經濟效率低下,導致無法意識到有害行為,故容易有積極侵權的情況出現;最後,如果確定侵權人不會規避非法行為的話,民事責任規則也可以起到事後懲罰(ex post punishment)的作用。[7]
解決這些問題的一種可能方案是根據風險管理方法(Risk-Management-Approach, RMA)來確定產品責任,該方法基於能力相匹配原則,將責任分配予能從危險活動中獲利的當事人以賠償損失;根據這種方法,還必須提供一個明確訴訟進入點(one-stop-shop),以最大程度地減少受害人訴諸司法的成本,並增加受害人獲得賠償的機會;基此,損害賠償責任規則應依據自下而上的、功能性的以及針對特定行業作法來制定(bottom-up, functional and thus sector specific approach)規則,從而為具體應用的問題提供量身定制的解決方案;最後,應對該指令進行修訂,以確保高標準的協調。[9]
從政策制定者的角度出發,有必要分析如何在(1)執業醫師(the medical practitioner);(2)製造商/編程人員(the manufacturer/programmer)以及(3)決定採用基於人工智慧的解決方案的醫院或機構(hospital/structure)之間分配責任;或依據現有規則(即過失和產品責任(negligence and product liability))來僱用從業人員。
在這種背景下,根據現行責任規則,執業醫師似乎傾向於採用防禦性醫療(defensive medicine practices)決策。這既可能涉及使用電腦輔助診斷系統(computer assisted diagnostic systems)的選擇,也可能取決於建議的診斷和治療方法。同樣,這種趨勢可以通過「醫師漸進去責任化」(progressive de-responsabilization of the physician)的方式來補充,醫師可以使用有關其選擇的公開資訊來符合或不符合系統的診斷,以此作為一種具體的固化策略(specific curing strategy)來轉移患者知情同意(informed consent)的風險。為了避免此種情況出現,可能的作法是適當的修改現有責任規則或無論如何限制醫師的責任範圍,以保護醫師免受與使用醫療系統有關的責任,而對醫院、生產者或醫療輔助技術提供者而言,則要之承擔嚴格且絕對(strictly and absolutely liable)的一種特定形式的企業責任(enterprise-liability)。
Andrea Bertolini, Artificial Intelligence and Civil Libility, 22(European Parliament's Committee on Legal Affairs of European Union 2020); available at: http://www.europarl.europa.eu/supporting-analyses.
Ibid, 23. See also, AI HLEG (2019),‘A definition of AI: main capabilities and disciplines, European Commission’, Available at the following link: https://ec.europa.eu/digital-single market/en/news/definition-artificial-intelligence-main-capabilities-and-scientific-disciplines.關於其他國家和國際組織對AI的定義,請參考該報告的第23-29頁。
Ibid, 33. See also, European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)., paragraph 59.