AI已成為各國重點發展的戰略目標,加上ChatGPT帶動生成式AI大爆發,AI對於法律實務及專利制度所帶來的衝擊與挑戰已不容忽視。
圖片來源 : shutterstock、達志影像
AI法律的規範進展
由經濟部智慧財產局、工業技術研究院、全國工業總會、5G產業創新發展聯盟所共同舉辦的「2023智權系列研討會」,今年將AI人工智慧之專利與法律挑戰列為重點主題。
資策會科法所所長蕭宏宜指出,台灣的AI法制建構主要分為AI基本法草案和公務機關使用生成式AI兩大層面,生成式AI參考指引草案的重點在於禁止使用生成式AI寫機密文書、公務員不得向AI提供公務機密,各機關若使用生成式AI執行業務應揭露相關資訊。
由於AI技術發展太快、應用面太廣,將延後立法時程。國科會原先預計於2023年9月推出「人工智慧基本法草案」,包括AI法律名詞定義、隱私保護、資料治理、風險管控、智慧財產權,倫理規範、產業推動等七大重點,以及AI應用法遵與合法性等面向,不過國科會主委吳政忠日前表示,ChatGPT的生成式AI問世後,歐盟、美、日都有意訂定專法監管,雖然歐盟開出第一槍,但草案要經過三關目前只通過第一關,其他國家仍在研議尚未定案,台灣必須密切觀察國際上對生成式AI法律規範的情況及變化,以免因法律限制太大,壓抑各產業的發展空間。
ChatGPT與Transformer模型演算法
台灣資訊智慧財產權協會理事長陳家駿指出,這半年多來,美國OpenAI所開發的ChatGPT聊天機器人在全世界夯到不行,ChatGPT是一種基於生成式預訓練轉換模型(Generative Pre-trained Transformer,簡稱GPT),但其中核心關鍵的Transformer模型演算法,其實非OpenAI或微軟自己所原創。
最早是由推出Bard聊天機器人的Google,率先開發出Transformer模型,而該模型係緣自於Google 2017年所推出的原始論文“Attention Is All You Need”而來,之後幾家AI業者也陸續投入基於Transformer模型為基礎而改良或更進一步的應用,但沒想到,OpenAI和微軟在商用上卻後來居上,威脅到Google推出的Bard,至於OpenAI和微軟是否用到Google所發表的Transformer模型專利有待考證,但可以確定的是,Transformer模型是ChatGPT成功推出的重要推手,讓AI得以邁入新的深度學習技術框架並創下里程碑。
OpenAI利用Transformer模型研發出眾所皆知的ChatGPT後,2023年3月更推出基於GPT-4為基礎的新一代的GPT引擎,且放眼研究未來GPT-5的技術,期望透過增加模型規模和參數,擴展自然語言處理能力,並降低大語言模型可能帶來的不實資訊、提高模型的可解釋性,讓人類更好理解AI技術的應用模式。
AI的智慧財產權保護趨勢
過去人類才具有創造能力,隨著AI不斷發展,如今已可自動生成出新聞報導、小說、劇本、音樂、繪圖,對於AI生成物是否受到智財保護的討論也越來越多。今年OpenAI發表GPT-4時,已不再是一個開放的人工智慧模型,OpenAI並未公布訓練該模型的資料、計算集、訓練方法,除了希望保持一定競爭的優勢,也凸顯出開源將使GPT- 4語言模型面臨數據洩露的安全隱憂,因此OpenAI不再「Open」。
蕭宏宜認為OpenAI不採取開源,涉及三個關鍵問題。首先是競爭者可透過還原工程了解產品的營業秘密內容,並搶先申請專利,若反過來起訴企業侵害其專利,恐將面臨訴訟風險。其次是面對競爭者提起的專利侵權訴訟,企業將因沒有專利而無法提起反訴,或透過交互授權(cross-licensing)避免訴訟。第三,如未對員工於工作上使用開放式的ChatGPT做出限制,反覆提問的結果,可能導致ChatGPT掌握資訊內容,並提供給其他提問者,導致原本可主張營業秘密保護的資訊,不再滿足保護要件。
生成式AI應用的法律疑義
此外,在生成式AI實際應用的過程中,也可能衍生諸多法律疑義。蕭宏宜指出,在訓練大型語言模型(LLM)時,可能會使用python程式爬取資料,過程中有刑法妨害電腦使用罪的疑慮,若後續衍生著作,也要注意是否有可能侵害他人的著作權。圖形、聲音、影像等非結構性資料,相較於文字資料更不易監督且危險;而機器學習的過程中被餵了哪些資料也難以掌控,可能造成著作權法架構下的付費與授權機制崩解。
而在LLM模型完成後,使用過程中也會浮現各種問題:演算法是自動化組件的驅動關鍵,如因判斷錯誤而造成人身傷害,行為主體是誰?有故意或過失嗎?此外,模型生成的「著作」權利人是誰?一方面,即使自然人聲稱是以模型為「工具」,自然人背後的公司組織仍在著作過程中居於主體地位,但這樣自然人還符合著作權法上的著作權利人嗎?另一方面,模型訓練過程中可能侵犯他人著作權,問題是,模型訓練採元件化處理,幾乎不可能逐一檢視,告訴人可能會因舉證困難而導致敗訴。
蕭宏宜強調,模型和演算法未必擁有著作權,也未必能、未必願意申請或登記專利,因此對企業而言,加強營業秘密保護成為AIGC時代的重中之重。對於是否應強化對於生成式AI的監管,國際間還在擺盪,若主管機關能識別風險和減少風險,建立更加透明和穩健的監管機制,加強風險管理和監測,使人工智慧在有益於社會的同時,減少其帶來的損害。畢竟人工智慧最大的風險並非機器或系統本身,而是設計系統的人類。
AI與美國專利適格標的
陳家駿指出,AI或機器學習常以演算法為中心,透過類神經網絡進行深度學習,不斷地訓練電腦系統模型。如僅以單純AI演算法要申請專利,可能會遭遇適格性的困難,此類專利申請多年來在美國聯邦法院和專利商標局,常衍生專利適格標的問題而頻受質疑,因為AI常包含如分類(classification)、迴歸(regression)、分群(clustering)、降維(dimensionality reduction)等,若僅以單純涵蓋軟體演算法的權利請求,可能會被視為是不適格之心智行為或抽象概念,而有無法通過的風險。
陳家駿觀察到,雖然USPTO審查委員曾駁掉多項AI相關發明的專利申請,但近年PTAB則是支持好幾項涉及AI相關發明的專利適格,包括與機器學習和神經網路技術等相關專利。
PTAB認為,即使一權利請求落入抽象組別,只要AI能提供實際應用,而在相關領域賦予技術改進時即屬適格。所謂的技術改進包括加強電腦的處理能力,並增進其功能;反之,如僅單純使用AI,並不足以提供實際的應用或發明概念。當通用或標準(generic or standard)的機器學習方法用於自動化流程,而未能以其他方式促進技術時,專利申請即被拒絕。
資料來源:
2023/9/15,2023智權系列研討會-AI人工智慧之專利與法律挑戰,陳家駿簡報。
2023/9/15,2023智權系列研討會-AI人工智慧之專利與法律挑戰,蕭宏宜簡報。
作者:
吳碧娥
現任:
北美智權報主編
學歷:
政治大學新聞研究所
經歷:
北美智權報資深編輯
驊訊電子總經理室特助
經濟日報財經組記者
東森購物總經理室經營企劃
Facebook
在北美智權報粉絲團上追踪我們
Please enable JavaScript to view the comments.