商傳媒|記者簡立宗/台北報導
今年以來,世界科技運用上最熱門的議題莫過於人工智慧,其中ChatGPT的快速發展更是焦點中的焦點。ChatGPT提升工作效率,也將減少規律性業務中可能的人為錯誤,也伴隨產生諸多新衝擊新問題,當代法律雜誌於6月20日所舉行之當代法律論壇中,邀請國內相關領域知名專家學者,在「ChatGPT的法律浪潮」中,為企業應用找出法律盲點,同時為我國相關立法找方向。
「ChatGPT以無法想像的速度迅猛發展,進化過程己超越工業革命傳統發展曲線。」台灣綜合研究院董事長/當代法律發行人黃輝珍表示, AI挾龐大複雜的計算,提供人類在生活及工作上各種智能指引,協助排除疑難雜症,未來將無所不在,依據OpenAI公司與耶魯大學的合作研究,估算聊天機器人ChatGPT和其他AI生成功能軟體工具,未來可能嚴重衝擊高薪白領工作達到二成,以及與其相關職業類別過半以上業務職掌。
除了各行業之工作設計、組織型態以至管理激勵和消費服務等提供流程,勢必需要加以因應,並進行突破性與前瞻性重整,也將法律領域之理論發展及實務運作帶來衝擊,當代法律期盼協助各界對這個議題獲得更全面、更深入、更準確的認知。
台灣上市櫃公司協會理事長蔡榮騰表示,新科技若能得到善用,可以為人類帶來幸福,但人性本惡時又該如何?人工智慧應用快速崛起,引起各國政府高度關注,眾所期待希望儘快規範一個範圍,但法律講求公平公正公義,在追求產業發展的同時,又要因應個人隱私等問題加以限制,可能會影響創意來源,如何兼顧,都是立法時應該考慮的重點,也是台灣相關法案立法前應該深思之處,才能讓我國產業持續能領先全球,再創新一波高峰。
前國家通訊傳播委員會主委、人工智慧科技基金會常務董事詹婷怡律師表示,談到Chat GPT,我們從AI發展的歷史及生成式AI快速發展來看,很多人聚焦於工作被取代,但其實是執行任務工具的再進階。從數位轉型角度來看,科技是為人所用的,帶來更大助力,充滿魅力但同時帶來各行業翻天覆地的變化,對政治經濟社會帶來衝擊與挑戰。
有鑑於新經濟的發展趨勢,目前全球各國無不投入大量資源,關注AI發展甚至制定並形成國家政策,其中監理議題是關鍵,但是監理並非純粹從強度控制出發,監理是為了形塑產業樣貌、維護消費者權益與公共利益,並鼓勵創新,且需要與時俱進。
目前各國際組織高度關注的重點,就是在了解及分析風險與降低風險,並在避免社會問題產生之前提下,發展科技應用帶來的機會與福祉,這些都需要各界共同投入,共同探討。
中原大學財經法律學系助理教授/當代法律雜誌副總編輯蔡鐘慶表示「Chat GPT發展的速度比想像中來得快速,Chat GPT母公司Open AI執行長也呼籲成立獨立機構,針對AI進行規管,以預防未來的風險。」,此外,歐盟人工智慧法案也在今年6月14日經歐洲議會表決通過,針對生成式人工智慧增加更多安全控制措施,並提出新的透明度的要求,希望確保人工智慧研發及創新發展,等待與歐盟理事會、歐盟執委會及會員國談判後確認新的法案。
我國人工智慧基本草案也預計在今年九月提出,民間版的人工智慧基本法草案亦已提出。未來,AI將取代許多重複性工作,不管是智財權的歸屬、隱私權等問題,或AI輔助企業或司法體系提升競爭力等議題,都值得關切。
中原大學財經法律學系助理教授/當代法律雜誌副總編輯蔡鐘慶(左起)、萬國法律事務所資深合夥律師林發立、東吳大學法律學系助理教授章忠信、資策會科技法律研究所副所長顧振豪、勤業眾信風險管理諮詢股份有限公司副總經理林信良、前國家通訊傳播委員會主委/人工智慧科技基金會常務董事詹婷怡、和鼎創投副董事長兼總經理劉奕成、萬國法律事務所合夥律師陳誌泓、奧丁丁集團法務經理尤謙、萬國法律事務所資深合夥律師黃帥升。圖片來源:當代法律雜誌提供
劉奕成:不要將自己的私房機密交給Chat GPT
AI就像隨侍在人類身邊靈巧的牧羊犬,將東西等丟上雲端,就是讓自己的牧羊犬去跟別人家牧羊犬混在一起,雖然可以學到不同的技能,但是也會沾惹不同的習回來,如果在別人的領地上生下小孩又該算是誰的小孩呢?這就是AI在智慧財產權上的難題。
和鼎創投副董事長兼總經理當代法律雜誌首席顧問劉奕成表示,目前很流行的Chat GPT3及Mid journey所使用的版本都是屬於閉源模型,是需要將資料等上雲端,再利用Chat GPT所屬的大型語言模型進行資料分析,所等出去的任何東西都會成為大眾使用,因此當企業員工在上面問了一個問題,問題中帶有公司機密時,公司機密就不再是機密了,這也就是許多大企業禁止員工使用的原因。
與過去弱人工智慧僅模擬呈現部份人類智慧與行為,且多為一領域特定功能的深化如工廠生產線圍棋比賽等,強人工智慧展現出近似人類的行為,超出多數人類的水平令許多人害怕人工智慧可能會毀滅世界,但其實這種恐懼可能更多來自於被取代或被超越。在適度法律監理之下,包括版權權利運用趨勢之下,善用科技的人將大幅勝出,但是要留意的是,每一種AI都有對應的開源式模型,千萬不要將自己的私房機密丟上雲端,供閉源式生成式模型使用。
詹婷怡:建構可信任AI生態系是重要關鍵
前國家通訊傳播委員會主委、人工智慧科技基金會常務董事詹婷怡律師表示,除了技術層面,AI應用直接帶來的是法規、政策及監理的挑戰新難題,也是發展技術的同時要關注之處。其中最大的挑戰就是建構可信任及負責任的環境與基礎,因為這些衍生的議題沒有辦法用單一的方式解決,因此形塑一個值得信任的環境相當重要,藉此針對公眾利益的不同層面,從個人資料、開放資料到資料治理,每一層都需要被關照,最重要的是最底層的個人資料保護要能取得信任,安全必須要能事前防範,執法單位與網路安全業界也要能持續對話。
隨著為萬物相連,這些問題也會變得更為複雜,也突顯出建構一個值得信賴的AI生態系的重要性,從基礎架構、通訊協定到應用層,都要將網路安全、資料保護、基本權利、責任歸屬、倫理及永續列入考量。科技技術及產業要發展,賦能與法制是關鍵,對於監理及法制的觀念與思維也要隨之數位轉型,同時更要關注對社會的衝擊,才能建構一個可信賴的環境。
生成式AI是現在進行式,每個企業都會開始建構一個專屬大腦,但資訊素養、資料治理及公司治理政策,都是企業要訓練AI時必須要檢討注意的地方。
林彥良:信任是最核心的重點
勤業眾信風險管理諮詢公司副總經理林彥良表示,生成式AI的最大強項是可以自動化處理任務,也能同時處理多個任務,大幅提升使用者的工作效率,但是也伴隨著作權、隱私去識別化、軟體開發安全及程式品質風險及資料正確性風險,其中很多都與其取得及學習之內容有關。
生成式AI 需要大量的資料來訓練模型,以便能夠學習到真實世界的樣式和結構,但通常需要大量的計算資源來訓練和生成新的內容,也可能會對個人和企業造成很大的成本壓力,特別是對於那些無法存取高性能雲端資源的用戶。生成式 AI也可能會生成出乎意料的結果,或產生一些不正確、不合適或不適當資訊。
未來生成式AI可能會比較像一個聯邦式的方式,大家有一個機制與共識去作規管,在結果不是可以有效預期的狀況下,可能最終還是無法完全仰賴他,而是需要人為的介入,才能讓AI達到最好的效果,因此AI最重點不是在取代人,而是人機協作的過程,信任才是在所有領域中最核心的重點,在這點上就會需要法規的指引。大語言模型可能只是其中一塊,未來可能會有邊緣AI永續AI等議題,企業應該選擇一個最適合自己發展的邏輯及業務過程,最重要的是趕快瞭解,知道如何與既有業務進行串接。
陳誌泓:企業應重視資料分級強化保密文化
以企業為主體,應該如何思考Chat GPT的使用?萬國法律事務所合夥律師陳誌泓表示,企業使用Chat GPT,第一個所面對的就是公司營業秘密的洩露,或可能無法再主張構成營業秘密問題,因為營業秘密的三要件之一就是合理保密措施,一旦企業任由員工將公司機密資料上傳至Chat GPT,就等於失去營業秘密的要件。第二,若將與客戶往來之機密資訊輸入,也有可能違反保密協定,而可能需要負損害賠贘責任。第三,Chat GPT生成內容,也有可能是誤用別人沒有授權的資料產生,一旦企業使用後,就侵害到別人的機密或智慧財產權,衍生後續爭議。第四,由於Chat GPT運算邏輯為何,形成解答之邏輯或依據為何,都與所生成的資料是不是真的可以信賴有關,目前實務上,也常見AI說得頭頭是道,內容卻牛頭不對馬嘴或錯誤連篇的狀況。
基於上述疑慮,許多企業持保留態度,認為使用前應該先釐清疑慮,目前有三星電子完全禁止員工使用生成式AI工具,也有台積電以比較積極正面看待,規定不可以在上面分享公司資訊及個人隱私,或完全信任其生成結果,在有條件的前提下,可以允許員工使用。日本內閣府於今年5月所召開的AI戰略會議,檢討AI對網路安全、著作權、個人隱私及教育可能帶來的危險,也有提出有關AI之暫定論點整理,希望透過討論制訂規則,確保AI的正向使用。
最後,如果公司真的想使用Chat GPT,建議制訂內部使用規則,包含針對公司資料進行分級分類,禁止員工將分類為機密者上傳,當然公司經營階層也需要了解Chat GPT的生成規則等資訊,以方便修訂相關公司規則,至於公司的保密文化及對AI之瞭解,則建議可以藉由教育訓練加以強化,以同時兼顧維持生產力及保密需求。
章忠信:善用ChatGPT但要透過人腦來驗證
東吳大學法律學系助理教授章忠信說, ChatGPT可以是專利法保護之專利,也可以是商標法保護之標識,其程式碼可以是營業秘密法保護之營業秘密,但當其訓練若有重製他人受著作權法保護之著作,不宜認定是合理使用。
如果是非營利、暫時性、學術性之資料探勘或文字分析,也許可以認定是合理使用。但ChatGPT很明顯不是非營利而且是永久性的,也未必是學術性的,轉化性之使用,正是被利用著作之潛在市場,應進行利益分配。
至於要如何取得授權或進行利益適當分配,建議可以在著作權法中增訂法定授權機制,也就是不必事先取得授權就能使用,但權利人得要求退出,但是利用別人作品發展系統而產生營利,或拿著作權人作品免費提供使用,就應支付對價,這樣的利益分配或許可以透過集體管理制度進行,也就是付錢給著作權集體管理組織,報酬得不分配給個人,但可以用於促進對整體創作有用之活動。至於完成的成果可否受智財權保護,這是認事用法的問題,也就是在事實上必須有人的智慧在其中,才能受智慧財產權之保護。
至於有沒有必要因應新科技推翻既有概念,對於沒有人的智慧成果在其中,卻產生重大經濟利益的,則可以考慮在法律上作利益分配,也可以不分配而供大眾自由使用。在需要分配的狀況下,則要考慮要給他什麼樣的權利,誰是權利人。
實際上,各國主管機關及司法判決都認同,自然人投入自我智慧,藉由科技完成創作發明成果,可以享有智財權之保護。他建議可以善用ChatGPT的功能,但直接使用ChatGPT生成的內容,充滿不可預期的風險,還是要透過人腦來驗證,才是安全的作法。
王道維:人工智慧基本法不應限制太多
當Chat GPT來敲法官的門,會有什麼樣的機會與挑戰?清華大學人文社會AI發展與應用中心副主任王道維在他與高等法院刑事庭邱筱涵法官共同撰寫的文章中提到,在法律體制中,法官的審判可以說是最核心之處,所以AI是否能夠順利進入司法體系,減輕法官的負擔,非常需要尊重與了解法官的業務與使用習慣。這樣才能讓法官能將心力集中在處理複雜的案件上,而將簡單且大量的案件類型則由AI來協助,以提升司法效能,同時增加人民對司法之信心。
但法官必須依法獨立審判,並不會放心使用一鍵生成的商業產品。反而AI產品需要從設計開發之初就要有法官的實務經驗參與,經過一系列調校才能逐漸成熟。這也就是他們文章所提出的「審慎積極原則」。
他認為從技術面來說,ChatGPT這類大型語言模型未來最好的應用不是取代法官,而是可以作為法官或法官助理的人機轉譯與統整系統,可以將不同單一功能的AI(準確度較高)與ChatGPT(對話適應性較強)結合,讓法官使用時就只需要直接應對ChatGPT使用人類語言提出需求,而由ChatGPT指導其他AI作相關運算,再將運算結果統整告訴法官,以減輕法官使用不同AI系統的時間。這將是ChatGPT這類通用型AI與各種專業型AI結合很好的方式,也能同時顧及使用的彈性與AI的準確度。
但是開發這種法官與民眾可以信賴的AI系統,將之用於司法審判並非垂手可得,還需要政府、學界及民間有更密集與跨領域的合作,共同耐心規劃才能逐步完成。在產業發展上,台灣科技產業才剛開始投入,還需要更多AI於司法的相關應用推出,才知道能力與限制為何。如果資料之取得或運用需要經過層層規範,將會大幅限制產業發展空間。
因此王道維建議在本土技術發展還沒到達類似美國目前的水平時,最近討論中的人工智慧基本法不宜給予太多的限制,可以後來再逐步調整。但如何拿捏界線,細緻處理各種狀況,仍有待產官學界有更多的討論,就實際遇到的個案狀況共同努力務實的調整,而非只憑想像或恐懼而倉促立法限制,才能達到對產業與國家整體最佳的效果。。
顧振豪:藉由基本法規範為產業發展定調
資策會科技法律研究所副所長顧振豪說,除了歐盟及加拿大針對人工智慧技術訂定監管方向之專法草案,目前主要國家包括美國、日本及英國等,對於如何監管仍高度不確定,認為傳統監管可能會扼殺創新且無法跟上技術發展,因此目前仍暫偏向先以推動產業發展及自律為主,且十分重視國際合作,認為應積極參與國際標準訂定。他建議我國可參考國際趨勢,以OECD與聯合國所提倫理原則為基本方向,建構一個可信任的人工智慧應用及發展環境。藉由基本法規範特定領域之綱領性,原則性及政策性內容之專法,作為未來我國相關產業發展之定調。
在作法上,可以責定特定部會為主責單位,搭配不同的機關,將不同的應用之風險防制,回歸到原本各主管機關作目前法令的解釋,或訂定建立所管各目的事業之指引,藉由部份分工及跨部會合作協調機制,一整套的模式會比較符合我國現況。畢竟台灣以技術及服務輸出導向,不像歐盟需要一個所謂控制市場,政府應將主力放在如何協助廠商及服務提供者,符合其他國家規範。
如果台灣希望有自主的人工智慧技術發展,可能就需要透過獎補助的政策工具,促進算力設備與算法的研發,並將數位建設列入公共建設的範圍,完備人工智慧的發展環境,藉以以強化基礎建設,並在資料取用與資料輸出的過程中,強化資料治理的工具。
尤謙:使用時須有防呆測試
奧丁丁集團法務經理尤謙表示,人工智慧再強大,都是某個法律主體所提供的工具,自身沒沒辦法成為法律主體,也沒有將之視為自然人,要求其承擔任何責任,目前也沒有人工智慧專法,談到法律責任還是要回歸到現行法來處理,因此使用者還是要自己承擔法律責任或可能的風險,對於人工智慧的提供者,包含Open AI等所提供的使用者條款都要時時關心。
如同一句網路諺語所說,法律的生命不是在邏輯而是在經驗,經驗本質是一種機率,生成式AI所預設判準是機率,不是判斷對錯的邏輯,若非經特別要求,也不會自行查證,因此使用者在使用前就要將出錯的機率,可能造成的傷害列入考量。當成品出來時,也應該要進一步作防呆測試,此時前端設計可能要花掉更多資源,如果是純綷內部使用,用來處理繁瑣事務,就可以有較大容錯空間,但如果不能容許任何錯誤時,是否一開始就不要使用,或者應該先與技術或法務部門商議出對應的防範機制。
林發立:建構好的法律政策環境引領產業落地發展
萬國法律事務所資深合夥律師林發立表示,IP法制背後很重要的因素經濟利益上如何作配合及切割。AI法制發展現在正是歷史關鍵,就好像1990年代WEB2.0開始商業萌芽之初,許多大型網路供應商大量在網路上提供內容,每天也接收到各方提告的通知。美國1998年千禧年著作權法案之因應而生,不但將市場秩序進行法律建構上之處理,也造就了一個產業巨人。而AI的發展也是站在這樣的關鍵點上,在此時間點,應該開始討論相關法制應何去何從。
比較具體的案子是美國三位藝術家針對AI系統供應商提出訴訟,爭取AI在機器學習的前期階段是否能不經過權利人的同意當然地去學習,雖然公認為在現行法制上要去挑戰,是有很大的困難的,但這就是一個歷史性的時刻。要觀察AI法制的脈絡,要從兩個很重要的方向,一個是訓練機器過程,是否有著作權侵害之問題,另一個是產出的成品算不算著作權法上保護的著作等相關著作權問題。
以日本最近兩個法案為例,日本一來又想將前端機器學習過程中資料應用認定為沒有法律疑慮,一方面又認為沒有辦法以單純學習視之,不是那麼清楚肯定,顯然既想往前又有點退縮。現階段要探索AI法制結論或許有點困難,但各國政府都朝正面態度看待,希望建構好的法律政策環境領導產業落地及正常發展,在這點台灣也應該有自己的想法,從政策面鼓勵產業發展。