以法律角度談AI的自律與他律

從生成式AI 到負責任AI

以法律角度談A I 的自律與他律


文/馮震宇 圖片提供/達志影像、Gettyimages


重點摘要

1. 隨著AI 技術的發展,以法律角度而言,是否仍由業者透過負責任AI 的自律方式處理,還是應該由他律的方式加入因應,是這波AI 熱潮下的重要議題。

2. 生成式AI 已具有自我學習與自我修正的能力,掌握語言的AI 等於取得一把打開人類精神世界的鑰匙,透過對語言的運用取得人類的信任,進而可能會對人類的經濟、社會、文化、政治等層面造成影響。

3. AI 強大的影響力及可能產生的問題被揭示後,凸顯自律性質負責任AI 的缺陷,也引發各界要求凍結研發與加強國際監管的呼籲。

4. 目前全球對AI 監管架構規劃最完整、最積極的就屬歐盟,除了公佈AI 白皮書之外,並推動整體立法架構,試圖催生首部AI 監管法案。



當ChatGPT 熱潮以雷霆萬鈞之勢橫掃全球之際,也產生了一個嚴肅的課題。那就是伴隨AI 運用而產生的各種違法、侵權或不當的行為,到底應該要由誰負責以及應如何規範。其中的一個關鍵問題,就是是否仍由業者透過負責任AI (Responsible AI, RAI) 的自律方式處理,還是應該由他律的法律層面加入因應,是這波AI 熱潮下待解決的重要議題。

從AI 這一觀念誕生以來,人們就對AI 充滿各種幻想,也擔心AI 發展的可能威脅。在ChatGPT 引領的熱潮下,生成式AI 的進展一舉突破過往,甚至在GPT- 4 和Google PaLM 2 等新一代大型語言模型的助攻下,正朝著通用人工智慧(AGI) 的目標邁進。隨著生成式AI 的技術進展,人們從對ChatGPT 從最初的擔心(被用來寫報告或論文),逐漸變成擔憂這些新興的AI工具是否會誤導人類、傳播虛假訊息、侵犯隱私權或智財權、取代部分人類的工作、甚至被用於影響選舉結果。AI 可能導致的各種問題已開始受到各方的關注,國際間甚至出現暫緩AI 發展的呼聲及行動,這使得原本僅存在企業界層面、屬於自律功能的負責任AI,提昇到國家、甚至國際的層次,蛻變為法律所強制要求的AI應負責任,問題是AI 要如何負責呢?

負責任A I 的自律展現

所謂負責任AI,是一個對機器學習服務的深刻思考,認為各種組織在發展機器學習服務時,應重視服務對象的個體性與特殊性。根據微軟的見解,負責任AI 是一種以安全、可靠和合乎道德的方式開發、評估和部署AI 系統的方法,並尊重公平性、可靠性和透明度等持久價值觀。

Google 雖然最初並未使用這一名詞,但其所採行的「AI 最佳推薦實踐(Recommendedbest practices for AI)」則認為在設計AI 系統時應遵循軟體開發最佳做法,並且採用「以人為本」的方法運用機器學習技術,考慮公平性(Fairness)、可解釋性(Interpretability)、隱私權(Privacy)、安全性(Security) 等基本原則。而Google 在2018 年推出此AI 原則後,TensorFlow 等團隊都依該原則發展產品,也推出負責任AI 的工具和技巧,成為負責任AI 的重要推手。

但是這種存在於企業層面的負責任AI 自律原則,在生成式AI 的推波助瀾之下,已無法因應AI 發展所產生的各種問題,導致各界對AI加以監管的聲量不斷的擴大,各國逐漸開始以法律方式介入,也讓負責任AI 的自律原則面臨重大的挑戰。

暫緩A I 發展的聲浪湧現

首先,由人工智慧和數位政策中心(CAIDP)在2023 年3 月透過公開信以及向美國聯邦貿易委員會(FTC) 投訴等方式,呼籲FTC 採行措施暫停先進AI 實驗和使用。

更受矚目的,則是由未來生命研究所(FLI)提出的暫緩AI 發展公開信。該信以AI 可能會對社會及人類帶來潛在風險為由,呼籲暫緩發展比GPT-4 更先進的AI 技術6 個月,直到獨立專家發展出共通的安全規範並加以實施。這封公開信吸引了特斯拉創辦人馬斯克、蘋果共同創辦人Steve Wozniak 等千人參與連署,後續有越來越多的人士簽署這封公開信,截至2023年5 月18 日,全球已經超過27,500 人連署。

就連開發AI 的學者專家,也對未受規範的AI 發展感到憂慮。像是被尊稱為「AI 教父」的人工智慧專家Geoffrey Hinton,他認為生成式AI 有著難以預先控管的可能性升高。企業為了在技術上取得領先地位,恐怕會放寬相應的規範與限制,若政府機構、管理單位及科技業者自身都尚未準備好相應規範與有效控制辦法,恐怕會使得AI 出現更多不可控的情事,甚至影響倫理道德。

出乎意料的是,就連開發ChatGPT、引爆這一波AI 熱潮的OpenAI 執行長Altman 也在5 月中於美國參議院作證時表示,「隨著AI 科技的進步,我們明白世人對AI 將如何改變我們的生活方式感到焦慮。我們也有同感。」他也認為,「如果這項科技出了問題,可能會非常糟糕 」。為此,他建議成立一個美國或全球監管機構,為強大的AI 系統頒發許可證,以阻止AI模型「狂妄的自我複製和自我滲透」,並有權「取消許可及確保符合安全標準」。

然而,就在各方對AI 表達關切之際,微軟又丟出一顆震撼彈。根據《紐約時報》5 月17 日的報導,微軟AI 研究團隊在1 篇長達155頁的論文《人工通用智慧的火花》中,證明GPT-4 展示出對人類概念和技能的理解能力,是向通用人工智慧(AGI) 邁出的重要一步。這說明了縱使有各方的呼籲,但是仍無法對AI 技術的快速發展造成阻礙。


▲有「AI 教父」之稱的Geoffrey Hinton 認為,生成式AI 有著難以預先控管的可能,若政府機構、管理單位及科技業者自身都尚未準備好相應規範與有效控制辦法,恐怕會使得AI 出現更多不可控的情事。

為何對A I 加以監管的聲量在增加?

雖然國際間已有呼籲聲浪,但是對AI 加以監管舉措的國家仍然有限,也有許多人認為AI尚未達到AGI(或稱強AI),也不具有感知與行動能力,因此不需要對正在發展中的AI 技術加以監管。不過這並不表示AI 不會對人類的社會與文明構成威脅,主要的原因就在於,快速發展的生成式AI 已經具有自我學習與自我修正的能力,這些能力甚至超過AI 系統開發人員的預期。

此外,新的AI 已經能夠掌控語言,並透過和人類不斷的對話及互動,而使人類對AI 產生信任關係,進而影響到人類的意見與想法。由於語言是人類最重要的溝通與創作工具,透過對語言的掌握,AI 等於取得一把打開人類精神世界的鑰匙,透過對語言的運用並取得人類的信任,可能會對人類的經濟、社會、文化、科技、宗教、甚至政治造成影響,而其影響力甚至會超越現有的各種社群媒體平台。

需要對AI 加以適當監管的另一個原因,就在於AI 和傳統媒體或傳播工具的差別。傳統的媒體或工具只能傳遞和散佈人類所創作的資訊或創作,並不能自行創作新的資訊加以散播,但是AI 卻擁有自行創作的能力,甚至具有創作出一種新文化的可能。

既然AI 有這麼強大的影響力與功能,卻可以在沒有經過任何政府機關審核與監管的情形之下,不斷的推陳出新、甚至自行公開上市,也凸顯出各國對AI 監管方面出現的問題。這些問題的出現,使得原本僅存在於企業自律層面的負責任AI 原則開始受到各國的關切,甚至已有部分國家試圖將此種原則提昇到法律的他律層面,其中最積極的就屬歐盟,特別針對AI 規劃了一個完整的監管架構,也賦予負責任AI 一個嶄新的意義。

從自律到他律的A I 監管

由於AI 產業的競爭不斷擴大,除導致AI技術快速發展、甚至即將跨越通用AI 的紅線… 閱讀完整內容
能力雜誌2023年6月號

本文摘錄自‎

競爭優勢 從生成式AI 到負責任AI 以法律角度談AI 的自律與他律

能力雜誌

2023年6月號