以法律角度談A I 的自律與他律
文/馮震宇 圖片提供/達志影像、Gettyimages當ChatGPT 熱潮以雷霆萬鈞之勢橫掃全球之際,也產生了一個嚴肅的課題。那就是伴隨AI 運用而產生的各種違法、侵權或不當的行為,到底應該要由誰負責以及應如何規範。其中的一個關鍵問題,就是是否仍由業者透過負責任AI (Responsible AI, RAI) 的自律方式處理,還是應該由他律的法律層面加入因應,是這波AI 熱潮下待解決的重要議題。 從AI 這一觀念誕生以來,人們就對AI 充滿各種幻想,也擔心AI 發展的可能威脅。在ChatGPT 引領的熱潮下,生成式AI 的進展一舉突破過往,甚至在GPT- 4 和Google PaLM 2 等新一代大型語言模型的助攻下,正朝著通用人工智慧(AGI) 的目標邁進。隨著生成式AI 的技術進展,人們從對ChatGPT 從最初的擔心(被用來寫報告或論文),逐漸變成擔憂這些新興的AI工具是否會誤導人類、傳播虛假訊息、侵犯隱私權或智財權、取代部分人類的工作、甚至被用於影響選舉結果。AI 可能導致的各種問題已開始受到各方的關注,國際間甚至出現暫緩AI 發展的呼聲及行動,這使得原本僅存在企業界層面、屬於自律功能的負責任AI,提昇到國家、甚至國際的層次,蛻變為法律所強制要求的AI應負責任,問題是AI 要如何負責呢? 負責任A I 的自律展現 所謂負責任AI,是一個對機器學習服務的深刻思考,認為各種組織在發展機器學習服務時,應重視服務對象的個體性與特殊性。根據微軟的見解,負責任AI 是一種以安全、可靠和合乎道德的方式開發、評估和部署AI 系統的方法,並尊重公平性、可靠性和透明度等持久價值觀。 Google 雖然最初並未使用這一名詞,但其所採行的「AI 最佳推薦實踐(Recommendedbest practices for AI)」則認為在設計AI 系統時應遵循軟體開發最佳做法,並且採用「以人為本」的方法運用機器學習技術,考慮公平性(Fairness)、可解釋性(Interpretability)、隱私權(Privacy)、安全性(Security) 等基本原則。而Google 在2018 年推出此AI 原則後,TensorFlow 等團隊都依該原則發展產品,也推出負責任AI 的工具和技巧,成為負責任AI 的重要推手。 但是這種存在於企業層面的負責任AI 自律原則,在生成式AI 的推波助瀾之下,已無法因應AI 發展所產生的各種問題,導致各界對AI加以監管的聲量不斷的擴大,各國逐漸開始以法律方式介入,也讓負責任AI 的自律原則面臨重大的挑戰。 暫緩A I 發展的聲浪湧現 首先,由人工智慧和數位政策中心(CAIDP)在2023 年3 月透過公開信以及向美國聯邦貿易委員會(FTC) 投訴等方式,呼籲FTC 採行措施暫停先進AI 實驗和使用。 更受矚目的,則是由未來生命研究所(FLI)提出的暫緩AI 發展公開信。該信以AI 可能會對社會及人類帶來潛在風險為由,呼籲暫緩發展比GPT-4 更先進的AI 技術6 個月,直到獨立專家發展出共通的安全規範並加以實施。這封公開信吸引了特斯拉創辦人馬斯克、蘋果共同創辦人Steve Wozniak 等千人參與連署,後續有越來越多的人士簽署這封公開信,截至2023年5 月18 日,全球已經超過27,500 人連署。 就連開發AI 的學者專家,也對未受規範的AI 發展感到憂慮。像是被尊稱為「AI 教父」的人工智慧專家Geoffrey Hinton,他認為生成式AI 有著難以預先控管的可能性升高。企業為了在技術上取得領先地位,恐怕會放寬相應的規範與限制,若政府機構、管理單位及科技業者自身都尚未準備好相應規範與有效控制辦法,恐怕會使得AI 出現更多不可控的情事,甚至影響倫理道德。 出乎意料的是,就連開發ChatGPT、引爆這一波AI 熱潮的OpenAI 執行長Altman 也在5 月中於美國參議院作證時表示,「隨著AI 科技的進步,我們明白世人對AI 將如何改變我們的生活方式感到焦慮。我們也有同感。」他也認為,「如果這項科技出了問題,可能會非常糟糕 」。為此,他建議成立一個美國或全球監管機構,為強大的AI 系統頒發許可證,以阻止AI模型「狂妄的自我複製和自我滲透」,並有權「取消許可及確保符合安全標準」。 然而,就在各方對AI 表達關切之際,微軟又丟出一顆震撼彈。根據《紐約時報》5 月17 日的報導,微軟AI 研究團隊在1 篇長達155頁的論文《人工通用智慧的火花》中,證明GPT-4 展示出對人類概念和技能的理解能力,是向通用人工智慧(AGI) 邁出的重要一步。這說明了縱使有各方的呼籲,但是仍無法對AI 技術的快速發展造成阻礙。