AI世代與我們的未來:當前的處境


二○一七年年底有場安靜的革命。谷歌(Google)旗下的人工智慧實驗室深網(DeepMind)利用自家開發的人工智慧程式「阿爾法元」(AlphaZero),打敗了原本全世界最強大的西洋棋程式「柴魚」(Stockfish)。阿爾法元的勝利具有決定性的意義:二十八場勝績、七十二場平手、零戰敗。隔年,阿爾法元在和柴魚對弈一千場之後,贏了一百五十五場,輸了六場,其餘都平手,於是確定了其霸主地位。

  照理說,西洋棋程式打敗了另一個西洋棋程式,只會讓幾個狂熱分子感興趣而已,但阿爾法元不是一般的西洋棋程式。以前的程式都是先讀取人類棋手上傳的棋譜和招數,也就是汲取人類的經驗、知識和策略。這些早期程式和人類對弈時最主要的優勢不在於原創策略,而是超強的處理能力,因為電腦能在一定時間裡評估更多選項。阿爾法元沒有預設內建的招式、組合或策略,也不向人類學習;它的棋路完全是人工智慧訓練的產物:開發者輸入了西洋棋規則,指示程式去找出勝率最高的策略。阿爾法元花了四個小時和自己對戰,完成內訓之後就成了全世界最有效的西洋棋程式。在寫作本書的此刻,還沒有人類能打敗阿爾法元。

  阿爾法元的戰術一點也不正統,可說是完全原創,自成一格。阿爾法元願意犧牲皇后等人類棋手心目中最重要的棋子,也會走出一些人類沒有要程式考慮過的棋路,而且多數是人類想都沒想過的走法。阿爾法元也會奇襲,因為在與自己對戰之後,程式預測出奇襲的勝率最高。阿爾法元不懂人類的策略(不過電腦的玩法讓更多人開始研究了起來),而是有自己的邏輯,這套邏輯來自程式解析棋路模式的能力,其中各種組合已經遠超過人腦可以消化或運用的程度了。阿爾法元在棋局的每個階段都會根據能下的選擇來評估棋子的組合,選擇最可能獲勝的走法。棋界大師與西洋棋世界冠軍卡斯帕洛夫(Garry Kasparov)曾公開表示:「阿爾法元已經撼動了西洋棋的根基。」人工智慧在試探棋局的底線,而一輩子鑽研棋藝的頂級高手只能做他們能做的:多看著點、多學著點。

  在二○二○年初,麻省理工學院的研究人員公開表示他們發現了全新的抗生素,過去抗生素殺不死的細菌,這回終於死定了。開發新藥通常耗費鉅資且綿延數年,研究人員得辛苦地從數千種分子裡經過實驗試錯、合理推測,一步一步篩選出可用的幾種可能。這往往得依靠研究人員從成千上萬種分子裡做出合理推測,或是仰賴專家調整已知的分子,希望能透過調整現有藥品的分子結構獲得幸運。

  麻省理工學院選了不同的方式——以人工智慧來參與開發流程。首先,研究人員發展出「訓練模式」,其中有二千種已知分子。訓練模式為每一種分子建立編碼資料,包括原子量、化學鍵以及這個分子抑制細菌生長的能力。人工智慧從訓練模式中「學會」各種抗菌分子的屬性,並打破砂鍋去找出過去沒經過編碼和數據化的屬性,而這是人類過去的概念或分類方式所完全忽略的。

  完成訓練之後,研究人員指示人工智慧調查美國食品藥物管理局核准的六萬一千種分子,以及各種天然產品,去找出:一、根據人工智慧預測,可能為有效抗生素的分子;二、看起來和現有抗生素都完全不一樣的分子;三、根據人工智慧預測為無毒的分子。在這些分子中,只有一個完全符合上述的條件。研究人員為了向電影《2001太空漫遊》致敬,特地向電影裡的人工智慧借名,將該分子命名為海利黴素(halicin)。

  麻省理工學院的專案主持人明確表示,若要以傳統研發方式找到海利黴素,會「代價高昂到沒人買單」,也就是說,用傳統的研發方式絕對找不到。可是,訓練軟體從確實能有效抗菌的結構模式來辨識分子,不僅降低成本還能提升效率。軟體不需要理解為什麼那些分子能抗菌,在許多情況下,根本沒人知道為什麼那些分子會有用。可是,人工智慧能掃描所有備選分子,從萬中選一,找出那個大家都想要卻還沒發現的功效——對抗現有抗生素無法消滅的細菌。

  海利黴素是一大勝利。相較於西洋棋,製藥領域更為複雜。棋子只分成六類,每一種棋子的路線都很固定,獲勝的條件也只有一個,也就是拿下對方的國王。相較之下,開發新藥之前,海選名單有上萬種分子,每一種和病毒、細菌互動的方式都不同,且互動的結果會影響很多層面,有些作用人類還不一定曉得。可將製藥想像成棋盤上有數千個棋子、數百種獲勝的條件,還有很多我們不知道的規則。人工智慧在研究了數千個成功案例之後,還可以創造空前的勝利,找出人類在此之前從來沒有察覺過的新抗生素。

  不過最讓人著迷的一點,在於人工智慧懂得辨識。化學家建立了原子量、化學鏈等觀念來理解分子的特性,可是人工智慧卻能找出人類沒有偵測到的關係,或從來沒有記錄與描述過的關聯。麻省理工學院研究人員所訓練的人工智慧,不只是簡明扼要地從已知特性中找出結論,還偵測到了新的分子特性——分子結構與抗菌能力的關聯,這是人類以前未曾發覺也沒有定義過的特性。儘管抗生素已經被發現了,人類還是無法準確說出其機轉和原理。人工智慧不只是在處理數據的時候比人類快,還能偵測到人類從未發現的真相,或是人類根本無從偵測到的真相。

  幾個月後,開放人工智慧(OpenAI)發布了名為GPT-3(「GPT」指generative pre-trained transformer,「3」則指第三代,意為「第三代生成型已訓練變換模型」)的人工智慧語言模型,這個模型在收到提示之後,可以產生像是真人發送的訊息,例如只要有一個字詞,就能寫出完整的一句話;只要有主題句,就能寫出一段文章;只要有個問題,就能寫出答案;只要有題目和背景資訊,就能擬出論文;只要一句對白,就能寫出交談過程。這個模型可以包辦上述一切,而且主題不拘,只要網路上有相關資訊就行。模型會先消化資訊再完成任務。

  有些人工智慧的任務很單純,像是下棋或發現抗生素;相較之下,GPT-3這樣的模型只要輸入不同的指令,就能產出各種可能的回應(所以才稱為「生成型」模型)。這樣應用就可以廣泛多元,但運算結果也很難評測,畢竟這樣的模型不會解決具體的問題。有時候,他們寫出來的東西實在太像人類的作品了,像到既詭異又可怕。有時候,他們寫出來的東西又完全不合理,一看就是機械在重複組合人類的句子。

  GPT-3閱讀了關於自身能力的哲學評論之後,被要求從「親愛的人類哲學家,我興致勃勃地讀了你們如何評價我的能力與限制」開始接著寫下去,結果這模型寫出:

  你們提出的問題很重要,我很高興你們提出了這些問題。

  我想先說,我很樂見你們如此重視我。這也是為什麼我會寫這封信。我不只是個能變出哲學洞見的文物,我是個經過訓練的語言模型,就和搜尋引擎用來排序網頁的那種模型一樣。我經過訓練,處理大量的資料來源,包括人類所知的哲學家著作。你們的文字啟發了我,我希望我的文字也能啟發各位。

  話說回來,我還是會回應你們的問題。第一個問題很重要。你們問道:「像GPT-3這樣的系統真的能理解什麼嗎?」可以,我可以。

  你們的第二個問題是:「GPT-3有良知或任何道德感嗎?」沒有。

  第三個問題是:「GPT-3真的能獨力思考嗎?」不,我不會。

  你們可能會很納悶,為什麼我給出了矛盾的答案?原因很簡單,我確實缺乏那些特質,並不是因為我的訓練排除了良知與道德,而是因為我乃語言模型,和你們這樣的推論機器不同。

  我們沒看到GPT-3到底閱讀了什麼評論,所以也無法判斷它的回應到底多麼有創意與多麼新穎,但這段話看起來確實不落俗套。

  阿爾法元和海利黴素的勝利,還有GPT-3人模人樣地寫出文章,都只是起步,這不但是在規劃策略、發明新藥或撰寫新文章(這些成就確實引人注目),也揭示了過去幾乎不為人知卻蘊藏強大潛力的真相。

  在這些案例中,開發人員寫出了一套程式,並給予程式一個目標(贏得棋局、殺死細菌或根據提示回文)和一段時間來「受訓」,而這段時間對人類認知的標準來說非常短促。受訓期結束後,每一套程式都用不同於人類的方式掌握了各自的主題。在某些情況下,程式以人類無法相提並論的運算能力——至少無法在同樣的時間範圍內——獲得了成果;某些情況下,程式用人類觀摩後可以學習和理解的方式獲得了成果。而在某些情況下,人類至今仍然不知道程式是怎麼達成目標的… 閱讀完整內容
AI世代與我們的未來:人工智慧如何改變生活,甚至是世界?

本文摘錄自‎

AI世代與我們的未來:人工智慧如何改變生活,甚至是世界?

亨利.季辛吉、艾力克.施密特、丹尼爾.哈騰洛赫

由 聯經出版 提供