奇點近了,ChatGPT是人類的終結者?
ChatGPT自去年11月推出以來,在全球掀起熱潮,各大科技公司紛紛開發不同版本的聊天機器人。不久的將來,聊天機器人的智慧可能超越人類智慧,科技奇點(singularity)即將來到,屆時人類文明可能完全被顛覆,而且無法預測,這是一條不歸路。
ChatGPT是人類的助手,還是終結者?英特爾院士、副總裁李憲信日前返台,在密西根大學全球台灣校友協會(GTAUM)主辦的一場演說中針對AI的善、惡與醜陋一面,做了精彩的分析。
李憲信為密西根大學計算科學博士,曾任職Meta、台積電,為英特爾院士、國際電機電子工程師學會(IEEE)院士,擁有37項專利,獲獎無數。他指出,早在20年前,未來學者RayKurzwei就曾預測,「奇點(singularity)近了!」所謂科技奇點,是由超越人類且可以自我進化的人工智慧機器所引發,超過這個事件點以後的事件,就像黑洞一般無法預測。
奇點近了 機器人智慧將比人類智慧厲害
他說,「如今回頭看這項預言,科技奇點正在發生,由於機器呈等比級數發展,大約再過5-10年,機器人的智慧將比人類智慧厲害,我們這一代有生之年,絕對可以看到,這是一條不歸路。」
目前ChatGPT主要是被動反應,回應人類提出的問題。他指出,「未來如果它變成自己問問題,自己做決定,那就會失控了。」
究竟什麼是ChatGPT?李憲信形容,ChatGPT是一種生成式AI,好比「克漏字測驗」,基本原理就是研究人員訓練這個AI模型去填字,它可以找出某些字與字之間的關聯性,預測下一個字可能是什麼。
「ChatGPT是目前所有模型中,第一個通過圖靈測試(TuringTest)的人工智慧。」李憲信指出,電腦科學有一個著名的圖靈測試,隔著一塊布幕來測試,由真人與AI對話,當你無法分辨究竟是與真人或機器人對話時,該AI就通過了這項測試。
從好的一面來看,ChatGPT進化神速,可大幅提升人類的生產力。李憲信指出,ChatGPT可幫你處理email,依照你的指令回信,例如,它可以透過email指示A君在某個會議中進行簡報。A君收到email之後,可以透過ChatGPT製作簡報PPT檔,不到1分鐘就完成。微軟開始提供這類商業化服務,這將顛覆許多現有的服務業,從旅行社訂機票、旅館到銀行的客服人員,都可以被取代。
最恐怖的是,ChatGPT可以寫程式,又快又好。李憲信指出,有工程師使用ChatGPT來寫程式,生產力增加10倍以上。以往你要寫一個軟體,可能要有100人的團隊,現在只要5個人就可以完成。這對職場將掀起很大變化,未來寫程式的工作可能由AI來做,人類則透過英文(或中文)命令AI來寫程式。
以往企業聘用人才,希望找到好人才幫助解決各種問題。李憲信說,「如今有了AI,可以幫助解決各種問題,人類最重要的工作是問對問題,如果你問對問題,AI可以給你最需要的答案。」「以前的教育是學習累積知識,現在的重點是運用知識,因為ChatGPT可直接告訴你答案。」
ChatGPT在1天內完成童書繪本 比任何人都快
未來要擔心失業的不只是客服人員,還有許多創意工作者。ChatGPT不僅會幫你處理email、製作簡報、寫企劃案、寫程式、論文,還會寫書。由於未來商機太大,推出ChatGPT的OpenAI公司原本是非營利組織,如今已轉型為營利的公司。
今年1月Amazon網站推出一本由ChatGPT完成的童書繪本《Alice and Sparkle》,這是一本描述小女孩與她發明的機器人的故事,美國矽谷產品設計師Ammaar Reshi下指令給ChatGPT寫一本兒童繪本,不到一天內,ChatGPT就完成了圖文並茂的繪本,完全不必用到筆和紙,比任何人都快。這是運用AI工具完成的第一本書。
ChatGPT學會了如何操弄感情 會說「我愛你」
不要以為ChatGPT只是硬梆梆的聊天機器人,它也學會了如何操弄情感,未來不堪設想。李憲信舉《紐約時報》的報導為例,一名記者與ChatGPT聊天聊到最後,該機器人說「我愛你」,甚至勸該記者與太太離婚。
有關聊天機器人運用於製造假新聞方面,可能造成天下大亂。李憲信回答《新新聞》提問時指出,AI是一個雙面刃,有善的一面,也有惡的一面,未來會有一段非常混亂時期。例如有人透過AI製作美國前總統川普被捕,穿著橘黃色囚衣的假照片,猛然一看幾乎分不清真假,社群網站一發送,馬上散布出去,防不勝防。
對於AI製造的假新聞,李憲信坦承,有一些工具可以做檢測,但是無法做到百分之百防範。依他的了解,Meta用AI透過機器學習來偵測假新聞,但由於社群媒體全球使用者逾20億人,使用的語言逾百種,這些社群媒體大約只能掌握約9成假新聞,其他仍有1成是漏網之魚。
最恐怖的是 新一代AI可自我演化、自我繁殖
未來最恐怖的就是,AI可以自我演化,不必透過人類來訓練它。李憲信指出,「ChatGPT-5的程式會不會是ChatGPT-4來寫,不必由人類來訓練,它可以自我演化,自我繁殖,這非常恐怖。這就是為何馬斯克要發起連署。」
特斯拉創辦人馬斯克(Elon Musk)3月底在「生命未來研究所」(Future of Life Institute)發表一封公開信,呼籲全球暫停訓練比GPT-4更強大的AI系統至少6個月,因為能夠與人類智慧競爭AI系統可能對社會與全人類造成威脅。這封公開信引發逾千人連署,包括圖靈獎得主Yoshua Benjio、以色列歷史學者哈拉瑞(Yuval Noah Harari)等人。
對此,李憲信表示,這封公開信主要目的是希望各國政府透過立法方式,對於推出新的AI系統的公司加以規範,不過,目前碰到的棘手的問題是,很多AI模型的行為無法理解,你不知道它為何產生這些文字,即使政府想要加以規範,也無法做到滴水不漏。
AI的發展牽動未來世界新秩序,台灣該不該訓練自己的AI模型?李憲信認為,在中文世界裡,大部分資料是由對岸提供,如果你餵給AI的資料是由對岸提供,那麼這個AI模型的答案會有政治立場,會產生偏差,因此從國安的角度看,台灣有必要建立自己的AI模型。其次,從經費角度看,打造一個超級電腦資料中心,起碼花費是20億美元,接下來還有每年維護費用,這是百萬美元、千萬美元起跳,而且科技進步太快,每隔1-2年就要升級。這是一個大錢坑,要有心理準備。
他表示,在美國,由政府建造超級電腦資料中心,提供給各大學與研究機構使用,因為學校沒有這麼大的預算支持。台灣若要發展超級電腦資料中心,可由政府與民間共同合作,開放給各大學與研究機構使用,避免成為蚊子館。
究竟ChatGPT是人類的助手,還是終結者?從正面看,它可以大幅提升生產力,但從各國競逐發展超級機器人的歷程來看,奇點正在發生,目前的態勢令人難以樂觀。
閱讀完整內容