當AI比你更了解你,你的選擇還是你的嗎?

八年前,哈拉瑞( Yuval Noah Harari)只是以色列一所大學裡,默默無名的年輕歷史學家。

之後,他寫了三本書,探索人類從何而來(《人類大歷史》)、去向何方(《人類大命運》),以及如何生活在當前這個困惑的時代(《二十一世紀的二十一堂課》)。

這三本暢銷書,讓這位靦腆、瘦削、喜歡深思冥想的新銳學者變成了全球矚目的重量級思想家,不但比爾蓋茲、臉書創辦人祖克柏和歐巴馬都是他的粉絲,科技重鎮矽谷也為他著迷,各家企業爭相邀訪請益。

四月底,哈拉瑞再度造訪矽谷,分別與科技界的兩位指標人物─人工智慧專家李飛飛、祖克柏─進行對話。

在與祖克柏長達一個半小時的對話中,哈拉瑞對於新科技提出嚴肅的警告,預言AI和機器學習等科技會加劇不平等、破壞民主,甚至導致自由意志的終結。以下是他的談話部份整理:

我們的世界正變得更加整合,或更加分化?從漫長歷史來看,明顯地,人類愈來愈緊密相連。但相連不一定意味著和諧,我們最常吵架的對象,通常都是自己的家人、鄰居和朋友。

所以,科技進步讓世界愈來愈連結,卻未必愈來愈和諧,因為連結也可能帶來許多衝突。今天的世界,可以看到各種二元對立,例如,人類明明有最新的連結技術,然而當前最夯的政治議題,卻是築牆,各式各樣的牆。你要如何理解這樣的世界──比以往更加緊密聯繫,同時卻又建造了比以往更多的高牆?

我知道臉書面臨了很多批評,被外界指責助長極端主義,這確實是個大問題。但我認為,如果你們願意付出足夠努力,這其實是可以解決的問題。
對AI發展的兩大擔憂

我更擔心的是,第一,網路和各種新科技的整體走向,正在加劇世界各地之間的不平等。第二,這種科技走向正在破壞人類主體性,破壞民主、自由市場和個人主義。可以說,這是我對AI和機器學習等科技發展的兩個最大擔憂。

進一步來看,首先,我擔心世界各地之間的不平等會日益加劇,因為少數國家將引領並掌控新的AI經濟,獲得巨大優勢。當年的工業革命,曾在少數工業大國和其他國家之間造成極大的貧富差距,人類花了一五○年才讓這個差距逐漸縮小。如今,由於AI興起,且僅由少數幾個國家主導,差距不但會重新擴大,還會比以往任何時期都更嚴重。

例如,AI和自動化將為就業市場和經濟帶來破壞,就算未來仍有工作機會,但這些工作會在世界各地平均分配嗎?AI革命的潛在結果之一,可能是世界某些地區出現巨大財富的集中,以及其他地區的完全破產。加州的軟體工程師將會有很多新工作,但宏都拉斯和墨西哥的紡織工人和卡車司機可能沒有工作,他們怎麼辦?
帶來史上最不平等的經濟

如果我們找不到解決方法(例如建立某種全球安全網)來保護人類免受AI的衝擊,同時提供他們利用AI的機會,那麼,我們將創造出史上最不平等的經濟形勢,甚至會比工業革命時代還要糟糕得多。

AI的第二個問題,則跟人類主體性、甚至生命的意義有關。

當這種技術發展成熟時,就擁有足夠的資料來「破解」(hack)人類,也就是說,AI系統會比我更了解我自己、能夠替我做決定、預測我的選擇、操縱我的選擇。而隨著愈來愈多的權力逐漸從人類轉移到演算法,AI不僅決定我要看哪部電影,甚至連我要加入哪個社群、跟誰交朋友、跟誰結婚等,這些決定都將愈來愈依賴AI的建議。但這樣的發展,對人類生命和人類主體性會有什麼影響?

我還擔心,新科技有可能改變民主和極權體制之間的勢力平衡,因為這些科技可能為極權的政權帶來優勢。二十世紀極權政府的最大問題,是當年的科技無法有效處理訊息,這也導致了他們的垮台。

但是新科技的出現,會使集中式的訊息處理比以往更有效,因為你在一個地方擁有的數據愈多,演算法的功力就愈好。這會改變極權和民主之間的平衡,變成有利於極權主義政權。

對人們來說,一大關鍵將在於,如何保護你的注意力不受那些「比你更了解你」的外部勢力劫持、操縱,因為一旦被操縱,就算讓你自己做決定也沒用,你會以為這是你想要的。

這是一個我們以前從未面對過的問題,聽起來像妄想。確實,過去或許是妄想,但現在人類首次有能力大規模地這麼做。

在矽谷等地,這些年早已經開發出相關的技術工具。當初,這些工具可能是在善意下開發的,也許是為了向人們推銷產品。但現在,同樣的工具也可以用來向人推銷政治人物或者意識形態,用來操縱人們的想法和慾望。

我跟很多人討論這個問題時,聽到的回答都是:到頭來,顧客永遠是對的、選民最清楚、人們知道什麼對自己有益、這都是人們的選擇。這樣的認知,一直是西方民主體制的基石。

但我的質疑就在這裡:在一個我們已經握有技術來破解人類,並以前所未有的方式操縱人類的世界,「顧客永遠是對的」、「選民最清楚」這些話還會是真的?是不是該意識到,不能再把答案簡化成「這是人們想要的」、「人們知道什麼對他們有益」?

「監控資本主義」來臨

總結一下我的觀點,未來,我們面臨兩種不同的危險,都來自相同的技術工具。

一種是出現從未見過的極端極權主義政權,可能不是美國,而在其他國家。從出生那一刻起,你就活在它的系統中,它會不斷監視你,並且操縱你從小開始接受特定的想法、觀點、習慣等。這就像一種極權主義的反烏托邦,但它可能非常有效,人們甚至不會怨恨,因為他們的思想將完全符合系統的價值觀或理念。

另一種,像美國這樣的地方,面臨的危險將是「監控資本主義」(surveillance capitalism):各式各樣的系統不斷與你互動,逐漸了解你,提供你更好的推薦、更好的建議。

剛開始,它先推薦你看哪部電影、去哪裡度假。隨著系統愈來愈聰明,它會建議你大學要學些什麼,以及在哪裡工作,然後,建議你跟誰結婚、投票投給誰、加入哪個宗教。例如,它會告訴你,根據你的個性,哪個宗教對你最好,「猶太教?不行,不適合你。選擇禪宗佛教吧,它更適合你。五年後你會感謝我,說這是個很棒的建議,謝謝,我非常喜歡禪宗佛教。」人們會認為,系統的建議,符合他們的最佳利益。

被演算法決定的人生

但是,當我們人生中所有最重要的決定,都是外部演算法做出來的,就生命的意義,就人類主體性而言,意味著什麼?

幾千年來,人類往往把人生視為一齣不斷做出決定的戲劇,例如把人生看作一種旅程,你會遇上一個又一個十字路口,需要你做出選擇。有些決定很小,例如早餐吃什麼,有些決定很重大,像要跟誰結婚。

而不遠的未來,我們即將生活在一個愈來愈依賴演算法的建議來做決定的世界,不是說它們的建議不好,我只想問,在這種情況下,我們要如何認識自己,了解生命的意義?

閱讀完整內容
天下雜誌第672期

本文摘錄自‎

當AI比你更了解你 你的選擇還是你的嗎?

天下雜誌

2019/第672期