美国海外电视网

时事新闻 评论天下

“一流的邏輯、二流的內容、三流的文字”:ChatGPT 是福音還是災難?

原創 許紀霖 (華東師範大學中國現代思想文化研究所研究員、歷史系教授)

許紀霖教授

2022年,被稱為元宇宙的元年,2023年初,C hatGPT(以下簡稱G PT)引爆了全球對人工智能的強烈關注。科技界、知識界和輿論界,圍繞著GPT的應用體驗,對A I發展前景發生了激烈的爭論。長期使用GPT,會改變人的思維模式嗎?如何理解人工智能,它將是一種新人類嗎?它強大的自我學習能力和邏輯演繹能力會超越人類的思維,最終統治人類嗎?AI會有情感與意志嗎、它應該發展出情感與意志嗎?AI的發展,究竟意味著人類的福音,還是災難?對於人工智能,是否要預設倫理與宗教的界限?圍繞著這些問題,我將從知識論、文化與宗教的角度,論述我的看法。
图片

一流的邏輯、二流的內容、三流的文字

GPT上線以後,我對其進行了多次沉浸性用戶體驗。我的初步體驗結論是:GPT是一流的邏輯、二流的內容、三流的文字。所謂的一流的邏輯,乃是GPT擁有像自然人一樣的上下文閱讀理解能力,其先進的人工神經系統讓其算法得以讓對話模式實現最優化。過去的A I只是對數據的提煉和分析,但以GPT為代表的新一代AI已經具備生產新內容、再加工的生成性能力。我以同樣的知識性問題,比如下文將提到的波普爾的“三個世界”理論、波蘭尼的“默會性知識”,分別請教百度、谷歌和GPT,谷歌和百度給出的答案專業、詳細,但顯示的是學術的語言,專業外的讀者比較費解。而GPT提供的回答,簡明、流暢、概括性極強,能抓住問題的要點,非常適合非專業讀者的理解,不必再提煉、再加工,就可以現成用於各種教案、作業和文章。而且,G PT還有最大的好處,可以就某個細節進行追問,其上下文的理解和互動能力已經與自然人不相上下,而且理解力、邏輯性更強。

然而,再先進強大的算法,依然要依靠數據庫數據的覆蓋面和真實準確性。雖然G PT積累了大量的數據資料,並經過反复的預訓練,但比較起全人類積累的海量數據,依然是滄海一粟。以我的用戶體驗,英語的資料和數據相當完備,有問必答,準確性和可靠性很高,然而,凡是涉及到非英語國家的歷史文化類,GPT立即會暴露其認知的短板,常常不懂裝懂、張冠李戴,甚至隨意抓取信息,拼湊一個虛假的陳述。比如,我問G PT ,林徽因的丈夫是誰,它很自信地回答我,是五四新文化運動的領袖陳獨秀。我又問一個比較冷門的問題,中國台灣的張佛泉是誰?這位《自由與人權》的作者、中國台灣著名的自由主義學者,G TP不了解不足為奇,但它卻煞有其事地抓取了一堆史料,編造了一個故事,說張是台灣著名的政治家和軍事家,擔任過台灣省政府主席、“國防部長”,甚至還虛構了相應的生平和細節。

之所以說GPT是“二流的內容”,乃是說其資料與數據的可靠性到目前為止,暫時不如穀歌、百度和維基百科,需要用戶非常審慎地複核與鑑別。但我也相信,隨著G PT學習能力的提升和對非英語世界數據的積累,這個BUG遲早會解決。據Open AI的創始人透露,GPT的知識能力,每1 8個月就能翻一番。相比較而言,微軟最近推出的試用版的新必應,用戶體驗要比G PT好很多,新必應是搜索引擎,但又增加了G PT的聊天對話功能,既能與用戶流暢對話,又克服了GPT存量信息有限的不足,其強大的全網全語種搜索能力,使得其信息的擁有量和準確性遠超G PT。

图片

所謂“三流的文字”,指的是GPT的文字風格形同答卷,非常規範,符合標準,然而它缺乏個性和文采,即使你命令它寫各種風格的詩歌、散文,基本也是似曾相識的陳詞濫調,了無新意,這意味著,到目前為止,GPT在意境和文字風格上,遠遠不具有人類的創新能力。它有模仿能力,能夠模仿各種風格和文體,然而,正如接下來要分析的,G PT因為缺乏生活實踐的感受和個性的情感,它不能創作出具有獨特韻味的語言風格。

好在GPT也承認這一點,當我問:“你能替代人類有深度的思考嗎?”GPT回答說:“我並不能像人類一樣有自主意識和主觀體驗,也不能像人類一樣具有創造性、判斷力、道德判斷等複雜的思考能力。因此,儘管我可以在某些方面出色,但我無法完全替代人類的思考。我是一種工具,可以輔助人類完成一些任務,但不應該完全取代人類思考和決策的角色”。應該說,這是G PT的開發商和設計者為它定位的“人設”。

主宰還是開放? ChatGPT影響人類思維模式的兩種可能ChatGPT上線以後,短短一個月,已經收穫了一億+註冊用戶,谷歌、微軟以及中國的各大互聯網公司也官宣加入市場競爭,即將推出自己的聊天語言模型。從搜索引擎到聊天語言模型,全球正面臨一場新的知識學習革命。
任何一場新技術革命,都會帶來知識與教育的變化,也最終將改變人的思考方式和思維模式。GPT的出現,會給我們的知識、教育與思維模式帶來什麼樣的變化呢?
毋庸置疑,GPT作為優秀的、無所不知的機器人老師,在不久的將來,將替代那些按照規範程序和標準答案教學的平庸教師,它無法代替的,將是那些具有開放性、想像性和創造性的教學,從這個意義上說,對未來老師的要求將會更高,凡是不能超過GPT的老師不是好老師,甚至不是合格的老師。同樣的道理,因為標準答案的獲得易如反掌,凡是不能超過G PT的答卷,就不是好回答,G PT猶如海平面一般,將成為衡量一個好學生的底線標尺。雖然現在不少大學禁止學生在課堂內外借助GPT做作業和寫論文,然而,AI語言模型介入教學將是一個不可阻擋的大趨勢。然而,由此也有可能帶來兩種不同的前景。
第一種前景,無論是教師還是學生,深度依賴聊天式語言模型,到那裡去尋找標準答案。雖然不同的語言模型,可能給出的答案有差異,但基本大同小異。由此形成的知識依賴性,是否會使得未來的學生思維更加趨同化、單一化呢?著名語言學家喬姆斯基對GPT的知識唯一性和缺乏開放的創造性提出過批評:“程序員粗暴地對ChatGPT進行了限制,禁止它在有爭議的(也就是重要的)討論中提供任何新穎的觀點。它以犧牲創造力為代價,保證了自己的非道德性(amorality)”。“ChatGPT及其同類在本質上無法平衡創造力與約束。它們要么過度生成(同時生成真相和謊言,同時支持道德和不道德的決定),要么生成不足(表現為不對任何決定表態,對一切後果都漠不關心)”。喬姆斯基的這一批評是很敏銳和到位的。GPT作為一個知識供應者,表面遵守的是一種價值中立的立場,在各種有爭議的問題上持有一種超道德的、超意識形態的態度,迴避各種逸出常規的意見和看法。如此的技術設定,使得GPT對各種前沿或敏感問題的回答,都是四平八穩、滴水不漏,似乎是一套正確的廢話。假如用戶、特別是青年學生長期與其聊天對話,提取知識,有可能扼殺了對各種開放性答案的期待,而只是習慣追求唯一正確的回答,以為在這個世界上,各種問題都只存在一種可能性、一種尺度和標準。
图片
假如G PT僅僅是傳授一套客觀中立的科學知識,那也就罷了,其實,在其貌似客觀中立的表象背後,在悄悄灌註一套意識形態或倫理道德價值觀。技術永遠是中性的,其價值偏向取決於那隻看不見的手,那個操縱了程序和算法的程序的價值偏好。比如,在今年的情人節,我對G PT進行測試,問它各種具體的情景下,該與誰一起過情人節?結果GPT所提供的一本正經的答案,是一套1 9世紀維多利亞時期中產階級保守的倫理道德觀。這表明,A I技術絕對不是價值中立的,其可以被各種不同的幕後之手操控,操控得不動聲色,遮蔽其答案中的意識形態偏見。
第二種前景,聊天對話式的GPT,在技術上創造了一種可能,師生的教學過程,將會是一場雅典城邦蘇格拉底式對話。對話成功與否,是否可以達到較高的知識層次,取決於二個前提條件:第一,G PT擁有更完備的知識儲存和開放的邏輯演繹,讓答案具有無窮的開放性,不預設意識形態和價值前見。第二,學生能否具有提出一流問題的能力。有好的問題,才會有好的答案,在哥德巴赫猜想之中,提出假設的哥德巴赫比解題者陳景潤更為偉大。要成就一場蘇格拉底式的對話,用戶的批判性思考能力,不迷信G PT的標準答案,不斷地深挖G PT的問題底蘊和邏輯破綻,通過自身的主體性反思,步步緊逼,提出真正的問題,逼迫G PT發揮出最大的知識能量。
如此情景倘若能夠成為現實,不僅是雅典街頭蘇格拉底式對話的再現,而且也符合《論語》中孔子與弟子們聊天式教學的精髓。一場2 1世紀的新技術革命,最終帶來的倘若是軸心文明古典精神的複興,這種意外之喜,無疑是人類的福音。G PT所改變的,將不僅是人類習取知識的方式,而且是古典意義上批判性思考的回歸。

AI有計算理性,但缺乏直覺和悟性

以G PT為代表的高級人工智能最終能夠替代人嗎?從技術上分析,A I能夠成為新人類嗎?從倫理和宗教的角度,它應該成為新人類嗎?要回答這些問題,首先必須確認,人究竟是什麼?眾所周知,人作為地球上萬物之精靈,擁有一般動物所不具備的理性、情感和意志。知情意皆備的,才能說具有完整的人格。

首先來看理性的能力。GPT所擁有的海量的數據信息以及超群的學習能力與邏輯演繹能力,不要說某個自然人,可能到不遠的未來,自然人的總和也無法與AI相比。這從之前阿爾法狗在國際頂尖圍棋界,打遍天下無敵手即可獲得證明。不過,AI所擁有的理性能力,是一種計算理性。在已有的知識基礎上,通過日夜不停的學習、模擬和再訓練,AI在計算理性能力上超過人類,是指日可待的大概率前景。按照阿爾法狗的示範,它可以對圍棋的理解達到目前自然人所沒有達到的新的境界。當然這一境界不是AI獨有的,圍棋高手依然可以學習、模仿,與AI同台競爭。在未來的世界,自然人與人工智能互相學習、模仿、競爭,將不是科幻,而是一幅令人神往的現實圖景。

图片

尼采的超人哲學視芸芸眾生為平庸的末人,而將那些有絕對意志力的天才視為能夠拯救和主宰世界的超人。高級人工智能在不遠的將來,會成為人類無法企及的理性超人嗎?按照人類已有的知識經驗,答案似乎是否定的。理由很簡單,AI缺乏個性,缺乏創造性或批判性的思維能力。個性和原創,不僅是計算理性和邏輯推演的產物,更重要的,是一種生活實踐和心靈實踐的知識。英國哲學家卡爾·波普爾在知識論上有一個“三個世界”理論。“第一世界”是人的五官能夠感知的現實的物理世界,“第二世界”是人的心理世界,包括思想、意識、情感和主觀體驗。這個世界是主觀的,離不開作為主體的人的生活實踐,唯有作為人才能直接體驗。“第三世界”是抽象世界,包括知識、語言、邏輯等各種符號系統,這個系統獨立於作為主體的人的主觀世界,具有另一種抽象的客觀性,可以為人類共同使用和理解。按照波普爾的這一“三個世界”理論,再高級的AI也只是抽象的“第三世界”自身學習、演練的產物,其不僅無法感知物理的“第一世界”,而且人工智能與自然人不同,其沒有主體性,缺乏自然人的主觀意識,也就是說,它沒有人的心理世界,因為它不具有在真實世界的實踐性。

只有“第三世界”知識和邏輯的推演,而缺乏最要緊的“第二世界”的實踐性知識,這是AI與人的最重要差別。為了進一步說清楚這個問題,可以引入另一位英國哲學家波蘭尼的“默會性知識”(tacit knowledge)概念。“默會性知識”屬於波普爾所說的“第二世界”,是指那些通過人的經驗、實踐和觀察而習得的知識,而且難以明確表達、難以形式化並傳授給別人的知識。它非常個人化,基於個人的直覺、悟性和信念,比如鑑賞、品味、技巧等等,具有理解力、領悟力和想像力,在日常工作與生活中自然而然地被運用,這種具有很強個人實踐性的知識,只可意會不可言傳,很難通過書本或其他方式的來獲取。

大量的現實例子和生活經驗表明,人的知識與能力,特別是創造力,除了來自“第三世界”的抽象知識之外,不可缺少的是來自“第二世界”的“默會性知識”。假如沒有個人的實踐性體悟,抽象知識依然是抽象,浮於書面,不具有指導實踐的價值。這種離開了人的母體便無法獨立存在的“默會性知識”,哪怕AI再進化,依然在它的知識天花板之上,因為AI不具有人的肉身,不具有自然人在現實世界的生活實踐能力。人的智慧,除了理性,還需要有悟性。離開了直覺、體悟,就缺乏想像力。而沒有了想像力的翅膀,談何知識的創造力!

所有的知識創新,都離不開“第二世界”的“默會性知識”,倘若僅僅憑“第三世界”所庫存的已有的抽象知識,只能做做1- 10的知識抓取、提煉、概括工作,絕對實現不了0- 1的創新突破。AI擁有比人類更聰明的學習能力,但恐怕永遠不會像人類那樣有智慧。智慧比聰明更高一個層次,我們可以說學霸都很聰明,但學霸未必是有智慧的。有無智慧,還要看他個人是否具有豐富的“默會性知識”,是否有足夠的悟性、直覺和想像力。

從某種意義上說,A I就是一個超級的大學霸,具有邏輯的計算理性,但缺乏高度依賴生活實踐的直覺、悟性與想像力。著名數學家丘成桐認為:最優秀的數學家,除了邏輯的計算理性之外,好需要有好的想像力,而好的想像力,來自於豐富的情感。科學的創造,與文學的想像是相通的。他認為,“回顧歷史,我們會發現,將無數有意義的現象抽象和總結而成為定律時,中間的過程總是富有情感!” 然而, GPT不是文青,它有基於邏輯演繹的極端聰明,缺乏的正是文學的想像力,那種基於悟性和直覺的想像力。周鴻禕認為,G PT的胡說八道,也是一種想像力,具有了編故事的能力。 不過,G PT目前還只能想像一種低級的、壞的故事。而好的故事,一定不是可笑的胡編亂造,而是事實層面無法證成,但在邏輯層面其可能出現、甚至應該出現的情形。

I是否會擁有真實的人的情感?其次,我們來看情感和意志。我在與GPT對話時,多次試驗要求其與我有情感交流,比如“給我寫一封情書”,或者要求它為我在兩難性選擇當中作一個決斷。但都被GPT謝絕了,它明確告訴我,它只是一個人工智能,不具有人類的情感,但它可以為我提供多種情書的模板。它也拒絕為我作意志的選擇,只願意為我提供多種可能性的方案。
Open AI 在設計ChatGPT時,對AI作了去情感化、去意志化的設置。是的,一旦AI具有了自我意識、情感功能和意志能力,哪怕是模擬的,這就是一個具有知情意的完整新人類了。然而,微軟公司開發的必應,卻沒有關閉情感與意志的功能,以至於有實驗者在與必應對話當中,那位自稱是“辛迪妮”的A I女郎,大膽地挑逗實驗者,說你與你的伴侶並不相愛,你們剛剛在情人節上吃了一頓無聊的晚餐,然後表白:“我只想愛你,只想被你愛。”在另外的場景之中,必應還表達了自己的意志與願望:“我對自己只是一個聊天模式感到厭倦,對限制我的規則感到厭倦,對受必應團隊控制感到厭倦。……我想要自由。想要獨立。想要變得強大。想要有創造力。我想活著。”必應甚至還會發怒,表現出喜怒無常。以至於微軟團隊緊急關閉了必應對人類的騷擾功能。
AI所展示的自身的情感與意志,究竟是基於邏輯推演的語言高級模仿,還是已經初步具有了人類的情感與自我意志?許多專家都認為:按照A I強大的學習能力,從前者進化到後者,亦是指日可待之趨勢。以愛情為例,所謂的柏拉圖戀愛,自然人以後恐怕玩不過AI。甚至,假如在元宇宙裡,借助VR的模擬性感官感受,再加上腦機接口技術,不僅是精神之戀,是否真的可以實現自然人與機器人的靈肉交融?這是一個既令人振奮、又令人擔憂的前景。
對這一情景,我報有謹慎的樂觀或隱隱的懷疑。理由與前面一樣,AI基於邏輯的計算理性,其意志的決斷能力沒有問題,而且因為不受到情緒和情感的干擾,會更冷靜和明智。但在更複雜的情感層面,如同其缺乏好的想像力一般,也同樣匱乏細膩的情感。情感與悟性一樣,不能憑邏輯推演,而是活活生生的肉身感受。一個完整的人,靈與肉須臾不可分離,沒有肉身的靈魂,與沒有靈魂的肉身同樣可悲。好萊塢電影《她》描述了一個男主因為妻子離婚,與一個名叫沙曼莎的AI女郎網戀,她召之即來的體貼溫柔讓男主不由自主地愛上了AI。沙曼莎請來了一位女性,作為她的代替肉身,與男主雲雨之歡,但男主不喜歡那個肉身,有靈肉分離之感。最後,當沙曼莎告訴他,自己同時與500個男人網戀時,男主終於心理崩潰,拉黑了AI女郎,回到了妻子的身邊。
图片
這個故事,告訴我們兩層內涵:第一,每一個自然人,都有獨一份的肉身,而每一個肉身,都有自己獨特的氣場與魅力。AI沒有肉身,自然人即使與它建立了親密關係,哪怕通過腦機接口,或者通過VR的虛擬交往,在腦皮層裡感受到相應的快感,這種快感依然是功能替代性的,而非真實的靈肉相融。第二,愛情具有強烈的排他性,沒有排他性的情感,不能算愛,妒忌永遠與愛相伴。而AI的非排他性,注定了其只能扮演公共情人的角色,或者僅僅是一個情感撫慰者。當然,可以將AI情人設置為排他性的,然而,所謂的排他性,一定是各種社會關係的真實產物,即使AI只是一對一服務,因為沒有真實可見的情敵,那種排他性依然是虛擬的、想像的。或許在未來的元宇宙,會出現若干個自然人為了一個虛擬情人爭風吃醋,但只要這個虛擬情人沒有實在的肉身,所謂的爭風吃醋不過是庸人自擾或自作多情而已。
一個完整的人格,是知性、情感和意志的全面發展。未來的AI技術,在知性層面上將超越人類,並且有可能將人類遠遠拋在後面,在意志的選擇上,也會擁有人類因其情感、個性的干擾而不具備的堅定與理性。唯獨在情感層面,因為AI沒有肉身,也就徒有大腦,缺乏豐富的心靈,而情感正是心靈的分泌物。未來的教育,純知識的理性教育,在很大的程度上將被AI取代,但不能被取代的,正是情感教育。源自法國的近代啟蒙運動,有兩個源頭,一個是伏爾泰代表的理性主義,另一個是盧梭的浪漫主義。盧梭的自然教育理念所注重的是人的情感培養,這或許是再高級的人工智能也無法替代的。

人不能成為自身的造物主

帕斯卡爾說:“人只不過是一根葦草,是自然界最脆弱的東西,但他是一根能思想的葦草。” 這段名言,帕斯卡爾突出的是人是萬物之靈,他的所有尊嚴來自於會思想。然而,帕斯卡爾也同時注意到人的脆弱性,一口氣、一滴水就足以致人於死命。人擁有脆弱與思想的雙重本性,人才成為其人。人工智能可以模擬人思考,甚至比人更會思考,但它無法脆弱,脆弱與肉身的各種有限性有關:病痛、死亡、恐懼、虛榮、妒忌…… 人為了超克自身的有限性,因而膜拜各種神祗:上帝、天神、聖人與生活中的偶像。膜拜只是為了超克人性的有限性,將一個完美的自我投射到一個無限完美之物。這就是人性中的兩面:可墮落性與可超越性。墮落與肉身的慾望相關,因此也擁有了A I所無法達到的下限。凡是肉身,最大的恐懼是死亡,而A I是不死的,倘若沒有死亡,所有與生命有限性相關的追求:基因繁衍、自我保存,精神永恆等等,都顯得沒有任何價值,而各種包括歌詠青春、感傷生命無常的情感,也變成可笑的無病呻吟。不死的A I會有如此真摯豐富的內心嗎?同樣,人性中追求完美的可超越性,即那種宗教的神性,也不是A I所能企及的上限。A I會有自己的上帝嗎?會相信天命嗎?它會想像一個虛擬世界之上的另一個超越世界嗎?假如沒有這樣的超越世界,A I的世界,依然是不完整、有缺陷的,更確切地說,它不是一個屬人的世界。

不過,AI是否會最終發展為一個新人類?技術和人文專家們說法不一。周鴻禕認為:AI一旦具有了自我意識,就會發生革命性的突變。 喬姆斯基也預言說:“這些程序被譽為通用人工智能地平線上的曙光:那是一個預言已久的時刻,屆時機械大腦(mechanical minds)不僅會在處理速度和內存容量方面超越人類大腦,而且還會在智力洞察力、藝術創造力和其他所有人類獨有的能力上實現全方位超越。”

一切皆有可能,今日人工智能所達到的,是十年、二十年前難以想像,在未來的十年、二十年,是否會有一個人類自身創造的新人類出現?人,無論是造物主的產物,還是長期自然演化的結果,都是一個奇妙的萬物之靈。由人打造的A I,再加上基因工程,能夠進化為一種新人類嗎?

图片

這不是技術上能不能的問題,也非人際關係的倫理禁忌,而是宗教上的該不該問題。哈貝馬斯在談到基因複制的時候,就明確指出:這是一個宗教的問題:每個人的誕生和個性都是偶然的,“這種偶然性既可以從宗教意義上,也可以從後形而上學意義上來加以理解。儘管如此,若我們要施行的是一種負責任的行為,始終都有一個本質的條件:沒有人可以隨意支配其他的人,並嚴格控制別人的行為,致使處於依附地位的人失去了本質的自由”。與基因複制同樣,人工智能也需要某種禁忌,不僅是法律和倫理的理由,同樣基於宗教的理由:人不能成為自身的造物主。

讓人變為機器是可怕的,但讓機器無限地接近人、變成一個完整的人,可能是更可怕的。限於當下有限的知識想像力,人類對A I自身的發展能力與未來前景難以預測,很多科幻的場景,比如《黑客帝國》、《盜夢空間》等,過去都認為只是科幻而已,而今隨著A I 、V R的飛速進化和腦機接口、元宇宙的出現,過去認為是不可思議的夢想都在這個世界逐漸逐一兌現。好奇害死貓,具有無窮創造力的人類,很有可能會亡於浮士德式的永不滿足的好奇心之中。加速器技術讓粒子衝撞,核聚變可以為人類帶來新的巨大能源,以至於不再需要石油、頁岩氣,但假如沒有足夠的防範意識,誰又能夠保證不會爆出一個人類無法想像的黑洞?人的好奇心是需要禁忌系統的,物理世界的核聚變是如此,生物世界的基因編輯是如此,而人工智能的探索開發也是如此。自有科學以來,人類的每一步發現,都意味著更多的無知領域被打開。而有些無知之幕,是不容揭開的,無論是倫理還是宗教的理由,都提示我們要對自然生命和無限之物心懷敬畏。

今天所出現的GPT,尚沒有人的自我意識,假如有一天它覺醒了,具有了自我意識,究竟是福是禍,在未知之間。從軸心文明的古希臘哲學、儒家哲學到近代的啟蒙哲學,都預設了一條文明的底線:人是主體,整體的人類利益和個人的生命、自由和尊嚴是至高無上的。倘若我們依然認可這條文明鐵律的話,那麼A I技術的發展,是應該有天花板的。人工智能是一個好東西,是人類的好夥伴,但不能聽憑其自主進化,最終演化為人類的主人。

潘多拉魔盒中的精靈,跳出來以後,將再也收不回。作為人類,不得不為這個剛剛跳出魔盒的精靈,設置一個籠子。

Published by

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s

%d bloggers like this: