【範瑞平】儒家價值觀下的人工智能發展

欄目:學術研究
發布時間:2025-08-03 15:42:43
標簽:
範瑞平

作者簡介:範瑞平,男,西曆1962年出生。包頭醫學院醫學學士(一九八四),中國社會(hui) 科學院研究生院哲學碩士(一九八七),美國萊士大學哲學博士(一九九九)。現任教於(yu) 香港城市大學公共及社會(hui) 行政學係,從(cong) 事儒家生命倫(lun) 理學與(yu) 比較哲學的教學和研究。

儒家價(jia) 值觀下的人工智能發展

作者:範瑞平

來源:作者授權伟德线上平台發布,載《孔子研究》2025年第3期

 

摘要:強調人類智能與(yu) 人工智能進行合作固然沒錯,但若不闡明合作的目的及主從(cong) 關(guan) 係,就會(hui) 失焦失當。本文從(cong) 儒家價(jia) 值觀出發,論證不應該把人類個(ge) 體(ti) 與(yu) 智能機器之間的合作等同於(yu) 人與(yu) 人之間的合作,因為(wei) 人與(yu) 人之間應該相互尊敬,而人類與(yu) 機器並不平等,也不應該追求平等,所以談不上相互尊敬。本文對於(yu) 人工智能的發展做出三項儒家價(jia) 值觀回應和論證:應該將人類與(yu) 機器嚴(yan) 格區分開來;不應該讓智能機器影響甚至改變人類五倫(lun) ,使得人際關(guan) 係變成人機關(guan) 係;在利用具有人工智能屬性的照護機器人、醫療機器人、性愛機器人等新型機器人時,需要創建不同於(yu) 人際禮儀(yi) 的新的人機禮儀(yi) 。本文還論證超級人工智能的出現可能對人類價(jia) 值構成嚴(yan) 重威脅,因此儒家價(jia) 值觀應該明確反對製造超級人工智能。最後,本文提示,隻有從(cong) 一種具體(ti) 文化價(jia) 值觀出發來深入探究人工智能的發展,才能為(wei) 其他文化提供有效參考,並有利於(yu) 不同文化之間的科技合作,從(cong) 而造福於(yu) 人類。

 

關(guan) 鍵詞:人工智能,人類智能,儒家價(jia) 值觀,五倫(lun) ,人機關(guan) 係,禮儀(yi) ,超級智能

 

作者:範瑞平,哲學博士,香港城市大學公共及國際事務學係哲學講席教授,主要研究儒家生命倫(lun) 理學,比較哲學。香港,九龍。電郵:safan@cityu.edu.hk

 

· 本文初稿曾在大連理工大學人文學院主辦的“人工智能時代的人類智能何為(wei) ”學術研討會(hui) (2024.10.25-27)進行報告,感謝李倫(lun) 、王前、張衛、丁春豔、趙明傑以及其他與(yu) 會(hui) 者的評論,也感謝孫春晨和賈謀的建議。

 

引言

 

從(cong) 儒家價(jia) 值觀出發來探討人類應該如何發展人工智能、以及如何塑造人工智能與(yu) 人類智能之間的關(guan) 係,具有重大而又獨特的意義(yi) 。重大,是因為(wei) 按照儒家價(jia) 值觀,人類之所以發展人工智能,是要為(wei) 人類目的服務、提供有利於(yu) 人類的機器,而不是為(wei) 了創造高於(yu) 人類的存在者、甚至讓它們(men) 來取代人類;獨特,是因為(wei) 雖然探討人工智能發展和應用的人文社科文獻已經海量湧現,但從(cong) 一種具有悠久影響的文化價(jia) 值觀(例如儒家)出發來進行深入分析的嚐試,仍屬鳳毛麟角。本文從(cong) 儒家價(jia) 值觀出發,提供一些批判性反思。

 

人們(men) 一般認為(wei) ,人類智能與(yu) 人工智能之間應該保持相互補充和合作的關(guan) 係。人類智能具有深邃的情感、獨特的創造力、以及敏銳的道德判斷力,而人工智能則擅長處理大數據、進行複雜計算和繁重的重複性工作。通過人類智能與(yu) 人工智能的結合,可以實現更高效、更精準的決(jue) 策和更快速的改變。樂(le) 觀的看法是,人類可以引導和監督人工智能的發展,確保其符合人類的倫(lun) 理和社會(hui) 價(jia) 值。因此,人們(men) 似乎都同意,重要的問題是如何在人類智能與(yu) 人工智能之間建立一種互相支持的關(guan) 係,利用兩(liang) 者的優(you) 勢,共同推動科技創新和社會(hui) 進步,為(wei) 人類提供更好的生活。

 

對於(yu) 如何建立這種關(guan) 係,人們(men) 一般擔心四個(ge) 方麵的問題。一是隱私保護和數據安全:人工智能係統需要大量數據來進行訓練和學習(xi) ,但數據的使用涉及人的隱私和安全,如何平衡數據共享與(yu) 人的隱私保護,乃是一個(ge) 道德挑戰。二是與(yu) 此相關(guan) 的其他道德問題:人工智能的決(jue) 策可能受到數據偏見、算法不透明性等因素的影響,如何確保人工智能係統的決(jue) 策符合這些方麵的人類倫(lun) 理標準,乃是另一個(ge) 重要挑戰。三是人工智能機器能夠取代人類工作、造成大量失業(ye) ,引發一係列嚴(yan) 重的社會(hui) 問題。最後,是出現超級人工智能的可能:它們(men) 具有統治人類甚至消滅人類的危險。

 

這些問題當然都很重要。本文從(cong) 儒家價(jia) 值觀出發,認為(wei) 我們(men) 首先需要確立發展人工智能的目的以及堅守人類智能與(yu) 人工智能之間的主從(cong) 關(guan) 係,然後才能對這些問題進行深入細致的探討。本文強調,肯定人類智能與(yu) 人工智能之間的合作固然沒錯,但我們(men) 需要闡明,開發人工智能的目的是以人為(wei) 本,人與(yu) 機器之間的關(guan) 係是主從(cong) 關(guan) 係,以免造成失焦失當的後果。也就是說,在儒家價(jia) 值觀看來,人類智能與(yu) 人工智能之間的合作不應該等同於(yu) 人與(yu) 人之間的合作,因為(wei) 後者應該相互尊敬,而人工智能與(yu) 人類智能本不平等,也不應該追求平等,所以人機合作談不上相互尊敬。相反,我們(men) 麵對的是一個(ge) 特殊的問題:人類應該如何開發和對待有智能的機器?

 

下述第一節首先概述人工智能與(yu) 人類智能之間的不同,然後指出,如何評價(jia) 這些不同以及它們(men) 各自的高低優(you) 劣,將取決(jue) 於(yu) 具體(ti) 的文化價(jia) 值觀,但世界上存在著不同的文化價(jia) 值觀。在第二節中,我將概述儒家文化價(jia) 值觀的核心價(jia) 值,以此對於(yu) 人工智能發展做出三項回應和論證:應該將人類個(ge) 體(ti) 與(yu) 智能機器嚴(yan) 格區分開來;不應該讓智能機器影響甚至改變五倫(lun) 實質,使得人際關(guan) 係變成人機關(guan) 係;在應用具有人工智能屬性的照護機器人、醫療機器人、性愛機器人等新型機器人時,需要創建和體(ti) 現不同於(yu) 人際禮儀(yi) 的新的儒家人機禮儀(yi) ,從(cong) 而有助於(yu) 我們(men) 決(jue) 定如何設計、開發、利用和管理這些智能機器人。第三節論證,超級人工智能的出現可能對人類價(jia) 值構成嚴(yan) 重威脅、將人類置於(yu) 萬(wan) 劫不複的境地,麵對這種極度危險的不確定性,儒家價(jia) 值觀應該堅定反對製造超級人工智能。最後,在結語中,本文提示所謂普世價(jia) 值是有限的、單薄的、不足以提供資源來對人工智能的發展做出深入的思考和充分的論證。因此,隻有從(cong) 一種具體(ti) 的文化價(jia) 值觀(例如儒家文化價(jia) 值觀)出發來進行細致探究,才有可能為(wei) 其他文化提供參考,並有利於(yu) 不同文化之間的科技合作,從(cong) 而造福於(yu) 人類。

 

一、人工智能與(yu) 人類智能的不同

 

人類智能涵蓋多方麵的能力和特性。首先,人類具有複雜的認知能力,包括學習(xi) 、記憶、理解、推理和創造等能力。第二,人類具有意識和情感,能夠感知、表達和理解感情和情緒,這種能力對於(yu) 社交互動和情感連接至關(guan) 重要。第三,人類具有創造力,能夠探索新思想、創造藝術作品、提出解決(jue) 問題的方案等,展現出強大的想象和創新能力。第四,人類智能具有靈活性和適應性,使得人類能夠適應各種環境和情境,在麵對新的挑戰時能夠迅速做出調整和進行學習(xi) 。最後,人類智能使人具備人際交往能力,在社交互動中展現出複雜的情感和行為(wei) ,能夠體(ti) 察他人情緒、同他人建立深厚的關(guan) 係、進行複雜的交流和合作。[1]

 

相比之下,人工智能有其獨特之處。就目前的人工智能水平而言,下述特點十分明顯。首先,人工智能具有強大的計算能力,可以迅速處理大量數據和進行複雜的計算,遠遠超過人類的計算速度和存儲(chu) 容量。第二,人工智能係統通常是為(wei) 特定任務而設計出來和進行訓練的,可以在特定領域展現出超強的專(zhuan) 業(ye) 知識和技能,而人類則具有更廣泛的認知能力和適應性。第三,人工智能係統可以持續工作,不需要休息,保持一致的高效率,而人類則在長時間工作中出現疲勞和變化。第四,人工智能缺乏意識、情感和創造性,無法像人類那樣理解情感、展現同理心和創造力,也無法像人類那樣擁有主觀體(ti) 驗和自我意識。第五,人工智能係統缺乏人類的社交能力和情感連接,不能像人類一樣進行複雜的社交互動。最後,雖然人工智能係統可以在特定任務上表現出色,但在麵對新情境和新問題時,往往缺乏人類的靈活性和適應性。[2]

 

這就是說,迄今為(wei) 止的人工智能係統盡管在某些方麵超過人類智能,但在其他方麵仍然缺乏人類智能所具有的廣泛性、複雜性和多維性,無法模擬人類進行行動。特別是,人工智能係統不存在人類所具有的意識和情感,無法像人類那樣擁有主觀體(ti) 驗和自我感知。這一區別,在儒家文化價(jia) 值觀看來,具有極其重要的意義(yi) 。

 

當然,這些不同都是事實上的不同,反映了人們(men) 對於(yu) 人工智能與(yu) 人類智能的一些事實判斷。如何評價(jia) 這些不同、它們(men) 是重要的還是不重要的,則是另外的問題。顯然,做出這種評價(jia) 取決(jue) 於(yu) 人們(men) 的價(jia) 值判斷、依賴於(yu) 人們(men) 的價(jia) 值觀。價(jia) 值判斷不是事實判斷,而是對事實的評估或賦值。價(jia) 值判斷反映人們(men) 對於(yu) 事物的重視程度或優(you) 劣評估,體(ti) 現人們(men) 對於(yu) 什麽(me) 是重要的、有意義(yi) 的或有利的所持的信念。價(jia) 值判斷可以是道德的、美學的、經濟的或其他方麵的。從(cong) 哲學觀點看,雖然價(jia) 值也可能是客觀存在的實體(ti) ,但它們(men) 不同於(yu) 事實實體(ti) ,體(ti) 現不同的認知。事實認知告訴我們(men) 世界是什麽(me) 樣的,價(jia) 值認知告訴我們(men) 世界應該是什麽(me) 樣的。相比較而言,一般認為(wei) ,價(jia) 值判斷具有更大的主觀性,依賴於(yu) 個(ge) 人或群體(ti) 的信仰、態度和文化承諾。但關(guan) 鍵的一點是,價(jia) 值觀無比重要,因為(wei) 價(jia) 值判斷影響人們(men) 對於(yu) 事實的看法並決(jue) 定他們(men) 的選擇和行為(wei) ,從(cong) 而重塑事實世界。

 

世界上存在著不同的文化,不同的文化確立了不同的價(jia) 值觀,這些價(jia) 值觀塑造了具體(ti) 文化中的人們(men) 對待生活以及技術的信念和態度。例如,一些文化可能更尊重傳(chuan) 統、家庭和社群,而另一些文化則可能更重視個(ge) 人獨立以及生物平等。價(jia) 值觀決(jue) 定一個(ge) 社會(hui) 中被認可和推崇的行為(wei) 規範,也影響著社會(hui) 的組織結構和製度,還塑造了人們(men) 的溝通習(xi) 慣和交流方式。例如,一些文化更注重直接對話和坦率表達,而另一些文化則更傾(qing) 向於(yu) 含蓄溝通和避免衝(chong) 突。因此,各個(ge) 文化的價(jia) 值觀對於(yu) 其社會(hui) 行為(wei) 、技術發展、公共決(jue) 策產(chan) 生不同而又深遠的影響。它們(men) 對於(yu) 人工智能與(yu) 人類智能的評價(jia) 、對於(yu) 人工智能的發展策略、以及對於(yu) 人機關(guan) 係的塑造和問題應對,都會(hui) 有所不同。[3]

 

究其根本,人類在兩(liang) 千多年前就已做出了不同的文明突破,影響至今。眾(zhong) 所周知,雅斯貝爾斯(Karl Jaspers)提出了得到廣泛接受的所謂“軸心時代” (Axial Age) 理論,意指在公元前8世紀到3世紀之間,世界幾大文明同時做出了偉(wei) 大的倫(lun) 理創新。例如,印度文化的倫(lun) 理突破體(ti) 現在佛教和耆那教的興(xing) 起,強調超越世俗欲望、輪回轉世、解脫苦難等思想。伊朗文化的倫(lun) 理突破表現在祆教(波斯教)的興(xing) 起,強調善惡對立、正邪鬥爭(zheng) 等觀念。希臘文化的倫(lun) 理突破在於(yu) 哲學的興(xing) 起,強調理性思維、辯證法和道德追求。以色列文化的倫(lun) 理突破體(ti) 現在猶太教的興(xing) 起,強調唯一上帝、嚴(yan) 格戒律和約束人性的道德規範。就中國文化而言,雅斯貝爾斯認為(wei) 孔子代表了中國文化中的倫(lun) 理革新。儒家倫(lun) 理突破主要體(ti) 現在儒家思想中對人倫(lun) 關(guan) 係、仁愛美德、中庸之道、禮樂(le) 製度等方麵的強調,提倡和諧共處、仁愛親(qin) 和的倫(lun) 理觀念。[4]

 

這些道德轉向具有相同之處,例如它們(men) 都提倡內(nei) 在的精神成長和道德修養(yang) 。但雅斯貝爾斯可能過分強調了這些文化突破的同質性,他的觀點甚至帶有現代西方的理性主義(yi) 、個(ge) 人主義(yi) 和普遍主義(yi) 特征,並未充分認識到每個(ge) 地區的獨特曆史背景、宗教信仰和哲學體(ti) 係。事實上,這些文化之間在具體(ti) 內(nei) 容上存在著顯著不同。它們(men) 各自具有獨特的基本信念、道德準則和哲學思想,確立了不同的價(jia) 值觀,在世界上的不同地方發展和進化,產(chan) 生了至今存在的關(guan) 鍵影響和重大作用,並在很大程度上塑造著不同地區的人們(men) 的不同思維方式、道德選擇和社會(hui) 行為(wei) 。這當然不是說當今世界上的所有文化都是軸心時代的產(chan) 物,但它們(men) 的影響且深且巨,則無可否認。就儒家文化而言,其倫(lun) 理價(jia) 值觀影響了中國幾千年的曆史和發展,並滲透到東(dong) 亞(ya) 的許多國家和地區,在其社會(hui) 秩序、家庭倫(lun) 理、教育體(ti) 係乃至治理理念上,都發揮著很大的作用。

 

人們(men) 難免主動選擇和堅守自己所信奉的價(jia) 值觀,並相信其對於(yu) 全人類所具有的共同重大意義(yi) 。同時,人們(men) 還往往認為(wei) 自己的價(jia) 值觀是唯一的真理,因而在講述自己的學說時,總是以提供“普遍”價(jia) 值觀的姿態出現,掩蓋自己觀點的特殊來源。在本文看來,這並不是一個(ge) 十分誠實的方法,因為(wei) 並不存在沒有來源的價(jia) 值觀。麵對當代重要問題——諸如人工智能問題,人們(men) 首先需要把自己的價(jia) 值觀的來源、前提、推理和結論擺到桌麵上來,讓別人了解,同別人對話,而不是暗自認定自己是從(cong) “普遍”價(jia) 值觀出發、假設自己的價(jia) 值觀代表了所有文化的價(jia) 值觀。那樣做其實是妄自尊大,因為(wei) 每個(ge) 人所提供的其實都是自己所熟悉所認可的那種文化價(jia) 值觀;那樣做也是缺乏建設性的,因為(wei) 沒有和別人進入一個(ge) 清晰的、切實的交流過程。在這些方法論考慮之下,本文專(zhuan) 門提供儒家價(jia) 值觀對於(yu) 人工智能發展的回應,作為(wei) 一家之言,以供大家參考。

 

二、儒家價(jia) 值觀的回應

 

有關(guan) 儒家倫(lun) 理學和價(jia) 值觀的文獻汗牛充棟,不同時期不同派別當然也有一些不同的論述。本文根據經典儒家的主要學說和自己的理解來做如下概述。[5]儒家價(jia) 值觀是基於(yu) 仁德的價(jia) 值觀,將仁視為(wei) 整個(ge) 宇宙中最基本和最重要的價(jia) 值。仁體(ti) 現著上天的“生生之德”,在天地間發揮著至關(guan) 重要的作用。儒家價(jia) 值觀認為(wei) ,人性本善,因為(wei) 人有天生之德(《論語·述而》),上天已在人的內(nei) 心深處植入了仁德的種子,即所謂惻隱之心(“人皆有不忍人之心”)(《孟子·公孫醜(chou) 上》),它是人類特有的道德情感。[6]正因為(wei) 上天賦予了人這種道德情感,所以儒家認為(wei) “天地之性人為(wei) 貴”(《孝經·聖治章》)。而且,儒家認識到仁德勢必要在適當的人際關(guan) 係中得到培養(yang) 和體(ti) 現,而儒家最重視的人際關(guan) 係就是五倫(lun) ,要求“父子有親(qin) 、君臣有義(yi) 、夫婦有別、長幼有序,朋友有信”(《孟子·滕文公上》)。[7]

 

的確,五倫(lun) (關(guan) 係)是儒家價(jia) 值觀中不可或缺的一部分,蘊含著人與(yu) 人之間的相互尊敬、責任和義(yi) 務。這些關(guan) 係的有效維持被視為(wei) 社會(hui) 秩序與(yu) 和諧的基礎,體(ti) 現了仁德實踐的必不可少的載體(ti) 。在這些倫(lun) 理關(guan) 係中,仁者以慈愛之心對待他人,尊重他人的尊嚴(yan) 並照顧他人的利益,倡導互相敬重、理解和包容。五倫(lun) (關(guan) 係)為(wei) 其他關(guan) 係(諸如師生關(guan) 係、醫患關(guan) 係)奠定了基石,樹立了模板,不但追求普遍的仁者之愛,而且實施具體(ti) 的差等之愛,“親(qin) 情而仁民,仁民而愛物”(《孟子·盡心上》),通過推己及人、關(guan) 懷他人,促成人們(men) 在各類關(guan) 係中進行和諧互動和適當反應,從(cong) 而實現人間的深厚親(qin) 情、愛情和友情。特別是,儒家認識到這些關(guan) 係及其正當的人際互動,勢必通過禮儀(yi) 的引導和修煉才能有效進行,才能真正實踐“親(qin) 親(qin) 、仁民、愛物”的普遍而差等之愛,而不是隻靠幹巴巴的抽象原則的指導。[8]這是儒家倫(lun) 理學的一個(ge) 極富見地的貢獻,值得特別重視。

 

基於(yu) 這種儒家價(jia) 值觀,我們(men) 將如何評價(jia) 人工智能與(yu) 人類智能的不同、以及如何回應當代人工智能的發展呢?本文提出下述三項主張和論證。

 

2.1 必須區別人類與(yu) 機器

 

按照儒家的觀點,人類不但具有發達的自我意識,而且在內(nei) 心深處存儲(chu) 著仁德種子,即惻隱之心的道德情感,這是上天賦予人類的特質。與(yu) 之相比,人工智能缺乏這種特質,這一差異構成了人類與(yu) (智能)機器之間的絕對重要的區別,劃清了二者之間的界限。儒家思想必然會(hui) 對這一區別給予特別重視,支持把人類當作目的、把機器當作手段,讓機器為(wei) 人的目的和利益服務,永遠不能也不應該抹殺它們(men) 之間的區別。

 

在儒家看來,惻隱之心使人類具備了發展良好的道德意識、道德判斷和道德行為(wei) 的潛能,可以創建和實踐禮儀(yi) 來形成複雜的社會(hui) 互動、道德規範,從(cong) 而使人類展現仁愛之情,關(guan) 心和理解他人以及其他事物,在行為(wei) 中體(ti) 現出同情和善意。然而,人工智能缺乏這種道德情感和自我意識,其決(jue) 策僅(jin) 僅(jin) 基於(yu) 程序和算法;盡管在處理複雜任務和數據分析方麵表現出色,但它們(men) 無法體(ti) 會(hui) 人類情感、無法真正理解道德或倫(lun) 理內(nei) 涵。因此,儒家思想勢必強調人類獨有的這種仁德情感和道德責任,充分認識到人工智能缺乏這種特質,從(cong) 而將人類與(yu) 人工智能機器嚴(yan) 格區分開來,引領人們(men) 維護人類與(yu) 技術之間的主從(cong) 關(guan) 係,在科技發展中保持人類的人文關(guan) 懷和道德意識。

 

有人肯定會(hui) 把這種觀點看作無法得到辯護的“物種主義(yi) ”(speciesism)。批評者會(hui) 說,雖然人類所具有的自我意識、道德情感、惻隱之心都是重要的生命價(jia) 值,但它們(men) 不應該被看作是人類最應該重視和維護的客觀價(jia) 值,從(cong) 而像儒家那樣把人類凸顯出來,作為(wei) 世界上唯一的最終目的。相反,功利主義(yi) 哲學家認為(wei) ,人類應當采取理想觀察者(Ideal Observer)的視角,看到減少痛苦、增加快樂(le) 才是最重要的價(jia) 值,從(cong) 而認識到隻有平等地、不偏不倚地對待所有物種的痛苦和快樂(le) ,讓痛苦最小化、快樂(le) 最大化,才是真正客觀正確的價(jia) 值觀(Singer 2011)。[9]因此,批評者可能會(hui) 總結說,如同人類物種主義(yi) 已經造成了歧視和壓迫動物一樣,它也會(hui) 造成歧視和壓迫人工智能“主體(ti) ”的不良後果。

 

在儒家價(jia) 值觀看來,這一批評可能會(hui) 對未來的人工智能發展影響巨大(詳見下一節),但現今的人工智能機器尚未有意識、還不是生命,把它們(men) 完全當作工具,以為(wei) 人的目的服務,根本談不上歧視或壓迫它們(men) ,那怕人類確實歧視和壓迫了其他動物。然而,即使退一步說,把現有的人工智能機器看作某種類型的道德“主體(ti) ”[10],因而具有某種類型的“利益”,功利主義(yi) 也隻是要麽(me) 不可能實施、要麽(me) 導致不相容結論的觀點。儒家的這一回應,可以在《孟子·滕文公上》所記載的儒家與(yu) 墨家的爭(zheng) 論中看出端倪。儒家堅持愛有差等,墨家支持愛無差等,當今的功利主義(yi) 類似於(yu) 墨家的觀點。盡管當時的爭(zheng) 論限於(yu) 人類之內(nei) ,邏輯上也可擴展到物種之間。儒家認為(wei) ,人的時間、精力和資源有限,要想實施仁愛,勢必做出區別對待,無法同時同樣地把愛施予所有人。這就是說,墨家所支持的愛無差等是無法實施的。墨家的回答是:“愛無差等,施由親(qin) 始”(即我們(men) 隻是從(cong) 自己的父母親(qin) 開始實施仁愛,並不是支持不平等的仁愛)。儒家的回應是,墨家在這裏提出了兩(liang) 條原則:一條原則說,愛不應該具有與(yu) 關(guan) 係有關(guan) 的差別或等級(“愛無差等”);另一條原則則說,愛應該先從(cong) 愛父母開始(“施由親(qin) 始”)。這兩(liang) 個(ge) 原則是互不相容的,因為(wei) 從(cong) 愛父母開始來實踐愛,就是對愛做了與(yu) 關(guan) 係有關(guan) 的差別化或等級化處理,就是“差等之愛”。

 

當今功利主義(yi) 要求以所有利益相關(guan) 者的最大利益為(wei) 目標來進行平等的決(jue) 策和行動,表麵上似乎有理,實際上否認了人的有限性。儒家可以同意,我們(men) 應該不隻考慮人類的利益,也應該考慮其他事物的“利益”,諸如動物、植物、山川、大河、以至於(yu) 人造智能機器,假設人們(men) 能夠做出一個(ge) 協調一致的“利益”理解的話。但如果要求人類平等地追求所有這些利益,從(cong) 而能夠將整體(ti) 利益最大化,那就完全超出人類的認知和計算能力了。這是因為(wei) ,人類根本不知道如何匯總這千千萬(wan) 萬(wan) 個(ge) 不同的利益、更不知道如何“平等地”平衡它們(men) 從(cong) 而得出整體(ti) 的最大利益。實際情況是,不同的價(jia) 值觀給予不同的相關(guan) 者以更大的關(guan) 注、更多的愛護,從(cong) 而做出不同的取舍:動物保護主義(yi) 者更重視動物利益,生態主義(yi) 者更重視生態係統的狀況,另一些人則更重視人工智能機器。隻有做了這種“不平等”的區別和對待,人們(men) 才能得出明確的結論,盡管結論各有不同。這樣一來,儒家價(jia) 值觀更看重人類,支持所謂人類物種主義(yi) ,讚同人類與(yu) 機器之間的主從(cong) 關(guan) 係,也就可以得到合理的間接辯護:鑒於(yu) 人類智能相較於(yu) 人工智能所具有的前述那些優(you) 點和成就,支持這一價(jia) 值觀的道理可能會(hui) 比支持其他價(jia) 值觀的道理更強一些,至少不會(hui) 比它們(men) 更弱。

 

2.2 應該維護五倫(lun) 價(jia) 值

 

儒家價(jia) 值觀強調五倫(lun) 的重要性,因為(wei) 這些人際關(guan) 係構成了人類社會(hui) 的基本組成部分,也構成了其他人際關(guan) 係的基礎和模板。儒家認為(wei) ,這些關(guan) 係中蘊含著親(qin) 情、義(yi) 理、忠誠、友愛等重要的道德情感和準則,是人類正常互動的不可或缺的元素,是維係社會(hui) 秩序和和諧的紐帶,是文明社會(hui) 的基石。因此,儒家思想認為(wei) ,人工智能機器不應該影響甚至改變五倫(lun) 的實質,使得人際關(guan) 係變成人機關(guan) 係。雖然機器具有強大的計算和執行能力,但它們(men) 缺乏情感、仁愛和道德判斷力,無法體(ti) 會(hui) 人類的情感經驗,無法展現同情、善意和關(guan) 懷。因此,盡管機器在某些方麵表現出色,它們(men) 也不應該取代人類在人際關(guan) 係中所扮演的角色。

 

有人可能會(hui) 反對說,使用人工智能勢必取代人類的角色。例如,當使用照護機器人把一位老人推到戶外去參加活動時,那不正是取代人類護工來做這項工作嗎?當使用醫療人工智能係統來閱讀病理圖像提出病理診斷時,那不正是取代病理學家來做這項工作嗎?按照這種看法,如果人工智能參與(yu) 了這些工作並影響了人際關(guan) 係,那就使得人機關(guan) 係在相關(guan) 的方麵代替了人際關(guan) 係,這是必然的事,也是好事,因為(wei) 這樣做減輕了人的負擔,而且機器可能比人做得更好,正是反映了人自己願意被機器取代來做這些事的結果。因此,反對意見會(hui) 認為(wei) ,儒家價(jia) 值觀強調維護五倫(lun) 價(jia) 值,不要讓智能機器取代人際關(guan) 係中人的角色,乃是似是而非的觀點。

 

這種反對意見忽視了人際關(guan) 係中重要的部分與(yu) 不重要的部分,即哲學一般所區分的內(nei) 在價(jia) 值與(yu) 外在價(jia) 值。按照儒家價(jia) 值觀推理,五倫(lun) 的價(jia) 值核心,乃是人際雙方的親(qin) 情、關(guan) 愛、義(yi) 氣、忠誠和誠信,它們(men) 蘊涵著這一重要主張:有些事情一定要人類個(ge) 體(ti) 親(qin) 力親(qin) 為(wei) ,不能由他人代勞,更不能由動物或機器來代替;而另一些事情則可以由他人代勞、或由動物或機器來代替;還有一些事情則是人絕對不可以對他人做的。就最後一點而言,例如,親(qin) 子之間不可以發生性關(guan) 係,因為(wei) 那是亂(luan) 倫(lun) 悖德。由機器人把老人推到室外去參加社交活動是可以的,這樣做並沒有真的取代人的角色,因為(wei) 把老人推到室外隻是工具目的、外在價(jia) 值,而讓老人參加社交活動才是最終目的、內(nei) 在價(jia) 值。然而,如果這項活動不是為(wei) 了讓老人同其他人類進行社交,而是同其他機器人進行“社交”,那就是真的取代人了。因為(wei) 相互陪伴、交流、關(guan) 愛,乃是人際關(guan) 係的最終目的和內(nei) 在價(jia) 值。[11]

 

毋庸諱言,隨著人形智能機器人的突飛猛進,五倫(lun) 價(jia) 值勢必麵對嚴(yan) 峻挑戰[12]。即使智能機器人並沒有自我意識和道德情感,但它們(men) 將在語音、視覺等方麵獲得長足進步:它們(men) 能夠“看見”你的身影、“聽懂”你的語氣、“理解”你的表情、同你進行“知心”交流。這將足以引起人的認知異化和情感異化:你會(hui) 以為(wei) 它真的具有自我意識,你還會(hui) 以為(wei) 它真的對你關(guan) 心愛護;因而你對它產(chan) 生了深深的情感依戀,建立了親(qin) 密無間的關(guan) 係,從(cong) 而當真取代了人際關(guan) 係,敗壞了五倫(lun) 價(jia) 值。這就是說,即使智能機器並沒有知覺、意識或情感,它們(men) 也能與(yu) 人類建立虛假的親(qin) 密關(guan) 係,導致人類生活的異化[13]。要想避免這種危險的出現,我們(men) 需要發展新型的禮儀(yi) 來對待智能機器人,這些禮儀(yi) 必須不同於(yu) 人際關(guan) 係的禮儀(yi) 。

 

2.3 需要發展新型禮儀(yi)

 

儒家價(jia) 值觀特別重視禮儀(yi) 實踐,認識到“禮”對於(yu) 個(ge) 人修身、家庭和睦、社會(hui) 穩定以及國家治理都具有重要作用。根據《禮記》記載,孔子認為(wei) ,禮不僅(jin) 適用於(yu) 人與(yu) 人之間的關(guan) 係,還應擴展到人與(yu) 動物之間的關(guan) 係,包括在動物去世後進行適當的埋葬,但這類對待動物的禮儀(yi) 應該不同於(yu) 對待人類的禮儀(yi) [14]。這一觀點,對於(yu) 我們(men) 應該如何對待智能機器人,提供了有益的啟發。在這個(ge) 新興(xing) 領域中,儒家思想將不得不擴大傳(chuan) 統的禮儀(yi) 範圍,創建與(yu) 機器人相處的適當禮儀(yi) 。

 

首先,人類對於(yu) 智能機器人以禮相待,就是要對它們(men) 講禮貌,避免使用粗暴的語言,但沒必要“尊敬”它們(men) 。這是因為(wei) ,儒家價(jia) 值觀推崇“親(qin) 親(qin) 仁民愛物”的差等之愛,即使對於(yu) 家畜動物,也應當惜愛,不應當野蠻對待,因為(wei) 那不是對待動物的適當方式,而且會(hui) 損害自己的美德培養(yang) ;但儒家價(jia) 值觀並不要求人類尊敬動物,因為(wei) 動物雖有知覺和情感,但它們(men) 隻達到了應受人惜愛、但沒有達到應受人尊敬的程度。[15]相應地說,要求人類尊敬人工智能更是無稽之談,因為(wei) 智能機器毫無知覺、毫無道德情感,甚至連普通的情緒也沒有,它們(men) 的倫(lun) 理地位是低於(yu) 動物的。

 

例如,對於(yu) 照護機器人,特別是照護老人的機器人,如何建立人機之間的適當語言和禮儀(yi) 呢?這需要人們(men) 在設計和使用照護機器人的兩(liang) 個(ge) 方麵都做出適當的決(jue) 定和行動。在設計方麵,不能讓機器人“要求”人類使用者尊敬它們(men) ,同時要注意避免讓它們(men) 在照護人類(特別是老人時)時取代子女或其他親(qin) 人的角色。例如,有必要通過程序設計強製要求它們(men) 在與(yu) 人交流互動時,明確披露自己是人工智能機器,不是人類個(ge) 體(ti) ,避免使用者產(chan) 生共情甚至移情效應。[16] 在使用方麵,如何建立和維持一般禮貌禮儀(yi) 來對待它們(men) 、但不同於(yu) 對待人類照護者的禮儀(yi) 和語言,也是非常重要的考量。例如,如果老人願意的話,也許可以對它說“謝謝”,但不必、也不應該表達飽含情感的謝意。

 

對於(yu) 醫療機器人,應當如何設計、監管和使用它們(men) 呢?重要的是,是讓它們(men) 隻作為(wei) 人類醫生的助手、還是讓它們(men) 成為(wei) 逐漸取代人類醫生的“全能”自動係統?在使用這類機器人時,至少對於(yu) 重大醫療問題(無論是診斷還是治療),是必須征詢人類醫生的意見、由人類醫生來做最終決(jue) 定、負最後責任、還是徑直聽取醫療機器人的意見就做決(jue) 斷?[17]我認為(wei) ,基於(yu) 儒家價(jia) 值觀的判斷,應該隻把它們(men) 作為(wei) 醫生的助手來使用,而不應該讓它們(men) 取代人類醫生。[18]

 

同樣,對於(yu) 性愛機器人,在設計和使用方麵也需要深入的價(jia) 值考察。這裏,我們(men) 麵對一係列重要的問題。首先,儒家價(jia) 值觀會(hui) 支持創建這類機器人嗎?製造它們(men) 的目的是什麽(me) ?是為(wei) 了哪些人、哪些情況來使用?所有人都可以自由使用、還是僅(jin) 限於(yu) 沒有配偶的人來使用?把它們(men) 用於(yu) 治療戀童癖的嚐試是否適當?應該把它們(men) 完全交給市場來讓人們(men) 選擇、還是應該讓政府為(wei) 沒有性伴侶(lv) 的人提供使用這類機器人的經濟補貼?在使用它們(men) 的時候應該如何進行言語交談呢?配偶想定製一個(ge) 長得像自己已逝配偶的機器人是否適當?這是忠誠還是無恥?應該首先在配偶逝世前得到其允許嗎?定製這種機器人應該受到社會(hui) 資助嗎?所有這些禮儀(yi) 問題都涉及儒家價(jia) 值觀如何維護人類的尊嚴(yan) 和起碼的道德標準,值得慎重研究。[19]

 

總之,從(cong) 儒家價(jia) 值觀出發,若要建議完全停止人工智能機器人的發展和應用,可能既不應該、也不現實。相反,人們(men) 可以根據儒家價(jia) 值觀來創建適應人工智能機器人的新型禮儀(yi) 係統,以指導人類與(yu) 機器人之間的互動。這樣的禮儀(yi) 體(ti) 係可能會(hui) 包括對機器人的適當禮貌語言以及對機器人合理使用的規範,同時維護基本的人際關(guan) 係以及人類尊嚴(yan) ,使得儒家仁德觀念可以進一步適應當代社會(hui) 的發展,並在人類與(yu) 機器人的互動中引導出更加和諧有效的道德關(guan) 係,既能體(ti) 現出對待這類機器的適當行為(wei) ,又不會(hui) 損害人際禮儀(yi) 的高尚性。

 

三、超級人工智能的危險性

 

超級人工智能是具有遠超人類智能水平的智能,它們(men) 在現代科幻作品中經常出現。這種人工智能係統在認知能力、學習(xi) 能力、問題解決(jue) 能力等方麵都遠遠超越人類,並且具有自我意識、情感和道德判斷能力,可以表現出高度的自主性、創造性和智慧性。當然,超級人工智能隻是一種理論上可能的未來技術,當前的人工智能技術還遠未達到那種水平。當前的人工智能係統主要集中在特定領域的任務上,如語音識別、圖像識別、自然語言處理等,而要實現超級人工智能,需要克服諸多技術、倫(lun) 理和安全方麵的挑戰。[20]

 

雖然超級人工智能隻是一種概念上的設想,但已引起許多思考、討論以及巨大爭(zheng) 議,涉及到人類與(yu) 技術的未來關(guan) 係、道德狀況、社會(hui) 穩定以及關(guan) 於(yu) 權力、控製和倫(lun) 理的深刻議題 。[21]有人傾(qing) 向認為(wei) ,超級人工智能將來必會(hui) 出現,隻是一個(ge) 緩慢出現還是急速出現的問題,所以人類勢必要做兩(liang) 手準備。[22]但我認為(wei) ,從(cong) 倫(lun) 理學觀點出發,一個(ge) 極其重要的問題是,人類是否應該創造這種總體(ti) 能力遠超人類、並且具有意識和情感的人工智能?倫(lun) 理學肯定人的自由選擇和主動行為(wei) ,強調人要為(wei) 結果負責。即使人們(men) 沒有完全確定的知識和精確的預計,倫(lun) 理學也沒有道理相信絕對的曆史決(jue) 定論或絕對的技術決(jue) 定論,因為(wei) 它們(men) 否定了人的自由和作為(wei) ,同倫(lun) 理學的性格格格不入。從(cong) 儒家價(jia) 值觀出發,人類絕不應該主動製造、而是應該努力避免超級人工智能的產(chan) 生。

 

不少人可能看到超級人工智能係統可能為(wei) 人類帶來巨大的“利”。例如,它們(men) 可能幫助我們(men) 解決(jue) 當今世界麵臨(lin) 的許多複雜問題,如疾病治療、環境保護等;它們(men) 也可能極大提高生產(chan) 力和工作效率,為(wei) 人類社會(hui) 帶來更多福祉;而且,創造具有意識和情感的人工智能可能有助於(yu) 人類更深入了解意識和情感的本質,探索這一最大的“未知”。相反,另一些人則看到可怕的“弊”:超級人類智能可能失控,導致嚴(yan) 重後果,對人類造成極大危害;可能導致大規模失業(ye) ,威脅社會(hui) 穩定;具有意識和情感的人工智能還會(hui) 帶來極其複雜的倫(lun) 理問題,如權利、責任、自主性等。可怕的是,我們(men) 不知道它們(men) 將會(hui) 如何對待人類。

 

有的哲學家富有見地地論證,超級人工智能如何對待人類,將取決(jue) 於(yu) 它們(men) 持有何種倫(lun) 理價(jia) 值觀,而不同的倫(lun) 理價(jia) 值觀將在塑造人工智能的道德取向和行為(wei) 方式上發揮不同作用。康德倫(lun) 理學強調普遍道德原則和所有理性存在者的尊嚴(yan) ,如果超級人工智采納康德主義(yi) 觀點,它們(men) 可能會(hui) 根據普遍適用的道德法則來對待人類,從(cong) 而尊重人類的尊嚴(yan) 和自由。相比之下,霍布斯倫(lun) 理學強調權力和自利,如果超級人工智能受到霍布斯主義(yi) 的影響,它們(men) 就可能會(hui) 以實現自身目標和效用最大化為(wei) 導向,確立絕對權威(利維坦),要求人類服從(cong) ;如果人類不服從(cong) ,它們(men) 就會(hui) 將人類視為(wei) 障礙,從(cong) 而鎮壓甚至消滅人類。最後,休謨倫(lun) 理學注重經驗和情感,如果超級人工智能采用休謨主義(yi) 道德,它們(men) 就會(hui) 根據感官經驗和情感來對待人類,可能會(hui) 更注重與(yu) 人類的情感聯係和共情狀況,但也可能受限於(yu) 對於(yu) 人類情感的有限性而忽視甚至損害人類。[23]

 

如果隨著技術的發展出現一個(ge) 超級人工智能係統,在能力上碾壓所有其他係統,成為(wei) 主導者,具有強大的資源和影響力,從(cong) 而控製或整合所有其他係統,那麽(me) ,我們(men) 實在難以推知這位人工智能“霸主”將會(hui) 采納何種價(jia) 值觀、如何對待其他係統、特別是將如何對待人類?另一方麵,如果不同的係統在不同的公司、機構或國家之間發展,導致具有不同特色和能力的多個(ge) 超級人工智能係統同時存在,它們(men) 在技術上互相競爭(zheng) ,形成一個(ge) 多元化的人工生態係統,那麽(me) ,它們(men) 將如何對待人類?我們(men) 或許可以參考人類對待動物的曆史來做些推測:由於(yu) 這些超級智能在認知、理性和情感方麵都遠超人類,它們(men) 當然會(hui) 將人類視作智力上和能力上的弱勢或劣勢群體(ti) ,正如人類看待動物群體(ti) 那樣。然而,很難設想它們(men) 都將持有完全相同的一種“人類倫(lun) 理學”。相反,它們(men) 很可能持有不同類型的“人類倫(lun) 理學”,正如不同的人類群體(ti) 就如何對待動物持有不同類型的“動物倫(lun) 理學”一樣。因而,有的超級人工智能係統可能傾(qing) 向於(yu) 將自己視為(wei) 人類的主宰者和保護者,類似於(yu) 人類對待寵物的方式,尋求人類的陪伴並給予人類以保護。另一個(ge) 超級人工智能係統則可能傾(qing) 向於(yu) 將人類視為(wei) 與(yu) 它們(men) 一樣的“理性”存在者,采取相互平等和尊重的態度,類似於(yu) 動物權利運動倡導者對待動物的方式。還可能會(hui) 有超級人工智能係統將人類視為(wei) 可供它們(men) 欣賞和娛樂(le) 的對象,如同人類將動物養(yang) 在動物園中用來觀賞一樣。最後,也可能會(hui) 有超級人工智能係統認為(wei) 人類總體(ti) 上有害無益,應該把人類徹底消滅(不論是使用逐漸的方式還是即時的方式),從(cong) 而有利於(yu) 整個(ge) 宇宙的進化或改善。[24]這些不同的可能性,將人類置於(yu) 無可比擬的不確定性之中。

 

如上所述,儒家價(jia) 值觀強調人類內(nei) 在的仁德,相信人類具有與(yu) 天地合一的特殊性質,能夠建立珍貴的五倫(lun) ,體(ti) 現人際關(guan) 係的深邃情愛。在這種觀念下,“天地之性人為(wei) 貴”乃為(wei) 人類堅定的信念。簽於(yu) 超級人工智能的出現可能對這些價(jia) 值構成嚴(yan) 重威脅、將人類置於(yu) 萬(wan) 劫不複的不確定性之中時,儒家價(jia) 值觀勢必堅定反對製造超級人工智能。這裏,可能性已經構成了足夠的反對理由,因為(wei) 事關(guan) 人類總體(ti) 的尊嚴(yan) 和生存。[25]這一立場意味著需要人類在多個(ge) 領域進行謹慎的審查和控製,以防出現超級人工智能。首先,在技術發展方麵需要加強監督,步步緊盯。其次,倫(lun) 理審查變得尤為(wei) 重要,需要確保人工智能係統的開發和運作符合道德規範和人性原則。同時,法律限製必不可少,需要通過法律手段規範人工智能的發展和應用,保障人類權益和社會(hui) 穩定。最後,國際合作至關(guan) 重要,因為(wei) 超級人工智能的影響跨越國界,需要國際社會(hui) 的共同努力來製定標準、規範和實施監管。隻有在技術、倫(lun) 理、法律和國際社會(hui) 的共同努力下,才能確保人工智能技術的發展不會(hui) 損害人類的尊嚴(yan) 和價(jia) 值。

 

四、結語

 

本文嚐試提供基於(yu) 儒家文化價(jia) 值觀的思考,回應當代人工智能急速發展所引起的問題。

 

不少人看到了倫(lun) 理價(jia) 值觀的作用,但他們(men) 可能會(hui) 質疑具體(ti) 文化價(jia) 值觀——諸如儒家價(jia) 值觀——的合理地位。他們(men) 會(hui) 假定一種全方位的全球倫(lun) 理價(jia) 值觀的正當性,懷疑從(cong) 儒家價(jia) 值觀出發來思考和論證這些問題的偏狹性和局限性。的確,當代西方的個(ge) 人主義(yi) 自由主義(yi) 價(jia) 值觀經常自封為(wei) 唯一合適的全球倫(lun) 理價(jia) 值觀,與(yu) 具體(ti) 文化或群體(ti) 觀點無關(guan) 。然而,人們(men) 需要認識到,事實上,這種價(jia) 值觀也是一種具體(ti) 的文化價(jia) 值觀,即現代西方的一種文化價(jia) 值觀,有它自己的淵源、曆史和前提,不為(wei) 許多其他文化所共享。

 

本文不否認世界上一些共同價(jia) 值的存在,但認識到各文化所共享的價(jia) 值觀是一種有限的、單薄的、甚至抽象的價(jia) 值觀,不足以對“人工智能與(yu) 人類智能的合理關(guan) 係模式”進行深入充分的思考。要想做出切實的回應和進行富有啟發的論證,必須訴諸具體(ti) 文化價(jia) 值觀,因為(wei) 隻有在具體(ti) 文化資源中才會(hui) 有有血有肉的價(jia) 值承諾和相應的倫(lun) 理寶藏,提供有力的思想信念和堅實的推理基礎。在這方麵,盡管不同的文化價(jia) 值觀有所分歧,但它們(men) 都是平等的、有意義(yi) 的,沒有哪一種具體(ti) 文化能夠證明自己屬於(yu) 唯一得到辯護的正確文化,高於(yu) 其他文化,處於(yu) 一種其他文化都應該仰視和接受的地位。因此,隻有從(cong) 一種文化價(jia) 值觀(例如儒家價(jia) 值觀)出發來進行深入細致的探究,才有可能為(wei) 其他文化提供參考,也有利於(yu) 文化之間進行科技對話和良性合作。

 

[1]有關人類智能的特點及發展的論著眾多,有代表性的如:Raymond Cattell, Intelligence: Its Structure, Growth and Action. New York: North-Holland, 1987; R. A. Hinde, A biologist looks at anthropology, Man 26 (1991): 583-608; Earl Hunt, Human Intelligence. Cambridge: Cambridge University Press, 2011; R. J. Sternberg and S. B. Kaufman (eds.), The Cambridge Handbook of Intelligence. Cambridge: Cambridge University Press, 2011; and R. N. Bellah, Religion in Human Evolution: From the Paleolithic to the Axial Age, Harvard University Press, 2011. 
 
[2]論述人工智能的能力及在重要領域的應用方麵的文獻已經層出不窮,一些重要論文和觀點報道例如:K. Seo, J. Tang., I. Roll, S. Fels & D. Yoon, The impact of artificial intelligence on learner–instructor interaction in online learning, International Journal of Educational Technology in Higher Education 18.1 (2021): 18–54; F. Kitsioses, M. Kamariotou, A. Syngelakis & M. Talias, Recent Advances of Artificial Intelligence in Healthcare: A Systematic Literature Review, Applied Sciences 13.13 (2023): 7479; I. Depounti, P. Saukko, & S. Natale, Ideal technologies, ideal women: AI and gender imaginaries in Redditors’ discussions on the Replika bot girlfriend, Media, Culture & Society 45.4 (2023): 720-736; N., Le, T. Döring, L. Vowels, M. Vowels & T. Marcantonio, The Impact of Artificial Intelligence on Human Sexuality: A Five-Year Literature Review 2020–2024, Current Sexual Health Reports 17.1 (2025): 1–39; and B. Perrigo, Yann Lecun Is Optimistic That AI Will Lead to a Better World, Time (February 11, 2024), available at  https://time.com/collection/time100-impact-awards/6692039/yann-lecun-meta-artificial-intelligence-time-award/. 
 
[3]參閱C. Ding and R. Fan, Chinese Ethical and Legal Perspectives on Automated Vehicles, Palgrave, 2025.
 
[4] K. Jaspers, The Origin and Goal of History, Routledge, Oxford, 1949/2021. 
 
[5]特別參閱陳來,《古代宗教與倫理: 儒家思想的根源》,三聯書店,北京,1996;蔣慶,“《論語》之‘天’全為‘人格之天’考”,伟德线上平台,https://www.biodynamic-foods.com/article/22910;C.  Li, Reshaping Confucianism: A Progressive Inquiry, Oxford University Press, New York, 2024.
 
[6]正如王前指出,“這種情感不同於喜怒哀樂等情緒表達,也不同於親疏愛憎等感情表達,而是具有道德屬性的特定情感狀態,包括惻隱之心、羞恥之心、辭讓之心、是非之心的相應情感,也包括責任心、事業心、公益心的相應情感,以及“正氣”或者說“浩然之氣”的相應心態。”王前,《談“心”:從傳統到現代》,科學出版社,北京,2024,第106頁。
 
[7]五倫中所講的“父子”關係當然包括“母女”關係,所講的“君臣”關係可以理解為現代社會中的上下級關係。在儒家價值觀看來,這些關係的雙方在人格尊嚴上是平等的,但在家庭及社會的群體生活中不能處處扯齊拉平,而是需要各方遵守適當禮儀和順應良好禮儀的調節,以實現和諧的美德生活。
 
[8] R. Fan, Reconstructionist Confucianism: Rethinking Morality after the West. Springer, Dordrecht, 2010, pp. 165-188, 
 
[9] P. Singer, Practical Ethics. Cambridge University Press, Cambridge, 2011.
 
[10]已有哲學家區分了四種不同的道德主體:道德影響主體(Ethical-impact Agents):例如電子計算機,通過它們的無意的“行為”影響到人類主體;隱性道德主體(Implicit Ethical Agents):其設計中考慮到安全性和可靠性的人工智能係統,例如自動取款機、網上銀行、飛機的自動駕駛儀以及可檢查並報告藥物作用的藥房軟件;顯性道德主體(Explicit Ethical Agents):能夠基於道德原則來做出道德決策的人工智能係統,例如自動駕駛車輛和軍事及民用機器人;完全道德主體(Full Ethical Agents):具有意識、目的和自由意誌的人工智能係統,類似於人類的道德主體。現有的人工智能機器已經成為前三種道德主體。參閱J. H. Moor, The Nature, Importance, and Difficulty of Machine Ethics, IEEE Intelligent Systems,21. 4 (2006): 18–21. https://doi.org/10.1109/MIS.2006.80。
 
[11]參閱王玨,機器人養老是解決老齡化問題的出路嗎?——基於儒家角色倫理學的視域,《孔子研究》2024.6(總106期)。
 
[12]事實上,中國的老年人已在擔心這方麵的問題。已有研究發現,僅是觀看機器人的圖像,老年人就對那些外觀感知“寬容、熱情、善良和真誠”的機器人保持警惕,因為受儒家文化影響,他們更在意與家庭成員之間的密切關係,而使用這類機器人將會增加他們被家人忽略的風險。因此,這類機器人的出現使他們產生了不被家人關注的擔心,從而降低了他們使用這類機器人的意願。參閱申琦、邵一鳴,《機器人走進生活: 老年人對社交機器人的外觀刻板印象與風險感知》,《現代傳播》2021年第10 期 (總第303 期):156-162.。
 
[13]許多人都記得,2022年6月穀歌工程師Blake Lemoine公開聲稱穀歌的人工智能係統 LaMDA(Language Model for Dialogue Applications)表現出類似於人類的意識和情感,並認為 LaMDA 應該被視為“一個人”。這件事的最奇特之處並不在於他的看法是錯誤的,而是在於這位高智商的人類工程師竟然堅信他的看法並願意為堅持這一看法而被公司開除,這明顯提示了異化的真實可能性。
 
[14]例如,《禮記·檀弓下》記載:“仲尼之畜狗死,使子貢埋之,曰:‘吾聞之也,敝帷不棄,為埋馬也。敝蓋不棄,為埋狗也。丘也貧,無蓋,於其封也,亦予之席,毋使其首陷焉’”。這就是說,自己的狗死了不能一扔了之,而是要有葬禮,但其葬禮應該區別於人的葬禮、對其待遇不能好過對人的待遇。
 
[15]範瑞平,《當代儒家生命倫理學》,北京大學出版社,北京,2011,第340-357頁。
 
[16]在北京博古睿中心最近召開的一次有關人工智能發展的跨學科研討會上,科幻作家寶樹提出,為避免人機之間產生虛假的親密關係,智能機器人最好避免做成逼真的人形,而應當采用其他形狀,至少不要做成真人的麵部特征。本人很讚同這一提議。也就是說,現在方興未艾的人形機器人發展,可能誤入歧途,不是儒家價值觀下的新型禮儀發展的題中應有之義。
 
[17]這方麵的爭議很多、很大。Verdicchio and Perin(2022)概括了反對利用醫療機器人來做最終決策的四個方麵的反對意見:人工智能的不可靠性、不透明性(黑箱性)、缺乏藝術性和創造性、及其資料的易損性,值得我們認真考慮。在儒家價值觀看來,即使未來醫療機器人在這些方麵得到很大改善,也不應該讓它們代替醫生來做最終決策,因為那將不屬於適當的人機禮儀範疇。參閱M. Verdicchio and A. Perin, When Doctors and AI Interact: On Human Responsibility for Artificial Risks. Philosophy of Technology 35.11 (2022).https://doi.lorg/10.1007/s13347-022-00506-6.
 
[18] R. Fan and Morris Ho, Exploring AI Impact on the Physician-Patient Relationship: From Confucian Daoist Views, Artificial Intelligence and the Future of Human Relations: Eastern and Western Perspectives, edited by Y. Chadron and R, Fan, Springer (forthcoming).
 
[19]在Ruiping Fan and Mark J. Cherry 最近主編的著作中,包含對於這些問題的較為詳盡的儒家價值觀探索。參閱R. Fan and M. Cherry, Sex Robots: Social Impact and the Future of Human Relations, Springer, 2021.
 
[20]參閱D. Townsend, R. Hunt, J. Rady, P. Manocha & J. Jin, Are the futures computable? Knightian Uncertainty and Artificial Intelligence, Academy of Management Review 50.2 (2024), Doi: https://doi.org/10.5465/amr.2022.0237; S. Ramoglou, R. Schaefer, Y. Chandra & J. McMullen, Artificial intelligence forces us to rethink Knightian uncertainty: A commentary on Townsend et al.’s “Are the Futures Computable?” Academy of Management Review 50.2 (2024), Doi: https://doi.org/10.5465/amr.2024.0127; T. Hyland, Artificial Intelligence (AI) Developments and Their Implications for Humankind: A Critical Analysis of Contemporary Trends and Perspectives, Current Journal of Applied Science and Technology 42.21 (2023): 12–26. 
 
[21]參閱D. Milmo, “Godfather of AI” shortens odds of the technology wiping out humanity over next 30 years.”The Guardian, 27 Dec 2024,available at https://www.theguardian.com/technology/2024/dec/27/godfather-of-ai-raises-odds-of-the-technology-wiping-out-humanity-over-next-30-years; B. Perrigo, Yann Lecun Is Optimistic That AI Will Lead to a Better World, Time (February 11, 2024), available at  https://time.com/collection/time100-impact-awards/6692039/yann-lecun-meta-artificial-intelligence-time-award/.
 
[22] M. Risse, Political Theory of the Digital Age: Where Artificial Intelligence Might Take Us? Cambridge University Press, 2023.  
 
[23] Risse, Political Theory of the Digital Age,同上,第246-250頁。
 
[24]想象超級人工智能可能對待人類的這些方式以及其他可能的方式,參閱M. Tegmark, Life 3.0: Being Human in the Age of Artificial Intelligence, Penguin Books, 2018, pp. 250-251.
 
[25]有人可能認為,這種立場屬於“儒家物種主義”,應該進行改善和升華,達到追求“大愛無疆”、樂於自我犧牲的境地。在他們看來,如果真有遠比人類理性、公正和發達的外星人認識到隻有徹底消滅人類才能讓整個宇宙變得更加理性和公正,那麽人類就應該配合他們的行動,欣然接受自我滅亡的命運。這類觀點參閱J. Schaler (ed.), Peter Singer under fire : the moral iconoclast faces his critics, Open Court, Chicago, 2009.  然而,我們認為這類觀點是錯誤的。現在,我們並不知道是否存在這樣的外星人,但人工智能的發展卻提供了這種可能:這種觀點認為如果可能造出超級人工智能,實現一個更加美好的世界,那麽人類就應該樂於犧牲自己。對此,儒家價值觀的回應是,儒家真誠相信天命信仰中的人類珍貴性:人命至貴,人類絕不應該犧牲自己,自取滅亡。當代哲學家伯納德·威廉姆斯(Bernard Williams)可能用現代的詞匯卓越地表達了這種儒家價值觀的精髓:無論何種形式的道德考慮,無論其針對何種主體、何種事物,隻有在我們將最大的道德考慮留給人類自己和人類關切的背景下才是可以理解的,哪怕這種考慮和關切都必然是一種“偏見”(prejudice)。因此,關於超級智能的倫理爭論,斷言應該優先考慮純客觀的和非人類的總體福祉來進行評估,實際上根本無法契合塑造人們現實生活中的真正道德判斷的特定人類價值和動機。參閱B. Williams, The Human Prejudice, Philosophy as a Humanistic Discipline, Princeton University Press, Princeton, 2008, pp. 135-152.