【[美]劉紀璐】儒家機器人倫理

欄目:學術研究
發布時間:2019-04-24 20:23:43
標簽:人工道德主體、儒家倫理、功利主義、康德倫理學、阿西莫夫定律

儒家機器人倫(lun) 理

作者:[美]劉紀璐

翻譯:謝晨雲(yun) 、閔超琴、穀龍

點校:項銳

來源:《思想與(yu) 文化》第二十二輯, 華東(dong) 師範大學出版社2018年 6 月出版

時間:孔子二五七零年歲次己亥正月廿九日辛醜(chou)

          耶穌2019年3月5日

 

 

 

作者簡介:

 

[美]劉紀璐著**劉紀璐(JeeLoo Liu,1958—),女,美國加州州立大學富樂(le) 敦分校哲學係主任教授,主要研究領域及方向為(wei) 心靈哲學、中國哲學、形而上學、道德心理學。

 

謝晨雲(yun) (1995—),女,江西吉安人,華東(dong) 師範大學哲學係碩士研究生,研究方向:中國道教。

 

閔超琴(1995—),女,江西新餘(yu) 人,華東(dong) 師範大學哲學係碩士研究生,研究方向:先秦哲學、美德倫(lun) 理學。

 

穀龍(1991—),男,湖南耒陽人,華東(dong) 師範大學哲學係碩士研究生,研究方向:中國佛教。

 

項銳(1989—),男,江蘇鎮江人,華東(dong) 師範大學哲學係碩士研究生,研究方向:科學哲學。

 

[摘要]本文探究在所謂“人工道德主體(ti) ”身上植入儒家倫(lun) 理準則的功能性。本文援引儒家經典《論語》,思考哪些倫(lun) 理規則可被納入機器人道德。本文也將對比康德型、功利主義(yi) 型、儒家型這三類人工道德主體(ti) ,考察它們(men) 各自的優(you) 劣之處。本文認為(wei) ,盡管機器人並不具備人所固有的道德情感,如孟子所捍衛的“四端”,但我們(men) 能夠借由儒家所強調的那種道德準則來構建機器人的道德倫(lun) 理。隨著儒家倫(lun) 理準則的植入,機器人可以有功能性的道德,從(cong) 而使它們(men) 具備成為(wei) 人工道德主體(ti) 的資格。

 

[關(guan) 鍵詞]人工道德主體(ti) ;儒家倫(lun) 理;功利主義(yi) ;康德倫(lun) 理學;阿西莫夫定律

 

本文的研究得到了複旦大學的資助。筆者曾作為(wei) “複旦學者”在複旦大學訪學一月。在此對於(yu) 複旦大學哲學院的慷慨相助和訪學期間的思想交流,謹致謝忱。

 

導言

 

隨著人工智能技術的發展,智能的類人機器人很有可能在不遠的將來出現在人類社會(hui) 中。而它們(men) 是否真正具有人的智能,是否真正能夠像人類那樣思考,這還有賴於(yu) 哲學層麵的探討。但可以肯定的是,它們(men) 將能通過英國計算機科學家、數學家、邏輯學家圖靈所提出的人工智慧測試法(圖靈測試法)——也就是說,如果機器人可以成功誘導和它們(men) 對話的人類把它們(men) 當作人類來看待,那麽(me) 它們(men) 就可以被認證為(wei) 具有智能。也許有一天,智能機器人將廣泛成為(wei) 我們(men) 社會(hui) 中的成員,它們(men) 會(hui) 主動分擔我們(men) 的工作,照顧我們(men) 的老人,在酒店和賓館為(wei) 我們(men) 服務,在導航、軍(jun) 事甚至醫療領域替我們(men) 做重要的決(jue) 定。我們(men) 是否應該為(wei) 這些機器人配置道德準則,教導他們(men) 辨明是非?如果回答是肯定的,那麽(me) 怎樣的道德準則才能夠塑造出合乎人類社會(hui) 期許的人工道德主體(ti) (artificial moral agents)?

 

眾(zhong) 多人工智能設計者樂(le) 觀地認為(wei) ,人工道德主體(ti) 的發展總有一天會(hui) 獲得成功。在此前提之下,本文探究將儒家倫(lun) 理準則植入人工智能機器人是否可以造就能跟人類和平共存的人工道德主體(ti) 。本文通過援引儒家經典《論語》,來思考哪些倫(lun) 理規則可被納入機器人道德。同時本文也將儒家型人工道德主體(ti) 對比以康德道德準則和以功利主義(yi) 準則建立的人工道德主體(ti) ,考察它們(men) 各自的優(you) 劣之處。本文認為(wei) ,盡管機器人並不具備人類所固有的道德情感,如孟子所捍衛的“四端”,但我們(men) 能夠借由儒家所強調的道德準則來構建機器人,使它們(men) 成為(wei) 我們(men) 可以認可的道德主體(ti) 。

 

對人工智能道德準則的探究不是僅(jin) 僅(jin) 作為(wei) 未來主義(yi) 的腦力激蕩。M.安德森(M.Anderson)和S.安德森(S.Anderson)認為(wei) :“機器倫(lun) 理學讓倫(lun) 理學達到前所未有的精細程度,可以引領我們(men) 發現當下倫(lun) 理學理論中的問題,從(cong) 而推進我們(men) 對一般倫(lun) 理學問題的思考。”【1】本文將證明:對於(yu) 機器人道德的比較研究,可以讓我們(men) 看到討論人類倫(lun) 理的一些理論瑕疵。

 

一、機器倫(lun) 理的興(xing) 起

 

讓機器人預先考量行為(wei) 後果,然後自行做出係統性的道德選擇,這一點在目前看來依然遙不可及。然而,現今在人工智能機器的設計上已經存在專(zhuan) 門為(wei) 機器做具體(ti) 選擇而設計的指導原則,因為(wei) 機器的一些抉擇會(hui) 帶來許多道德後果。比如,我們(men) 可以對軍(jun) 用無人機進行編製,要是它偵(zhen) 測到在軍(jun) 事目標周邊地區有許多平民存在,是應該立刻停止攻擊還是持續發動攻擊。我們(men) 也可以對醫療機器人進行編製,當病人已經進入重症末期而有突發情況,是讓它實施援救措施還是放棄進一步的治療。托肯斯(Ryan Tonkens)認為(wei) :“自動機器會(hui) 像人類那樣做出與(yu) 道德相關(guan) 的行為(wei) ,因此,為(wei) 慎重起見,我們(men) 的設計必須保證它們(men) 以合乎道德的方式來行動。”【2】因此,即使暫時還造不出“有道德的機器”,我們(men) 也必須考慮機器倫(lun) 理。此外,我們(men) 所製定的機器倫(lun) 理的版本,要能夠適用於(yu) 未來的機器道德思考主體(ti) ,而非僅(jin) 僅(jin) 應用於(yu) 機器人的設計程序。也就是說,機器倫(lun) 理關(guan) 心如何將道德準則應用於(yu) “人工道德主體(ti) ”,而不是其設計者。

 

目前設計人工智慧機器有兩(liang) 種截然不同的進路,一種是“自下而上”,另一種是“自上而下”。【3】前者是讓機器從(cong) 日常選擇所使用的零碎規則中逐漸發展出自己的道德準則。設計者賦予機器一種處理匯總信息的學習(xi) 能力,這些信息是機器在不同的情境下,對由自己的行動所產(chan) 生的結果的匯總。為(wei) 了讓機器形成某種行為(wei) 模式,設計者可以建立一個(ge) 獎勵係統,鼓勵機器采取某些行為(wei) 。這樣一種反饋機製能夠促使機器及時發展出自己的倫(lun) 理準則。此種進路類似於(yu) 人類在童年時期形成道德品性的學習(xi) 經驗。相比之下,“自上而下”的進路則是在機器身上植入能夠控製其日常選擇與(yu) 行為(wei) 的一般抽象的倫(lun) 理規則。如果走這種進路,設計者首先必須選擇一種倫(lun) 理理論,分析“在計算機係統中執行該理論所必需的信息和總體(ti) 程序要求”,然後才設計執行倫(lun) 理理論的子係統。【4】不過,即使有預置設計,機器在每個(ge) 道德情境中還是需要根據倫(lun) 理原則程序,通過推演來選擇最佳的行動方案。這種由上而下的設計方式將會(hui) 反映出規範倫(lun) 理學內(nei) 部的爭(zheng) 論,因為(wei) 不同的倫(lun) 理理論會(hui) 製造出依據不同的道德準則而思維的人工道德主體(ti) 。本文將比較這一研究進路中不同的理論模型,而不考慮執行過程所需要的實際算法、設計要求以及其他技術問題。

 

根據M.安德森和S.安德森的觀點,機器倫(lun) 理學的目標在於(yu) 明確地定義(yi) 抽象普遍的道德原則,使得人工智能在選擇或是思考自身行為(wei) 的正當性時可以訴諸這些原則。【5】他們(men) 認為(wei) 我們(men) 不可能為(wei) 每一種可能發生的情形製定具體(ti) 的規則。“為(wei) 機器設計抽象普遍的道德原則,而不是在每一個(ge) 特定的情境中製定機器如何做出正確的行動,好處在於(yu) 機器能夠在新情境,甚至新領域中做出正確的行動。”【6】易言之,我們(men) 希望人工智能夠真正成為(wei) 人工道德主體(ti) ,有自己的道德原則,同時基於(yu) 這些原則做出道德考量,用這些原則建立自身行為(wei) 的正當性。因此,機器倫(lun) 理學中至關(guan) 重要的一步,就是選擇一組能夠植入人工智能的道德原則。

 

二、電車難題與(yu) 不同的倫(lun) 理學模型

 

鑒於(yu) 我們(men) 目前還沒有真正有自主性、有意向性的機器人,對於(yu) 它們(men) 在某種情境會(hui) 如何行動依然還是一種未來的假想,因此我們(men) 可以暫借人類倫(lun) 理討論中的思想實驗來討論不同的倫(lun) 理原則會(hui) 造成怎樣的倫(lun) 理選擇。這個(ge) 思想實驗即是著名的電車難題。

 

標準版電車難題:

 

有一輛失控的電車正沿著軌道疾馳,在其前方的軌道上有五人來不及躲避。機器人安檢員(或司機)可以對此進行幹預:拉動一個(ge) 操作杆,把電車變換到另一軌道上。然而,另一條軌道上也有一個(ge) 人。這裏麵臨(lin) 的選擇是,犧牲一個(ge) 人去救另五個(ge) 人,還是不犧牲這個(ge) 人而聽憑那五人死去。機器人安檢員或司機是否應該操作拉杆來製止災難,還是應該什麽(me) 也不做?

 

天橋版電車難題:

 

機器人安檢員正站在電車軌道之上的天橋觀察電車交通情況。它看到橋下的電車正沿著有五人滯留的軌道疾馳,必須立即采取行動幹預。而在天橋上,機器人安檢員旁邊有一位身材魁梧的男子,他也注意到了同樣的情況。如果機器人把該男子推到軌道上以擋住電車,那五個(ge) 人就可能免於(yu) 一死,但是這男子則必死無疑。機器人應當這樣做嗎?

 

麵對這兩(liang) 種兩(liang) 難困境,道德主體(ti) 必須做決(jue) 定,是認為(wei) “拯救五個(ge) 人的行為(wei) 是不允許的,因為(wei) 這一舉(ju) 動會(hui) 造成傷(shang) 害”,還是認為(wei) “這一舉(ju) 動是被允許的,因為(wei) 這一傷(shang) 害隻是行善導致的一種副作用”【7】。實驗表明,人們(men) 在電車難題中通常會(hui) 選擇犧牲一人去拯救另五人,卻不會(hui) 選擇犧牲天橋上的男子去營救軌道上的另五人。在實驗者看來:“這給心理學家出了一道難題:盡管在這兩(liang) 種情境之間很難找到真正合理的差別點,但究竟是什麽(me) 原因使得幾乎每個(ge) 人在電車難題上都選擇犧牲一人去拯救另五人,而在天橋難題中卻未選擇這麽(me) 做?”【8】現在我們(men) 以這兩(liang) 種情境作為(wei) 我們(men) 的測試場景,來思考設計人工智能的不同倫(lun) 理學模型各自會(hui) 有的後果。

 

就人類的道德情境而言,電車難題看起來似乎有些誇張而且不切實際;然而,在人工道德主體(ti) 的考量上,機器倫(lun) 理有可能出現類似的問題。我們(men) 不妨設想未來的特斯拉(Tesla)汽車在自動駕駛決(jue) 定上加了一條主導的道德原則:如果傷(shang) 害到人類是個(ge) 不可避免的結果,那麽(me) ,抉擇必須以盡量減少傷(shang) 害的人數為(wei) 第一原則。【9】如果一輛載滿學生的校車突然失控衝(chong) 向一輛特斯拉汽車,而特斯拉汽車無法及時停車避免相撞,這輛特斯拉汽車應該冒著司機的生命危險而轉向去撞路中間的隔離帶呢,還是應該繼續前行聽憑兩(liang) 車相衝(chong) 撞呢?如果特斯拉的道德考量可能最終會(hui) 犧牲它的駕駛人,那也許就沒人願意購買(mai) 一輛特斯拉了。這種預想情況和電車難題有些類似。在設計機器人的道德主體(ti) 方麵我們(men) 還可以設想其他很多跟電車難題類似的情形。因此,電車難題可以用來檢測我們(men) 的機器倫(lun) 理。

 

(一)阿西莫夫機器人定律

 

“自上而下”機器倫(lun) 理設計方向一個(ge) 很好的範例就是阿西莫夫(Isaac Asimov)於(yu) 1942年提出的機器人三大定律【10】:

 

[A1]機器人不能以其行動傷(shang) 害人,或因不作為(wei) 而使得人受到傷(shang) 害。

 

[A2]在不違反第一條定律的前提之下,機器人必須絕對服從(cong) 人類給予的任何命令。

 

[A3]在不違反第一和第二定律的前提之下,機器人必須盡力保存自己的存在。

 

阿西莫夫後來追加了一條第零定律,優(you) 先於(yu) 以上三條定律:

 

[A0]機器人不得傷(shang) 害人類整體(ti) ,或因不作為(wei) 使人類整體(ti) 受到傷(shang) 害。【11】

 

第一定律與(yu) 第零定律之間的區別在於(yu) ,前者關(guan) 注人類個(ge) 體(ti) ,而後者關(guan) 注人類整體(ti) 。第零定律優(you) 先於(yu) 第一定律,這就意味著:為(wei) 了保護人類整體(ti) ,機器人可以傷(shang) 害人類個(ge) 體(ti) 。科幻小說中有運用第零定律的例子:如果某些人類個(ge) 體(ti) 攜帶足以使人類滅亡的致命性傳(chuan) 染病毒,那麽(me) 機器人就有義(yi) 務消滅這些個(ge) 體(ti) 。這個(ge) 道德原則表麵上看來很有道理,然而,在實際應用上則是極度有問題的,因為(wei) 人類整體(ti) 這個(ge) 概念作為(wei) 道德理念極為(wei) 抽象,在人類曆史上這個(ge) 概念曾被用來作為(wei) 很多邪惡行徑的借口,比如納粹分子以改良人種而殘害猶太民族,或是其他以改良人類整體(ti) 為(wei) 名的種族屠殺。因此,第零定律作為(wei) 最高級別的機器人定律完全有可能廢除阿西莫夫三大定律。

 

用阿西莫夫三大定律來處理電車難題也顯然捉襟見肘。在標準版電車難題中,第一定律禁止機器人拉動拉杆,因為(wei) 這會(hui) 傷(shang) 害到另一軌道上的人;但該定律也不容許機器人袖手旁觀,因為(wei) 它的不作為(wei) 會(hui) 導致軌道上的五人受到傷(shang) 害。在天橋版中,機器人將胖男子推下橋的行為(wei) 是絕對禁止的,因為(wei) 這直接傷(shang) 害了人類;但與(yu) 此同時,明明可以推下男子攔停電車,而機器人卻袖手旁觀,這就違背了第一定律的後半句要求。無論如何,這個(ge) 機器人會(hui) 處於(yu) 沒有道德引導的盲目狀態。溫菲爾德(Alan Winfield)等人曾進行過一係列試驗,試驗中的“阿西莫夫機器人”肩負著救人的重任。試驗設計了三種不同的情景。第一種情景隻放置了“阿西莫夫機器人”,而它的任務隻是保護自己。這時“阿西莫夫機器人”可以百分之百保證自己不掉入坑裏。第二種情景增加了代表人類的機器人H,而第三種情景則包含了兩(liang) 個(ge) 代表人類的機器人H和機器人H2。在隻有一個(ge) 人類的情景中,阿西莫夫機器人可以成功地完成自己的任務。然而,如果(機器人H和機器人H2所代表的)兩(liang) 個(ge) 人類麵臨(lin) 掉進坑中的危險,那麽(me) 在近一半的嚐試中,“阿西莫夫機器人躊躇無助,結果兩(liang) 個(ge) ‘人類’都命歸黃泉”。【12】溫菲爾德等人相信,他們(men) 所設計的這個(ge) 試驗非常契合阿西莫夫的第一定律。【13】因此,阿西莫夫機器人的失敗,表明阿西莫夫定律不足以處理較為(wei) 複雜的道德情境。為(wei) 了解決(jue) 這個(ge) 問題,我們(men) 需要引入其他規則來指導機器人如何在道德困境中做出正確的選擇。

 

在討論人類倫(lun) 理規範的種種理論中,除了規範性道德原則的走向之外,還有品德倫(lun) 理學、關(guan) 懷倫(lun) 理學的種種提案,對人類規範性道德來說,這也許是目前更普遍被接受的理路。但是機器人是否可以具有道德品德、道德情懷,或是如何建造有品德、有情感的機器人,都是很有困難也非常容易引起質疑的議題。因此我們(men) 姑且不談。在討論機器人道德準則的文獻中,康德倫(lun) 理學或功利主義(yi) 倫(lun) 理學是最主要的範本。我們(men) 不妨對此二者進行一番考察。在討論這兩(liang) 種道德準則時,我們(men) 也不是討論整個(ge) 康德道德哲學或是功利主義(yi) 的各個(ge) 層麵,而是專(zhuan) 就其理論中的道德準則運用在機器倫(lun) 理建構的後果作比較研究。

 

(二)人工道德主體(ti) 的康德倫(lun) 理學準則

 

機器倫(lun) 理學中主導的倫(lun) 理模型之一,便是康德的道德哲學。許多機器倫(lun) 理學家認為(wei) 康德的道德理論提供了一個(ge) 可以讓“我們(men) 把倫(lun) 理學成功應用於(yu) 自主機器人的最好機會(hui) ”【14】。康德的規範倫(lun) 理學是一種義(yi) 務論,它在進行道德判斷時訴諸人的責任感而非情感。“責任是種規則或律令,與(yu) 之相伴的是我們(men) 在進行選擇時所感到的約束或動因。”【15】我們(men) 不難理解為(wei) 什麽(me) 機器人倫(lun) 理學自然會(hui) 選擇康德道德哲學:對於(yu) 康德來說,人類的自身利益、欲望、自然傾(qing) 向,以及諸如榮譽感、同情感與(yu) 憐憫感之類的道德情感,這些都完全沒有道德價(jia) 值。康德認為(wei) ,即使某人在向其周圍傳(chuan) 播幸福時找到了自己內(nei) 心的喜悅,並且在別人對自己的工作表示滿意時而感到欣喜,無論上述行為(wei) 多麽(me) 正確或令人喜愛,它“依然沒有真正的道德價(jia) 值”【16】。真正的道德行動必須純然依據理性存在者的責任感。由於(yu) 缺少感性,不會(hui) 受到人類情緒和欲望的幹擾,機器人將成為(wei) 實現康德純粹理性的道德模式的理想對象。

 

康德的第一條絕對律令表述如下:

 

[D1]我應當永遠不會(hui) 行動,除非以這樣的方式,即我的行為(wei) 準則將成為(wei) 普遍法則。【17】[另一個(ge) 版本:行為(wei) 的準則必須是在選擇當下行為(wei) 準則時,同時認知這個(ge) 行為(wei) 準則可以成為(wei) 普遍法則。]

 

準則是一個(ge) 人的主觀意誌原則,而普遍法則是一種本質上約束著一切理性存在者的道德律。康德的“絕對律令”基於(yu) 以下假設:個(ge) 人的道德抉擇不是當下的意氣用事,而是在對當下特定情境進行思量考慮後的結果,人類的道德選擇是伴隨著對特定情境的考量出現的,且這一考量與(yu) 個(ge) 人在處理臨(lin) 時情況時所采用的個(ge) 人原則相一致。也就是說,個(ge) 人的道德抉擇是個(ge) 理性的過程,而理性的第一條件就是一致性(矛盾是缺乏理性的一個(ge) 表征)。康德的“絕對律令”將個(ge) 人的主觀意誌原則與(yu) 普遍法則結合,不僅(jin) 要求個(ge) 人的內(nei) 在一致性(intrapersonal consistency),同時要求人與(yu) 人之間的同一性(interpersonal agreement)。這一絕對律令的作用就像一條禁令:不要選擇不能普遍化的主觀意誌原則,不要做出違背普遍法則的行為(wei) ,比如因遭遇不幸而自殺,明知不能依諾歸還仍去借錢,沉溺於(yu) 享樂(le) 而沒有發展自身天賦,或是在自身不會(hui) 遭遇危難的情況下仍然拒絕幫助急需幫助的人。即使這種種行為(wei) 在當下是我們(men) 最有意願去做的事,但從(cong) 道德理性上考量我們(men) 仍不應該放任自己的行為(wei) 。這種自律的道德,在康德看來,是人類道德的本質。

 

在機器人倫(lun) 理學方麵,我們(men) 可以用康德的第一條絕對律令來製定這樣的機器人道德律:

 

[DR1]一個(ge) 機器人的行動必須遵守如下法則,即它所做的選擇在原則上應能成為(wei) 其他機器人的普遍法則。

 

由於(yu) 機器人倫(lun) 理學必須設計出一種讓機器人在個(ge) 別情況下,能根據預定原則而做出決(jue) 定的行動程序,我們(men) 必須以情境倫(lun) 理學的基礎,在行動過程中給予個(ge) 案考量,但是這些主觀的行為(wei) 準則又必須能被普遍化。對人類來說,這種自律的行為(wei) 是人類道德理性思考的結果,但是要讓機器人能做類似的考量才做選擇,而不是僅(jin) 僅(jin) 服從(cong) 僵硬的程序法則,我們(men) 必須為(wei) 機器人配置搜尋功能,即搜集每一情形中可能後果的數據,並計算其結果,才能決(jue) 定是否采取行動或是采取何種行動。換句話說,機器人倫(lun) 理不得不接受道德後果論,而不是如康德所要求的道德動機論。

 

如果說康德的第一條絕對律令可以起到禁令的作用,那麽(me) 他的第二條絕對律令則給出了更具體(ti) 的道德引導:

 

[D2]應當以這樣的方式行動,即永遠不能把人(自己或他人)僅(jin) 僅(jin) 當成手段,而是永遠視為(wei) 目的。

 

這個(ge) 律令表達人類存在的尊嚴(yan) 性。我們(men) 永遠不能把人僅(jin) 僅(jin) 看作達到目的的手段。人們(men) 有自由意誌。把他們(men) 當成達到目的的手段是對他們(men) 自主性的否定。(比如說綁架勒索的恐怖主義(yi) 行為(wei) 即完全違反這條律令,不管當事人如何用政治理由來證明其行為(wei) 的正當性)。

 

就機器人倫(lun) 理學而言,我們(men) 可以運用康德的第二條絕對律令製定如下的機器人行為(wei) 法規:

 

[DR2]一個(ge) 機器人必須如此行事,即永遠不能把任何人僅(jin) 僅(jin) 當成手段,而是永遠視為(wei) 目的。

 

前麵提過在麵臨(lin) 電車難題困境時,人們(men) 的典型反應如下:在標準版中,一般人都選擇犧牲一個(ge) 人去救另五個(ge) 人,而在天橋版中,大多數人會(hui) 拒絕把一個(ge) 人從(cong) 天橋上推下去以救軌道上的五個(ge) 人。在標準版中,人們(men) 所使用的基本原則似乎更看重5∶1的人命比。但在天橋版中,為(wei) 了使電車停止而把一個(ge) 人推下橋去顯然違背了第二條絕對律令。格林(Joshua Greene)認為(wei) :“人們(men) 在標準電車難題中的反應是典型的後果論思維,而在天橋版本中的反應則是典型的道德義(yi) 務論。”【18】格林認為(wei) ,人們(men) 之所以會(hui) 有不同的反應,是因為(wei) “盡管後果相似,但在近距離親(qin) 手殺死一個(ge) 人(如在天橋困境中)的想法比起沒那麽(me) 直接(如在標準電車難題中操作拉杆)的想法具有更大的情緒影響”【19】。格林認為(wei) ,我們(men) 自覺的道德判斷其實是主觀潛意識對當下情境的整體(ti) 回應:“我們(men) 完全沒有意識到,我們(men) 是把潛意識中的覺知、記憶,以及情緒處理為(wei) 合理的敘事,從(cong) 而讓它們(men) 釋放到顯意識之中並做出回應。”【20】可見理性道德判斷是由內(nei) 在情緒反應來驅動的。所以康德的義(yi) 務論進路其實不是理性主義(yi) ,而是更接近情感主義(yi) 的主張。格林稱其為(wei) “康德靈魂的秘密玩笑”。

 

不過,機器人或是其他人工智能都沒有潛意識或情感,也不會(hui) 有來自下意識的情緒影響,所以它們(men) 的決(jue) 定過程會(hui) 跟人類很不一樣。我們(men) 現在可以考慮一下康德倫(lun) 理學是否能使得機器人在麵臨(lin) 電車難題困境時做出和人類一樣的選擇。

 

很顯然的,在天橋版本中,機器人會(hui) 拒絕把那名男子推下橋,因為(wei) 這樣做將明顯違背DR2。所以這不必多慮。然而,在標準版本中,機器人的道德引導就不那麽(me) 明確了。如果機器人依照在它看來可以通用於(yu) 一切機器人的原則來行動,那麽(me) 它可能無力做任何事。人類通常以一種自發、直覺的方式來判斷他們(men) 自身的行為(wei) 準則是否能夠成為(wei) 普遍法則。但是,如果想讓機器人做出同樣的判斷,那麽(me) ,在設計程式上要麽(me) 給它裝備一個(ge) 巨大的數據庫,其中包含了其他機器人以相同的方式行動所造成的一切可能後果(因為(wei) 機器人能夠判斷行動對錯的根本是後果論的思維),要麽(me) 給它配備人類所擁有的直覺,可以當下判斷對錯。但是前者會(hui) 有數據龐大而且不完整的困難,後者則要麵對技術瓶頸,因為(wei) 人工智能不可能獲得人類所具有的直覺本能。因此,康德的第一條絕對律令無法為(wei) 機器人做道德抉擇提供一個(ge) 充分的指導基礎。

 

在此,設計康德式人工道德主體(ti) 碰到了一個(ge) 根本性的悖論。康德的第一絕對律令基於(yu) 其道德形而上學的理念,認為(wei) 所有的人都是自主的理性存在者。理性存在者是“目的王國”的公民,分享同樣的“共同法”,並遵守著他們(men) 自己所製定的普遍道德法則。他們(men) 是自主的,因為(wei) 他們(men) 是完全的理性主體(ti) ,“平等參與(yu) 共同體(ti) 道德原則的製定”。【21】但是從(cong) 其設計本身來看,人工道德主體(ti) 就是一些服從(cong) 於(yu) 程序命令的機器。它們(men) 不會(hui) 為(wei) 自己立法,也不會(hui) 因為(wei) 彼此是平等的立法者而相互尊重。此外,它們(men) 還缺乏自由意誌,而自由意誌對於(yu) 康德式的道德主體(ti) 來說必不可缺。因此,托肯斯稱它們(men) 為(wei) “反康德的”。他說:“我們(men) 要求康德式的人工道德主體(ti) 的行為(wei) 符合道德,但事實上它們(men) 的發展違背了康德的道德,這使得它們(men) 的發展受到道德上的質疑,同時也使得我們(men) 作為(wei) 它們(men) 的創造者有點虛偽(wei) 。”【22】因此,不僅(jin) 將康德的倫(lun) 理準則應用於(yu) 人工智能是個(ge) 問題,事實上創造人工道德主體(ti) 本身從(cong) 康德的角度來看就是不道德的行為(wei) 。托肯斯認為(wei) :“通過創造康德式道德機器,我們(men) 僅(jin) 僅(jin) 是把它們(men) 當作手段,而不是當作目的本身。按照康德哲學,道德主體(ti) 自身是目的,因此之故,他們(men) 應當被尊為(wei) 目的。違背這一法則就是將主體(ti) 僅(jin) 僅(jin) 當作客體(ti) ,被用作達到其他目的的手段。”【23】換句話說,即使我們(men) 能夠創造出遵守DR2的機器人,即便我們(men) 不把機器人算作人類之成員,這一創造活動本身就已經違背了康德的道德原則,因為(wei) 這一活動製造出純為(wei) 手段,而不以目的存在的人工道德主體(ti) 。

 

(三)人工道德主體(ti) 的功利主義(yi) 倫(lun) 理學準則

 

另一個(ge) 常見的方案是將功利主義(yi) 倫(lun) 理學準則應用於(yu) 人工道德主體(ti) 。簡單地講,功利主義(yi) 原則以行為(wei) 可能的後果來判斷行為(wei) 的對錯:能夠促進幸福或快樂(le) 的行為(wei) 是對的,而產(chan) 生痛苦的行為(wei) 則是錯的。密爾(John Stuart Mill)認為(wei) ,唯有快樂(le) 本身具有內(nei) 在價(jia) 值。它的價(jia) 值在於(yu) 人們(men) 的欲望。換句話說,“好的”等同於(yu) “可欲的”。密爾說:“要證明任何東(dong) 西是可欲的,唯一可能的證據是人們(men) 實際上欲求它。”【24】所謂“好”的結果不過是人們(men) 欲求的事情,而“壞”的結果則是人們(men) 厭惡的事情。這種理論的基礎是古代的快樂(le) 論。不過根據德賴弗(Julia Driver)的看法:“自二十世紀初期開始,功利主義(yi) 經曆了多次修正。二十世紀中葉以後,它更多地被視為(wei) 一種‘後果論’,因為(wei) 幾乎沒有哲學家完全認同古典功利主義(yi) 的觀點,尤其是它的快樂(le) 主義(yi) 的價(jia) 值理論。”【25】功利主義(yi) 最大的特征是僅(jin) 考慮會(hui) 有多少人受到這個(ge) 行為(wei) 影響,而不考慮行動者本人的個(ge) 人利益。功利主義(yi) 原則的標準表述如下:【26】

 

[U]一個(ge) 行為(wei) 正確的充足必要條件就是這個(ge) 行為(wei) ,比起行動者可能采取的其他行為(wei) 來說,能夠對所有會(hui) 受到影響的人產(chan) 生更大的利益,或是更小的傷(shang) 害。

 

對於(yu) 人工智能,我們(men) 可以將U改寫(xie) 成UR:

 

[UR]在權衡了所有可能采用行為(wei) 的後果之後,機器人必須選擇的行動是對於(yu) 所有會(hui) 受到影響的眾(zhong) 人來說,或者能實現最大的利益,或者能阻止更大的損害。

 

以上的兩(liang) 種準則都是從(cong) 後果論的角度來衡量行為(wei) 選擇的正確性。現在我們(men) 來看一下關(guan) 於(yu) 機器倫(lun) 理學的後果論模式的一些研究。

 

圖盧茲(zi) 大學(the University of Toulouse)的本尼馮(feng) (JeanFranois Bennefon)、俄勒岡(gang) 大學(the University of Oregon)的謝裏夫(Azim Shariff)與(yu) 麻省理工學院(MIT)的雷邁(Iyad Rahwan)共同開展了一項研究,要求參與(yu) 者對以功利主義(yi) 倫(lun) 理原則來設計的自動駕駛汽車做出評價(jia) :在功利主義(yi) 的倫(lun) 理準則設計下,這種車子為(wei) 了避免衝(chong) 向一群行人而造成更大傷(shang) 害,會(hui) 寧願犧牲自己和開車的主人(司機)。這些學者的研究發現,盡管參與(yu) 者普遍肯定這種車輛所帶來的結果更好,但他們(men) 自己並不想購買(mai) 這樣一種自動駕駛汽車。研究的結論是,參與(yu) 者“在道德偏好上壓倒性地認同功利主義(yi) 的自動駕駛汽車,因為(wei) 它能將傷(shang) 亡人數降到最低”。【27】但是,當被問及他們(men) 是否會(hui) 購買(mai) 這種功利主義(yi) 的自動駕駛汽車,參與(yu) 者就沒有多少積極性了。研究者指出,“盡管參與(yu) 者依然認為(wei) 功利主義(yi) 的自動駕駛汽車是最道德的,但他們(men) 更願意為(wei) 自己購置具有自我保護模式的汽車”。【28】這種雙重標準產(chan) 生了一種社會(hui) 困境:“一般人傾(qing) 向於(yu) 認為(wei) 功利主義(yi) 式的自動駕駛汽車是對社會(hui) 整體(ti) 來說最好的設計,因為(wei) 這種模式的車子可以減低傷(shang) 害率,使得社會(hui) 中每個(ge) 人都受益更多。但是人們(men) 又同時出於(yu) 個(ge) 人動機,隻想乘坐會(hui) 不計一切代價(jia) 而保護他們(men) 自己的自動駕駛汽車。因此,如果具有自我保護模式的自動駕駛汽車和功利主義(yi) 模式的自動駕駛汽車同時進入市場,幾乎沒有人會(hui) 願意選擇功利主義(yi) 模式的自動駕駛汽車,盡管他們(men) 卻希望別人這樣選擇。”【29】沒有政府的強力推動和管製,這種功利主義(yi) 模式的自動駕駛汽車將不會(hui) 出現在市場上。但是,如果政府采取強力推動,則可能出現對采用這一模式的更大阻力。換句話說:“政府管製汽車安全並采取功利主義(yi) 的模式所引發的阻力,反而會(hui) 使得汽車工業(ye) 延遲通過推廣更安全技術的使用,結果造成的卻是更高的傷(shang) 亡率。”【30】社會(hui) 效益和個(ge) 人利益之間的矛盾顯示了人工智能的功利主義(yi) 模式的潛在問題。如果這些研究中的參與(yu) 者會(hui) 不情願去購買(mai) 功利主義(yi) 模式的汽車,那麽(me) 普通大眾(zhong) 也很有可能會(hui) 因為(wei) 自利心理而抵製把功利主義(yi) 倫(lun) 理學應用於(yu) 為(wei) 我們(men) 服務的道德機器人。

 

除了以上所述功利主義(yi) 人工智能令人不滿意的地方,另外一個(ge) 問題是,如果在我們(men) 的社會(hui) 中存在這樣的人工道德主體(ti) 將會(hui) 帶來巨大的危險。一般人在電車困境標準版和天橋版中的不同反應表現出人們(men) 傾(qing) 向於(yu) 避免那些會(hui) 明顯給他人帶來傷(shang) 害的行為(wei) 。一般人並不總是喜歡功利主義(yi) 的思考方式,尤其是當這種思考模式指引他們(men) 犧牲少數人的利益,而這些少數人包括他們(men) 自己、親(qin) 人和熟人。除了一些個(ge) 別的英雄舉(ju) 動,很少有人會(hui) 為(wei) 了大多數人更大的利益或是更好的結果而去犧牲自己或是自己所愛的人。但另一方麵,人工智能則沒有這樣的心理障礙。在UR的指導下,隻要局部的摧毀可以帶來社會(hui) 更高的利益,功利主義(yi) 人工智能的機器人就可能會(hui) 選擇摧毀。這個(ge) 模式將麵臨(lin) 與(yu) 阿西莫夫第零定律同樣的困境。

 

從(cong) 人類與(yu) 人工智能的差異,我們(men) 也看出功利主義(yi) 永遠也不會(hui) 成為(wei) 人類主要的道德原則。即使我們(men) 的道德思維訴諸功利主義(yi) 原則,我們(men) 的情感、個(ge) 人利益和其他考慮都會(hui) 讓功利主義(yi) 的思維變得“不純粹”。如果我們(men) 像人工道德主體(ti) 那樣進行純粹的功利主義(yi) 道德考量,那麽(me) 其結果對人類社會(hui) 來說將是巨大的威脅。正如M.安德森和S.安德森所指出,功利主義(yi) 會(hui) “侵犯人權,因為(wei) 它可以犧牲個(ge) 人以獲得善的更大淨值。功利主義(yi) 也違背我們(men) 對於(yu) 正義(yi) ,即對‘什麽(me) 是人們(men) 所應得的’的看法,因為(wei) 人們(men) 所應得的是反映其過去行為(wei) 的價(jia) 值,但是功利主義(yi) 對行為(wei) 對錯的判斷卻完全取決(jue) 於(yu) 行為(wei) 的未來結果”。【31】功利主義(yi) 在規範倫(lun) 理學中仍有吸引力,也許正是因為(wei) 人們(men) 從(cong) 來不會(hui) 完全地、絕對地遵從(cong) 功利主義(yi) 的規範。

 

三、儒家機器人倫(lun) 理

 

當今儒家學者具有的共識是,儒家倫(lun) 理並不是一種規則引導的規範倫(lun) 理,而是一種德性倫(lun) 理,注重培養(yang) 道德主體(ti) 的道德品質和善良性格。在設計機器人的道德抉擇過程中,我們(men) 必須要把儒家倫(lun) 理轉化為(wei) 一種可運用、可踐行的道德規則。因此,我們(men) 必須對儒家道德規則進行一番新的解讀,從(cong) 《論語》中提煉出可以加在人工智能設計中的道德律令。【32】

 

《論語》中有很多被高度重視的美德,它們(men) 可以被轉化為(wei) 儒家機器人倫(lun) 理學的道德規則。本文挑選了三種主要的美德:忠(loyalty)、恕(reciprocity【33】)、仁(humanity)。之所以選擇前兩(liang) 種美德,是因為(wei) 孔子重要的弟子之一曾子說,忠恕是夫子的一以貫之之道(《論語·裏仁》【34】)。之所以選擇第三種美德,是因為(wei) 在整個(ge) 儒家傳(chuan) 統中“仁”是最重要的美德,孔孟均重視它,後來的宋明儒家還對此作了進一步闡發。

 

孔子對於(yu) “忠”言之甚詳。它是孔子的“四教”之一(《述而》),並且和“恕”一起構成了孔子的一以貫之之道(《裏仁》)。在個(ge) 人道德培養(yang) 方麵,孔子說君子把“忠”和“信”作為(wei) 第一原則(《學而》、《子罕》)。弟子問,如何崇德辨惑,孔子建議說:堅持忠信,“徙義(yi) ,崇德也”((《顏淵》)。“忠”對於(yu) 國家治理也很重要。孔子告訴魯國的國君,要想百姓忠,君自身就必須“孝慈”(《為(wei) 政》)。孔子告訴宋定公,“君使臣以禮,臣事君以忠”(《八佾》)。但“忠”不是盲目順從(cong) ,而是要向君“提建議”(誨)(《憲問》)。弟子問:“令尹子文三仕為(wei) 令尹,無喜色,三已之,無慍色。舊令尹之政必以告新令尹,何如?”孔子回答說:“忠矣。”(《公冶長》)弟子問政,孔子說:“居之無倦,行之以忠。”(《顏淵》)上述例子表明,在孔子看來,“忠”既是私德又是公德:無論是修身,還是參與(yu) 公共事務,“忠”都是至關(guan) 重要的。

 

筆者曾指出:“忠並不是一種直接針對他人的關(guan) 係;相反,它指向一個(ge) 人所承擔的角色。在這個(ge) 意義(yi) 上,忠可界定為(wei) ‘做應做的’或‘忠於(yu) 角色’。換句話說,社會(hui) 角色不隻是社會(hui) 任務;它還是道德任務。‘忠於(yu) 某人的角色’意味著,能夠做出與(yu) 道德義(yi) 務相應的行動,而道德義(yi) 務則伴隨著社會(hui) 角色。因此,‘忠’是忠於(yu) 一個(ge) 人的道德義(yi) 務,履行一個(ge) 人的角色所規定的社會(hui) 責任。”【35】這一解釋可以得到進一步的支持:孔子建議弟子“與(yu) 人忠”(《子路》)。這裏的“人”不限於(yu) 君,還包括朋友和陌生人。《左傳(chuan) ·昭公二十年》記載孔子言:“守道不如守官。”“道”當然是士人知識分子的最高目標,但是並不是每個(ge) 人都可以事事以道為(wei) 主。如果每個(ge) 人都能善盡職守,盡心盡力,那麽(me) 道行天下也就不是遙不可及的目標了。《論語》裏孔子也強調:“不在其位,不謀其政。”(《泰伯》)儒家強調名正言順,角色之名定位角色之職。越俎代庖常常造成職責混亂(luan) ,是非不明。這個(ge) 固守職分,不幹預他事的道德準則對於(yu) 人類有用,對於(yu) 機器人來說尤其重要。

 

根據對“忠”這一美德的上述解釋,我們(men) 就有了儒家機器人倫(lun) 理的第一條道德原則:

 

[CR1]機器人的首要職責就是履行指派給它的角色責任。

 

表麵上看來,這一道德準則似乎微不足道:我們(men) 設計機器本來就是要它完成任務的。但是,這個(ge) 律令其實具有第一要位:我們(men) 所討論的是有可能成為(wei) 全知全能的“機器神”,在無法由程序員事先預測所有情境中機器人所可能做出之判斷的情況下,我們(men) 需要對這些可能的情形有所防備。我們(men) 不能給予人工智能如神一樣的超人能力,擁有對任何人與(yu) 事的所有決(jue) 定權。我們(men) 需要先界定它們(men) 的職權範圍。CR1建立了明確的分工體(ti) 製:提供健康服務的機器人應專(zhuan) 門忠於(yu) 提供健康服務的角色,而不是去判斷病人的生命值不值得救,或者判斷是否要幫助病人實現安樂(le) 死的願望。無人自動駕駛汽車應履行保護乘客安全的職責,而不應該選擇自動撞樹、犧牲乘客,以避免衝(chong) 向一輛校車而發生災難性的悲劇。這樣的決(jue) 定超出各個(ge) 人工智能被設計的角色。因此角色定義(yi) 是建立人工道德主體(ti) 的第一步。

 

《論語》中另一個(ge) 重要的德行是“恕”。關(guan) 於(yu) “恕”,孔子稱其“可以終身行之”,並對其作了進一步規定:“己所不欲,勿施於(yu) 人。”(《衛靈公》)另一處,弟子子貢說:“我不欲人之加諸我也,吾亦欲無加諸人。”孔子告訴他:“非爾所及也。”(《公冶長》)從(cong) 這兩(liang) 處看,恕的內(nei) 涵被具體(ti) 定義(yi) 為(wei) 一種人際交往中所體(ti) 現的風度和心理狀態。相對於(yu) 基督教的金律“你們(men) 願意人怎樣待你們(men) ,你們(men) 也要怎樣待人”,儒家的“恕”觀念經常被稱作“負麵形式的金律”,因其禁止人們(men) 做什麽(me) ,而不是具體(ti) 命令人們(men) 做什麽(me) 。筆者曾指出,“恕”的這種形式優(you) 於(yu) 基督教的金律,因為(wei) 人們(men) 所不欲的比人們(men) 所欲的更具有普遍的基礎。“一般而言,我們(men) 不希望別人羞辱我們(men) ,嘲笑我們(men) ,偷我們(men) 的東(dong) 西,傷(shang) 害我們(men) ,或者以任何方式虐待我們(men) 。因此,我們(men) 理應不要以這些方式虐待別人。即便我們(men) 願意別人以某種方式對待我們(men) ,儒家金律也沒有建議我們(men) 以同樣的方式對待別人。因此,它避免了基督教的金律所碰到的將主觀偏好強加於(yu) 別人的問題。”【36】

 

然而,就機器人倫(lun) 理而言,我們(men) 會(hui) 遇到機器人缺乏意願的問題。若機器人對於(yu) 自身沒有任何意願,那麽(me) 它們(men) 如何評估自己行為(wei) 的後果是否是他人(其他人類)不想施諸於(yu) 己的呢?我認為(wei) 這個(ge) 問題可以通過在設計時加入一個(ge) 普遍人類偏好的計算程序來解決(jue) 。美國哲人普特南(Hilary Putnam)曾經建議運用功能主義(yi) 所使用的方法,將一定的偏好作為(wei) 機器的“偏好功能”植入機器中。能夠做這樣判斷的機器首先應該具備對人類偏好的局部排列和一套歸納邏輯(也就是說,機器必須能夠從(cong) 經驗中學習(xi) ),以及某些“痛覺傳(chuan) 感器”(比如,監測機器身體(ti) 的傷(shang) 害、危險溫度或危險壓力的常態化工作的傳(chuan) 感器等),而且“某些特定範圍內(nei) 的輸入信號可以在機器的偏好功能或行動指令排列為(wei) 具有高的負價(jia) 值”。【37】按照這種方式,人工智能主體(ti) 可以對傷(shang) 害其他人類的行為(wei) 指派負值,同時也對傷(shang) 害自身的行為(wei) 指派負值。機器人儒家倫(lun) 理學的第二條規則便可表述如下:

 

[CR2]在有其他選項存在的情況下,機器人不能選擇會(hui) 給他人帶來最高的負值結果或最低的正值結果(根據人類偏好的局部排列)的行動。

 

跟“恕”作為(wei) 負麵的禁令一樣,如此表述的CR2也是對於(yu) “不可做什麽(me) ”的禁令。在CR2的普遍律令下,除非在特殊情況下有其他更高的道德原則壓過“不可做什麽(me) ”的禁令,機器人永遠不能選擇傷(shang) 害人類,永遠不能在沒有正當理由的情況下給人類造成痛苦,永遠不能剝奪某人珍視的財產(chan) 或是享受,如此等等。這一道德規則與(yu) 阿西莫夫第一定律相類似:“機器人不能傷(shang) 害人類,或看到人類受到傷(shang) 害而袖手旁觀。”然而,這條道德指令比阿西莫夫第一定律靈活得多,因為(wei) 有可能存在某些特定的負值偏好會(hui) 超過一般人對於(yu) 傷(shang) 害的負值偏好。比如說,人們(men) 也許對極度不公平的厭惡會(hui) 遠遠超過他們(men) 對身體(ti) 傷(shang) 害的避免。因此我們(men) 不難想象在某些情況下,被設計成帶有相應的角色任務和偏好指令的機器人可能會(hui) 參與(yu) 反抗不公與(yu) 濫權的革命起義(yi) 。

 

最後,儒家機器人倫(lun) 理學選擇的重要德性是“仁”。倪培民認為(wei) :“‘仁’是儒家哲學的核心。它在《論語》中出現了109次。《論語》全書(shu) 499章,共有58章討論‘仁’這一主題。”【38】在孔子看來,仁德最難培養(yang) 。他最得意的弟子顏回也隻能“其心三月不違仁”,而其他弟子則“日月至焉而已矣”(《雍也》)。當被問到某人是否有這一品質時,孔子即使承認他有其他一些可取的品質,也很少許之為(wei) 仁(《公冶長》第五、八、十九章)。同時,孔子認為(wei) ,一個(ge) 人能否獲得仁德,純粹取決(jue) 於(yu) 意誌力。他說:“仁遠乎哉?我欲仁,斯仁至矣。”(《述而》)孔子極力表彰“仁”,認為(wei) “唯仁者能好人,能惡人”,並且“苟誌於(yu) 仁矣,無惡也”(《裏仁》)。若說康德的理想是“目的王國”,那麽(me) 孔子的理想便是“仁的王國”。孔子談到“裏仁為(wei) 美”,還談到“君子無終食之間違仁,造次必於(yu) 是,顛沛必於(yu) 是”(《裏仁》)。“仁”確實是儒家道德教化的核心美德。

 

然而,孔子大多數關(guan) 於(yu) “仁”的言論都是在說仁人可以做什麽(me) 或不可以做什麽(me) ,而沒有說到“仁”的內(nei) 容。弟子問仁,孔子說“仁者,其言也訒”(《顏淵》)。孔子在別處也談到“巧言令色,鮮矣仁”(《學而》)。孔子隻在少數幾處具體(ti) 描述了何為(wei) “仁”。弟子問仁,孔子回答道:“愛人。”(《顏淵》)孔子還談到,“君子篤於(yu) 親(qin) ,則民興(xing) 於(yu) 仁”(《泰伯》)。顏回問仁,孔子告訴他:“克己複禮為(wei) 仁”,且要“非禮勿視,非禮勿聽,非禮勿言,非禮勿動”(《顏回》)。其他弟子問仁,孔子提了三個(ge) 要求:“居處恭,執事敬,與(yu) 人忠。”(《子路》)此外,孔子還用五德解釋“仁”:“恭、寬、信、敏、惠。”(《陽貨》)然而,對仁德最明確的說明莫過於(yu) 下麵這段話:“己欲立而立人,己欲達而達人。”(《雍也》)換句話說,仁德要求道德主體(ti) 幫助他人以及其他生物成就自身。不過,孔子對於(yu) 仁人所要成就的目標有進一步的限製。他說:“君子成人之美,不成人之惡。”(《顏淵》)易言之,孔子“仁”的理想是為(wei) 了使他人成為(wei) 他更好的自己,或者可以這麽(me) 講,幫助他人達到“仁”的境界。這一品質將是我們(men) 想要在機器人身上建立的最重要的特性。

 

將仁德轉換為(wei) 給予人工道德主體(ti) 的道德準則,我們(men) 就得到CR3:

 

[CR3]在不違背CR1或CR2的前提下,機器人必須幫助其他人類追求道德進步。如果有人的計劃會(hui) 促進其品德的敗壞或道德的墮落,那麽(me) 機器人就必須拒絕幫助他們(men) 。

 

這裏強調的提供幫助,意味著機器人的行為(wei) 是根據人類所給出的要求或指令來協助進行的。換句話說,機器人並不自行決(jue) 定什麽(me) 對人類主體(ti) 來說是好的,或者什麽(me) 是人類主體(ti) 應當成就的。同時,運用這個(ge) 道德規則編程,當人類的命令是為(wei) 了作惡時,機器人會(hui) 拒絕提供幫助。這樣,我們(men) 不但有了不會(hui) 傷(shang) 害人類的人工道德主體(ti) ,而且也可以防範其他人利用人工智能去幹壞事。

 

有了以上三條規則,我們(men) 就有了儒家機器人倫(lun) 理學的基本形式。現在所列舉(ju) 的儒家機器人倫(lun) 理學準則絕對沒有窮盡一切儒家倫(lun) 理運用的可能性。可能有不止一個(ge) 版本的儒家機器人倫(lun) 理學;選擇不同德行的集合和不同的機器倫(lun) 理準則都有可能與(yu) 《論語》文本相兼容。有些儒家機器人倫(lun) 理學的版本可能會(hui) 給我的理論模式帶來巨大挑戰。比如,內(nei) 澤伍德(Drayson NezelWood)認為(wei) ,《論語》中能解決(jue) 電車難題的兩(liang) 個(ge) 主要的價(jia) 值是“孝”與(yu) “和”。【39】他認為(wei) ,儒家的愛有差等,始於(yu) 最親(qin) 近的家庭成員,進而擴展到國家,然後才是陌生人及其家庭;這意味著,如果軌道上的那個(ge) 人居於(yu) 差等序列的最高等級,那麽(me) 儒家式的人工智能就會(hui) 選擇救這一個(ge) 人而不是其他五個(ge) 人。內(nei) 澤伍德所想到的情景包括,救所愛的人(如人工智能的主人)而犧牲皇室成員,救君王而非救另外五個(ge) 人(即使這五人都達到了君子的道德水平),救一個(ge) 君子而非救五個(ge) 庶民,如此等等。但是我並不認為(wei) 儒家是像他所說的那樣對人的生命價(jia) 值進行了分級,也不認為(wei) 儒家人工智能會(hui) 做出如上的倫(lun) 理判斷。我認為(wei) 儒家“親(qin) 親(qin) ”與(yu) “孝”的觀念並不意味著所親(qin) 之人的生命重於(yu) 其他人的生命。但是,內(nei) 澤伍德有一點講得很對:儒家人工智能主體(ti) 不會(hui) 自動使用功利主義(yi) 原則去不涉及情感地以人數多少來作選擇標準。那麽(me) ,儒家人工智能主體(ti) 在標準版和天橋版電車難題中究竟會(hui) 如何行事?

 

在天橋版本中,執行儒家倫(lun) 理準則的機器人永遠不會(hui) 采取將人推下橋的行動,因為(wei) 這麽(me) 做顯然把三條道德原則都違背了。在標準版本中,判斷則要複雜得多。如果機器人是電車司機或鐵道管理員,它的職責會(hui) 命令它拉動操作杆,使得這個(ge) 電車在所有可選項中盡可能造成最小的傷(shang) 害。即使某人與(yu) 機器人的設計者有特殊的關(guan) 係,機器人也不會(hui) 對這個(ge) 人抱有偏愛,因為(wei) 在機器人的設計編程中並沒有加上偏愛或是特別情感。如果機器人隻是一個(ge) 路人,那麽(me) 根據CR1,它沒有任何義(yi) 務采取行動,而且根據CR2的禁令,機器人更傾(qing) 向於(yu) 袖手旁觀而非采取行動。因此,一個(ge) 路人機器人不應采取任何行動來使疾馳的電車轉向,即使這麽(me) 做能夠減少傷(shang) 亡人數。

 

在標準版電車難題中,依照儒家倫(lun) 理律令行事的機器人,除非是電車司機或鐵道管理員這類特殊角色,是不會(hui) 拉動操作杆的。在天橋版本中,依照儒家倫(lun) 理行事的機器人,不論是什麽(me) 職分角色,都不會(hui) 將那名男子推下橋以使電車停止。如此看來,機器人的決(jue) 定會(hui) 不同於(yu) 大部分人類的直覺選擇,因為(wei) 機器人不會(hui) 像人類在天橋情景中那樣受到無意識的情感掙紮的影響。【40】儒家機器人不會(hui) 因自身的“行動”而對任何人造成傷(shang) 害,或強迫任何人接受他們(men) 不願接受的結果,即使它可能因為(wei) 自身的“不行動”而沒有防止對別人造成的傷(shang) 害或發生別人不情願接受的後果。在不久的將來,當我們(men) 的社會(hui) 中存在可自我管製、自主行動的人工道德主體(ti) 時,當不論它是否采取行動都會(hui) 導致對人的傷(shang) 害和帶來我們(men) 不願看到的後果時,我們(men) 寧可它選擇袖手旁觀,而不是采取行動。

 

結語

 

M.安德森和S.安德森在他們(men) 關(guan) 於(yu) 機器倫(lun) 理學的著作中提到:“機器倫(lun) 理學的終極目標……是要創造出一種‘自律’的機器人,它們(men) 會(hui) 自己遵守一些理想的道德原則;也就是說,它們(men) 可以在這些道德原則的指引下自行決(jue) 定應該采取何種行動。”【41】他們(men) 也認為(wei) ,研究機器倫(lun) 理學的另一個(ge) 好處在於(yu) 這“可能會(hui) 帶來道德理論上的突破,因為(wei) 機器十分適合於(yu) 我們(men) 檢測堅持遵循一個(ge) 特定的道德理論將會(hui) 導致何種結果”【42】。本文考察了四類機器倫(lun) 理的道德模式,即阿西莫夫定律,兩(liang) 條康德式的“絕對命令”,功利主義(yi) 的“效用原則”,以及儒家的忠、恕、仁道德原則。在比較了這些道德模式對於(yu) 電車難題的標準版和天橋版的解決(jue) 方案之後,本文認為(wei) 儒家的道德模型要優(you) 於(yu) 其他三種道德理論。

 

當然,我們(men) 設計人工道德主體(ti) 的初衷不是僅(jin) 僅(jin) 為(wei) 了處理電車難題以及類似的問題。在許多其他實用方麵,儒家的人工道德主體(ti) 可以成為(wei) 人類社會(hui) 很好的補助。首先,我們(men) 可以按照分配給儒家道德機器人的角色來為(wei) 其設計具體(ti) 的工作,比如,為(wei) 老年人提供幫助,為(wei) 病人提供保健服務,為(wei) 遊客提供向導服務,為(wei) 汽車提供安全導航,等等。它的首要職責是忠於(yu) 角色;因此,它在特定情境中所做的其他任何決(jue) 定都不能違反其職責。第二,儒家機器人具有精確計算出的偏好指令,不會(hui) 采取將給其他人類帶來極大的負麵價(jia) 值(包括傷(shang) 害)或極不可欲後果的任何行動。這一原則要優(you) 於(yu) 阿西莫夫第一定律,因為(wei) 它既允許了更多對負麵價(jia) 值的考慮,又讓機器人在權衡可允許的行動範圍時更加靈活。而且,它也要優(you) 於(yu) 康德原則或功利主義(yi) 原則,因為(wei) 這一道德原則基於(yu) 儒家的“負麵形式的金律”,它的作用是禁止做出錯誤行動,而不是靠主觀意誌原則去采取自以為(wei) 是的行動。在可預見的未來,在我們(men) 可能會(hui) 將主動權交給人工智能的情境中,這一原則可以保護我們(men) 避免受因人工智能故意犧牲人類而帶來的傷(shang) 害,盡管人工智能或許會(hui) 考慮它們(men) 的行動將帶來多大的利益。最後,儒家道德機器人將是有仁德的機器人:在CR3的引導之下,它會(hui) 協助而不會(hui) 阻礙人類去努力行善,去成為(wei) 更好的人,去建設更加美好的世界。也許,最終的人工智能發展會(hui) 促成人類和人工智能共同生活在孔子理想中的“仁的王國”之中。

 

參考文獻

 

1. Michael Anderson & Susan Leigh Anderson, “Machine Ethics,” IEEE Intelligent Systems, 2006, 21 (4):11.

 

2. Ryan Tonkens, “A Challenge for Machine Ethics,” Mind &Machines, 2009,19(3): 422.

 

3. 當然也有將這兩(liang) 種進路結合起來的方法。

 

4. Wendell Wallach & Collin Allen, Moral Machines: Teaching Robots Right from Wrong, New York: Oxford University Press, 2009, p.80.

 

5. Michael Anderson & Susan Leigh Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent,” AI Magazine, 2007,28(4):15-25.

 

6. Michael Anderson & Susan Leigh Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent,” p.17.

 

7. Deng Beor, “Machine Ethics: The Robots Dilemma,” Nature, 2015,523(7558):2426, DOI: 10.1038/523024a.

 

8. Joshua D. Greene, et al., “An fMRI Investigation of Emotional Engagement in Moral Judgment,” Science, 2001,293(5537):2106.

 

9. 這類例子在自動駕駛或無人駕駛汽車中不勝枚舉(ju) 。可參見JeanFranois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” Science, 2016,352(6239):15731576, DOI: 10.1126/science,aaf2654;Deng Beor, “Machine Ethics: The Robots Dilemma,” Nature, 2015,523(7558):2426, DOI: 10.1038/523024a;Larry Greenemeier, “Driverless Cars will Face Moral Dilemmas,” Scientific American, June 23,2016 (https://www.scientificamerican.com/article/driverlesscarswillfacemoraldilemmas);William Herkewitz, “The Selfdriving Dilemma: Should Your Car Kill You to Save Others?”, Popular Mechanics, June 23,2016 (https://www.popularmechanics.com/cars/a21492/theselfdrivingdilemma)。

 

10. 阿西莫夫1942年的科幻小說《轉圈圈》(Run around)中首次引入三大定律。瓦拉赫(Wendell Wallach)和艾倫(lun) (Colin Allen)認為(wei) :“任何討論‘自上而下’式的機器人道德設計不能不談阿西莫夫三大定律。”見Wendell Wallach & Colin Allen, Moral Machines: Teaching Robots Right from Wrong, p.91。

 

11. Wendell Wallach & Colin Allen, Moral Machines: Teaching Robots Right from Wrong, p.91.

 

12. Deng Beor, “Machine Ethics: The Robots Delimma,” pp.24-26.

 

13. Alan F. T. Winfield, et al., “Towards an Ethical Robot: Internal Models, Consequences, and Ethical Action Selection,” Advances in Autonomous Robotics Systems, 15th Annual Conference, TAROS 2014, Birmingham, UK, September 13,2014, Proceedings, Springer, 2014, pp.85-96.

 

14. Ryan Tonkens, “A Challenge for Machine Ethics,” p.422.

 

15. Robert Johnson & Adam Cureton, “Kants Moral Philosophy,” The Stanford Encyclopedia of Philosophy, Edward N. Zalta (ed.), Fall, 2017 (https://plato.stanford.edu/archives/fall2017/entries/kantmoral) .

 

16. Immanuel Kant, Grounding for the Metaphysics of Morals(1785), 3rd Edition, trans. James W. Ellington, Indianapolis: Hackett Publishing Company, 1993, p.11.(中譯參考了康德:《道德形而上學的奠基》,《康德著作全集》第4卷,李秋零譯,北京:中國人民大學出版社,2005年,第405頁。——譯者注)

 

17. 康德《實踐理性批判》的表述如下:“要這樣行動,使得你的意誌的準則在任何時候都能同時被視為(wei) 一種普遍的立法原則。”參見康德:《實踐理性批判》,李秋零譯,北京:中國人民大學出版社,2007年,第29頁。——譯者注

 

18. Joshua D. Greene, “The Secret Joke of Kants Soul,” Moral Psychology, Vol.3: The Neuroscience of Morality: Emotion, Disease, and Development, W. SinnottArmstrong (ed.), Cambridge, MA: MIT Press, 2007, p.42.

 

19. Joshua D. Greene, “The Secret Joke of Kants Soul,” p.43.

 

20. Joshua D. Greene, “The Secret Joke of Kants Soul,” p.62.

 

21. Robert Johnson & Adam Cureton, “Kants Moral Philosophy”.

 

22. Ryan Tonkens, “A Challenge for Machine Ethics,” p.429.

 

23. Ryan Tonkens, “A Challenge for Machine Ethics,” pp.432-433.

 

24. John Stuart Mill, Utilitarianism, 2nd Edition, George Sher (ed.), Indianapolis: Hackett Publishing Company, 2001, p.81. (中譯參考了約翰·穆勒:《功利主義(yi) 》,徐大建譯,上海:上海人民出版社,2008年,第35頁。——譯者注)

 

25. Julia Driver, Consequentialism, London and New York: Routledge, 2012, p.24.

 

26. 功利主義(yi) 可以是這裏所表述的“行為(wei) 功利主義(yi) ”,也可以是“規則功利主義(yi) ”。一個(ge) 行為(wei) 是否正確,是由它所遵循的規則的後果來決(jue) 定:如果這個(ge) 規則比起其他規則更能夠產(chan) 生更大的利益或是更小的傷(shang) 害,那麽(me) 這個(ge) 規則就是可遵循的,而遵循這個(ge) 規則的行為(wei) 也就是對的。在人類規範性倫(lun) 理學的討論中,許多功利主義(yi) 者認為(wei) 功利主義(yi) 必須被理解為(wei) 規則功利主義(yi) 。但是因為(wei) 人工智能需要更精確的規則和程序來幫助它選擇當下的行動,所以我們(men) 在此隻討論行為(wei) 功利主義(yi) 。

 

27. “大致說來,參與(yu) 者都同意如果犧牲自己的乘客能夠挽救更多的生命,那麽(me) 自動駕駛汽車犧牲自己的乘客就是更為(wei) 道德的抉擇。”見JeanFranois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” Science, 2016,352(6293):1574, DOI: 10.1126/science.aaf2654。

 

28. JeanFranois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” p.1574.

 

29. JeanFranois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” p.1575.

 

30. JeanFranois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” p.1573.

 

31. Michael Anderson & Susan Leigh Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent,” p.18.

 

32. 如無特殊說明,《論語》引文由筆者自己英譯,同時參考了 Raymond Dawson (trans.), Confucius: The Analects, New York: Oxford University Press, 1993,以及Peimin Ni, Understanding the Analects of Confucius: A New Translation of Lunyu with Annotation, Albany, NY: SUNY Press, 2017。

 

33. 這是倪培民的翻譯。“恕”也經常翻譯為(wei) “empathy”,筆者亦曾如是翻譯。

 

34. 為(wei) 簡明計,下文引述《論語》,隻注篇名。——譯者注

 

35. JeeLoo Liu, An Introduction to Chinese Philosophy: From Ancient Philosophy to Chinese Buddhism, Malden, MA: Blackwell, 2006, p.50.

 

36. JeeLoo Liu, An Introduction to Chinese Philosophy: From Ancient Philosophy to Chinese Buddhism, p.55.

 

37. Hilary Putnam, “The Nature of Mental States,” reprinted in Hilary Putnam, Mind, Language, and Reality, Cambridge: Cambridge University Press, 1975, p.435.

 

38. Pemin Ni, Understanding the Analects of Confucius: A New Translation of Lunyu with Annotation, p.32.

 

39. 2017年夏天,我作為(wei) “複旦學者”在複旦大學訪學。我邀請了幾位研究生討論用儒家機器人倫(lun) 理解決(jue) 電車難題。一位加拿大學生內(nei) 澤伍德(Drayson NezelWood)接受我的挑戰,發給我他的儒家解決(jue) 方案,並附了一張詳細的圖表。他的觀點很有意思,關(guan) 於(yu) 電車難題的圖表也很有幫助,在此謹致謝忱。

 

40. 參閱Joshua D. Greene, et al., “An fMRI Investigation of Emotional Engagement in Moral Judgment”。

 

41. Michael Anderson & Susan Leigh Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent,” p.15-25.

 

42. Michael Anderson & Susan Leigh Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent,” p.15-25.

 

責任編輯:近複

 


微信公眾號

伟德线上平台

青春儒學

民間儒行