文化与艺术
數字時代的倫理:爲我們的益處而界定和追求美善
2020-12-03
—— Jason Thacker

最近,一位朋友在推特上說,她認爲倫理學成了一個不可能實現的學科。當她解讀她的意思時,我意識到這種對倫理的態度是許多人所共有的,尤其是在我們的數字時代。隨著複雜的現代技術——如人工智能(AI)、面部識別、生物工程和社交媒體——興起,我們的社會將越來越多地質疑什麼是道德、什麼是不道德,以及我們如何追求有道德的生活。然而這些定義往往是基於當下看似正確的東西而不是基於一個倫理框架。

從谷歌的人工智能原則美國國防部最近通過的有關軍事技術使用的指導方針,以及歐盟提出的技術道德框架來看,我們的世界正在渴望以一種良好、公平、適用和合乎倫理的方式來解決技術所帶來的複雜性和給生活方向帶來改變。

「時尚道德」

倫理原則往往把公平(fairness)作爲一個主要目標。然而,「公平」是一個模糊的概念,它可能被誤用和濫用,使一個群體優先於另一個群體,甚至壓制我們社會主流之外的立場。 

在我們的數字時代,社會在用我所說的「時尚道德」替換了信念和基本道德立場,「時尚道德」就是由流行的東西或可能打動他人的東西來定義道德。我們採取什麼樣的道德立場往往是基於什麼會讓我們「和別人一樣」,這讓我們宣稱某一種形式的不公正是錯誤的,但又宣稱另一種形式的不公正是可以的,因爲「他們」是錯誤類型的人。我們宣稱我們的敵人站在「歷史錯誤的一方」,因爲我們爭先恐後地想要討好某個投票集團。這種道德形態的特點是對名聲和影響力的渴望,而不是區分對與錯。

哲學家斯拉沃伊·齊澤克(Slavoj Zizek)在談到「綠色資本主義」和企業爲了被看爲「有道德」而做出的「綠色」選擇時,就是在暗指時尚道德。他認爲,我們常常通過購買這些綠色產品來減輕對環境問題的愧疚感,因爲我們希望被視爲具有環保意識。企業知道這一點,並改變他們的模式來吸引我們去那裡購物。

這與世界各地的企業在具有里程碑意義的奧貝格費爾訴霍奇斯案(Obergefell v. Hodges案判決後的反應類似,該判例將同性婚姻合法化。許多企業知道,如果他們被視爲支持同性婚姻,這將有助於他們的品牌,因此將他們的社交頭像改爲彩虹。這種「時尚道德」與其說是基於信念或超然的真理,不如說是基於當時的流行情緒。

因爲我們已經放棄了從上面而來的道德標準,我們的社會就會根據別人對我們的看法來定義「善」。不過,這不僅僅是我們的消費主義習慣。科技也是如此,它驅動著我們的每日生活,並且很快就會驅動我們更大的生活範圍。

科技倫理

受後現代主義興起的影響,我們的社會在倫理特別是宗教問題上變得相對主義。我們對人們在倫理道德方面有自己的看法持開放態度。什麼是你認爲好的,什麼就是我們最終想要的生活。如果感覺良好,它一定是真實的。如果我們認爲它是真的,它一定是好的。

當我們考慮到現代實證研究和科學時,這種相對主義有一種微妙的諷刺。在技術和科學方面,我們的社會並不是後現代的。我們用科學方法追求扎實、客觀的事實。我們相信關於世界如何運作的不變真理。但這種客觀性並沒有侵入我們對世界的倫理和道德理解領域裡。

關於技術和倫理,我們正處於一個有趣的轉折點,因爲我們的技術發展是基於現代框架,而我們的倫理是基於後現代框架。我相信這就是爲什麼在我們的數字時代有這麼多關於倫理的困惑。我們已經變得如此迷戀別人的想法,迷戀個人主義版本的真理,以至於我們難以解決技術發展的問題(以免我們以一種安定的、客觀真理的空氣得罪人)。

隨著技術繼續影響我們生活的每一部分,我們不能依靠模糊的一般性概念來做出我們的道德決定。我們的尊嚴,還有我們鄰舍的尊嚴,都變得岌岌可危。

以谷歌最近提出的人工智能原則爲例,裡面提到技術要「有益於社會」("Be socially beneficial")。這聽起來是個值得稱道的目標,但如果你仔細看看,它是相當模糊的。什麼叫有益?如果我對有益的定義與你的不同呢?誰會受益——多數人還是少數人?誰來決定?誰來決定由誰決定?

當你閱讀文檔中的解釋時,很明顯,谷歌在使用一種功利主義的形式構築他們的倫理學(黑體是我加的):

當我們考慮人工智能技術的潛在發展和使用時,我們會考慮到廣泛的社會和經濟因素,我們會在我們認爲總體上可能的利益大大超過可預見的風險和缺點的情況下進行。

很明顯,谷歌是基於某一部分人或公司本身的價值取向,尋求給社會帶來最大「益處」的東西。但是,我們都知道,由於罪惡感和自尊心,每個人都會在某些方面表現出偏見或歧視。雖然谷歌在開發這項強大的人工智能技術時,完全有權利採取這種行動,但公眾也有權利反駁模糊的功利主義倫理觀。

這些人工智能原則是在臭名昭著的「馬文項目」(Project Maven)事件後發佈的,在該事件中,谷歌正在進行一個軍事人工智能項目,幫助梳理無數小時的無人機視頻數據。該人工智能系統正在接受數據訓練,以識別目標並自動標記對象。在員工的一片譁然聲中,谷歌退出了這個項目,員工們認爲谷歌不應該參與戰爭,這些人工智能工具應該以一種公平和有益於社會的方式來使用。

具有諷刺意味的是,科技公司和軍方之間的這種合作關係讓他們有權利抗議,因爲我們生活在一個民主自由的社會,軍方的技術(諷刺性地)正在保護著我們。但他們的抗議引發了更多問題。例如,在這種情況下,什麼是好的、正確的,和道德的?在這種情況下,我們所追求的公平如何與我們的兄弟姐妹在戰場上的安全相一致?如果讓恐怖分子和流氓國家在戰場上佔有技術優勢,公平和社會益處又體現在哪裡呢? 

如果不明確細節倫理原則,我們的社會將越來越難以明智地思考技術的作用和力量。隨著科技幾乎滲入到生活的方方面面,我們幾乎不可能避免這些「真理」和我們想要的「真理」之間的衝突。

如果基督教會有一條更好的前進道路,一條能讓黑暗中充滿光亮,讓道德決定中的陰暗變得清晰的道路,那會怎樣?

更好的方法

作爲基督徒,我們的道德決策不能與某些精英、人群的主流態度或所謂「歷史上正確的一方」掛鉤。「時尚道德」的思路不僅讓我們對上帝的信仰變得毫無意義,也揭示了我們真正關心的東西:我們自己。躲藏在呼籲公平的外衣下,是自私和驕傲。我們是更在乎今生別人對我們的評價,還是更在乎永恆中上帝對我們的評價?神呼召我們去做比自己更偉大的事:愛祂和鄰舍。不管別人對我們的看法或我們的信仰如何,基督教的真理和道德培育都可以通過幫助我們尊重這兩個最偉大的命令的方式來發展和得著成就(馬太福音22:37-39)。

在這個科技時代,上帝提醒我們,我們對社會的價值不僅僅是功利性的。從子宮裡的嬰兒到臨終的女人,人的尊嚴屬於每一個人——即使是那些想以「時尚道德」的名義將我們的信仰邊緣化的人。

因此,當我們爭論新興技術的優點和危險時,比如面部識別監控的成本、算法偏見如何貶低少數族裔,以及基於人工智能的武器系統如何被部署在戰場上,我們必須記住,我們必須將人類尊嚴的框架應用到我們決策的每一個領域。

基督教的道德傳統就建立在這種人類特殊主義的概念之上,它與科技領域盛行的物質主義背道而馳。這就是爲什麼我們必須把人的尊嚴放在我們道德框架的核心位置。

我們有什麼資格說上帝——在我們母親的子宮裡把我們編織起來的那位宇宙創造者——不明白什麼是對我們有益的,什麼將最終導致祂的榮耀?我們蒙召去愛我們的鄰舍,因爲我們要在這個不斷變化和複雜的世界中站出來維護他們的權利。隨著科技的影響越來越大,變得無處不在,我們的指導倫理不能是流行或時尚的東西,而是正確的、充滿敬畏神的生命。


譯:DeepL;校:JFX。原文刊載於福音聯盟英文網站:Ethics for the Digital Age: Defining and Pursuing the Good for Our Good

Jason Thacker(傑森.薩克爾)是美南浸信會倫理與宗教自由委員會(The Ethics and Religious Liberty Commission)的創意總監,畢業於田納西大學和浸信會南方神學院。他正在寫作一本關於人工智能和人的尊嚴的書,將在Zondervan出版。
標籤
倫理
科技
現代
人類