展會信息港展會大全

將倫理思入現(xiàn)實|AI倫理治理與社會性機器人
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-06-18 09:51:58   瀏覽:7022次  

導(dǎo)讀:AI實踐應(yīng)用正在隨時間呈指數(shù)式增長,與此同時,需要AI增進福祉的人類共同體卻陷入全球文化價值危機。AI倫理治理需要面對怎樣的難題? 社會性機器人包括機器人護理、機器人同伴、機器人警察、機器人同僚等,它們具有實際的行動能力與自主性,它們對人類社會的...

AI實踐應(yīng)用正在隨時間呈指數(shù)式增長,與此同時,需要AI增進福祉的人類共同體卻陷入全球文化價值危機。AI倫理治理需要面對怎樣的難題?

“社會性機器人”包括機器人護理、機器人同伴、機器人警察、機器人同僚等,它們具有實際的行動能力與自主性,它們對人類社會的沖擊會遠勝于目前大語言模型或是AI影像生成的影響。社會性機器人應(yīng)該具有哪些品德與情感程序,從而促使它們做出符合人類普遍價值與道德體系的抉擇?

為了探討這些前沿問題,華東師范大學(xué)于2024年6月5日舉辦了一場“AI聚力”學(xué)術(shù)沙龍(暨思與文講座第134-135講),探討AI倫理治理與社會性機器人問題。本次沙龍由華東師范大學(xué)中國現(xiàn)代思想文化研究所、華東師范大學(xué)人文與社會科學(xué)研究院聯(lián)合主辦,華東師范大學(xué)哲學(xué)系應(yīng)用倫理中心、上海中西哲學(xué)與文化比較研究會承辦。

本次論壇分為主題研討和圓桌討論兩個環(huán)節(jié)。主題研討環(huán)節(jié)由美國加州州立大學(xué)富樂敦分校劉紀璐教授、西安交通大學(xué)王小紅教授主講,華東師范大學(xué)中國現(xiàn)代思想文化研究所暨哲學(xué)系陳教授、華東師范大學(xué)哲學(xué)系潘斌教授主持。圓桌討論環(huán)節(jié)由華東師范大學(xué)哲學(xué)系應(yīng)用倫理中心張容南教授主持。

一、社會性機器人

劉紀璐教授做了題為“如何設(shè)計社會性機器人的道德基本素養(yǎng):儒家美德及其影響”的主旨發(fā)言。劉教授首先厘清了AI倫理與機器人倫理的概念范疇,表明自己主要研究的是機器人倫理學(xué)暨如何設(shè)計、應(yīng)用、對待機器人,以及機器人的道德性這兩個問題。劉教授特別提到自己的研究聚焦于社會性機器人,這類機器人需要與人類進行高度互動,未來甚至可能具備獨立的思考和行動能力。因此,面對現(xiàn)有機器人的高速發(fā)展以及未來可能會出現(xiàn)的困境,如何設(shè)計機器人的道德素養(yǎng)成為了一個重要議題。對此問題,劉教授一方面反思了過去對人工道德主體所要遵循的倫理理論的選擇,另一方面提出自己的構(gòu)想,暨參考儒家的品德倫理學(xué)與道德情感論,不依賴于行動本身而從行動者出發(fā),建構(gòu)出具有持續(xù)性的道德“人格”的機器人。

進一步地,劉教授結(jié)合學(xué)者Bertram F. Malle的主張為自己的構(gòu)想做出具體闡釋,支持目前先以機器人的“道德勝任性”為目標,日后再考慮如何建設(shè)機器人的道德主體性。她轉(zhuǎn)述一位哥倫比亞大學(xué)教授的主張:我們對AI以及機器人的發(fā)展,應(yīng)該采取導(dǎo)引(steer)而非畏懼(fear)的態(tài)度。根據(jù)Malle的闡述,“道德勝任性”包含六個關(guān)鍵要素,分別是道德語匯能力、道德規(guī)范性、道德認知能力、道德情感、道德決策性與行動性,以及道德溝通能力。劉教授特別指出,道德規(guī)范性不宜局限于地區(qū)性和單一性,而應(yīng)當構(gòu)建一個普遍多元的價值規(guī)范。在此基礎(chǔ)上,劉教授詳細解釋了選擇儒家倫理來建立機器人美德的五個原因:(1)儒家倫理強調(diào)親疏有別,更適合于機器人與人類建立親密關(guān)系;(2)儒家倫理強調(diào)終身學(xué)習(xí),可以用來加強機器學(xué)習(xí)的永無終止;(3)儒家品德倫理所列舉的美德意涵復(fù)雜深刻,不是僅僅針對人類的缺點,而同時可以適用于機器人的品德構(gòu)造;(4)儒家對處理人與人之間關(guān)系的重視有助于建立一個有德合群的群體;以及(5)儒家品德倫理學(xué)是一種道德精英倫理,目標不是僅僅建造擬人的機器人,而更是要制造機器人中間的君子圣賢。

對于儒家繁多美德的選擇,劉教授主張選擇“仁義禮智、忠信誠敬”八個美德加入機器人倫理設(shè)計,以作為機器人倫理建設(shè)從上而下的基本結(jié)構(gòu)。她也強調(diào)機器人必須從下而上,從有德之人的案例中學(xué)習(xí)道德認知,在與人互動中學(xué)習(xí)人類的價值取舍。她認為機器人的價值建構(gòu)一定需要“人在環(huán)路”,用問卷方式考察人對有德機器人的期望。她認為她在2022年所做的問卷調(diào)查與結(jié)果數(shù)據(jù),可以印證儒家美德的有用性。

最后,劉紀璐教授再次強調(diào),道德情感對于機器人而言并非可有可無, 而是具有其必要性。機器人必須擁有一些道德情感,才能作出正確的道德抉擇。她認為不是所有人的正面負面情感都需要設(shè)計給機器人。她所選擇的是孟子所說的“四端”四種使道德可能的道德情感。她認為這些道德情感不是基于身體生物性的反應(yīng),而是建立在道德判斷,是種認知性的情感,與之配合的也可以選擇愛、同情、遺憾等自然情感。當然,在目前階段只能期待機器人具有“道德勝任性”,可以正確做出“合乎道德性的”道德判斷,道德溝通,道德抉擇,與道德行為。至于未來如何從表象深入到實質(zhì)層面,構(gòu)建機器人“出乎道德”的道德主體性,仍然是個值得商榷且具有挑戰(zhàn)性的任務(wù),劉教授期待有更多的儒家學(xué)者加入研究。

美國加州州立大學(xué)富樂敦分校劉紀璐教授

美國肯庸學(xué)院教授、華東師范大學(xué)哲學(xué)系客座教授蕭陽就美德的情感與智慧這兩個向度,以及關(guān)于在問卷調(diào)查的方法中如何描述案例的問題展開評述。蕭教授高度贊同劉紀璐教授關(guān)于倫理學(xué)研究不應(yīng)只關(guān)注行動和行動規(guī)則,而應(yīng)關(guān)心美德的觀點。但是,這樣做的一個后果就是,這就給設(shè)計社會機器人提出了許多嚴重的挑戰(zhàn),而它們是那些只關(guān)注行動與原則的倫理學(xué)不會提出來的挑戰(zhàn)。

蕭陽教授強調(diào),美德至少有兩個向度會對如何設(shè)計美德機器人提出挑戰(zhàn)。首先,美德涉及情感,僅僅做出正確的行動是不夠的,還要有正確的態(tài)度和情感。美德機器人首先要成為情感機器人,有“情商”的機器人。關(guān)于如何賦予機器人情感所面臨的問題,蕭教授做出了更具體的展開,指出大部分哲學(xué)家認為情感涉及命題內(nèi)容,很少有人像斯多亞學(xué)派那樣認為情感能完全還原成并且等同于命題內(nèi)容。后來的心理學(xué)家的經(jīng)驗研究表明,僅僅有極少數(shù)情感可以完全還原為命題內(nèi)容。也就是說,情感中通?倳心承〇|西是與肉身緊密相關(guān)的,不可能用命題來表達的東西,因此不可能程序化。這是對設(shè)計情感機器人最大的挑戰(zhàn)。

除情感之外,美德還涉及實踐智慧的向度。蕭教授首先援引馮契先生的名言“化理論為德性”,然后說到,馮先生大概也會同意它的一個推論,那就是,“不應(yīng)當化美德為理論”。這是因為實踐智慧無法被還原為理論或原則。威廉姆斯(B. Williams)曾經(jīng)被問到,“一個完全遵循原則的人到底有什么不對?”他的回答是,因為他像一個機器一樣行動 (he acts like a machine)。麥克道爾(John McDowell)也曾證明美德不能被編碼。

針對劉紀璐教授研究的問卷調(diào)查中的案例,蕭教授提到,戴蒙德(Cora Diamond)寫了一篇討論實驗哲學(xué)的文章,“What if x isn't the number of sheep? Wittgenstein and Thought-Experiments in Ethics”。她論證道,當下的研究者對于他們的問卷中的那些案例是如何加以描述的完全沒有自我意識或批判的反思,他們尤其沒有注意到他們對一個案例的描述已經(jīng)被各種價值和預(yù)設(shè)所滲透。以他自己的授課經(jīng)驗為例,蕭教授提到,在討論“安樂死”問題時,同一個具體案例,從被描述為“幫助一個人擺脫痛苦”,到被描述為“謀殺”,有些學(xué)生的立場就改變了。蕭教授建議,在以后的問卷中或許也可以嘗試改變對一個案例的描述,或者最好是對同一個具體案例給出不同的描述。這些不同的描述之間的差異通常非常微妙,如何教會機器人識別,并且理解這些微妙的差別,這是對設(shè)計美德機器人的另外一個巨大的挑戰(zhàn)。

美國肯庸學(xué)院教授、華東師范大學(xué)哲學(xué)系客座教授蕭陽

華東師范大學(xué)哲學(xué)系茍東鋒教授圍繞方法論、儒學(xué)的普適性以及“像人”的問題展開評述。茍教授首先從方法論出發(fā),肯定了探討道德勝任的重要性。他指出,厘清研究對象是一項很重要的工作,劉教授的研究明確聚焦社交機器人,有其重要意義。茍教授認為,探討人類與機器人如何和諧相處的問題,涉及對人類的理解,而儒家思想中對于人的定義非常豐富。他援引孟子:“堯舜,性之也;湯武,反之也;五霸,假之也。久假而不歸,惡知其非有也。”他以此闡述儒家對人的理解以及我們該如何與機器人打交道。

接著,茍教授探討了儒學(xué)的普適性。他引用梁漱溟的三問題指出,儒家更關(guān)注人與人之間的關(guān)系,并主張以道德的方式即忠恕來解決這一問題,在此基礎(chǔ)上可以擴充至其他所有問題的解決。茍教授強調(diào),儒家的“以人治人,改而止”的治理理念和忠恕的根本精神對于人與機器人的相處具有重要啟示。

最后,茍教授討論了“像人”的問題。他提到了森昌弘的“恐怖谷效應(yīng)”,引出中西哲學(xué)對待與人高度相似的機器人在感受上有所差異。儒家從類的角度看待天地、鬼神和人類,沒有強烈的人與非人的二分性。在此基礎(chǔ)上,茍教授進一步提出了三個機器人道德相關(guān)的問題。第一,當前已有的機器人在完成特定任務(wù)時可能與人類沒有區(qū)分,但它們還只停留在扮演具體的角色,未必能擁有機器人的“仁”;第二,強人工智能還未出現(xiàn)時,如何處理假裝像人但并非人的對象?這涉及機器人的設(shè)計,自上而下的設(shè)計可能會產(chǎn)生非道德的機器人,而這無法預(yù)測;第三,當強人工智能出現(xiàn)后,我們無法對其進行設(shè)計,屆時應(yīng)當如何處理這些智能的道德問題?

華東師范大學(xué)哲學(xué)系教授茍東鋒

華東師范大學(xué)哲學(xué)系陳教授表示,隨著人工智能技術(shù)的迅猛發(fā)展,機器人是否能具備法權(quán)意識、道德意識、歷史感、同理心等人類特質(zhì)的問題需要受到高度重視,人機問題實際上是圍繞“我們希望將機器人打造成怎樣的存在”以及“我們現(xiàn)實中能制造出怎樣的機器人”展開的討論。在現(xiàn)實中,能否建立一種管理體系,將機器人容納為人類社會的一員;未來的機器人是否能擁有智慧、情感、意識,甚至發(fā)明新的語言符號體系,都仍處于未知狀態(tài)。陳教授認為,盡管我們在人工智能研究已經(jīng)取得了顯著進展,但距離我們理想中的目標仍然有一定差距,要讓它們達到與人類同等的復(fù)雜水平,依然是一個巨大的挑戰(zhàn)。盡管如此,人類可以繼續(xù)深入思考和探索這個領(lǐng)域。

華東師范大學(xué)哲學(xué)系陳教授

二、AI倫理治理

王小紅教授做主旨發(fā)言“AI倫理治理三大難題與哲學(xué)的詮釋”。王教授的報告主要涵蓋三個部分的內(nèi)容:文化共識難題;AI復(fù)合系統(tǒng)的道德責(zé)任;多重AI倫理問題的概念分析和厘清。王教授提到,自己對于文化共識問題的認知視角是基于網(wǎng)絡(luò)平臺“鏈接人工智能原則平臺(LAIP)”,該平臺旨在整合、綜合、分析和促進全球人工智能原則及其社會和技術(shù)實踐。平臺詞云圖顯示“以人為本”相關(guān)理念受到大多數(shù)國家重視,呈現(xiàn)出AI治理文化共識趨向。然而,在不同文化背景下,“以人為本”的抽象準則還需落實到具體的倫理原則。

對于如何實現(xiàn)文化共識,王教授從哲學(xué)角度提出了三個智慧共識策略。第一,超越文化的“概念鴿子籠”,即避免使用自己熟悉的文化中的“概念鴿子籠”,把另外一種文化中的事實分格塞進去,來解釋不同的文化現(xiàn)象;第二,在有利于人性進步之準則下,尊重不同的歷史所沉淀的多元價值;第三,AI大模型的倫理嵌入,不論自上而下式還是自下而上式,皆需要分析和清晰呈現(xiàn)道德哲學(xué)的語義蘊含。王教授還分享了一個文化分歧的實例為共識策略作出補充。

此外,王教授分享了所在實驗室近期所做的工作,特別分享了中國哲學(xué)古籍主題建模項目。王教授表示,哲學(xué)表述的抽象性和中國哲學(xué)一詞多義性是道德哲學(xué)向AI算法轉(zhuǎn)化的難題。實驗室所做的LDA主題建?梢杂糜诎l(fā)現(xiàn)龐大語料庫的整體意義結(jié)構(gòu),目前多用于文學(xué)、史學(xué)研究,哲學(xué)領(lǐng)域的實踐尚且不多,其實用性還有待考察。與中國哲學(xué)領(lǐng)域?qū)I(yè)學(xué)者的密切合作,有希望助力LDA模型運用于哲學(xué)語料庫,再聚焦于具體文本,進而揭示小文本意義特征和文本間意義關(guān)系,從而進行哲學(xué)發(fā)現(xiàn),并為一些哲學(xué)命題提供實證論據(jù),實現(xiàn)這一領(lǐng)域的研究突破。最后王教授簡要論及主題模型可解釋問題、語義表達映射向量表征、元倫理的建構(gòu)等問題。

西安交通大學(xué)王小紅教授

華東師范大學(xué)哲學(xué)系潘斌教授指出,王教授的報告帶來了一個重要信息,即關(guān)于建立哲學(xué)主題數(shù)據(jù)庫的建議。王教授的報告展示了如何利用大數(shù)據(jù)進行哲學(xué)研究,這對于哲學(xué)文獻考證、學(xué)術(shù)研究和思想史研究都具有重要意義。他認為,如果能夠建立一個高質(zhì)量的大型哲學(xué)數(shù)據(jù)庫,將為哲學(xué)的數(shù)字化研究帶來革命性影響。潘教授還表示,語言數(shù)據(jù)庫的建立是一個漫長的過程,但一旦完成,將極大地促進哲學(xué)研究的數(shù)字化轉(zhuǎn)型。王教授的工作開啟了這一方向,具有重要的示范意義,也希望更多學(xué)者能夠參與到這一領(lǐng)域的研究中來,共同推動哲學(xué)研究的數(shù)字化進程。

華東師范大學(xué)哲學(xué)系潘斌教授

華東師范大學(xué)哲學(xué)系付長珍教授以王教授所提出的三大難題為切入點,從三個維度闡述搭建AI倫理治理框架的前提。首先,對AI使用過程中產(chǎn)生的具體倫理問題的治理,這是一種后果性的治理;其次,符合倫理的治理即善治的實現(xiàn),這是一種原則和方法層面的治理;最后,倫理作為價值目標的前瞻性治理,這關(guān)乎未來的人與AI的相處,需要倫理學(xué)擔(dān)當其使命。

對于如何達成AI倫理治理目標這一問題,付教授提出從原則到實踐的落地性進行考量。倫理原則需要滿足可行性、可接受性和可欲性,搭建一種“帳篷”式的理論框架,既可以為AI發(fā)展提供切實的保障,又能夠滿足不同文化情境的要求,符合“科技向善,以人為本”的理念。付教授認為,這不僅要求哲學(xué)家與工程師的共同努力,還需要社會公眾的加入;這不僅意味著AI需要符合人類現(xiàn)有的價值觀,更意味著要促進AI與人類的和諧共生,從而催生出更合乎社會進步方向的價值觀。付教授據(jù)此探討了倫理學(xué)范式的轉(zhuǎn)型,并進一步提出了自己的主張,即信息文明背景下基于實踐智慧的生生倫理轉(zhuǎn)向。

華東師范大學(xué)哲學(xué)系付長珍教授

華東師范大學(xué)哲學(xué)系朱晶教授就“前瞻”和“實證研究”兩個關(guān)鍵詞分享了自己的體會。朱教授提到,早在2000年左右王教授就已經(jīng)開始研究如何利用計算機程序進行科學(xué)探索。面對如今AI for Science成為熱潮的現(xiàn)實,王教授一直以來的研究無疑展現(xiàn)出高度的前瞻性。

朱教授強調(diào)了實證研究的重要性。她指出,王教授的實證研究為探討人工智能倫理、AI for Science中的可解釋性、可證實性和可預(yù)測性等前沿問題提供了寶貴經(jīng)驗。作為科學(xué)哲學(xué)研究者,需要具備相應(yīng)的能力,參與這些通常被認為是計算機科學(xué)家或數(shù)據(jù)科學(xué)家的工作,例如運行LDA模型。朱教授認為,研討會上蕭教授提到倫理調(diào)查背后的方法論問題以及劉紀璐教授所推進的調(diào)查研究,實際上都揭示出實證研究的廣泛應(yīng)用,將哲學(xué)研究推向了經(jīng)驗研究的前沿。值得注意的是,哲學(xué)家在進行經(jīng)驗研究時面臨的方法論質(zhì)疑尤為嚴峻。由于經(jīng)驗研究結(jié)果具體而直接,很容易被質(zhì)疑存在設(shè)計不當、樣本不具有代表性等問題。朱晶教授總結(jié)道,王教授的報告展示了如何通過經(jīng)驗研究推進哲學(xué)研究的可能性和拓展空間,雖然存在諸多挑戰(zhàn),但其廣闊的前景令人期待。

華東師范大學(xué)哲學(xué)系朱晶教授

三、圓桌討論

華東師范大學(xué)哲學(xué)系張容南教授圍繞培養(yǎng)機器人道德性的風(fēng)險闡發(fā)思考。張教授指出,儒家的德性主要是在關(guān)系性、情境性的過程中培養(yǎng)出來的,并且大多數(shù)人的情感都與具身性的活動相關(guān)聯(lián),那么,機器人究竟需要耗費多長時間學(xué)習(xí)以及經(jīng)歷多少聯(lián)系才能培養(yǎng)出美德,是一個值得思考的問題。再者,機器人的學(xué)習(xí)過程具有不確定性,我們無法保證機器人會向好向善學(xué)習(xí),因此它最終有可能會發(fā)展成為類似儒家所說的“小人”而非“君子”。張教授提出,或許可以嘗試在儒家德性倫理之外增加一些規(guī)則倫理,作為基本的底線,以幫助機器人更好地學(xué)習(xí)和應(yīng)用道德規(guī)范。

華東師范大學(xué)哲學(xué)系張容南教授

利物浦大學(xué)方超助理教授結(jié)合自身的社會學(xué)背景以及對老齡化和安寧療護問題的關(guān)注,提出AI倫理治理與法律之間的關(guān)聯(lián)。他提到,近幾年荷蘭在安樂死合法化問題上有了新的發(fā)展,涉及從身體到心理的全面考量,如果個人覺得生命沒有意義,同樣可以申請結(jié)束自己的生命,這同其他國家目前在該領(lǐng)域的法律現(xiàn)狀有著明顯的差別。方教授認為,AI倫理治理以及對機器人的規(guī)范同樣需要考慮不同法律和情境的應(yīng)用。

利物浦大學(xué)方超助理教授

華東師范大學(xué)思勉人文高等研究院青年研究員梁逸鴻提出宋明理學(xué)中的“理一分殊”在機器人倫理設(shè)計發(fā)揮作用的構(gòu)想。他認為,“理一分殊”有普適性價值。對于儒家而言,仁即為最高的理,而仁在不同場合又有不同的表現(xiàn);對于王陽明而言,“良知”概念有其至高性,同時也在不同情境中表現(xiàn)出不同的品德,如“孝”、“信”等等。在此意義上,或許“理一分殊”理論也有望在機器人倫理設(shè)計中發(fā)揮作用。此外,他還對劉教授發(fā)言中“道德情感產(chǎn)生于道德判斷之后”這一論題的理論來源有所關(guān)注。

華東師范大學(xué)思勉人文高等研究院青年研究員梁逸鴻

華東師范大學(xué)哲學(xué)系洪澄副教授圍繞人性與社會性的復(fù)雜展開討論。洪教授指出,對于機器人而言,社會性既涉及機器人之間的社會行為,也涉及機器人與人類之間的互動。劉教授認為儒家美德倫理學(xué)具有普適性,然而,西方學(xué)者的理解可能有所不同。例如,亞里士多德認為社會性基于人和人之間的友愛,而霍布斯則強調(diào)自愛和自我保存。那么,機器人倫理是否也需要考慮機器人的自愛和自我保護欲望,這是一個值得討論的問題。此外,洪教授還提到理論、問卷與現(xiàn)實生活的斷裂,指出機器人倫理還需更多聯(lián)系實際生活。

華東師范大學(xué)哲學(xué)系洪澄副教授

華東師范大學(xué)哲學(xué)系劉梁劍教授指出,哲學(xué)與AI有兩種相互作用的進路,一種是“Philosophy for AI”,即從哲學(xué)角度思考AI發(fā)展過程遇到的問題;另一種是“AI for Philosophy”,即探討AI在推動哲學(xué)研究方面的可能性。圍繞機器人情感問題,劉教授提出了兩個討論層面。一方面,如果討論情感在行動主體(agent)層面的重要性,就需要考慮機器是否真的能感受到喜怒哀樂。另一方面,“情感”概念在面對反例時可以調(diào)整其內(nèi)涵,使其有能力接納反例。“心”“心靈”“人”等概念亦是如此。對于大模型倫理嵌入問題,劉教授表示需要反思事實與價值二分的預(yù)設(shè),反思是否應(yīng)當在語用學(xué)而非純粹語義學(xué)的層面進行分析。

華東師范大學(xué)哲學(xué)系劉梁劍教授

華東師范大學(xué)哲學(xué)系朱承教授指出,技術(shù)發(fā)展自古以來都是為了改進人類生活,在這基礎(chǔ)上,AI在技術(shù)層面可能更具顛覆性,但其最終目標仍是幫助人類建設(shè)美好生活。然而,現(xiàn)代社會中快速地布置AI導(dǎo)致一些職業(yè)被人工智能所取代,最后呈現(xiàn)的結(jié)果竟是人民跟不上科技如此高速的發(fā)展,這樣的困境需要重新進行道德審視。

華東師范大學(xué)哲學(xué)系朱承教授

贊助本站

人工智能實驗室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機會 | 展會港