展會信息港展會大全

為什么我們都應(yīng)該支持“無趣”的人工智能?
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-08-24 20:22:05   瀏覽:12113次  

導(dǎo)讀:在我放假的一周里,我的同事報(bào)道了將人工智能應(yīng)用在戰(zhàn)爭中可能導(dǎo)致的混亂和倫理問題。這話題激起了我的興趣,同時也讓我血壓飆升。 戰(zhàn)爭和軍隊(duì)正在越來越多地使用人工智能工具,圍繞由此帶來的復(fù)雜而微妙的倫理問題,我的同事亞瑟霍蘭德米歇爾(Arthur Holla...

在我放假的一周里,我的同事報(bào)道了將人工智能應(yīng)用在戰(zhàn)爭中可能導(dǎo)致的混亂和倫理問題。這話題激起了我的興趣,同時也讓我血壓飆升。

戰(zhàn)爭和軍隊(duì)正在越來越多地使用人工智能工具,圍繞由此帶來的復(fù)雜而微妙的倫理問題,我的同事亞瑟霍蘭德米歇爾(Arthur Holland Michel)進(jìn)行了出色的報(bào)道。人工智能有無數(shù)種可能導(dǎo)致災(zāi)難性失敗或在沖突中被濫用的方式,而且似乎還沒有任何真正的規(guī)則來約束它。米歇爾的故事展示了,當(dāng)事情出錯時,追究人們的責(zé)任是多么的困難重重。

2022 年,我報(bào)道了烏克蘭戰(zhàn)爭如何開啟了國防人工智能創(chuàng)業(yè)公司的新熱潮。最近的人工智能炒作只會加劇這種情況,因?yàn)楣竞蛙姺蕉荚诟傁鄬⑸墒饺斯ぶ悄芮度氲疆a(chǎn)品和服務(wù)中。

本月早些時候,美國國防部宣布將成立一個生成式人工智能工作組,旨在“分析和整合”整個國防部的人工智能工具,如大型語言模型。

該部門看中了人工智能工具在改進(jìn)“情報(bào)、操作計(jì)劃、行政和業(yè)務(wù)流程”方面的巨大潛力。

但是米歇爾的研究指出,為什么前兩個用例可能是糟糕的主意。生成式人工智能工具,如語言模型,是有問題和不可預(yù)測的,它們會編造一些東西。它們也有大量的安全漏洞、隱私問題和根深蒂固的偏見。

在高風(fēng)險(xiǎn)的環(huán)境中應(yīng)用這些技術(shù)可能會導(dǎo)致致命的事故,我們甚至不清楚誰該為此負(fù)責(zé),甚至不清楚問題發(fā)生的原因。每個人都同意人類應(yīng)該作為最終的決定者,但由于技術(shù)的不可預(yù)測性,尤其是在快速發(fā)展的沖突局勢中,這一點(diǎn)變得有為困難。

有些人擔(dān)心,當(dāng)事情出錯時,層級最低的人將付出最高的代價:“在事故發(fā)生時,不管是人錯了,是計(jì)算機(jī)錯了,還是他們都錯了,做出‘決定’的人將承擔(dān)責(zé)任,并保護(hù)指揮鏈上的其他人免受承擔(dān)責(zé)任的負(fù)面影響,”米歇爾寫道。

當(dāng)人工智能在戰(zhàn)爭中失效或帶來負(fù)面影響時,似乎唯一不會面臨后果的是提供這項(xiàng)技術(shù)的公司。

當(dāng)美國為管理戰(zhàn)爭中的人工智能制定的規(guī)則僅僅是建議,而不是法律時,這顯然幫助了企業(yè)。這使得追究任何企業(yè)的責(zé)任變得非常困難。就連歐盟即將出臺的,針對高風(fēng)險(xiǎn)人工智能系統(tǒng)的全面監(jiān)管法案《人工智能法案》(AI Act)也將軍事用途排除在外,而軍事用途可以說是所有應(yīng)用中風(fēng)險(xiǎn)最高的。

雖然每個人都在為生成 AI 尋找令人興奮的新用途,但我個人卻迫不及待地想讓它變得無聊。

有早期跡象表明,人們開始對這項(xiàng)技術(shù)失去興趣,公司可能會發(fā)現(xiàn),這類工具更適合于日常、低風(fēng)險(xiǎn)的應(yīng)用,而不是用來解決生死存亡這種人類所面臨的最大的問題。

例如,將人工智能應(yīng)用于 Excel、電子郵件或文字處理等生產(chǎn)力軟件,可能聽起來很無聊,但與戰(zhàn)爭相比,這是一個風(fēng)險(xiǎn)很低的應(yīng)用,而且足夠簡單,有可能像公司宣傳的那樣真正發(fā)揮作用,創(chuàng)造價值。它可以幫助我們更快更好地完成繁瑣的工作。

無趣的人工智能應(yīng)用不太可能輕易崩潰,最重要的是,它不會殺死任何人。希望很快我們就會忘記我們是在與人工智能互動:不久之前,機(jī)器翻譯還是人工智能領(lǐng)域一個令人興奮的新事物,而現(xiàn)在,大多數(shù)人甚至不會意識到它在驅(qū)動谷歌翻譯方面所起的作用。

(來源:AI 生成)

這就是為什么我更有信心,像國防和軍方這樣的組織將成功地在行政和業(yè)務(wù)流程中應(yīng)用生成式人工智能。

無趣的人工智能并不容易陷入道德困境。雖然它聽起來缺乏一種魔力,但它是有效的。

作者簡介:梅麗莎海基萊(Melissa Heikkil)是《麻省理工科技評論》的資深記者,她著重報(bào)道人工智能及其如何改變我們的社會。此前,她曾在 POLITICO 撰寫有關(guān)人工智能政策和政治的文章。她還曾在《經(jīng)濟(jì)學(xué)人》工作,并曾擔(dān)任新聞主播。

支持:Ren

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會 | 展會港