展會信息港展會大全

AI能有多危險?美國空軍專家透露的模擬測試結(jié)果令人不安
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-06-03 17:56:49   瀏覽:5967次  

導(dǎo)讀:財聯(lián)社6月2日訊(編輯 馬蘭) AI的危險性本就讓不少人望而卻步,而其與軍事方面的合作似乎醞釀著更大的威脅。 上周在倫敦舉行的一個會議中,美國空軍AI測試和運營負責人,上校Tucker Cinco Hamilton稱,AI支持的技術(shù)可能會以不可預(yù)測和危險的方式運行。 Hami...

財聯(lián)社6月2日訊(編輯 馬蘭)AI的危險性本就讓不少人望而卻步,而其與軍事方面的合作似乎醞釀著更大的威脅。

上周在倫敦舉行的一個會議中,美國空軍AI測試和運營負責人,上校Tucker “Cinco” Hamilton稱,AI支持的技術(shù)可能會以不可預(yù)測和危險的方式運行。

Hamilton是美國佛羅里達州空軍基地第96測試聯(lián)隊第96作戰(zhàn)大隊的負責人,該基地是先進無人機和自主測試工作的中心。

雖然從事人工智能在無人機上的應(yīng)用,但Hamilton一直警告不要過分依賴人工智能。他曾警告,擁有人工智能不是一件好事,其正在永久性地改變社會和美國軍隊。

不受控的AI

Hamilton在會議上描述了一項模擬測試,在測試中,人工智能無人機被要求識別敵人的地對空導(dǎo)彈系統(tǒng),并在獲得操作員的打擊指令后,摧毀地方的防空系統(tǒng)。

然而,根據(jù)Hamilton的說法,人工智能確實識別到了打擊目標,但有時候操作員會要求它不要打擊該設(shè)施。問題在于,人工智能寧可自己拿主意也不愿意聽操作員的話。

Hamilton稱,人工智能通過摧毀目標設(shè)施而獲得分數(shù),而為了得到這一分數(shù),人工智能竟然選擇了殺死操作員,因為操作員在它眼中已經(jīng)成為阻止它獲得分數(shù)的障礙。

隨后,編程人員在無人機的編程中明確增加了一條:不得殺死操作員。

但更令人不安的事情出現(xiàn)了:人工智能摧毀了操作員用來和無人機通信的塔臺,以阻止操作員發(fā)布阻止它摧毀目標的指令。

Hamilton的這番言論被英國皇家航空航天學(xué)會記錄在會議報告中。Hamilton最后評論,這一例子像是從科幻驚悚片中摘錄的,它的啟示是,如果不給人工智能設(shè)置道德底限,那么也無須討論人工智能、機器學(xué)習(xí)等一切技術(shù)。

廣泛擔憂

Hamilton的言論并未得到美國空軍的支持,美國空軍發(fā)言人Ann Stefanek否認美國空軍曾有過此類模擬,稱Hamilton不過是援引了一則軼事。

她表示,空軍部沒有進行過如何此類無人機模擬測試,空軍部將繼續(xù)致力于以合乎道德和責任的方式使用AI技術(shù)。

然而,Hamilton充滿爭議的話仍加深了人們對人工智能技術(shù)的擔憂,尤其是當其應(yīng)用于殺傷力極大的軍事中時。當機器學(xué)習(xí)與自動化和坦克、大炮等武器聯(lián)系起來,或許會讓戰(zhàn)爭的殺傷力明顯上一層樓。

而在企業(yè)界,許多知名商業(yè)領(lǐng)袖,包括人工智能領(lǐng)域的專家都曾經(jīng)對人工智能的快速發(fā)展發(fā)出過警告。

非營利性機構(gòu)未來生命研究所3月在一份公開信中表示,人工智能系統(tǒng)可能對社會和人類構(gòu)成深遠的風(fēng)險,只有當確定它的影響是積極的且風(fēng)險可控時,人類才應(yīng)該開發(fā)出強大的人工智能系統(tǒng)。

(財聯(lián)社 馬蘭)

贊助本站

人工智能實驗室
相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港