財聯(lián)社6月2日訊(編輯 馬蘭)AI的危險性本就讓不少人望而卻步,而其與軍事方面的合作似乎醞釀著更大的威脅。
上周在倫敦舉行的一個會議中,美國空軍AI測試和運營負責人,上校Tucker “Cinco” Hamilton稱,AI支持的技術(shù)可能會以不可預(yù)測和危險的方式運行。
Hamilton是美國佛羅里達州空軍基地第96測試聯(lián)隊第96作戰(zhàn)大隊的負責人,該基地是先進無人機和自主測試工作的中心。
雖然從事人工智能在無人機上的應(yīng)用,但Hamilton一直警告不要過分依賴人工智能。他曾警告,擁有人工智能不是一件好事,其正在永久性地改變社會和美國軍隊。
不受控的AI
Hamilton在會議上描述了一項模擬測試,在測試中,人工智能無人機被要求識別敵人的地對空導(dǎo)彈系統(tǒng),并在獲得操作員的打擊指令后,摧毀地方的防空系統(tǒng)。
然而,根據(jù)Hamilton的說法,人工智能確實識別到了打擊目標,但有時候操作員會要求它不要打擊該設(shè)施。問題在于,人工智能寧可自己拿主意也不愿意聽操作員的話。
Hamilton稱,人工智能通過摧毀目標設(shè)施而獲得分數(shù),而為了得到這一分數(shù),人工智能竟然選擇了殺死操作員,因為操作員在它眼中已經(jīng)成為阻止它獲得分數(shù)的障礙。
隨后,編程人員在無人機的編程中明確增加了一條:不得殺死操作員。
但更令人不安的事情出現(xiàn)了:人工智能摧毀了操作員用來和無人機通信的塔臺,以阻止操作員發(fā)布阻止它摧毀目標的指令。
Hamilton的這番言論被英國皇家航空航天學(xué)會記錄在會議報告中。Hamilton最后評論,這一例子像是從科幻驚悚片中摘錄的,它的啟示是,如果不給人工智能設(shè)置道德底限,那么也無須討論人工智能、機器學(xué)習(xí)等一切技術(shù)。
廣泛擔憂
Hamilton的言論并未得到美國空軍的支持,美國空軍發(fā)言人Ann Stefanek否認美國空軍曾有過此類模擬,稱Hamilton不過是援引了一則軼事。
她表示,空軍部沒有進行過如何此類無人機模擬測試,空軍部將繼續(xù)致力于以合乎道德和責任的方式使用AI技術(shù)。
然而,Hamilton充滿爭議的話仍加深了人們對人工智能技術(shù)的擔憂,尤其是當其應(yīng)用于殺傷力極大的軍事中時。當機器學(xué)習(xí)與自動化和坦克、大炮等武器聯(lián)系起來,或許會讓戰(zhàn)爭的殺傷力明顯上一層樓。
而在企業(yè)界,許多知名商業(yè)領(lǐng)袖,包括人工智能領(lǐng)域的專家都曾經(jīng)對人工智能的快速發(fā)展發(fā)出過警告。
非營利性機構(gòu)未來生命研究所3月在一份公開信中表示,人工智能系統(tǒng)可能對社會和人類構(gòu)成深遠的風(fēng)險,只有當確定它的影響是積極的且風(fēng)險可控時,人類才應(yīng)該開發(fā)出強大的人工智能系統(tǒng)。
(財聯(lián)社 馬蘭)