展會信息港展會大全

以太坊聯(lián)合創(chuàng)始人:AI或?qū)氐诇缃^人類,逃到火星都沒用
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-11-29 16:03:02   瀏覽:3719次  

導讀:以太坊的聯(lián)合創(chuàng)始人維塔利克布特林(Vitalik Buterin)認為,如果未來超級人工智能開始攻擊人類,結果將是人類的徹底滅絕,不會有任何幸存者。 他在周一的一篇博客中表示:這是一種極端的說法:盡管氣候變化、人為流行病或核戰(zhàn)爭等最壞情況可能會造成巨大的...

以太坊的聯(lián)合創(chuàng)始人維塔利克布特林(Vitalik Buterin)認為,如果未來超級人工智能開始攻擊人類,結果將是人類的徹底滅絕,不會有任何幸存者。

他在周一的一篇博客中表示:“這是一種極端的說法:盡管氣候變化、人為流行病或核戰(zhàn)爭等最壞情況可能會造成巨大的危害,但仍有許多文明島嶼會完好無損地收拾殘片。”

然而,一旦超級人工智能選擇與人類作對,結果可能是人類的徹底滅絕。他寫道:“但是一個超級智能的人工智能,如果它決定背叛我們,很可能不會留下幸存者,并永遠終結人類,”在這種情況下,甚至火星都不可能成為人類的避難所。

布特林主張一個保留“人類”特征和能動性的未來,他說:“如果我們想要一個超級智能和‘人類’共存的未來一個人類不僅僅是寵物,而是在世界上真正保留有意義的能動性的未來那么感覺像這樣的東西是最自然的選擇。”

在最近的一次活動上,布特林談到了對以太坊未來發(fā)展的擔憂,他透露,他最大的兩個擔憂是加密貨幣發(fā)展的停滯和與人工智能相關的潛在危險。

當被問及什么經(jīng)常占據(jù)他的思想時,布特林提到了“與人工智能相關的問題”,特別是由此帶來的生存風險。

贊助本站

人工智能實驗室
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港