以太坊的聯(lián)合創(chuàng)始人維塔利克布特林(Vitalik Buterin)認為,如果未來超級人工智能開始攻擊人類,結果將是人類的徹底滅絕,不會有任何幸存者。
他在周一的一篇博客中表示:“這是一種極端的說法:盡管氣候變化、人為流行病或核戰(zhàn)爭等最壞情況可能會造成巨大的危害,但仍有許多文明島嶼會完好無損地收拾殘片。”
然而,一旦超級人工智能選擇與人類作對,結果可能是人類的徹底滅絕。他寫道:“但是一個超級智能的人工智能,如果它決定背叛我們,很可能不會留下幸存者,并永遠終結人類,”在這種情況下,甚至火星都不可能成為人類的避難所。
布特林主張一個保留“人類”特征和能動性的未來,他說:“如果我們想要一個超級智能和‘人類’共存的未來一個人類不僅僅是寵物,而是在世界上真正保留有意義的能動性的未來那么感覺像這樣的東西是最自然的選擇。”
在最近的一次活動上,布特林談到了對以太坊未來發(fā)展的擔憂,他透露,他最大的兩個擔憂是加密貨幣發(fā)展的停滯和與人工智能相關的潛在危險。
當被問及什么經(jīng)常占據(jù)他的思想時,布特林提到了“與人工智能相關的問題”,特別是由此帶來的生存風險。