展會信息港展會大全

MAIA 新系統(tǒng)亮相:洞悉 AI 模型內(nèi)在機制,審查其安全性
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-07-27 15:04:57   瀏覽:3734次  

導讀:IT之家 7 月 25 日消息,麻省理工學院計算機科學與人工智能實驗室的研究人員開發(fā)了一種名為MAIA的多模式自動化可解釋性代理系統(tǒng),該系統(tǒng)可以使用視覺語言模型來自動執(zhí)行各種神經(jīng)網(wǎng)絡(luò)可解釋性任務(wù)。 麻省理工學院(MIT)計算機科學與人工智能實驗室(CSAIL)...

IT之家 7 月 25 日消息,麻省理工學院計算機科學與人工智能實驗室的研究人員開發(fā)了一種名為“MAIA”的多模式自動化可解釋性代理系統(tǒng),該系統(tǒng)可以使用視覺語言模型來自動執(zhí)行各種神經(jīng)網(wǎng)絡(luò)可解釋性任務(wù)。

麻省理工學院(MIT)計算機科學與人工智能實驗室(CSAIL)最新研發(fā)了名為 MAIA 系統(tǒng),可以使用視覺語言模型來自動執(zhí)行各種神經(jīng)網(wǎng)絡(luò)可解釋性任務(wù)。

MAIA 的全稱是 Multimodal Automated Interpretability Agent,直譯過來為“多模態(tài)自動可解釋性代理”,主要利用視覺語言模型,自動執(zhí)行各種神經(jīng)網(wǎng)絡(luò)可解釋性任務(wù),并配備了在其他人工智能系統(tǒng)上進行實驗的工具。

研究論文的共同作者,來自 MIT CSAIL 的博士后 Tamar Rott Shaham 表示:

我們的目標是創(chuàng)建一個能夠自主進行可解釋性實驗的人工智能研究人員,F(xiàn)有的自動可解釋性方法只是在一次性過程中對數(shù)據(jù)進行標注或可視化。

另一方面,MAIA 可以生成假設(shè),設(shè)計實驗對其進行測試,并通過迭代分析完善自己的理解。

通過結(jié)合預先訓練好的視覺語言模型與可解釋性工具庫,我們的多模態(tài)方法可以在特定模型上組成和運行有針對性地實驗,來響應(yīng)用戶的詢問,不斷完善其方法,直至能夠提供全面的答案。

該自動代理被證明能夠完成三項關(guān)鍵任務(wù):

可以為視覺模型內(nèi)部的各個組件貼標簽,并描述激活這些組件的視覺概念

可以通過去除無關(guān)特征來清理圖像分類器,使其對新情況更加穩(wěn)健

還可以尋找人工智能系統(tǒng)中隱藏的偏差,幫助發(fā)現(xiàn)其輸出中潛在的公平性問題。

MAIA 可以通過生成假設(shè)、設(shè)計實驗來測試假設(shè),并通過迭代分析改進其理解,從而解釋人工智能模型的內(nèi)部機制,幫助我們了解人工智能模型如何運作,并探究其安全性和偏差。

IT之家附上參考地址

贊助本站

人工智能實驗室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港