展會(huì)信息港展會(huì)大全

2023 年人工智能回顧
來(lái)源:互聯(lián)網(wǎng)   發(fā)布日期:2024-01-18 18:20:16   瀏覽:21544次  

導(dǎo)讀:編者按: 2023年是人工智能發(fā)展不平凡的一年,人們也見(jiàn)證了AI技術(shù)的跨越式的發(fā)展;赥ransformer 的大模型AI和通用機(jī)器人技術(shù)的創(chuàng)新顛覆性地推進(jìn)了AI的前沿。特別是新一代AI技術(shù)涌現(xiàn)的能力和行為讓人們對(duì) AI 的應(yīng)用前景在期待中也可能包含一些不安。從語(yǔ)言...

編者按:2023年是人工智能發(fā)展不平凡的一年,人們也見(jiàn)證了AI技術(shù)的跨越式的發(fā)展。基于Transformer 的大模型AI和通用機(jī)器人技術(shù)的創(chuàng)新顛覆性地推進(jìn)了AI的前沿。特別是新一代AI技術(shù)涌現(xiàn)的能力和行為讓人們對(duì) AI 的應(yīng)用前景在期待中也可能包含一些不安。從語(yǔ)言理解到機(jī)器人的操作,AI正逐漸滲透到我們生活的方方面面。近期,AIGC 初創(chuàng)公司 coach.ai 和AIFrontiers技術(shù)論壇的創(chuàng)始人Junling Hu博士發(fā)表了“AI in 2023: A Review (2023 年人工智能回顧)”。文章梳理了2023年在人工智能領(lǐng)域的一些進(jìn)展,突出了大型語(yǔ)言模型、機(jī)器人技術(shù)和大腦活動(dòng)檢測(cè)方面的創(chuàng)新。從GPT-4和Gemini的性能提升到機(jī)器人在家庭中的應(yīng)用,再到基于大腦信號(hào)的實(shí)時(shí)圖像重建,這些進(jìn)步展示了新一代AI技術(shù)在不同領(lǐng)域的多樣性和顛覆性。對(duì)于2024年,我們有理由期待對(duì)大模型AI的更深的了解以及真正殺手級(jí)應(yīng)用的出現(xiàn)。如需轉(zhuǎn)載,請(qǐng)聯(lián)系我們(ID:15937102830)

2023年是人工智能的分水嶺之年。首次,人工智能已進(jìn)入公共領(lǐng)域,觸及我們生活的各個(gè)方面。它開(kāi)始取代搜索引擎,成為我們提問(wèn)的首選之地。人工智能有望顛覆許多行業(yè):從教育到營(yíng)銷,IT支持,再到醫(yī)學(xué)。在這里,我想總結(jié)人工智能在七個(gè)主要領(lǐng)域的進(jìn)展。它們絕對(duì)不是詳盡無(wú)遺的,我選擇這些領(lǐng)域是因?yàn)樗鼈兊闹匾砸约邦嵏参磥?lái)的潛力。如果您注意到其他有趣的發(fā)展,請(qǐng)隨時(shí)在這里留下評(píng)論。

01

人工智能能力的突破

如今的人工智能系統(tǒng)可以輕松通過(guò)圖靈測(cè)試,我們不再爭(zhēng)論人工智能是否可行。如果在2023年之前人工智能被看作是一個(gè)幼兒,那么在2023年,它已經(jīng)成熟為一個(gè)十幾歲的青少年,盡管它還不是成年人。成年人的人工智能系統(tǒng)應(yīng)該能夠像人類成年人一樣思考和推理,這意味著能夠通過(guò)大學(xué)考試或完成類似困難的任務(wù)。在2023年,無(wú)論是GPT-4還是谷歌的Gemini都在朝著這個(gè)目標(biāo)取得了重大進(jìn)展。

GPT-4和Gemini都非常龐大。這是因?yàn)橐粋(gè)大型語(yǔ)言模型的大小越大,其智能性就越高。據(jù)估計(jì),GPT-4擁有約1.8萬(wàn)億參數(shù),大約有120層,并在模型內(nèi)使用專家混合。谷歌沒(méi)有發(fā)布Gemini的大小,但它顯然比PaLM 2大得多,后者有3400億參數(shù)。根據(jù)Gemini的報(bào)告,訓(xùn)練Gemini需要的資源明顯多于PaLM 2,可能是三倍之多。這使其在1萬(wàn)億參數(shù)的范圍內(nèi)。Gemini的架構(gòu)可能類似于GPT-4:一個(gè)僅解碼的Transformer模型,帶有專家混合。

如今的大型語(yǔ)言模型(LLMs)表現(xiàn)出色,這可從它們?cè)谝幌盗芯哂刑魬?zhàn)性的數(shù)據(jù)集上的表現(xiàn)中看出。

在常識(shí)推理(HelloSwag)領(lǐng)域,GPT-4實(shí)現(xiàn)了95%的準(zhǔn)確率,相當(dāng)于人類表現(xiàn)。在小學(xué)數(shù)學(xué)(GSM8K)領(lǐng)域,兩個(gè)大型語(yǔ)言模型(LLMs)都達(dá)到了約95%的準(zhǔn)確率。在涵蓋57個(gè)學(xué)科的大學(xué)考試(MMLU)中,兩個(gè)LLMs的準(zhǔn)確率都超過(guò)了90%,超過(guò)了人類表現(xiàn)(89%)。對(duì)于曾經(jīng)導(dǎo)致LLMs遇到困難的問(wèn)題(Big-bench-hard),GPT-4達(dá)到了89%的準(zhǔn)確率,而Gemini達(dá)到了83%。看起來(lái)LLMs正在克服它們的缺點(diǎn)。在編碼問(wèn)題(HumanEval)中,GPT-4達(dá)到了88%的成功率。對(duì)于帶有數(shù)學(xué)推理的閱讀理解(DROP),兩個(gè)LLMs的準(zhǔn)確率都在83%左右。唯一一個(gè)這些LLMs表現(xiàn)不佳的領(lǐng)域是數(shù)學(xué)競(jìng)賽問(wèn)題(MATH)。總的來(lái)說(shuō),我們的大型基礎(chǔ)模型在7項(xiàng)任務(wù)中有3項(xiàng)超過(guò)了人類,另外3項(xiàng)接近人類表現(xiàn),只有1項(xiàng)表現(xiàn)不佳。人工智能正逐漸接近具有人類成年智能的階段。

對(duì)于2024年,我們可以預(yù)期大型基礎(chǔ)模型性能的持續(xù)提高。到2024年底,我預(yù)計(jì)最好的LLMs將在幾乎所有數(shù)據(jù)集上超過(guò)人類。屆時(shí),我們可能宣布人工智能已經(jīng)達(dá)到成年階段,具有與成年人相當(dāng)?shù)耐评砗屠斫饽芰Α?/p>

開(kāi)源基礎(chǔ)模型

所有大型基礎(chǔ)模型都是閉源的,由幾家公司擁有。許多公司擔(dān)心它們對(duì)這些模型的依賴,因?yàn)闊o(wú)法看到其內(nèi)部運(yùn)作情況。這一擔(dān)憂導(dǎo)致了許多開(kāi)源模型的出現(xiàn)。

Meta在2月份發(fā)布了Llama,而LIMA則在5月份發(fā)布。然而,與當(dāng)時(shí)的OpenAI模型(當(dāng)時(shí)是GPT 3.5)相比,它們大多數(shù)都沒(méi)有達(dá)到令人滿意的性能。

Meta的Llama 2和Mistral的Mixtral 8x7B模型是表現(xiàn)最佳的之一。它們引起了人們的興奮,因?yàn)樗鼈兘咏薌PT3.5的水平。但它們?nèi)匀贿h(yuǎn)遠(yuǎn)落后于GPT-4。以下是最新的性能圖表:

平均而言,開(kāi)源模型比最佳GPT-4模型低20%。這引發(fā)了有關(guān)部署開(kāi)源模型的問(wèn)題。這是因?yàn)樯虡I(yè)產(chǎn)品要求高準(zhǔn)確性。因此,大多數(shù)公司可能會(huì)堅(jiān)持使用OpenAI或Google的基礎(chǔ)模型,主要是因?yàn)樗鼈兲峁└叨葴?zhǔn)確的結(jié)果。因此,今年我們將看到OpenAI繼續(xù)崛起,越來(lái)越多的公司將使用OpenAI API來(lái)支持其GPT-4產(chǎn)品。Google也將是這場(chǎng)競(jìng)爭(zhēng)中的積極參與者,憑借其現(xiàn)有的GCP和性能出色的Gemini,Google可能成為企業(yè)的人工智能提供商。

我們尚未解決幻覺(jué)問(wèn)題。實(shí)際上,如一些研究所示,幻覺(jué)可能是大型語(yǔ)言模型的固有屬性。緩解幻覺(jué)的方法包括將答案限制在現(xiàn)有文件內(nèi),并使用外部搜索來(lái)檢查答案的有效性。另一種方法是要求回應(yīng)中進(jìn)行"Chain of Thoughts"推理。研究人員發(fā)現(xiàn)這顯著減少了錯(cuò)誤答案。由于幻覺(jué)在許多實(shí)際應(yīng)用中是一個(gè)大問(wèn)題,我們預(yù)計(jì)在2024年將看到更多解決這個(gè)問(wèn)題的研究。

02

多模態(tài)人工智能

另一個(gè)重大進(jìn)展是多模態(tài)大型語(yǔ)言模型(LLMs)的成熟。Bard在7月份允許上傳圖像,使用戶能夠基于圖像提出問(wèn)題。OpenAI在2023年9月發(fā)布了GPT-4V,它能夠理解文本、圖像和語(yǔ)音。Google在2023年12月發(fā)布了Gemini,它可以同時(shí)處理文本、圖像、音頻和視頻。現(xiàn)在我們擁有了完全多模態(tài)的大型語(yǔ)言模型,也被稱為L(zhǎng)MMs(大型多模態(tài)模型)。

2023年的新趨勢(shì)是將所有這些模態(tài)整合到一個(gè)單一模型中。這樣的模型以Transformer作為其核心架構(gòu),并將每種類型的輸入轉(zhuǎn)換為可以由Transformer處理的標(biāo)記。我們不僅可以處理不同的模態(tài),還可以從這樣的模型中生成不同的模態(tài)。

多模態(tài)能力的實(shí)現(xiàn)是由于在所有人工智能領(lǐng)域廣泛采用Transformer,使得能夠使用統(tǒng)一的架構(gòu)處理文本、圖像、音頻和視頻。視覺(jué)Transformer和視頻Transformer已被證明優(yōu)于CNN模型,語(yǔ)音Transformer模型也優(yōu)于基于CNN的語(yǔ)音識(shí)別模型。今天,我們只需要一個(gè)單一的Transformer模型來(lái)處理這些輸入格式,唯一額外的工作是生成圖像標(biāo)記或語(yǔ)音標(biāo)記。

最新的VideoPoet5是這種多模態(tài)處理和多模態(tài)生成模型的示范。VideoPoet使用一個(gè)僅解碼的Transformer,處理多模態(tài)輸入,包括圖像、視頻、文本和音頻。

VideoPoet取得了最先進(jìn)的零樣本視頻生成技術(shù),并能夠生成高保真度的視頻。

03

生成式人工智能的爆炸

在2023年,利用人工智能生成圖像、音樂(lè)和視頻成為最大的進(jìn)展。文本到圖像的生成在圖像質(zhì)量和逼真度方面取得了顯著的成就。以下是2023年主要的生成模型的概要。

對(duì)于圖像生成,Meta在四月份發(fā)布了Segment Anything Model(SAM),能夠?qū)θ魏螆D片進(jìn)行零樣本分割。十月,OpenAI發(fā)布了Dall-E 3。它具有最佳的圖像生成質(zhì)量和深度語(yǔ)言理解。

在文本到視頻生成方面,Meta于11月6日發(fā)布了Emu Video。該模型將視頻生成簡(jiǎn)化為兩個(gè)步驟,允許它從文本和圖像生成一個(gè)4秒的視頻。Emu Video勝過(guò)了所有先前的模型,包括MAV、Google的Imagen、AYL、PYOCO、R&D、Cog、Gen2和Pika。在人類評(píng)估中,Emu超過(guò)了所有這些其他模型,在90%以上的時(shí)間內(nèi)被人們優(yōu)先選擇。

2023年最令人激動(dòng)的成就發(fā)生在年底。AudioBox 7在十二月發(fā)布,使得人工智能能夠基于文本生成任何聲音。在此之前,Lyria 8也能夠根據(jù)文本提示以藝術(shù)家風(fēng)格生成任何音樂(lè)。

VideoPoet也于十二月發(fā)布,引領(lǐng)了一個(gè)新的視頻生成范式,摒棄了擴(kuò)散模型,并將其整合到大型語(yǔ)言模型(LLM)中。

Alphacode 2在與Gemini同時(shí)宣布。它以Gemini作為基礎(chǔ)模型,在編碼競(jìng)賽中的表現(xiàn)達(dá)到了85%,相比人類參與者。Magicoder也發(fā)布了,它是最好的開(kāi)源代碼生成器。

2023年標(biāo)志著擴(kuò)散模型的勝利,因?yàn)樵S多圖像生成都是基于這個(gè)模型的,包括Emu Video。然而,擴(kuò)散模型的替代方案也出現(xiàn)了。OpenAI的Dall-E 3采用了一種不依賴擴(kuò)散模型的一致性模型9。Google的VideoPoet直接使用Transformer,也避免在圖像生成中使用擴(kuò)散模型。換句話說(shuō),這兩家最大的人工智能公司正在擺脫擴(kuò)散模型在圖像生成中的應(yīng)用。我的預(yù)測(cè)是,在2024年,擴(kuò)散模型將會(huì)減弱。擺脫擴(kuò)散模型的驅(qū)動(dòng)力是追求使用單一Transformer模型執(zhí)行所有任務(wù)。我們預(yù)計(jì)在2024年會(huì)看到更多關(guān)于Transformer生成圖像的研究結(jié)果。

04

人工智能代理的崛起

在2023年,我們開(kāi)始看到“代理”,一種能夠代表我們采取行動(dòng)的人工智能系統(tǒng)。這些行動(dòng)可以包括發(fā)送電子郵件、呼叫餐廳、從數(shù)據(jù)庫(kù)中檢索信息或生成圖表。一旦引入了行動(dòng),人工智能助手就可以變得更加強(qiáng)大。這個(gè)行動(dòng)模型被無(wú)縫集成到大型語(yǔ)言模型(LLM)中;因此,它是可學(xué)習(xí)和可調(diào)整的。

代理的一個(gè)應(yīng)用領(lǐng)域是數(shù)據(jù)分析。將來(lái),分析數(shù)據(jù)將不再是人類的工作,而將被委托給人工智能。如果一位高管對(duì)客戶趨勢(shì)感興趣,他們只需用自然語(yǔ)言提出問(wèn)題,答案和圖表將自動(dòng)生成。無(wú)需數(shù)據(jù)科學(xué)家編寫(xiě)復(fù)雜的SQL代碼來(lái)檢索數(shù)據(jù)。這表明,文本到SQL和圖表生成將是2024年的重要應(yīng)用。還有其他訪問(wèn)數(shù)據(jù)庫(kù)以滿足客戶需求的應(yīng)用程序。

OpenAI通過(guò)提供Assistants API支持人工智能代理范式。它將您的代碼鏈接到外部工具,使其具有潛在的強(qiáng)大功能。然而,助手需要大量上下文,并且每次將上下文附加到總標(biāo)記使其非常昂貴。此外,將助手與其他工具集成并不容易。在2024年,人工智能助手仍然是一個(gè)開(kāi)放的競(jìng)爭(zhēng)領(lǐng)域。一個(gè)靈活的助手API和低成本的解決方案可能會(huì)很有吸引力。Langchain已經(jīng)取得了很多進(jìn)展,但并非完美之眩AutoGen似乎更容易使用。AutoGPT是一次不錯(cuò)的嘗試,但在許多關(guān)鍵功能上仍有所欠缺。我們可能會(huì)看到部署良好的代理解決方案的新公司出現(xiàn)。這是初創(chuàng)創(chuàng)新可能發(fā)生的地方。

盡管OpenAI和Google在基礎(chǔ)模型方面領(lǐng)先,但良好的提示工程和代理操作可能會(huì)產(chǎn)生許多有趣的應(yīng)用。我們預(yù)計(jì)會(huì)看到一些專業(yè)化的代理,如旅行助手、研究助手、價(jià)格談判代理等。每個(gè)助手都可以利用專業(yè)化工具,為客戶提供價(jià)值。

05

改進(jìn)LLMs的更好微調(diào)方法

ChatGPT的成功引起了對(duì)一種稱為RLHF(強(qiáng)化學(xué)習(xí)與人類反饋)的方法的關(guān)注。這種方法極大地提升了原始的GPT-3模型,并導(dǎo)致了成功部署GPT-3.5,為ChatGPT提供支持。RLHF還用于增強(qiáng)GPT-4、谷歌的PaLM 2和Meta的Llama 2模型的性能。因此,它是當(dāng)今LLMs最廣泛使用的微調(diào)方法。

由于RLHF取得了如此成功,并且與所有基礎(chǔ)模型一起使用,人們正在嘗試找到改進(jìn)它的方法。這通過(guò)簡(jiǎn)化RLHF步驟來(lái)實(shí)現(xiàn)。RLHF包括三個(gè)步驟:1. 監(jiān)督微調(diào):使用人工創(chuàng)建的數(shù)據(jù)對(duì)當(dāng)前模型進(jìn)行訓(xùn)練。2. 訓(xùn)練獎(jiǎng)勵(lì)模型。在這一步中,收集用戶對(duì)AI生成輸出的偏好,并為每個(gè)輸出給出一個(gè)分?jǐn)?shù)。然后,訓(xùn)練一個(gè)評(píng)分模型或獎(jiǎng)勵(lì)模型。3. 應(yīng)用強(qiáng)化學(xué)習(xí)和獎(jiǎng)勵(lì)模型對(duì)大型語(yǔ)言模型進(jìn)行訓(xùn)練。

DPO

對(duì)RLHF的一項(xiàng)改進(jìn)是替換強(qiáng)化學(xué)習(xí)步驟。斯坦福大學(xué)的研究人員提出了一種稱為DPO(Direct Preference Optimization)的方法10。與訓(xùn)練獎(jiǎng)勵(lì)模型然后學(xué)習(xí)強(qiáng)化學(xué)習(xí)模型不同,DPO直接使用偏好數(shù)據(jù)來(lái)訓(xùn)練LLM。因此,DPO將兩個(gè)步驟(獎(jiǎng)勵(lì)函數(shù)學(xué)習(xí)和RL)簡(jiǎn)化為一個(gè)單一步驟。

作者表明,DPO優(yōu)于強(qiáng)化學(xué)習(xí)方法。如今,DPO在從業(yè)者中已經(jīng)得到了廣泛應(yīng)用,用于微調(diào)他們的模型。這一趨勢(shì)將在2024年持續(xù)發(fā)展。

RLAIF

改進(jìn)RLHF的另一種方法是消除數(shù)據(jù)收集的瓶頸。RLHF的關(guān)鍵步驟之一是收集人類反饋數(shù)據(jù),通過(guò)雇傭人提供答案來(lái)獲取這些數(shù)據(jù)是昂貴的。人類數(shù)據(jù)收集過(guò)程也很耗時(shí)。我們可以不依賴于人類,而是使用諸如GPT-4之類的LLM為我們提供反饋,以提高RLHF的效果。RLAIF(帶有人工智能反饋的強(qiáng)化學(xué)習(xí))11采用GPT-4生成偏好數(shù)據(jù),他們證明RLAIF在促進(jìn)模型方面具有與RLHF類似的效果。通過(guò)利用人工智能進(jìn)行反饋,我們消除了與從人類那里收集數(shù)據(jù)相關(guān)的瓶頸。

似乎我們正在朝著使用人工智能生成評(píng)估數(shù)據(jù)的方向發(fā)展,不僅僅是偏好數(shù)據(jù),還包括其他監(jiān)督訓(xùn)練任務(wù)。

Week-to-Strong Alignment

第三個(gè)重要的發(fā)展是研究RLHF在未來(lái)是否仍然有用。有一個(gè)隱含的假設(shè),即RLHF將始終提高模型的性能,因?yàn)槿祟惛。然而,這個(gè)假設(shè)可能不再成立。在未來(lái)的一年(今年或明年),我們將看到人工智能進(jìn)化成為超級(jí)智能。這意味著它將在幾乎所有任務(wù)上擊敗人類,從寫(xiě)一封出色的電子郵件到解決數(shù)學(xué)問(wèn)題。當(dāng)我們強(qiáng)迫一個(gè)LLM符合人的寫(xiě)作或說(shuō)話方式時(shí),我們可能會(huì)降低LLM在其他任務(wù)中的表現(xiàn)。換句話說(shuō),使用RLHF進(jìn)行訓(xùn)練可能會(huì)使LLM的能力減弱。這與經(jīng)典的監(jiān)督訓(xùn)練形成鮮明對(duì)比,其中人類始終更聰明。這種情況顯示在下圖的中間圖中,其中一個(gè)人試圖教授一個(gè)超級(jí)智能人工智能。

OpenAI的研究人員已經(jīng)調(diào)查了這個(gè)問(wèn)題,并首次嘗試模擬這個(gè)問(wèn)題12。他們使用一個(gè)弱LLM(GPT-2)來(lái)教一個(gè)強(qiáng)LLM(GPT-4),并確認(rèn)了GPT-4的性能確實(shí)下降了。這表明RLHF在未來(lái)可能效果不佳。OpenAI的研究人員提出了通過(guò)添加輔助置信度損失來(lái)解決這個(gè)問(wèn)題。這使得微調(diào)后的GPT-4的性能可以提高到GPT 3.5的水平,但仍然低于原始GPT-4的水平。這篇論文代表了首次嘗試?yán)斫鈱⑷跄P蛻?yīng)用于訓(xùn)練強(qiáng)模型的效果。他們將這種方法稱為弱到強(qiáng)泛化,我們預(yù)計(jì)在2024年會(huì)看到OpenAI發(fā)布更多關(guān)于這方面的研究成果。

06

令人興奮的機(jī)器人學(xué)發(fā)展

隨著LLMs的不斷成熟和更強(qiáng)大,人工智能的前沿已經(jīng)從構(gòu)建數(shù)字模型轉(zhuǎn)向了物理模型。人工智能發(fā)展的下一個(gè)階段將是在機(jī)器人領(lǐng)域。

2023年機(jī)器人技術(shù)的進(jìn)展令人興奮,盡管不及LLMs的發(fā)展迅猛。這主要是由于構(gòu)建和測(cè)試物理組件所面臨的固有挑戰(zhàn)。該領(lǐng)域一個(gè)令人興奮的成就是特斯拉Optimus 2,能夠精確地拾取并放置雞蛋而不破碎。這種精準(zhǔn)的處理對(duì)于機(jī)器人進(jìn)入家庭標(biāo)志著重大突破。

另一個(gè)值得注意的突破是基于Transformer的機(jī)器人架構(gòu)RT-2 13。它引入了一個(gè)視覺(jué)-語(yǔ)言-動(dòng)作模型,將機(jī)器人的動(dòng)作編碼為T(mén)ransformer可以處理的標(biāo)記。Transformer可以生成這樣的動(dòng)作標(biāo)記,以便機(jī)器人相應(yīng)地采取行動(dòng)。該架構(gòu)如下:

transformer模型可以接受文本和圖像作為輸入,然后生成相應(yīng)的動(dòng)作。這種架構(gòu)將使今天的機(jī)器人能夠使用LLM作為其核心模型。這樣的機(jī)器人除了移動(dòng)和抓取外,還可以具備聽(tīng)覺(jué)、視覺(jué)和語(yǔ)言能力。

在十月,谷歌研究人員發(fā)布了Open X-Embodiment數(shù)據(jù)集14。通過(guò)21個(gè)機(jī)構(gòu)的合作,從22個(gè)不同的機(jī)器人中收集而來(lái),包含527種技能。該數(shù)據(jù)集可以幫助機(jī)器人快速啟動(dòng)學(xué)習(xí),并利用其他技能中的“預(yù)訓(xùn)練”來(lái)提高它們的性能。因此,它將加速機(jī)器人學(xué)的發(fā)展。

07

檢測(cè)大腦活動(dòng)

當(dāng)我們測(cè)量一個(gè)人的大腦信號(hào)時(shí),我們是否真的能夠檢測(cè)到這個(gè)人在聽(tīng)到或看到什么?2023年的另一個(gè)令人震驚的成就涉及基于由MEG記錄的腦信號(hào)的實(shí)時(shí)圖像重建15。它達(dá)到的準(zhǔn)確度水平真的令人驚訝。

看起來(lái)我們不僅可以從大腦信號(hào)中恢復(fù)正確的形狀和顏色,還可以恢復(fù)非常具體的細(xì)節(jié)。這項(xiàng)工作由Meta的研究人員進(jìn)行,建立在先前從大腦信號(hào)中檢測(cè)語(yǔ)音和從fMRI記錄中進(jìn)行圖像重建的工作基礎(chǔ)之上。

在不久的將來(lái),我們可能能夠?qū)⑦@些技術(shù)應(yīng)用于一個(gè)人在睡覺(jué)時(shí),并監(jiān)測(cè)他們的夢(mèng)境。有一天,我們是否能夠?qū)⒁粋(gè)人的夢(mèng)想投影到像電影一樣的大屏幕上?圖像恢復(fù)方面的研究預(yù)計(jì)將在2024年繼續(xù),可能會(huì)取得更好的性能。

源于硅谷、扎根中國(guó),上海殷泊信息科技有限公司 (MoPaaS) 是中國(guó)領(lǐng)先的人工智能(AI)平臺(tái)和服務(wù)提供商,為用戶的數(shù)字轉(zhuǎn)型、智能升級(jí)和融合創(chuàng)新直接賦能。針對(duì)中國(guó)AI應(yīng)用和工程市場(chǎng)的需求,基于自主的智能云平臺(tái)專利技術(shù),MoPaaS 在業(yè)界率先推出新一代開(kāi)放的AI平臺(tái)為加速客戶AI技術(shù)創(chuàng)新和應(yīng)用落地提供高效的算力優(yōu)化和規(guī);疉I模型開(kāi)發(fā)、部署和運(yùn)維 (ModelOps) 能力和服務(wù);特別是針對(duì)企業(yè)應(yīng)用場(chǎng)景,提供包括大模型遷移適配、提示工程以及部署推理的端到端 LLMOps方案。MoPaaS AI平臺(tái)已經(jīng)服務(wù)在工業(yè)制造、能源交通、互聯(lián)網(wǎng)、醫(yī)療衛(wèi)生、金融技術(shù)、教學(xué)科研、政府等行業(yè)超過(guò)300家國(guó)內(nèi)外滿意的客戶的AI技術(shù)研發(fā)、人才培養(yǎng)和應(yīng)用落地工程需求。MoPaaS致力打造全方位開(kāi)放的AI技術(shù)和應(yīng)用生態(tài)。MoPaaS 被Forrester評(píng)為中國(guó)企業(yè)級(jí)云平臺(tái)市場(chǎng)的卓越表現(xiàn)者 (Strong Performer)。

贊助本站

人工智能實(shí)驗(yàn)室

相關(guān)熱詞: 2023 人工智能 回顧

相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開(kāi)

熱門(mén)欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港