5月29日消息,今日英偉達在官網(wǎng)宣布將提供定制 AI 模型代工服務(wù) Avatar Cloud Engine (ACE) for Games,可開發(fā)在云端和 PC 上運行的 AI 模型,開發(fā)者可以使用該服務(wù)在其軟件和游戲中搭建和部署定制化的語音、對話和動畫 AI 模型。
在臺北的 Computex 2023 展會上,英偉達展示了一款名為 Kairos 的游戲 Demo,讓玩家可以用自然語言和游戲角色對話。這是一種基于生成式人工智能的技術(shù),可以讓非玩家角色(NPC)具有智能和反應(yīng)能力,英偉達稱之為“游戲未來的一瞥”。
英偉達首席執(zhí)行官黃仁勛在會上展示了這項技術(shù),在一個充滿賽博朋克風(fēng)格的拉面店場景中,玩家可以按下一個按鈕,用自己的聲音說話,然后店主 Jin 會進行回答。Jin 是一個 NPC 角色,但他的回答是由生成式人工智能根據(jù)玩家的語音輸入實時生成的。Jin 還有著逼真的面部動畫和聲音,與玩家的語氣和背景故事相符。
這個演示是英偉達和合作伙伴 Convai 共同制作的,Convai 是一家專注于開發(fā)虛擬游戲世界中的對話人工智能的初創(chuàng)公司。他們利用了英偉達推出的一套名為 ACE(Avatar Cloud Engine) for Games 的 AI 模型代工服務(wù),它包括以下幾個部分:
英偉達 NeMo:用于構(gòu)建、定制和部署語言模型,可以使用專有數(shù)據(jù)。語言模型可以根據(jù)游戲設(shè)定和角色背景進行定制,并通過 NeMo Guardrails 防止不良或不安全的對話。
英偉達 Riva:用于自動語音識別和文本轉(zhuǎn)語音,實現(xiàn)實時語音對話。
英偉達 Omniverse Audio2Face:用于根據(jù)任何語音軌跡,快速生成游戲角色的富有表情的面部動畫。Audio2Face 支持 Unreal Engine 5 的 Omniverse 連接器,開發(fā)者可以直接將面部動畫添加到 MetaHuman 角色上。
開發(fā)者可以集成整個 ACE for Games 解決方案,也可以只使用他們需要的部分。ACE for Games 還提供了定制 AI 模型的服務(wù),幫助開發(fā)者根據(jù)他們的游戲需求進行優(yōu)化,并通過英偉達 DGX 云、GeForce RTX PC 或本地進行實時推理。這些模型都經(jīng)過了延遲優(yōu)化,以滿足游戲中沉浸式、響應(yīng)式交互的關(guān)鍵要求。
英偉達表示,生成式人工智能有潛力徹底改變玩家與游戲角色的交互方式,提高游戲的沉浸感。憑借在人工智能和游戲開發(fā)領(lǐng)域的專業(yè)知識和多年經(jīng)驗,英偉達正在引領(lǐng)生成式人工智能在游戲中的應(yīng)用。