展會信息港展會大全

北京大數(shù)據(jù)協(xié)會理事張廣志:嚴肅領(lǐng)域需要可解釋、可通用的大模型
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-06-19 09:08:26   瀏覽:67564次  

導讀:本報記者 李靜 北京報道 自ChatGPT爆火之后,對話式大模型迎來爆發(fā)式增長,國內(nèi)外的諸多公司紛紛推出不同款的對話式AI大模型,是否有可能同時和多個對話式AI大模型進行對話呢? 以此為切入點,曾任哈工大計算機學院副教授的孫志崗等人一起開發(fā)了一款名為Chat...

本報記者 李靜 北京報道

自ChatGPT爆火之后,對話式大模型迎來爆發(fā)式增長,國內(nèi)外的諸多公司紛紛推出不同款的對話式AI大模型,是否有可能同時和多個對話式AI大模型進行對話呢?

以此為切入點,曾任哈工大計算機學院副教授的孫志崗等人一起開發(fā)了一款名為ChatAll(中文名:齊叨)的開源人工智能大模型工具。作為ChatAll中文名命名人,北京大數(shù)據(jù)協(xié)會理事、北京融信數(shù)聯(lián)科技有限公司CTO張廣志表示,ChatAll已經(jīng)在全球最火的技術(shù)開源平臺Github上線,技術(shù)人員均可以在平臺上免費使用ChatAll。

張廣志說,ChatAll之所叫作齊叨,意思是對于用戶所提出的問題,讓“大家”一齊叨叨,起到一呼百應(yīng)的作用,而這里的“大家”意思是目前主流的10多款大模型工具,諸如ChatGPT、文心一言等。

ChatGPT引發(fā)了對話式AI大模型的爆火,卻沒有一個對話式大模型能保證輸出的內(nèi)容百分百靠譜。使用過對話式AI大模型的用戶都有一個感受,有些時候?qū)υ捠酱竽P虯I給出的內(nèi)容真假難辨。

張廣志表示:“現(xiàn)在的很多大模型就是不可解釋,但是在很多嚴肅領(lǐng)域要求大模型可解釋,因為只有可解釋的背后才能涉及到責任的承擔。”

ChatAll讓大模型一起賽馬

“目前國內(nèi)外知名的人工智能大模型均已接入ChatAll,這意味著用戶只需要提一個問題,這些大模型就會一起根據(jù)自身優(yōu)勢和所長進行回復,ChatAll主要是起到了一個聚合的作用,省去了用戶在各種平臺間來回折騰的煩惱。當然,用戶可以根據(jù)自身的需要或偏好,選擇關(guān)閉或開啟任何一個或幾個、全部進行聊天。”張廣志說道。

目前國內(nèi)外推出的對話式AI大模型各有優(yōu)缺點,張廣志表示,在做ChatAll時有一個最樸素的想法既然一個大模型不能保證百分百的準確,那就集成多個大模型讓它們?nèi)ベ愸R,讓大模型同時去聊,用戶再自行判斷是否要相信哪個大模型。

“這其實類似于投票,可以叫作集成可信的大模型框架。ChatAll沒有本質(zhì)的技術(shù)創(chuàng)新,只是模式上的創(chuàng)新。”張廣志表示,“從提出這個想法到正式發(fā)布ChatAll,前后用了很短的時間,因為大部分的代碼都是用GPT-4來完成,少部分是人工修改或原創(chuàng)。”

但張廣志認為,做ChatAll首先的難點還是模式創(chuàng)新,就像阿里巴巴最厲害的地方并不在于技術(shù),而在于打造了線上擔保交易的模式,ChatAll的模式創(chuàng)新就是在大模型領(lǐng)域打造了一套集成可信的模式。當然第二個難點還是技術(shù),將國內(nèi)外的大模型集成到ChatAll當中需要做很多的適配工作,包括安全機制問題、接口問題等等,只有盡量克服用戶在使用時的障礙,才能讓用戶最方便地使用ChatAll。

需要注意的是,ChatAll只是集成好了眾多對話式AI大模型的框架,方便用戶同時開啟多個對話式AI大模型。但用戶需要先擁有各個不同大模型的賬號,才能在ChatAll中“激活”相應(yīng)的大模型進行使用。

在最新版本的ChatAll增加了支持保留歷史聊天記錄的功能,針對的是現(xiàn)在不少對話式AI大模型不能保留歷史聊天記錄的功能。未來ChatAll可能還會增加自主判斷和歸類功能,比如問了7個大模型,ChatAll可以判斷其中4個大模型是類似的回答,而另外3個大模型是另外一類的相似答案。

“ChatAll未來還有很多工作可以做。”但張廣志表示,參與到ChatAll的開發(fā)人員,都是以個人身份參與其中,大家希望一起做這樣一個開源項目推動行業(yè)的發(fā)展。

可解釋的大模型

這一波大模型的發(fā)展中,可以說是ChatGPT開啟了大模型百花齊放的時代。

ChatGPT本身是一個大模型,爆火的背后是因為在方向選擇上,ChatGPT選擇了一個并不嚴肅的領(lǐng)域聊天,這是一個用戶使用門檻低,且容易上手和傳播的方向。

“大模型本質(zhì)上也是沿著各種人工智能的算法和模型在發(fā)展,但由于如今算力、模型和數(shù)據(jù)質(zhì)量的大幅提升,大模型打通了‘任督二脈’,從量變達到質(zhì)變。”張廣志表示,在一些領(lǐng)域?qū)υ捠紸I大模型已經(jīng)有很驚艷的表現(xiàn)。尤其是和搜索相比,大模型在對話中可以更準確地掌握用戶的意圖,這使得對話式AI大模型在知識類、常識類領(lǐng)域的問答中有較明顯的優(yōu)勢;以及在約定俗成的常規(guī)化工作領(lǐng)域,比如書寫會議紀要、申請書等大模型是一個好用的效率工具,另外在跨語言的翻譯中,大模型的表現(xiàn)也非常出色。

張廣志表示:“目前,很多人是憑著個人經(jīng)驗和能力在探索性地使用大模型,但對話式AI大模型還沒有真正實現(xiàn)產(chǎn)業(yè)化應(yīng)用,也沒有形成主流的行業(yè)。”而且,對話式AI大模型也有不靠譜的時候,人們并不敢相信某一個大模型,因此張廣志認為,以ChatAll為代表的集成可信的大模型框架是大模型發(fā)展的第二階段。

加上基于大數(shù)據(jù)和深度學習算法的大模型本質(zhì)上是一個黑盒,具有不可解釋性,對于大模型在一些領(lǐng)域的商業(yè)化應(yīng)用存在一定隱患。怎么理解黑盒呢?張廣志舉例說道,比如,我們控制一盞燈,如果它只有開關(guān)兩種狀態(tài),用一個開關(guān)就可以控制,用電路的通和斷就能很好地解釋它是開還是關(guān)。大模型時代,它可以隨意控制燈的色溫、亮度等,但如果這背后有100萬個開關(guān)來控制,通過100萬個開關(guān)的參數(shù)組合來控制燈的各種表現(xiàn),就很難解釋100萬個開關(guān)具體是怎么組合的。如果這個數(shù)據(jù)不是100萬個,而是幾億個開關(guān)同時控制,就更加難以解釋。

張廣志認為,大模型發(fā)展的第三個階段應(yīng)該是可解釋可通用的大模型,尤其在很多嚴肅領(lǐng)域。

“如果說不可解釋的大模型,當它胡說八道時,責任誰來承擔,換句話說也沒有安全性。”張廣志說道,首先安全性無法保障,其次無法在嚴肅領(lǐng)域做到可解釋的大模型,在實際推廣應(yīng)用的時候就會面臨各種障礙。

張廣志所在的北京融信數(shù)聯(lián)科技有限公司這幾年一直在給政府提供大模型服務(wù),其中北京融信從2018年開始打造的“智能圖譜”就屬于一種可解釋可通用的大模型,雖然不像普通人就可以使用ChatGPT,并且會覺得對話式大模型很好玩,但智能圖譜在一些嚴肅領(lǐng)域已經(jīng)能夠提供較好的技術(shù)支撐。

“我們在和政府部門合作時就被要求,必須是可解釋可通用的大模型,不能只是輸出一個結(jié)果。”張廣志說道。

大模型正在改變世界

以大模型為代表的人工智能正在改變世界,似乎已經(jīng)是一個不爭的事實,而對于其過于“智能”,甚至恐將掙脫于人類的監(jiān)管的擔憂也甚囂塵上。人工智能全面來臨的前夕,我們應(yīng)該抱持怎么樣的態(tài)度?

“我覺得大模型發(fā)展到了現(xiàn)在,相當于以前我們發(fā)現(xiàn)了煤炭和石油,甚至又發(fā)現(xiàn)它們還能幫助我們?nèi)∨,進而由它們?yōu)榛A(chǔ)制造出蒸汽機、電等形成了工業(yè)文明。可以說,到目前為止,大模型的發(fā)展不亞于電的發(fā)明,是一種劃時代的科技演進。”張廣志說,現(xiàn)在大模型行業(yè)還是處于百花齊放的狀態(tài),但不久的將來可能會出現(xiàn)整合,合久必分,分久必合,是一種變化常態(tài)。

張廣志表示,大家所擔心的安全問題,主要是針對科技倫理角度而言,但很多大模型應(yīng)用已經(jīng)是經(jīng)過了大量人工干預的結(jié)果,比如人工標注、人工篩檢、人工屏蔽,如果人工不介入,大模型基本是沒辦法使用的。

“如果不是大量的人工干預,大模型一定到處充斥著色情、暴力和教唆等內(nèi)容,因為這些東西通常是人性的弱點。尤其是當用戶在不斷使用這類大模型過程中,又在不斷地訓練它,大模型則會不斷地強化這類內(nèi)容學習和輸出。”張廣志說,現(xiàn)在很多人在擔心人工智能將來可能會脫離管控,因為它會變得越來越智能,這會導致它會自主地繞過人類的監(jiān)管。

“目前只能依靠大量的人工去做標注,例如通過篩檢、屏蔽、拉黑等方式切斷大模型學習一些不良信息的路徑。我們可以將大模型的學習理解為一個小孩的成長過程,從這個孩子的誕生到長大,家長需要告訴他應(yīng)該怎么樣、不應(yīng)該怎么樣,當他犯錯了還要對其進行批評教育甚至懲罰。”張廣志說。

那么,以大模型為代表的人工智能還要不要繼續(xù)搞?“要搞,但要安全地搞。”張廣志肯定地回答道,首先要大力發(fā)展人工智能優(yōu)化管理的技術(shù),其次是立法機構(gòu)要對此進行立法。“在未來,不可能一直靠大量的人工去干預。”

“從法律層面來說,我們怎么定義人工智能;它具備什么樣的法律地位;它背后的責任人或者法律主體是誰;一旦發(fā)生糾紛,承擔法律責任的是用戶還是開發(fā)公司?這些都需要法律去定義。如果再超前一些,法律還有可能將其定義為除自然人、法人之外的第三類法律主體。”張廣志說。

關(guān)于大模型的暢想

張廣志表示,從個人和公司層面而言,可以通過各類大模型來完善和豐富自己的能力,提升工作效率。而從我們國家層面來看,人工智能時代更是一個巨大的機會。“因為我國人口眾多,應(yīng)用場景豐富,而且工業(yè)基礎(chǔ)和生產(chǎn)制造能力十分強大。”

但也有不少人擔心人工智能會替代人,讓很多人失業(yè)的問題。事實上,這也是正在逐漸發(fā)生的,但這只是看到了問題的一方面。百度創(chuàng)始人李彥宏曾對此表示,很多人擔心人工智能會讓工作機會減少,是因為他們能夠看到現(xiàn)在的工作會消失,但是他們看不到新的工作機會會被創(chuàng)造出來。就像100年前、200年前那些人,看不到后來產(chǎn)生的新的工作機會一樣。雖然看不到未來有哪些新的工作機會,但李彥宏并不擔心大模型會導致人類工作機會減少、生活會變差。

張廣志亦認同上述觀點。他認為,當前我們的人口生育率下降所帶來的影響,可以考慮通過人工智能來進行彌補。事實上,我們有許多工作是枯燥的和重復性的,而這類枯燥的應(yīng)用場景完全可以由各類人工智能機器人來替代,更多人可以按照自己的意愿去從事服務(wù)性、創(chuàng)造性、歷史性等更強或更有價值的工作。“按照自己的意愿去發(fā)展,正是我們一直所追求的實現(xiàn)人全面而自由發(fā)展的目標。”

張廣志認為,對于政府層面而言,未來以各類大模型為代表的人工智能也會與之深度結(jié)合,這會大大提高效率和節(jié)省人力。他舉例稱,如果一個人要注冊公司,他只需要在政府的官網(wǎng)或者其他政府設(shè)備上提出這個需要,大模型可以根據(jù)這個人的大數(shù)據(jù)迅速給出幾個選項,他只需要點擊他想要的選擇即可。例如這個人是山東人,但工作在北京,大模型完全可以根據(jù)他的個人大數(shù)據(jù)判斷出他想要把公司注冊在何地,給出北京、山東等幾個選項,也可以根據(jù)數(shù)據(jù),判斷出他長期以來所從事的職業(yè),給出幾個選項,例如注冊公司的類型是科技公司還是文化傳媒公司等等,這個人只需要選擇他想要的就可以。然后政府的大模型可以進行審批,直接線上辦理。

“而到那時,政府的工作人員可以集中精力去做更有益的事,例如處置突發(fā)事件、謀劃重大戰(zhàn)略等。”張廣志說,“未來可能還會有相當一部分公務(wù)人員去從事管理這些大模型的工作,要去教育、監(jiān)督、懲罰各類大模型,讓大模型更好地服務(wù)于人。”

張廣志表示,事實上大模型已經(jīng)介入了政務(wù)工作,例如我們?yōu)楦骷壵_發(fā)的融信寶等產(chǎn)品,你只需要輸入公司名稱,他就會迅速推送與之契合的各類政府政策,避免企業(yè)為了政策而“大海撈針”。“今年就可能會出現(xiàn)各種基于自身不同優(yōu)勢的各類大模型應(yīng)用,例如有的偏向于政務(wù),有的偏向于聊天,有的偏向于法律咨詢等等。其實我們現(xiàn)在接到的很多推銷或者客服電話,對面已經(jīng)是人工智能機器人了。”

李彥宏亦認為,在未來,所有的應(yīng)用都將基于大模型來開發(fā),每一個行業(yè)都應(yīng)該有屬于自己的大模型。大模型會深度融合到實體經(jīng)濟當中去,賦能千行百業(yè),助力中國經(jīng)濟開創(chuàng)下一個黃金三十年。

“我們應(yīng)該抱持積極的態(tài)度,這對任何人而言,以大模型為代表的人工智能對我們來說都是一次絕佳的‘升級’機會。”張廣志說。

(編輯:張靖超 校對:顏京寧)

贊助本站

人工智能實驗室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港