展會信息港展會大全

量子人工智能性能飛躍有望?新技術(shù)突破將機器學習推入新境界……
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-08-19 10:32:38   瀏覽:27597次  

導讀:財聯(lián)社8月16日訊(編輯 黃君芝) 據(jù)報道,美國洛斯阿拉莫斯國家實驗室(Los Alamos National Laboratory,簡稱LANL)的一項突破性理論證明表明,使用一種稱為過參數(shù)化的技術(shù)可以提高量子機器學習的性能,從而挑戰(zhàn)傳統(tǒng)計算機的任務。 過參數(shù)化(Overparametri...

財聯(lián)社8月16日訊(編輯 黃君芝)據(jù)報道,美國洛斯阿拉莫斯國家實驗室(Los Alamos National Laboratory,簡稱LANL)的一項突破性理論證明表明,使用一種稱為“過參數(shù)化”的技術(shù)可以提高量子機器學習的性能,從而挑戰(zhàn)傳統(tǒng)計算機的任務。

過參數(shù)化(Overparametrization),是人工智能機器學習中使用的一種技術(shù),通過引入比必要情況更多的參數(shù)或變量來提高模型的性能和訓練動態(tài)。在這種方法中,模型中的參數(shù)數(shù)量被有意設置為遠大于可用訓練樣本或數(shù)據(jù)維度的數(shù)量。盡管參數(shù)多于所需數(shù)量是違反直覺的,但人們發(fā)現(xiàn)過參數(shù)化在訓練復雜的機器學習模型方面具有多種好處。

據(jù)悉,“過參數(shù)化”可以幫助模型適應數(shù)據(jù)中存在的變化和復雜性,從而可能在出現(xiàn)新的、未見過的數(shù)據(jù)時提高泛化性能。過參數(shù)化本質(zhì)上為模型提供了更多的自由度來學習和表示數(shù)據(jù)中的潛在關系。因此,這一技術(shù)的主要優(yōu)點之一是它可以避免在優(yōu)化過程中陷入次優(yōu)解決方案。

不過,到目前為止,人們對量子機器學習模型中的“過參數(shù)化”還知之甚少。在最新研究中,LANL團隊建立了一個理論框架,用于預測量子機器學習模型過參數(shù)化的臨界參數(shù)數(shù)。在某個臨界點上,增加參數(shù)會使網(wǎng)絡性能有一個飛躍,模型變得明顯容易訓練。

該論文的主要作者、LANL的研究員Martin Larocca解釋說:“通過建立量子神經(jīng)網(wǎng)絡中過參數(shù)化的理論,我們的研究為優(yōu)化訓練過程和在實際量子應用中實現(xiàn)增強的性能鋪平了道路。”

最新研究成果已于近期發(fā)表在了《自然計算科學》雜志上。

為了更好地說明該團隊的發(fā)現(xiàn),研究人員描述了一個思維實驗,在這個實驗中,一個徒步旅行者在黑暗的環(huán)境中尋找最高的山峰,代表了訓練過程。徒步旅行者只能朝著特定的方向前進,并通過使用有限的GPS系統(tǒng)測量高度來評估他們的進度。

在這個類比中,模型中參數(shù)的數(shù)量對應于徒步旅行者可以移動的方向。他們說,“一個參數(shù)允許前后移動,兩個參數(shù)允許橫向移動,等等。與我們假設的徒步旅行者的世界不同,數(shù)據(jù)景觀可能有三個以上的維度。”

但由于參數(shù)太少,步行者無法徹底探索,可能會把一座小山丘誤認為最高的山峰,或者被困在平坦的地區(qū),任何一步都顯得徒勞無益。然而,隨著參數(shù)數(shù)量的增加,步行者可以在更高的維度上向更多的方向移動。有了額外的參數(shù),徒步者就可以避免被困,找到真正的山峰或問題的解決方案。

該研究論文的合著者、LANL的研究員Diego Garcia-Martin說,“總而言之,我們相信我們的研究結(jié)果對于使用機器學習來學習量子數(shù)據(jù)的屬性將會非常有用,例如在量子材料研究中對不同相進行分類,這在經(jīng)典計算機上非常困難。”

(財聯(lián)社 黃君芝)

贊助本站

人工智能實驗室
相關內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港