2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號(hào):閩ICP備19027007號(hào)-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
除了追求人工智能的實(shí)際應(yīng)用之外,英特爾公司還投資研究以發(fā)展該技術(shù)的理論基礎(chǔ)。芯片制造商工作的最新成果是可以加速?gòu)?fù)雜AI模型開發(fā)的算法。
協(xié)同進(jìn)化強(qiáng)化學(xué)習(xí)或CERL算法今天在加利福尼亞州的ICML機(jī)器學(xué)習(xí)會(huì)議上提出。它有望加快AI項(xiàng)目的培訓(xùn)階段,這是開發(fā)周期中最耗時(shí)的部分之一。
工程師通過(guò)讓他們?cè)谀M設(shè)置中反復(fù)執(zhí)行給定的任務(wù)來(lái)提高模型的準(zhǔn)確性。該過(guò)程通常涉及虛擬獎(jiǎng)勵(lì)的使用:當(dāng)AI做正確的事情(例如,正確識(shí)別照片中的動(dòng)物)時(shí),它會(huì)得到一個(gè)積分,并將經(jīng)驗(yàn)中的教訓(xùn)應(yīng)用到未來(lái)的圖像中。這是一種強(qiáng)大的方法,但是英特爾在描述CERL的學(xué)術(shù)論文中強(qiáng)調(diào)說(shuō),該方法有一定的局限性。
通過(guò)基于獎(jiǎng)勵(lì)的培訓(xùn)來(lái)授課的神經(jīng)網(wǎng)絡(luò)通常會(huì)采取“安全路線”,以最大限度地提高其獲得的積分?jǐn)?shù)量。然后,AI承擔(dān)風(fēng)險(xiǎn)并嘗試新方法的可能性就降低了。這最終限制了模型在訓(xùn)練期間學(xué)到的東西,這意味著一旦將模型部署到應(yīng)用程序中,模型的運(yùn)行效率可能會(huì)降低。
所謂的基于策略梯度的機(jī)器學(xué)習(xí)方法尤為突出,這是工程師訓(xùn)練AI模型的最常見(jiàn)方式之一。有一種沒(méi)有這種限制的替代方法-進(jìn)化強(qiáng)化學(xué)習(xí)-但它有其自身的權(quán)衡:它需要更多的硬件。英特爾的CERL算法旨在通過(guò)將兩種方法的關(guān)鍵概念組合到混合工作流程中來(lái)提供解決方案。
CERL通過(guò)生成一組具有隨機(jī)設(shè)置的神經(jīng)網(wǎng)絡(luò)來(lái)啟動(dòng)培訓(xùn)課程。該算法挑選出在學(xué)習(xí)中獲得最多積分的模型,將其余的丟棄,并根據(jù)性能最高的模型生成新一批的AI。這就產(chǎn)生了一種情況,其中新一代的神經(jīng)網(wǎng)絡(luò)都比其前輩更好。
英特爾AI實(shí)驗(yàn)室的工程研究負(fù)責(zé)人Somdeb Majumdar解釋說(shuō):“保留了排名最高的'精英',其余的則被丟棄。” “我們還對(duì)精英分子進(jìn)行突變(以小擾動(dòng)克隆)……以產(chǎn)生高性能的后代,以回填被丟棄的網(wǎng)絡(luò)。”
為了加快培訓(xùn)速度,英特爾研究人員為CERL配備了一種稱為重播緩沖區(qū)的機(jī)制。這是一個(gè)交流渠道,可以使每一代的神經(jīng)網(wǎng)絡(luò)彼此共享經(jīng)驗(yàn),以更快地學(xué)習(xí)。同時(shí),第二種機(jī)制優(yōu)化了硬件分配,從而為最快學(xué)習(xí)的模型提供了更多的計(jì)算能力,從而進(jìn)一步加快了速度。
2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號(hào):閩ICP備19027007號(hào)-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。