2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
數(shù)據(jù)科學(xué)是艱苦的工作,而不是魔咒。一個AI模型的性能是否如所宣傳的取決于其訓(xùn)練的程度,并且沒有“一刀切”的方法來訓(xùn)練AI模型。
分布式AI培訓(xùn)的必要弊端
縮放是訓(xùn)練AI模型時最棘手的考慮之一。當模型變得過于資源匱乏而無法在任何單個計算平臺上進行整體處理時,培訓(xùn)就尤其具有挑戰(zhàn)性。模型可能已經(jīng)變得很大,超過了單個處理平臺的內(nèi)存限制,或者加速器需要開發(fā)特殊的算法或基礎(chǔ)結(jié)構(gòu)。訓(xùn)練數(shù)據(jù)集可能會變得如此龐大,以至于訓(xùn)練花費了非常長的時間,并且變得非常昂貴。
如果我們不要求模型特別擅長于其分配的任務(wù),那么縮放就可以輕而易舉。但是,隨著我們提高推理準確性的水平,培訓(xùn)過程可能會花費更長的時間并消耗更多的資源。解決此問題不僅僅是解決問題的能力更強的硬件。與許多應(yīng)用程序工作負載一樣,隨著AI模型復(fù)雜性的增加,不能僅依靠更快的處理器來維持線性擴展。
可能需要進行分布式培訓(xùn)。如果可以將模型的組件劃分并分發(fā)到優(yōu)化的節(jié)點以進行并行處理,則可以大大減少訓(xùn)練模型所需的時間。但是,考慮到統(tǒng)計模型的構(gòu)造有多脆弱,并行化本身本身就是一件繁瑣的工作。
2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。