2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網(wǎng) 版權歸原作者所有。
Sber 的新聞服務部門告訴 Durov 的代碼,根據(jù)評估大型文本模型俄羅斯 SuperGLUE 的主要俄語基準的評估,由 SberDevices 開發(fā)的 ruRoberta-large 微調(diào)文本模型被認為是文本理解方面的最佳選擇。在這個評級中,該模型的準確性僅次于人類。
該公司解釋說,ruRoBERTa 在架構上與 BERT 相同,在大量文本上進行訓練,僅用于恢復屏蔽標記的任務,使用來自 ruGPT-3 神經(jīng)網(wǎng)絡的 BBPE 標記器。值得注意的是,在 Christophari 超級計算機上訓練模型需要三周時間。
2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網(wǎng) 版權歸原作者所有。