您的位置: 首頁 >產(chǎn)經(jīng) >

英偉達的人工智能進展 自然語言處理變得越來越快

2019-12-26 16:14:58 編輯: 來源:
導讀 當英偉達(NVIDIA)宣布在實現(xiàn)實時人工智能對話的語言理解方面取得突破時,我們措手不及。我們還在努力消化ACL的過程,這是全世界計算語言學最大的研究事件之一,F(xiàn)acebook、Salesforce、微軟和亞馬遜都參與了其中。雖然這代表了兩種不同的成就,但它們?nèi)匀痪o密相連。以下是英偉達的突破,以及它對整個世界的意義。 正如ZDNet昨天報道的,英偉達表示,其人工智能平臺目前擁有迄今為止最快的訓練記

當英偉達(NVIDIA)宣布在實現(xiàn)實時人工智能對話的語言理解方面取得突破時,我們措手不及。我們還在努力消化ACL的過程,這是全世界計算語言學最大的研究事件之一,F(xiàn)acebook、Salesforce、微軟和亞馬遜都參與了其中。雖然這代表了兩種不同的成就,但它們?nèi)匀痪o密相連。以下是英偉達的突破,以及它對整個世界的意義。

正如ZDNet昨天報道的,英偉達表示,其人工智能平臺目前擁有迄今為止最快的訓練記錄、最快的推理和最大的訓練模型。NVIDIA已經(jīng)成功地在53分鐘內(nèi)訓練了一個大型的BERT模型,并且讓其他的BERT模型在2.2毫秒內(nèi)產(chǎn)生結(jié)果。但我們需要把它放在背景中來理解它的重要性。BERT(來自《變形金剛》的雙向編碼器表示)是研究人員于2018年底在谷歌AI語言上發(fā)表的研究論文(論文、開放源代碼和數(shù)據(jù)集)。伯特最近在自然語言處理領(lǐng)域取得了一系列突破,并在人工智能領(lǐng)域引起了轟動,因為他在各種各樣的自然語言處理任務(wù)中展示了最先進的成果。

NVIDIA所做的是使用谷歌發(fā)布的數(shù)據(jù)集(兩種風格,BERT- large和BERT- base)和它自己的gpu,以減少訓練BERT機器學習模型所需的時間,然后將其用于應用程序。這就是機器學習的工作原理——首先是一個訓練階段,在這個階段中,模型通過顯示大量數(shù)據(jù)來學習,然后是一個推理階段,在這個階段中,模型處理新的數(shù)據(jù)。

NVIDIA使用了不同的配置,產(chǎn)生了不同的結(jié)果。NVIDIA DGX SuperPOD使用92臺運行1472臺NVIDIA V100 gpu的DGX- 2h系統(tǒng)來訓練BERT模型,而同樣的任務(wù)需要一個NVIDIA DGX-2系統(tǒng)2.8天。2.2毫秒的推理結(jié)果在不同的系統(tǒng)/數(shù)據(jù)集上(運行NVIDIA TensorRT / BERT-Base的NVIDIA T4 gpu)。

最重要的是,英偉達將BERT訓練提高了好幾天,而以前這是常規(guī)訓練。但這里的神奇之處在于硬件和軟件的結(jié)合,這就是為什么whyNVIDIA要發(fā)布自己對BERT的調(diào)整,這可能是整個社區(qū)最大的勝利。

數(shù)據(jù)、人工智能、物聯(lián)網(wǎng):零售業(yè)的未來

零售購物的數(shù)字化轉(zhuǎn)型將電子商務(wù)的許多好處帶入實體店,其結(jié)果也同樣具有顛覆性。

閱讀更多

我們詢問了英偉達如何以及為什么選擇解決這個問題。英偉達發(fā)言人表示,他們認為人工智能對話是人類與智能機器和應用程序互動的基本組成部分。然而,這是一個非常具有挑戰(zhàn)性的問題,無論是在計算上還是在算法上;他們補充說,這是他們非常感興趣的地方。這是一個跨公司的努力,許多不同的團隊為實現(xiàn)這些突破做出了貢獻。這些團隊包括英偉達人工智能研究、數(shù)據(jù)中心規(guī)模基礎(chǔ)設(shè)施、人工智能軟件和工程。英偉達表示,這表明它可以將其人工智能平臺的市場領(lǐng)先性能擴展到新興用例。這有兩個方面。它是技術(shù)上的奇跡,它的實際適用性。讓我們打開。

就BERT的培訓而言,NVIDIA闡明了軟件優(yōu)化包括在PyTorch中實現(xiàn)的自動混合精度和在一篇論文中闡述的蘭姆大批量優(yōu)化技術(shù)的使用。關(guān)于更多細節(jié),有一篇關(guān)于此的博客文章,人們也可以訪問NVIDIA的BERT github存儲庫中的代碼。為了實現(xiàn)NVIDIA T4推理優(yōu)化GPU上的BERT推理的2.2毫秒延遲,NVIDIA開發(fā)了針對TensorRT、NVIDIA推理編譯器和運行時的若干優(yōu)化。工作的重點是Transformer層的有效實現(xiàn)和融合,它是BERT (BERT-base有12個Transformer層)和當今可用的最先進的NLU模型的核心構(gòu)件。TensorRT包含幾個關(guān)鍵功能,可以實現(xiàn)非常高的推理吞吐量,從融合內(nèi)核到自動選擇精度等等。NVIDIA進一步增加了新的優(yōu)化來加速NLU模型,并計劃繼續(xù)改進庫來支持人工智能工作負載。

NVIDIA比以前更快地處理BERT自然語言

簡而言之,所有這一切意味著,你現(xiàn)在可以訓練出比以往更好、更快的語言模型,并將它們部署到會話人工智能應用程序中,并以比以往更快的速度運行。當然,這很好。從理論上講,英偉達的做法可能會讓所有人受益。BERT的優(yōu)化以開源的形式發(fā)布,NVIDIA硬件可供所有人使用。但是,通常的警告是適用的。盡管能夠在很短的時間內(nèi)訓練出像BERT這樣的語言模型,與之前的技術(shù)相比,這是很好的,但這還不夠。

即使假設(shè)NVIDIA發(fā)布的是可用的,有多少組織能夠真正做到這一點?

首先,從他們的存儲庫中獲得這些開源模型,讓它們運行,提供正確的數(shù)據(jù),然后將它們集成到會話AI應用程序中,這不是很多人能做的事情。是的,企業(yè)中缺乏數(shù)據(jù)科學技能已經(jīng)被多次提及。但是記住這一點很有用——對于一般的組織來說,這并不容易。

然后,從他們的Github盒子里拿出來,NVIDIA的BERT模型處理特定的數(shù)據(jù)集。這意味著,如果你嚴格按照規(guī)定的流程操作,而你的競爭對手也這么做,你最終將擁有一個以同樣方式響應的人工智能會話應用程序。

將大數(shù)據(jù)轉(zhuǎn)化為商業(yè)見解

企業(yè)擅長收集數(shù)據(jù),而物聯(lián)網(wǎng)正將其帶入一個新的階段。但是,最先進的組織正在使用它來推動數(shù)字轉(zhuǎn)換。



免責聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。