2016-2022 All Rights Reserved.平安財經網.復制必究 聯(lián)系QQ 備案號:
本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網 版權歸原作者所有。
郵箱:toplearningteam#gmail.com (請將#換成@)
華為公司計劃在今年7月7日的華為云開發(fā)者大會上發(fā)布并內測一款名為“盤古Chat”的多模態(tài)千億級大模型產品,直接與ChatGPT進行競爭。這一消息是鈦媒體App從華為內部獨家獲得的。預計盤古Chat將主要面向To B/G政企端客戶,并有望成為國內技術能力最強的ChatGPT產品之一。此舉使得華為成為繼阿里和百度之后又一家重要的科技巨頭加入國產大模型競賽,同時也將為華為的生態(tài)產業(yè)鏈企業(yè)帶來利益。
據了解,華為內部團隊在盤古大模型的設計中確立了三個關鍵的核心原則:模型要大、網絡結構要強、具有優(yōu)秀的泛化能力。盤古大模型于2020年11月在華為云內部啟動,2021年4月對外發(fā)布,成為首個干億參數的中文預訓練大模型。在2022年4月,華為升級了盤古到2.0版本,并發(fā)布了層次化開發(fā)方案,致力于打造工業(yè)級的盤古大模型。
盤古大模型的基礎層包括NLP大模型、CV大模型和科學計算大模型,而上層則是與合作伙伴開發(fā)的華為行業(yè)大模型。該模型可應用于智能客服、機器翻譯、語音識別等多個領域,提供AI技術支持。華為在垂直產業(yè)領域已經開始將盤古大模型落地應用,例如在礦山領域建立了基于大模型的人工智能訓練中心,取得了顯著的成本降低和效率提升。
華為在大模型訓練方面具備優(yōu)勢,擁有完整的產業(yè)鏈和強大的算力調配能力。據報道,華為團隊在訓練千億參數的盤古大模型時使用了超過2000塊昇騰910芯片,并進行了超過兩個月的數據訓練。然而,盤古大模型的訓練成本較高,盡管在中文語言處理方面具有高準確度和質量,但在語義理解方面仍存在一定的局限性,特別是在處理復雜的語言結構和語義推理方面。此外,盤古Chat大模型也將面臨激烈的競爭壓力,需要不斷優(yōu)化和提高模型的性能和質量,以保持市場中的領先地位。
2016-2022 All Rights Reserved.平安財經網.復制必究 聯(lián)系QQ 備案號:
本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網 版權歸原作者所有。
郵箱:toplearningteam#gmail.com (請將#換成@)