您的位置: 首頁 >互聯(lián)網(wǎng) >

OpenAI發(fā)布語音模型Voice Engine(關(guān)于Voice Engine的簡介)

2024-04-01 19:35:22 編輯:澹臺貞紈 來源:
導讀 3月30日OpenAI在官網(wǎng)上發(fā)布了最新的Voice Engine研究成果,這一大模型可以通過音頻樣本和文本輸入,生成與原始說話者相似的自然語音,出于...

3月30日OpenAI在官網(wǎng)上發(fā)布了最新的Voice Engine研究成果,這一大模型可以通過音頻樣本和文本輸入,生成與原始說話者相似的自然語音,出于對安全的考慮,現(xiàn)在這一模型僅在小范圍內(nèi)進行試用,這一模型也引發(fā)了人們對于AI技術(shù)發(fā)展帶來的信息安全的考慮。

1.Voice Engine早期應(yīng)用于輔助兒童閱讀、翻譯視頻、博客等內(nèi)容,主要是幫助具有聽力障礙或者需要聽力輔助的人群閱讀文字或者對視頻內(nèi)容進行翻譯。

2.在這樣的應(yīng)用場景基礎(chǔ)上,OpenAI還給出了一部分合作伙伴共同完成的技術(shù)案例,人工智能替代通信應(yīng)用程序Livox通過使用語音引擎,為殘疾人提供多種語言的自然聲音;兒童教育公司Age of Learning還使用GPT-4和Voice Engine和學生進行交流。

3.對于未來是否要將這項技術(shù)大規(guī)模應(yīng)用,OpenAI持保守態(tài)度。在2024年美國曾經(jīng)發(fā)布少數(shù)公司利用總統(tǒng)的人工智能語音影響選民投票的事件,這些潛在的風險有可能影響OpenAI關(guān)于Voice Engine未來使用范圍的決策。

4.合成語音的濫用現(xiàn)象仍然是監(jiān)管機構(gòu)以及模型發(fā)布者需要考慮的問題,OpenAI希望就合成聲音的責任歸屬問題以及社會如何處理這些新功能做出討論,并且根據(jù)小規(guī)模測試以及討論結(jié)果,確定未來是否要將這項技術(shù)大規(guī)模部署。

5.在人工智能安全方面,OpenAI早就做出了相關(guān)部署,在2023年10月份他們就宣布成立了相關(guān)的團隊,旨在評估前沿模型的技術(shù)和風險。人工智能誕生以來就一直受到人們關(guān)于安全方面的考慮,早先馬斯克還曾帶領(lǐng)人工智能監(jiān)管領(lǐng)域的重要人物共同制定人工智能發(fā)展約束協(xié)議,如今Voice Engine的出現(xiàn)再次對安全提出了挑戰(zhàn),接下來它是否會面向大眾,令人期待。


免責聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ   備案號:

本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。

郵箱:toplearningteam#gmail.com (請將#換成@)