2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯網 版權歸原作者所有。
Clova AI Research,NAVER和LINE的研究人員最近提出了一個名為AQM +的新框架,它允許對話系統生成與上下文相關的問題和答案。他們的模型在arXiv預先發(fā)表的論文中概述,將在新奧爾良舉行的第七屆學習代表國際會議(ICLR 2019)上發(fā)表。
“機器人和人機協作被認為是一個重要而有意義的研究課題,特別是從人工智能的道德和公眾利益的角度來看,”進行這項研究的研究人員之一Sang-Woo Lee說道,告訴TechXplore。“專注于面向任務的對話(TOD),研究人員從人類與AlphaGo之間的GO游戲中獲得了相當多的洞察力。更具體地說,這些研究人員認為通過訓練大型機器 - 機器交互模型可以改善面向目標的對話模型允許AlphaGo擊敗人類專家。但是,我并不完全同意這個想法,因為對話是一項基于兩個玩家之間合作的任務,與Go是一個根本不同的競爭游戲。
根據Lee的說法,任務導向對話(TOD)類似于游戲20個問題,因為對話系統的目標應該是縮小用戶的意圖和請求。在之前的一項研究中,Lee及其同事介紹了一個面向任務的對話系統的框架,該框架稱為“提問者心中的回答者”(AQM),它基于這個想法。AQM允許對話系統提出最大化其信息增益的問題,從而減少用戶意圖的不確定性。
與其他方法不同,AQM明確計算后驗分布并通過分析找到解。盡管有許多優(yōu)點,但發(fā)現AQM在現實世界的任務中概括不足,其中對象,問題和答案的數量通常不受限制。
在他們最近的研究中,研究人員解決了這一局限,并提出了一種新的方法,即AQM +。與之前的方法不同,AQM +可以應用于大規(guī)模問題,生成與給定對話框的變化上下文更一致的問題和答案。
“類似于人類對話,我們的AQM +模擬了對手所說的內容,并使用信息理論指標(信息增益)來理解掌握對手思想和意圖的最有效策略,”Lee解釋道。“這種方法不同于先前基于神經網絡的TOD方法,它主要采用序列到序列(Seq2Seq)通過響應先前的話語直接產生問題。”
Lee和他的同事評估了AQM +在一個具有挑戰(zhàn)性的面向任務的視覺對話問題,稱為GuessWhich。他們的模型取得了顯著的成果,在很大程度上超越了最先進的方法。
“在AQM +中基于我們的20個問題游戲的方法用于質疑用戶可以解決復雜的對話情況,其中存在許多和各種答案以及與一般形成的問題相關的案例,以及是或否的問題,”Lee說。“這意味著我們的AQM +可以應用于現實世界中不同的TOD情況。”
在他們的測試中,Lee和他的同事Jung-Woo Ha,Tong Gao,Sohee Yang和Jaejun Yoo發(fā)現,隨著對話的進行,AQM +將錯誤減少了60%,而現有算法的誤差減少了不到6%。據研究人員稱,AQM +可用于生成開放和封閉的問題。
“從端到端方式有效地訓練對話數據模型仍然極具挑戰(zhàn)性,特別是對于TOD系統的開發(fā),”參與該研究的另一位研究員Jung-Woo Ha告訴TechXplore。“雖然AQM +主要側重于質詢以從回答者那里獲得有用的信息,但它可以通過包括基于相同方法回答問題而自然地擴展。”
Lee,Ha和他們的同事們正在考慮未來研究的一些方向。首先,他們希望進一步發(fā)展他們的方法,以實現對話的一般學習框架。他們的最終目標是設計一個能夠在與人類交流時達到類似人類準確性的系統。
“最終,我們的目標是開發(fā)一個通用的AI框架,支持類似人類的機器 - 機器和人機對話,”Ha說。“作為工業(yè)研究科學家,我們將把我們的技術應用于各種服務,如信使和AI助手平臺,從而為全球用戶提供更大的價值。”
2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯網 版權歸原作者所有。