2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
如果醫(yī)學(xué)AI算法表現(xiàn)良好,為什么要讓眾所周知的黑匣子破壞人們對它的信心?
或者,如5月27日發(fā)表在《放射學(xué):人工智能》上的一篇觀點文章中所問的那樣:“為什么我們不應(yīng)該簡單地信任該模型而忽略為什么做出特定決定?”
當(dāng)前的問題是可解釋性,即人的大腦可以理解AI算法結(jié)論背后的邏輯的程度。
賓夕法尼亞大學(xué)放射學(xué)系的Despina Kontos博士和Aimilia Gastounioti博士都是針對同一天在同一期刊上發(fā)表的發(fā)現(xiàn)而寫的,他們都認(rèn)為這種可解釋性可能不是必不可少的,但無疑可以加快AI的發(fā)展。納入常規(guī)臨床實踐。
作者指出,對錯誤的決策或預(yù)測的一種可理解的解釋“可以幫助人們理解錯誤的原因,并為如何解決該錯誤提供指導(dǎo)。”
同時,對正確決策或預(yù)測的解釋“有助于驗證特定結(jié)論的邏輯,確保因果關(guān)系得到理解,并減輕了對混淆或偏見的潛在懷疑。”
無論哪種情況,“與“黑匣子”相比,放射科醫(yī)生和患者都更容易相信一個能夠解釋其決策(包括其失敗)的模型。”
Kontos和Gastounioti對同一天在同一期刊上發(fā)表的評論結(jié)果進(jìn)行了評論。
由瑞士伯爾尼大學(xué)的毛里西奧·雷耶斯(Mauricio Reyes)和同事們提出的研究結(jié)果是從放射科醫(yī)生對當(dāng)前主題的觀點中得出的,并包括以下三個基本要點:
放射人工智能(AI)系統(tǒng)通常具有許多計算層,這可能使人類難以解釋系統(tǒng)的輸出。
正在開發(fā)可解釋性方法,以便可以通過使用可視化,反例或語義來解釋AI系統(tǒng)。
通過增強(qiáng)其可解釋性,可以更好地驗證,信任并在放射醫(yī)學(xué)實踐中采用AI系統(tǒng)。
2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。