您的位置: 首頁 >科技 >

谷歌希望確保人工智能的進步不會讓任何人掉隊

2019-05-23 15:26:48 編輯: 來源:
導讀 對于人工智能承諾的每一個令人興奮的機會,其潛在的缺點是其暗淡的鏡像。我們希望人工智能能夠讓我們做出更明智的決策,但如果它最終會加劇

對于人工智能承諾的每一個令人興奮的機會,其潛在的缺點是其暗淡的鏡像。我們希望人工智能能夠讓我們做出更明智的決策,但如果它最終會加劇社會的偏見呢?我們夢想技術可以讓我們從工作中解脫出來,但是如果只有富人的利益,而窮人被剝奪了呢?

像這樣的問題讓人工智能研究人員在晚上工作起來,這也是谷歌今天推出人工智能倡議以解決其中一些問題的原因。新項目名為PAIR(它代表“People + AI Research”),其目的是“研究和重新設計人們與AI系統(tǒng)交互的方式”,并嘗試確保該技術“使每個人受益并賦予權力”。

這是一個廣泛的職權范圍,也是一個雄心勃勃的職權范圍。谷歌表示,PAIR將研究影響人工智能供應鏈中每個人的許多不同問題 - 從編碼算法的研究人員到使用專業(yè)人工智能工具(或很快將)使用專業(yè)人工智能工具的醫(yī)生和農(nóng)民等專業(yè)人士。這家科技巨頭表示,它希望人工智能用戶友好,這意味著不僅要讓技術易于理解(讓人工智能解釋自己是一個已知且具有挑戰(zhàn)性的問題),而且還要確保它能夠平等地對待用戶。

人們一次又一次地注意到,社會的偏見和不平等往往在人工智能中變得難以編碼。這可能意味著面部識別軟件無法識別黑皮膚的用戶,或者語言處理程序認為醫(yī)生總是男性,護士總是女性。

通常這種問題是由人工智能訓練的數(shù)據(jù)引起的。它所具有的信息不完整,或者它以某種方式受到偏見。這就是為什么PAIR的第一個真正新聞是宣布兩個新的開源工具 - 名為Facets Overview和Facets Dive--這使得程序員更容易檢查數(shù)據(jù)集。

在上面的屏幕截圖中,F(xiàn)acets Dive用于測試面部識別系統(tǒng)。該計劃按照原產(chǎn)國對測試人員進行排序,并將錯誤與成功識別進行比較。這允許編碼人員快速查看他們的數(shù)據(jù)集不足之處,并進行相關調(diào)整。

目前,PAIR有12名全職員工??紤]到問題的嚴重程度,這是一個小小的數(shù)字,但谷歌表示,PAIR實際上是一項全公司計劃 - 將從該公司的各個部門吸取專業(yè)知識。

像Facets這樣的更多開源工具將在未來發(fā)布,谷歌也將設立新的資助和駐留,以贊助相關的研究。它并不是唯一認真對待這些問題的大型組織(參見:人工智能基金的倫理與治理以及Elon Musk資助的OpenAI),但很高興看到Google加入爭取更公平未來的斗爭。


免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網(wǎng) 版權歸原作者所有。