北京時間5月26日上午消息,微軟開發(fā)出一套新工具,用來判斷AI算法是否存在偏見。AI算法可能會歧視某些人群,微軟希望新工具能夠幫助企業(yè)及時發(fā)現(xiàn),安全使用AI。
微軟偏見偵測研究主管里奇·卡魯阿納(Rich Caruana)介紹稱,新工具相當于“儀表板”,工程師可以用它訓(xùn)練AI模型。他還表示,在AI領(lǐng)域,因為經(jīng)驗不足,有些新東西理解的人很少,比如透明度、可理解性、可解釋性;還有隨時可能出現(xiàn)的偏見,這些都是必須重視的元素。
在最近舉行的會議上,哈佛機器學(xué)習(xí)講師、羅德島大學(xué)CIO加布里爾·法耶羅(Gabriele Fariello)曾說,在倫理偏見方面,AI已經(jīng)存在嚴重的問題。他認為,在醫(yī)療保健、司法及其它領(lǐng)域,有些決定由AI做出,它會直接影響我們的生活。
卡魯阿納還說:“好好訓(xùn)練員工,這是企業(yè)眼下應(yīng)該做的最重要事情,這樣員工就能知道在哪些環(huán)境下偏見會增加,在哪些環(huán)境下會顯示出來,員工還能開發(fā)工具,讓模型變得更容易理解,讓偏見更容易被發(fā)現(xiàn)。”(星海)
特別提醒:本網(wǎng)信息來自于互聯(lián)網(wǎng),目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實,對本文以及其中全部或者部分內(nèi)容、文字的真實性、完整性、及時性本站不作任何保證或承諾,并請自行核實相關(guān)內(nèi)容。本站不承擔(dān)此類作品侵權(quán)行為的直接責(zé)任及連帶責(zé)任。如若本網(wǎng)有任何內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系我們,本站將會在24小時內(nèi)處理完畢。