日韩av丝袜制服在线观看|久久人妻人人澡人人爽人人精品|蜜臀av一区二区三区蜜乳|丰满少妇人妻久久久久久动漫|亚洲精品区免费观看av

為什么說人工智能易造成偏見?微軟研究院這樣說

2017-03-16 14:25:22分類:行業(yè)資訊5078

【 3月16日消息】當(dāng)前,行內(nèi)每家公司都期待著在人工智能上有大發(fā)展。從谷歌到微軟,再到蘋果,再到三星,人工智能幾乎是智能手機(jī)領(lǐng)域的熱門詞匯。

但隨著這些系統(tǒng)變得更強(qiáng)大,功能更多,有必要確保它們不會被利用來針對特定人群。在美國德克薩斯州的西南偏南音樂節(jié)(SXSW)上,微軟研究院的凱特克勞福德(Kate Crawford )向我們展示了她在人工智能領(lǐng)域的觀點(diǎn),認(rèn)為這些龐大的數(shù)據(jù)系統(tǒng)在沒有任何責(zé)任的情況會出現(xiàn)片面的執(zhí)行。

衛(wèi)報(bào)報(bào)道了這位研究人員對人工智能的看法,暗示了人工智能系統(tǒng)的廣泛使用會引發(fā)極端主義。然而,并不是這些系統(tǒng)的使用本身,而是說人類的偏見會被以編碼的方式融入其中,從而導(dǎo)致這些功能被錯誤之人所濫用。

該研究的發(fā)起人是一個專注于人工智能社會影響的研究社區(qū)。該研究人員列舉了一個簡單的例子,此前有相關(guān)的人工智能研究稱可以根據(jù)某人的面部特征來預(yù)測犯罪行為。他們是怎么做到的?該系統(tǒng)通過照片來分析罪犯和非罪犯的面部特征,以預(yù)測是否會有犯罪行為。相關(guān)研究人員聲稱該系統(tǒng)沒有任何偏見。

Crawford說:“一貫而言,當(dāng)機(jī)器學(xué)習(xí)系統(tǒng)通過人為數(shù)據(jù)進(jìn)行訓(xùn)練時(shí),我們通常認(rèn)為機(jī)器學(xué)習(xí)系統(tǒng)沒有偏見。”“但我們的偏見是建立在樣本數(shù)據(jù)的基礎(chǔ)之上的。”

在西南偏南音樂節(jié)上,她解釋了這一觀點(diǎn)??藙诟5逻€暗示,社交媒體網(wǎng)站是如何變成開放注冊的。她指出,來自劍橋大學(xué)的研究可以根據(jù)用戶在Facebook上的喜好來預(yù)測其宗教信仰。研究人員在識別基督徒和穆斯林等用戶信仰中,正確率達(dá)到了82%,同時(shí)在篩選民主黨人和共和黨人時(shí)也能達(dá)到同樣效果。

這項(xiàng)研究并不是新研究,而是在2013年進(jìn)行的。自此以后,人工智能就取得了巨大的進(jìn)步。

上一篇:下一篇: