正在閱讀:如何防止AI將你認成“大猩猩”?光靠膚白可不行如何防止AI將你認成“大猩猩”?光靠膚白可不行

2018-11-20 00:15 出處:PConline原創 作者:卡夫卡 責任編輯:sunziyi

  【PConline 資訊】各位是否還記得,兩年前谷歌將黑人認成“大猩猩”這個烏龍事件?正因此次事件造成的不良影響,讓Google意識到:與其擔心AI傷人,更嚴重的是AI偏見問題。為了防止AI“胡來”,Google為其制定了七項“道德”準則。

  事情的原委是這樣的,2015年,一位名叫Jacky Alciné的黑人軟體開發人員在推特上透露,Google Photos使用的圖像分類器將一名黑人女性稱為“大猩猩”(Gorillas),引起了軒然大波。事發後,谷歌為此深表歉意,並著手處理這一漏洞。

  不僅如此,谷歌還提出AI技術的開發道德準則,並且成立了專門的機器學習道德部門,對公司的產品和服務進行分析測試,提出改進意見,盡可能避免AI偏見的產生。不光是Google,從IBM到Airbnb,每家公司都在努力確保自己的算法不會出現類似的偏差。

  為此,今年6月,Google首席執行官Sundar Pichai發佈了公司的七項人工智能原則,指導谷歌在這些方面的工作和研究,包括確保Google員工不會製造或加強不公平的AI偏見,並表示AI技術的開發和使用將在未來許多年內對社會產生重大影響:

  •對社會有益
  •避免製造或增強不公平的偏見
  •建造並測試其安全性
  •對民眾負責
  •融入隱私設計原則
  •堅持科學卓越的高標準
  •為符合這些原則的用戶提供

   除了那次不愉快的“大猩猩”事件外,哈佛大學的研究員Latanya Sweeney表示:谷歌搜索中存在種族歧視,當搜索類似黑人名字時,會比搜索類似白人名字更有可能出現與“被逮捕”相關的廣告。這些現象都是我們的部門成立的原因,不應該讓我們的用戶看到這些,我們需要首先阻止這些偏見的產生。

   實際上,對於AI偏見這件事,一份來自皮尤研究中心近期公佈的研究結果顯示:目前美國有58%的成年人認為,人工智能的算法極其程式將會始終包含對人類的偏見,人工智能算出的結果不能保持中立的態度。從受調查者的年齡來看,50歲以上的受訪者中,有63%的人認為算法不中立;18-29歲的受訪者中,也有48%的人認為算法一定會存在偏見。

   如此看來,大眾對AI偏見這件事存有共識。顯然,解決AI偏見光靠Google一家公司還遠遠不夠,需要有更多的公司加入其中。

 
來不及淘寶了 教你3分鐘做出高顏值紅包封 醫院內網染病毒履殺不止 真相竟然是這樣的 出門找個車位真是難 未來用AI即時預判空車位? IPv6終於迎來發展元年 卻擋了SDN的前路? 3D列印的磁性網格機器人長這樣?可抓取小物體

為您推薦

加載更多
加載更多
加載更多
加載更多
加載更多
加載更多
加載更多
加載更多
加載更多

網路設備論壇帖子排行

最高點擊 最高回覆 最新
最新資訊離線隨時看 聊天吐槽贏獎品