IBM宣布,隨著人們對人臉識別技術的影響越來越關注,他們將不再開發(fā)相關人臉識別技術與功能。
在給國會的一封信中,IBM首席執(zhí)行官Arvind Krishna寫道:
“基于價值觀和信任與透明度原則。IBM堅決反對并且不會容忍將任何[面部識別]技術(包括其他供應商提供的面部識別技術)用于大規(guī)模監(jiān)視、種族歧視、侵犯基本人權和自由或與我們的目的不符的任何目的。
我們認為現(xiàn)在是時候開始關于國內執(zhí)法機構是否應該使用面部識別技術以及如何使用面部識別技術的全國性對話。”
當前,已經發(fā)現(xiàn)面部識別技術具有種族偏見。 NIST和德克薩斯大學達拉斯分校的研究人員在2010年進行的一項研究發(fā)現(xiàn),在東亞設計和測試的算法在識別東亞人方面更好,而在西方國家設計的算法在發(fā)現(xiàn)高加索人方面更準確。
美國公民自由聯(lián)盟的研究發(fā)現(xiàn),當使用亞馬遜的面部識別工具將眾議院和參議院所有成員的照片與25000張逮捕照片進行比較時,匹配對國會黑人核心小組成員的影響不成比例。
上個月,美國公民自由聯(lián)盟(ACLU)對備受爭議的面部識別公司Clearview AI提起訴訟,稱其為隱私的“噩夢”。該公司與極右翼有廣泛的聯(lián)系,由于其從互聯(lián)網上抓取數(shù)十億張照片的做法,屢屢遭到抨擊。
在英國,平等與人權委員會(EHRC)呼吁在試驗完全失敗之后,停止公開使用面部識別。大都會警察在2016年的諾丁山狂歡節(jié)上進行了初步審判,結果沒有發(fā)現(xiàn)一個人。次年的后續(xù)試驗未導致合法比賽,但有35次誤報。
Peter Fussey教授和Daragh Murray博士去年就大都會警察的面部識別試驗發(fā)表了一份獨立報告,得出的結論是,僅在19%的案件中,報告是可驗證的。
IBM已明確表示,它與開發(fā)任何可用于大規(guī)模監(jiān)視的技術無關,尤其是當它繼續(xù)存在嚴重的準確性問題(可能導致自動種族特征分析)時??死锵<{呼吁進行更廣泛的政策改革,包括維持治安、負責任地使用技術以及擴大技能和教育機會。
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )