人臉識別再遇“緊箍咒”。當地時間10月6日,歐洲議會以377票贊成、248票反對、62票棄權的結果通過決議,要求執法機構在使用人工智能工具時,要采取強有力的保障措施,比如禁止警方在公共場所或邊境檢查中實行大規模人臉識別,禁止使用私域人臉識別數據庫以及根據行為特征進行預測性監管等。
實際上,包括人臉識別在內的人工智能工具在警務活動中已經被應用了很長的時間。不過,直到近年來,其風險才被廣泛重視,比如AI存在對少數民族、LGBT人群、老年人和女性的歧視等。歐洲議會許多議員認為,將存在算法偏見的AI技術大規模應用于執法領域,所帶來的損害公民基本權利的風險,遠遠超過AI給破案帶來的便利。因此,需要對其進行嚴格限制。
禁止用AI大規模監測人群,“不能假設所有人都危險”
這份決議主要是針對的是警察和司法機關在犯罪問題上對AI的使用。據歐洲議會官網消息,該決議主要內容可以總結為三項:第一,人工智能系統應該處在人類監督之下,算法應該是開放的;第二,禁止使用私域人臉識別數據庫,基于行為數據進行預測性監管和公民評分;第三,
生物識別不能被用于邊境控制和公共空間。
歐洲議會表示,該決議的出發點是為打擊歧視以及確保隱私權。“人工智能在執法領域的應用提供了巨大機遇,特別是能夠有效打擊金融犯罪如洗錢、恐怖主義融資,以及網絡犯罪如虐待兒童等,有助于歐盟公民的安全保障。但同時,數據顯示AI識別對少數民族、LGBT人群、老年人和女性的誤識率更高,這可能對人們的基本權利構成重大風險。”該決議認為,鑒于AI在可靠性和準確性方面仍然存疑,任何以大規模監測為目的的AI全面應用,其風險和效果是不成比例的,也因此,在執法領域,對AI的使用必須始終保持人的責任,并首先以避免造成任何有害影響為目標。
該決議強調,當個人過度相信人工智能工具表面上客觀和科學的性質,而沒有考慮其結果不正確、不完整、無關或歧視性的可能性時,可能會產生嚴重的負面后果。因此,算法應該是透明的、可追溯的,并有充分的文件記錄。而執法和司法機關應避免過度依賴人工智能系統提供的結果,并建立信心和知識,以質疑或推翻算法建議。
此外,該決議還反對執法機構利用人工智能,根據歷史數據和過去的行為、群體成員、位置或任何其他此類特征,對個人或群體進行行為預測,從而試圖識別可能犯罪的人,并呼吁永久禁止在公共場所進行生物識別,如步態、指紋、DNA、聲音等特征和信號。
也就是說,該決議認為警察可以在確定嫌疑人目標的情況下,利用AI工具對嫌疑人進行追蹤;但不能在嫌疑人未知時,用生物識別等AI手段對人群進行大規模監測,去尋找誰是嫌疑人,或者基于行為數據,預測“誰接下來可能會犯罪”?!爱斁衷诜缸锇l生后做出反應,而不是假設所有人都是危險的。”
這一決議的影響還可能延伸至非歐盟國家。決議中強調,歐盟司法合作執行機構在處理其他國家的引渡請求時,有必要評估請求國使用人工智能工具“是否可能明顯損害嫌疑人獲得公平審判的基本權利”。
值得一提的是,決議條文中多使用的是呼吁、鼓勵、強調等詞匯,其實際效力如何仍有待觀察。
AI在警務活動中已被長期應用,存在算法歧視現象
實際上,包括人臉識別在內的人工智能工具在警務活動中已經被應用了很長的時間,不過,直到近年來,其風險才被廣泛重視。
據報道,早在本世紀初,美國佛羅里達州皮尼拉斯縣警察局就開始使用人臉識別來破案,現在,該系統已經能夠訪問3000多萬張圖像。
2017年,英國南威爾士警方啟動了一項人臉識別試驗計劃,在當年6月舉行的歐冠決賽上,警方將觀眾與已有的50萬張人臉圖的數據庫進行比對標識,結果系統共發出2470次警報,其中有2297次錯誤,173次正確,錯誤率高達92%。經過改進,南威爾士警方又在兩次大型體育比賽中進行試驗,最終將錯誤率降至87.5%。
盡管如此,在接下來的三年內,南威爾士警方仍在轄區內多地部署了人臉識別設備。該設備掃描路人的人臉并提取生物特征數據,再通過后臺數據庫比對來發現通緝犯等可疑人員。
近兩年來,美國也已有至少三起訴訟,起因于警方使用人臉識別技術卻抓錯了人。第一起案例的當事人是來自底特律的羅伯特?威廉姆斯,底特律警方曾指控他犯有盜竊罪,將他拘留了30個小時。第二起案例當事人叫邁克爾?奧利弗,他同樣來自底特律,因被人臉識別判定涉嫌盜竊罪被關了十天半。第三起案例當事人名為尼爾?帕克斯,他被40公里之外的伍德布里奇市警方認定為一起盜竊案的嫌疑人,拘留十天。然而,帕克斯表示自己有不在場證明,且他的指紋、DNA等信息與犯罪現場的信息并不匹配。
上述三起案例的當事人,均為黑人。算法出現的歧視問題,已經引起人們的注意。
麻省理工學院和美國國家標準與技術研究院(NIST)的研究顯示,因為缺乏多元化的基礎數據庫,美國的許多人臉識別技術對有色人種的識別準確度較差。實際生活中,也發生了多起黑人遭遇算法歧視事件。此前,南都就曾報道Twitter的圖像剪裁算法,會傾向于裁掉更多的黑人或女性;Facebook的自動推薦算法,也出現把黑人識別為“靈長類動物”的情況。
此次歐洲議會通過限制執法機構使用人工智能的決議,核心基礎之一就是AI存在對少數民族、LGBT人群、老年人和女性的歧視。許多議員們認為,將存在算法偏見的AI技術大規模應用于執法領域,所帶來的損害公民基本權利的風險,遠遠超過AI給破案帶來的便利。因此,需要對其進行嚴格限制。
已有多地出臺法規,對生物識別技術等進行監管。在美國,波特蘭、奧克蘭、舊金山、波士頓等城市都已禁止政府使用人臉識別技術。今年7月,紐約也出臺法規,要求收集生物識別信息(如面部和指紋)的企業必須在門口張貼顯眼的標識,向顧客說明企業正在收集顧客的生物識別信息,并禁止企業出售或交易生物識別信息。不過,該法規對包括警方在內的政府機構不適用。
歐盟對生物識別的監管更為嚴厲。今年4 月,歐盟提出一項旨在加強人工智能行業監管的草案,將人臉識別等遠距離生物識別系統認定為“高風險”,并“原則上禁止”執法部門在公共場合使用這一技術,除非發生兒童失蹤、恐怖襲擊、甄別犯罪分子等情況。
在我國,對于人臉識別等人工智能技術的監管也日趨嚴格。8月20日立法通過的《個人信息保護法》就明確規定:在公共場所安裝圖像采集、個人身份識別設備,應當為維護公共安全所必需,遵守國家有關規定,并設置顯著的提示標識。所收集的個人圖像、身份識別信息只能用于維護公共安全的目的,不得用于其他目的;取得個人單獨同意的除外。