圖片說明: 圖為,設置在巴西機場的人臉識別技術設施。
基本權利憲章、GDPR、執法指南(LED)等嚴格的規定 第二階段對”高危險AI系統”基礎技術的限制是核心 信息通訊企劃評價院集中關注歐盟的人臉識別技術規制 在中國和印度為首的世界各國,人臉識別技術現在已經成為了必不可少的社會手段。 在國內,以金融界為中心,停車廣泛地生活化。
但是,從認識個人情況並進行監視和追蹤這一點來看,世界各國對此的法律、制度上的限制也在積極進行。 對此,一直最積極應對AI副作用的歐盟最為積極。 另外,美國和中國也在摸索或實施限制政策。 這在面臨人臉識別技術大眾化的國內也作為標杆管理物件備受關注。 “歐洲評議會”去年7月制定了以各國政府、面部識別開發者、製造企業、服務提供者及使用該技術的團體為物件的面部識別相關限制方針。 信息通訊企劃評價院數字經濟研究室副研究委員安明玉(音)最近通過Insight表示:「歐盟認為,特別是人臉識別技術可能會導致數據保護、個人信息保護、偏向性及差別性、大規模監視和基本權利侵害等各種問題」,「正在牽引企業的自淨努力和各國政府的規制動向」 據安副研究委員的研究結果顯示,特別是普通的歐盟(EU)市民,對人臉識別技術需要慎重對待。 即,他回答說:”人的自動識別及追蹤可能性對市民的社會、心理行為的影響很大,因此有必要制定正確的規制體系,以解決因使用這種技術而提出的倫理問題。
” 對此,歐盟在相關的基本權利憲章(CFR)、一般個人資訊保護法(GDPR)、執法指南(LED)中適用嚴格的規定。 首先,以△AI為基礎的面部識別系統運營者為了減少演算法差異性,應該制定適當的技術措施。 △監管當局還規定,經營者應繼續努力加強和擴大”非歧視框架”,以免繞過隱私保護及禁止歧視的根本依據。 與此同時,「歐盟執行委員會」去年4月發表了限制在高危險領域使用人工智慧的AI限制法案,限制了包括人臉識別技術在內的生物識別系統的使用。 特別是,如果說歐盟從2018年5月25日開始實施的普通個人信息保護法(GDPR)是資訊保護相關的普通法,”AI限制法案”是限制人臉識別技術及其他高危險AI應用程式使用的特別法。
歐盟為了在數位領域保護個人資訊,實行了GDPR,包括對人臉識別數據等生物識別資訊的部分保護功能。 “但是劇增的人臉識別技術。 安副研究委員分析說:「為了限制使用,制定了AI限制法案,正在限制高危險AI應用程式的使用。 據此,除預防恐怖攻擊、尋找失蹤兒童、其他公共保安、應對緊急情況等外,執法機關禁止使用人臉識別技術及即時遠端生物識別系統。 特別是「谷歌、微軟、百度、騰訊等全球大型科技企業要想與歐洲消費者及企業進行交易,必須遵守新的規定」,”據悉,如果不遵守這些禁止措施或數據要求條件,將採取最多罰款3千萬歐元或上一年度企業總銷售額的6%等限制措施” 安委員還指出:”歐盟的AI限制法案的特點是採取以危險為基礎的接近方式(risk-based approach)”,” 將AI系統分為4個階段,可信度高,以人為本的AI引領革新和經濟增長作為核心目標。 據此,在AI限制法案中,政府對第二階段的”高危險AI系統”的限制是核心。 多數人臉識別技術被禁止或被視為必須遵守嚴格要求的高危險系統。
因此,歐盟成員國表示:”由於公共安全上的重要原因,可以選擇批准,如果不給予適當的司法或行政批准,就禁止以執法為目的公開接近的空間內即時使用人臉識別系統。” 但是允許用於執法以外的目的的廣泛的人臉識別技術。 例如,國境管制、市場、大眾交通、學校等在進入歐盟市場之前,以適當性評價及遵守安全性要求為條件被允許。 另外,他解釋說:”以分類為目的使用的面部識別系統被視為低風險系統,只適用有限的透明性和資訊要求事項。” 與此同時,歐洲議會去年10月通過了禁止員警在公共場所使用人臉識別技術或積累個人人臉識別資料庫的決議案。 在這種情況下,政策制定者為控制人臉識別系統的使用,制定了法律規定等,正在加速進行限制。
另一方面,安委員根據歐盟的AI規制,提出了「面部識別系統規制」的劇本《表》。 首先,原則上禁止在△以執法為目的的可接近的公開空間內即時或遠端使用人臉識別系統。 這是基於不可容忍的危險度AI技術。 但是,對於特定例外,允許以「高危險」水準的AI技術為基礎的人臉識別技術。 即搜索犯罪受害者、生命、身體完整性、對恐怖主義的威脅、重罪(EU逮捕令)等。 但是這種情況也需要事先得到司法機關或獨立行政機關的批准。 另外,△其他人臉識別(即時或事後識別系統)技術允許達到「高危險」AI水準。 但條件是滿足上市前的要求,事前適合性評價(本身或第三方)、事後市場監視及監督。 此外,以△分類為目的的人臉識別系統僅限於”低危險”水準的AI技術。 只是透明性和資訊保護作為條件。(文.金洪基)