【本报讯】法国政府日前在Depeche Mode音乐会上测试了将在奥运会期间部署的人工智能(AI)驱动的视频监控技术,并称此次演习取得了成功。当局表示,这项技术对于阻止类似1996年亚特兰大奥运会爆炸案或2016年尼斯卡车袭击等袭击事件可能至关重要。但人权活动人士警告说,这项技术对公民自由构成威胁。
据路透社报道,法国计划利用人工智能保障奥运会的安全。2023年的一项立法允许在奥运会期间试用人工智能视频监控,以检测大型活动中的异常事件或行为。
Videtics、Orange Business、ChapsVision和Wintics这四家公司开发了人工智能软件,使用算法分析来自现有视频监控系统的视频流,以帮助识别公共场所的潜在威胁。这些算法经过训练可以检测预先确定的“事件”和异常行为,并相应地发送警报。然后,负责人员决定警报是否真实以及是否采取行动。
法律允许人工智能监控软件在奥运会期间标记八种不同的“事件”,其中包括:人群激增;人群异常拥挤;废弃的物品;存在或使用武器;地面上的某一个人;发生火灾;违反交通方向规则。在这些类别中,可以手动设置特定阈值(人数、车辆类型、时间等),以满足每个单独的事件、位置或威胁。国家和市镇警察、消防员、公共交通安全人员都将可以使用人工智能监控。
由Wintics开发、并在Depeche Mode音乐会上进行测试的软件将部署在巴黎地区和公共交通上。
巴黎警察局长努涅斯称这次预演基本上是成功的。
巴黎奥运会中会使用面部识别吗?这一问题引发了激烈争议。
法国官方称不会使用,因为新法律继续禁止大多数情况下的面部识别,当局表示这是一条不容逾越的红线。
Wintics联合创始人马蒂亚斯·霍利尔(Matthias Houllier)也表示,他们的软件算法并未经过面部识别训练。
尽管如此,人权活动人士担心,局势蔓延的风险会随之而来。
关于隐私将如何受到保护?法国内政部成立了一个评估委员会,在整个试验期间密切关注公民自由。该委员会由最高行政法院的一名高级法官领导,成员还包括隐私监管机构CNIL的负责人、四名议员和一名市长。
(编辑:冬雨)
