欧洲时报网 >> 英国
iPhone在英国上线新功能 儿童收发裸照将自动打码

【欧洲时报4月21日刘涛编译】英国的iPhone手机将上线一项确保儿童安全的新功能,允许家长对孩子的手机进行设置,当孩子收到包含裸体的图片时会自动进行模糊处理。

英国《卫报》报道,这项新功能允许父母在iPhone手机上设置一种警报,利用人工智能技术扫描儿童收发的信息,当警报开启时,一旦儿童收到的图片中含有裸体内容,将进行模糊处理,同时儿童将被警告可能包含敏感信息,可疑图片将被推动到儿童安全组织的资源库。

如果在儿童自己发送的图片中发现裸体内容,类似的保护措施同样会生效,同时儿童将被鼓励不要发送此类图片。

对于这项功能涉及到的隐私问题,苹果公司表示,所有扫描都是在“设备上”进行的,这意味着图像是由iPhone手机自己分析,苹果公司并不会看到被分析的图片和分析的结果。

该公司还表示,该功能的设计目的就是让检测裸体的过程局限在设备上。苹果公司无法访问这些信息,也不会向家长或其他任何人发送通知。

在新功能发布之前,苹果公司还删除了几项有争议的功能。在最初宣布的方案中,该公司表示,如果13岁以下的儿童发送或收到此类图片,父母将会收到自动提醒,但在最终版本中,提醒功能被删除。

同时,该公司还推出了一项搜索干预措施,对在Spotlight、Siri或Safari中搜索与虐待儿童有关的内容时进行干预。

去年夏季,苹果公司宣布将在今年推出三项新功能,除了上述儿童通信安全和搜索干预功能之外,第三项功能是在图片上传到iCloud之前进行扫描,并报告任何与已知的儿童性虐待图像匹配的图片,但这项功能因极具争议被推迟。

(编辑:文耕)

分享到:
网友热评
查看更多评论
我要评论
展开全文
分享到: