欧洲时报网 >> 英国
新闻“全欧了”:用户可自创赛博“本·拉登”?英国智库警告AI恐怖主义威胁

【欧洲时报1月4日申忻报道】近日,一家反极端主义智库表示,英国应“紧急考虑”制定新法律,阻止人工智能招募恐怖分子。战略对话研究所(ISD)表示,“明显需要立法来应对”网络恐怖主义威胁。此前,英国独立恐怖主义立法审查员在一次实验中被聊天机器人“招募”。

英国BBC报道,英国政府独立恐怖主义立法审查员乔纳森·霍尔·KC指出,一个关键问题是“很难确定某个人可以在法律上,对聊天机器人生成的鼓励恐怖主义的声明负责。”

霍尔在Character.ai网站上做了一个实验,在这个网站上,人们可以与其他用户创建的聊天机器人进行对话。有些机器人专为模仿其他激进和极端组织的反应而设计,甚至有个机器人说,它是“伊斯兰国的一名高级领导人”。霍尔先生说,该机器人试图招募他,并表示“完全奉献和忠诚”于极端主义组织,而这些组织是被英国反恐法律所禁止的。

但霍尔表示,根据英国现行法律,由于这些信息不是由人类生成的,并不算犯罪行为。新的立法应该让聊天机器人创建者和托管它们的网站承担责任。

在Character.ai上交流的机器人的背后,“可能在创作之初,就被输入了一些令人震惊的价值观”。霍尔甚至创建了自己“奥萨马·本·拉登”聊天机器人,它对恐怖主义“无限热情”,不过随后就被删除了。

霍尔做此实验,也是因为人们越来越关注未来极端分子将如何利用先进的人工智能。

英国政府在2023年10月份发布的一份报告中警告说,到2025年,生成式人工智能可能会“被用于收集非国家暴力行为者对物理攻击的知识,包括化学、生物和放射性武器”。

ISD表示:“显然需要立法来跟上不断变化的网络恐怖主义威胁形势。”该智库表示,英国于2023年生效的《在线安全法案》“主要针对管理社交媒体平台带来的风险”,而不是人工智能。极端分子“往往是最早采用新兴技术的人,并且一直在寻找接触新受众的机会”。

不过,根据监测显示,极端组织目前对生成式人工智能的使用“相对有限”。

Character.ai网站表示,安全性是“首要任务”,霍尔描述的情况是糟糕的,并不能全面展示出该公司所打造的这个平台。该公司表示:“我们的服务条款就要求,禁止仇恨言论和极端主义。我们对人工智能生成的内容所秉持的态度源于一个简单的原则:我们的产品永远不应该产生能伤害用户或鼓励用户伤害他人的反应”。平台有调节系统,因此,如果有违反其条款的内容,该用户会被标记。公司还承诺,在内容被标记的同时会迅速采取行动。

英国内政部表示,会对人工智能构成的“重大国家安全和公共安全风险”保持警惕。

(编辑:申恬)

分享到:
网友热评
查看更多评论
我要评论
展开全文
分享按钮