【欧洲时报7月11日李非编译】在人们对Grok或ChatGPT等生成式人工智能模型的负面影响感到担忧之际,欧盟委员会10日采取了最新限制举措,发布了一套自愿性规则,指导人工智能企业如何遵守新的欧盟法律。
美国政治新闻网欧洲版(Politico.eu)报道,OpenAI、谷歌、Meta和其他公司必须在未来几天和几周内决定,是签署该规则,以确保符合严格的《人工智能法》,还是拒绝签署,并面临欧盟委员会更严格的审查。
尽管Meta和谷歌等公司抨击了之前的规则版本,并试图淡化其内容,但最终的版本显然给寻求制定一套强有力规则的欧洲议会议员和民间社会团体带来了胜利。
这让企业陷入了两难境地。新的欧盟法律将要求他们从8月2日起记录用于训练模型的数据,并解决最严重的人工智能风险。
欧盟委员会发言人托马斯·雷尼耶10日表示,签署新规的公司将“受益于更多的法律确定性,并减少行政负担”。
当日,法国人工智能公司Mistral成为第一家宣布将签署规则的公司。
该规则是欧盟于2024年8月生效的《人工智能法》的延伸。13位专家聚焦三个领域:人工智能公司需要向监管机构和使用其模型的客户展示透明度;企业将如何遵守欧盟版权法;企业计划如何应对人工智能最严重的风险。
业界一再强调,该指导规则不应超出《人工智能法》的大方向,而活动人士则抱怨称,在激烈的行业游说下,这些规则有被淡化的风险。
但在10日提交的最终文本中,欧盟委员会的专家明确提及了“对基本权利的风险”——这是企业被要求考虑的风险清单中的一项。
公开透明度问题也得到了解决:规则文本称,企业在将模型投放市场之前,必须向监管机构提交报告,并“发布摘要版本”。
大型科技游说团体CCIA持严厉的批评态度,称该法规“仍然给人工智能提供商带来了不成比例的负担”,认为“如果没有有意义的改善,签署企业与非签署企业相比仍处于劣势”。
围绕欧盟人工智能法规和指导规则起草过程的恶劣气氛,可能会影响科技公司对如何应对的考虑。
曾为Meta说客的芬兰欧洲议会议员奥拉·萨拉10日表示:“到目前为止,该准则的制定过程还没有得到很好的管理。”
13位专家在9个月的时间里共起草了4份草案,这一过程吸引了1000多名参与者,并在多次全体会议和四个工作组中进行了讨论。雷尼耶称赞这一过程是“包容的”,但行业和民间社会团体都觉得欧盟没有听取他们的意见。
此外,美国科技公司还对欧盟在人工智能监管其他方面的做法表示批评。
CCIA等科技游说团体率先呼吁暂停欧盟《人工智能法》中尚未实施的部分——具体而言,是针对部署高风险人工智能系统的公司所承担的义务,这些义务将于明年生效。
(编辑:木子)
