【欧洲时报11月4日李璟桐编译】人工智能(AI)聊天机器人ChatGPT在欧洲迅速普及,但欧盟监管机构却迟迟未能就如何将其纳入现有数字法律框架达成一致。
美国政治新闻网欧洲版(Politico.eu)报道,尽管欧盟自2024年初起已实施具有约束力的《数字服务法》(DSA),旨在要求大型平台降低系统性风险,但面对ChatGPT这类新型AI产品,监管步伐明显滞后。据欧盟委员会高级官员透露,相关决定最早也要等到2026年中才能出台。
这一拖延凸显出欧盟数字立法在应对快速发展的生成式AI技术时的结构性挑战。《数字服务法》在ChatGPT尚未进入主流视野前就已制定完成,其对“大型在线平台”和“搜索引擎”的定义并未充分涵盖AI聊天机器人。如今,随着ChatGPT月活跃用户突破1.2亿,远超DSA设定的4500万门槛,监管压力骤增。
目前,ChatGPT已受欧盟《人工智能法案》(AI Act)约束。自今年8月起,OpenAI必须对其系统进行风险评估并采取缓解措施,否则将面临最高1500万欧元的罚款。但若被正式纳入DSA监管范畴,罚款额度可能飙升至其全球年营业额的6%。
关键争议在于:欧盟应如何界定ChatGPT的法律身份?是仅将其“搜索功能”视为搜索引擎,还是将整个聊天机器人服务视为大型在线平台?
布鲁塞尔自由大学AI治理专家约里斯·范霍博肯表示:“核心问题在于监管范围的划定。”若仅覆盖搜索功能,OpenAI或可免于承担“通知—行动”机制义务,即无需建立用户举报内容下架的流程;若整体纳入,则需提交更全面的风险评估报告,涵盖推荐系统、算法设计等多方面内容。
一旦2026年中作出正式指定,OpenAI最早将在2026年第四季度全面承担DSA义务。但该公司也可能效仿Meta、X(原推特)等平台,对监管决定提出异议,从而进一步拖延进程。
而更复杂的挑战在于《人工智能法案》与《数字服务法》之间的协调问题。阿姆斯特丹大学信息法副教授若昂·佩德罗·金泰斯指出,这两部法律虽设计为互补,但主要针对的是像谷歌那样将AI功能嵌入现有服务的公司,而非OpenAI这类“垂直整合”的纯AI提供商。两法采用不同的风险分类体系:《AI法案》将AI系统分为不可接受、高、有限或最低风险四类;而DSA则聚焦四大“系统性风险”——公民诚信、选举安全、公共健康及基本权利。
这种错位可能导致监管盲区。例如,涉及虚假信息和深度伪造的内容风险,可能由DSA主导监管;而ChatGPT用于招聘等场景的偏见问题,则仍归《AI法案》管辖。此外,OpenAI还可能援引“避风港原则”——即平台对用户生成内容不承担直接责任——以减轻部分法律责任。
专家警告,若欧盟不能及时厘清监管边界,不仅可能削弱法律效力,还可能让AI风险在制度缝隙中蔓延。正如一位欧盟官员所言:“ChatGPT已成为检验欧盟能否有效治理大型语言模型的关键试金石。”在技术狂奔的时代,监管的“慢半拍”或许可以理解,但若长期滞后,恐将危及公众信任与数字市场的公平秩序。
(编辑:李十)