【欧洲时报3月17日申忻编译】近日,十余位爆料者及内部人士透露,多家社交媒体巨头在内部算法研究证实愤怒情绪可显著拉动用户互动后,仍做出相关决策,致使用户信息流中出现更多有害内容。
英国BBC报道,为争夺用户注意力,相关企业在暴力内容、性敲诈、恐怖主义等问题上漠视安全风险。旗下拥有脸书(Facebook)和照片墙(Instagram)的元宇宙平台公司(Meta)一名工程师表示,管理层曾授意他在用户信息流中推送更多处于合规边缘的有害内容,包括厌女言论与阴谋论,以此与抖音海外版(TikTok)展开竞争。该工程师称:“管理层明确告知我们,此举是因公司股价下跌。”
一名抖音海外版员工向BBC罕见提供了该平台用户投诉内部后台数据,同时披露相关证据:平台曾接到指令,在多起涉及儿童有害帖文举报中,优先处理数起关联政治人物的事件。该员工表示,此类决策旨在与政界人士维持良好关系,规避监管或封禁风险,而非出于对用户安全的考量。
这些爆料者直观揭示了社交媒体行业在抖音海外版爆发式增长后的应对举措。抖音海外版凭借高互动性的短视频推荐算法颠覆社交媒体格局,迫使竞争对手仓促追赶。
Meta高级研究员马特·莫蒂尔表示,公司对标TikTok,于2020年在Instagram上推出短视频功能Reels,但并未配备足够的安全防护机制。BBC获取的内部研究数据显示,Reels评论区中的霸凌骚扰、仇恨言论、暴力及煽动性内容,比例远高于Instagram其他板块。
另一位Meta前高管透露,公司为拓展Reels业务配备了700名员工,却拒绝为安全团队增补两名儿童保护专员,也不同意增加10名负责选举信息安全的专业人员。
莫蒂尔向BBC提供了数十份所谓的“高层研究文件”,记录了平台对用户造成的各类伤害。其中一份材料显示,Facebook早已知晓其算法存在问题。一份内部研究指出,该算法为内容创作者提供了一条“以牺牲用户身心健康为代价、实现利润最大化的路径”,而算法当前形成的商业激励机制,与公司“让世界更加紧密相连”的使命并不相符。报告还称,Facebook可以选择不作为,继续向用户投喂快餐式内容,但这种模式难以长久。
针对爆料者的指控,Meta回应称:“任何暗示我们为经济利益故意放大有害内容的说法都是错误的。”TikTok则表示相关指控纯属捏造,并称公司已投入技术力量,从源头阻止有害内容被用户浏览。
(编辑:申恬)