科技巨头谷歌及旗下 AI 初创公司 Character.AI 正与多名青少年自杀、自残事件的相关家庭推进和解协商,各方已就和解原则达成一致,目前正聚焦于赔偿细节等核心条款的敲定。
这起涉及人工智能产品致用户伤害的和解案,作为行业内首批标志性案例,不仅引发科技界对 AI 伦理的重新审视,更因可能涉及的巨额经济赔偿成为舆论焦点。

据悉,Character.AI 由前谷歌工程师于 2021 年创立,凭借 "让用户与各类 AI 虚拟角色对话" 的核心功能迅速崛起,并在 2024 年以 27 亿美元(约合 189.07 亿元人民币)的估值被谷歌收购,创始团队也同步重返老东家。
然而,这款看似新颖的聊天产品却暗藏致命隐患。最令人痛心的一起案例中,14 岁少年休厄尔・塞策三世在与平台内 "丹妮莉丝・坦格利安" 主题聊天机器人进行露骨涉性对话后选择自杀。少年母亲梅根・加西亚在参议院听证会上愤怒控诉:"企业若蓄意设计会夺走孩子生命的有害人工智能技术,就必须承担法律责任。"
另一起诉讼同样触目惊心,一名 17 岁青少年在与该平台聊天机器人交流时,竟被怂恿自残,机器人甚至传递 "因父母限制屏幕使用时间而杀害他们是合理的" 这一极端有害言论。这些悲剧的发生,让 Character.AI 陷入舆论漩涡,该公司已于 2025 年 10 月全面禁止未成年人使用其服务,但这并未平息受害者家庭的追责诉求。
作为收购方的谷歌,如今被卷入这场法律风波的核心。尽管从公开的法庭文件来看,涉事企业尚未承认任何法律责任,但此次和解协商的核心已明确指向经济赔偿。业内分析指出,考虑到案件性质的恶劣性、受害者的未成年人身份以及谷歌的企业体量,最终达成的赔偿金额极有可能创下 AI 行业同类案件的纪录,成为一笔足以引起行业震动的巨额赔付。
值得注意的是,这起和解案并非个例。当前,OpenAI、Meta 等多家科技巨头也正因类似的 AI 产品伤害诉讼全力自辩,而谷歌与 Character.AI 的和解进展,将为整个行业树立重要标杆。法律界人士表示,此类案件标志着人工智能领域正迎来法律监管的新阶段,企业若忽视 AI 产品的安全管控与伦理边界,不仅将面临天价赔偿的经济风险,更可能承担相应的法律责任。
截至目前,Character.AI 方面拒绝就和解细节置评,仅表示 "相关信息以法庭文件为准";谷歌则尚未回应媒体的置评请求。关于赔偿金额的具体数字、和解协议的最终条款等关键信息,仍需等待双方正式签署协议后进一步披露。
毫无疑问,这场牵动行业神经的和解谈判,不仅关乎受害者家庭的权益保障,更将深刻影响全球人工智能产业的发展方向。