全国首例AI「幻觉」侵权案宣判:法律边界在哪里?
工具简介
全国首例AI「幻觉」侵权案宣判:法律边界在哪里?
全国首例AI「幻觉」侵权案宣判:法律边界在哪里?
📂 案件基本信息
案由:网络侵权责任纠纷
原告:梁某
被告:某科技公司(生成式AI平台)
诉讼请求:赔偿 9,999 元(含维权合理支出)
判决结果:驳回原告全部诉讼请求
生效状态:双方均未上诉,判决已生效
这是本案最核心的法律问题,也是后续所有讨论的起点。法院从四个维度给出了严密的论证:
人工智能不具有民事主体资格,不能作为意思表示的传达人、代理人或代表人。这是现行民事法律体系的根本前提。
被告(科技公司)并无通过该AI模型这一工具来设定或传达其意思表示的行为,即不存在以AI为媒介设立法律关系的主观意图。
一般社会观念、交易习惯等尚不足以使原告对该随机生成的"承诺"产生合理信赖。一个理性人应当知道AI随机生成的赔偿条款并非真实的合同邀约。
无证据表明被告曾作出愿受人工智能生成内容约束的外在表示,平台从未以任何形式确认或追认AI的赔偿承诺。
本案的判决逻辑非常清晰:AI生成的内容 ≠ AI的意思表示 ≠ 平台的意思表示。这三个等号,在现行法律框架下均不成立。
原告曾主张类比产品责任(无过错责任),认为AI平台应当对AI生成的所有内容承担严格责任。这一主张被法院明确驳回。
① 生成式AI服务缺乏具体、特定的用途与合理可行的质检标准
② AI生成内容具有随机性和不确定性,服务提供者难以完全预见和控制
③ 现阶段技术条件下,"零幻觉"尚不可能实现
④ 强制施加无过错责任将严重阻碍AI产业的健康发展
最终,法院依据《民法典》第1165条第1款(过错责任原则)的一般规定,认定原告须就被告存在过错承担举证责任。
在AI侵权纠纷中,用户(原告)须证明服务提供者存在过错,而非平台自证无过错。这对用户的举证能力提出了较高要求。
法院认定被告不构成过错,是因为其履行了三层注意义务:
在欢迎页、用户协议等显著位置,明确提示AI内容可能不准确,用户不应将其作为唯一决策依据。
采用检索增强生成(RAG)技术,在一定程度上提升生成内容的准确性与可溯源性。
依据《生成式人工智能服务管理暂行办法》等相关规定,建立内容治理体系。
这三层的逻辑是:提示风险 → 技术降险 → 制度控险,构成了一套相对完整的合规闭环。
判决的另一大亮点是法院对平台义务的类型化区分:
对于明显违法、有害的内容,平台须承担严格的内容审查义务,不可放任传播。
"幻觉"是当前生成式AI的技术局限,难以完全消除。平台义务聚焦于:提示风险 + 合理防错,而非保证"零错误"。
这一区分的法律意义在于:不同风险类型 → 不同义务标准 → 不同归责路径。不能因为AI在专业领域犯错,就简单适用最严格的归责标准。
本案虽为"首例",但其确立的裁判逻辑将对未来AI相关纠纷产生深远影响:
本案确立了一个重要的裁判逻辑:在现行法律框架下,AI是工具而非主体,AI的"承诺"不能直接绑定平台责任。
但这并不意味着平台可以完全免责。判决同时明确,平台须对"幻觉"承担合理注意义务——通过提示、技术、合规三位一体的方式,将AI错误的风险控制在合理范围内。
对于每一个依赖AI辅助决策的人而言,本案最朴素的教训是:AI会撒谎,而且会自信地撒谎。 在医疗、法律、教育等关键领域,交叉验证信息来源,仍然是使用AI的必备素养。
随着AI技术的演进和立法、监管的完善,这一法律边界还将继续发生变化。但至少在今天,我们有了第一个可供参考的坐标。
数据来源:杭州互联网法院判决 / 最高人民法院 / 央视新闻