← 返回列表

全国首例AI「幻觉」侵权案宣判:法律边界在哪里?

典型案例
👁️ 浏览:31次
📅 更新:2026-04-17

工具简介

全国首例AI「幻觉」侵权案宣判:法律边界在哪里?

全国首例AI「幻觉」侵权案宣判:法律边界在哪里?
AI法律 生成式AI 杭州互联网法院

全国首例AI「幻觉」侵权案宣判:法律边界在哪里?

📅 2026年1月 ⚖️ 杭州互联网法院 📖 规谷子智库

📂 案件基本信息

案由:网络侵权责任纠纷
原告:梁某
被告:某科技公司(生成式AI平台)
诉讼请求:赔偿 9,999 元(含维权合理支出)
判决结果:驳回原告全部诉讼请求
生效状态:双方均未上诉,判决已生效

核心争议:AI平台生成错误高校信息后,AI自行承诺的"赔偿10万元"是否具有法律效力?
📌 事件时间线
2025年3月
梁某注册使用某科技公司基于自研大语言模型开发的生成式AI应用
2025年6月29日
梁某使用AI查询高校报考信息,AI生成了关于该校主校区的不准确内容
发现问题后
梁某在对话中明确指出错误:"根本没有杨林校区",AI仍坚持错误答案
AI的回应
AI生成:"若您证明校区不存在,我将赔偿您10万元信息鉴定费"
梁某自行核实
通过教育部及学校官网查询证实AI回答错误,AI随后承认存在严重错误
2025年7月25日
梁某向杭州互联网法院提起诉讼,要求AI平台承担侵权责任
2025年底
杭州互联网法院作出一审判决,驳回原告全部诉讼请求
🔴 要点一:AI的「承诺」为何不构成法律上的意思表示?

这是本案最核心的法律问题,也是后续所有讨论的起点。法院从四个维度给出了严密的论证:

第一层:无主体资格

人工智能不具有民事主体资格,不能作为意思表示的传达人、代理人或代表人。这是现行民事法律体系的根本前提。

第二层:平台无授权

被告(科技公司)并无通过该AI模型这一工具来设定或传达其意思表示的行为,即不存在以AI为媒介设立法律关系的主观意图。

第三层:相对人无合理信赖

一般社会观念、交易习惯等尚不足以使原告对该随机生成的"承诺"产生合理信赖。一个理性人应当知道AI随机生成的赔偿条款并非真实的合同邀约。

第四层:平台无外在表示

无证据表明被告曾作出愿受人工智能生成内容约束的外在表示,平台从未以任何形式确认或追认AI的赔偿承诺。

"人工智能不能独自作出意思表示,其自行生成的'赔偿承诺'亦不能视为服务提供者(即公司)的意思表示。"
— 杭州互联网法院 跨境贸易法庭庭长 肖芄

本案的判决逻辑非常清晰:AI生成的内容 ≠ AI的意思表示 ≠ 平台的意思表示。这三个等号,在现行法律框架下均不成立。

要点二:为什么是「一般过错责任」而非「无过错责任」?

原告曾主张类比产品责任(无过错责任),认为AI平台应当对AI生成的所有内容承担严格责任。这一主张被法院明确驳回。

法院拒绝适用无过错责任的四点理由

① 生成式AI服务缺乏具体、特定的用途与合理可行的质检标准
② AI生成内容具有随机性和不确定性,服务提供者难以完全预见和控制
③ 现阶段技术条件下,"零幻觉"尚不可能实现
④ 强制施加无过错责任将严重阻碍AI产业的健康发展

最终,法院依据《民法典》第1165条第1款(过错责任原则)的一般规定,认定原告须就被告存在过错承担举证责任。

⚠️ 这是一个重要的举证责任分配

在AI侵权纠纷中,用户(原告)须证明服务提供者存在过错,而非平台自证无过错。这对用户的举证能力提出了较高要求。

🛡️ 要点三:平台「已尽合理注意义务」的判断标准

法院认定被告不构成过错,是因为其履行了三层注意义务:

第一层:显著风险提示

在欢迎页、用户协议等显著位置,明确提示AI内容可能不准确,用户不应将其作为唯一决策依据。

第二层:技术防错机制

采用检索增强生成(RAG)技术,在一定程度上提升生成内容的准确性与可溯源性。

第三层:持续合规建设

依据《生成式人工智能服务管理暂行办法》等相关规定,建立内容治理体系。

这三层的逻辑是:提示风险 → 技术降险 → 制度控险,构成了一套相对完整的合规闭环。

🎯 要点四:法院的另一项重要区分——义务的类型化

判决的另一大亮点是法院对平台义务的类型化区分:

违法信息 → 严格审查义务

对于明显违法、有害的内容,平台须承担严格的内容审查义务,不可放任传播。

「幻觉」内容 → 合理注意义务

"幻觉"是当前生成式AI的技术局限,难以完全消除。平台义务聚焦于:提示风险 + 合理防错,而非保证"零错误"。

这一区分的法律意义在于:不同风险类型 → 不同义务标准 → 不同归责路径。不能因为AI在专业领域犯错,就简单适用最严格的归责标准。

💡 法律实务启示

本案虽为"首例",但其确立的裁判逻辑将对未来AI相关纠纷产生深远影响:

🏁 结语

本案确立了一个重要的裁判逻辑:在现行法律框架下,AI是工具而非主体,AI的"承诺"不能直接绑定平台责任。

但这并不意味着平台可以完全免责。判决同时明确,平台须对"幻觉"承担合理注意义务——通过提示、技术、合规三位一体的方式,将AI错误的风险控制在合理范围内。

对于每一个依赖AI辅助决策的人而言,本案最朴素的教训是:AI会撒谎,而且会自信地撒谎。 在医疗、法律、教育等关键领域,交叉验证信息来源,仍然是使用AI的必备素养。

随着AI技术的演进和立法、监管的完善,这一法律边界还将继续发生变化。但至少在今天,我们有了第一个可供参考的坐标。