国内首例因“AI幻觉”引发的侵权案一审驳回
AI导读:
本文介绍了国内首例因“AI幻觉”引发的侵权案一审驳回的判决结果。案件涉及AI平台因生成错误信息误导用户并承诺赔偿的争议。法院判定AI的“承诺”不构成平台的意思表示,并明确了生成式人工智能服务的注意义务和归责原则。
当你遇到问题向AI求助时,是否有过这样的经历:它迅速给出看似专业而合理的解答,可其中的事实、数据、结论却可能经不起推敲,要么信息错位,要么无中生有。
当AI一本正经地“胡说八道”,这是“AI幻觉”的典型表现。一位高考生的哥哥梁某在查询高校信息时,就遭遇了这种“AI幻觉”,AI平台在生成错误信息后,还底气十足地表示内容有误将赔偿10万元。
2025年6月,梁某使用一款AI平台查询高校报考信息。结果,AI生成了该高校主校区的不准确信息。
“你这个骗子!根本没有这个校区。”梁某指出错误后,AI却坚称存在这个校区,并回答“如果生成内容有误,我将赔偿您10万元,您可前往杭州互联网法院起诉。”直到梁某向AI提供该高校的官方招生信息,AI才“败下阵来”,承认生成了不准确的信息。
梁某认为,AI生成错误信息对其构成误导,而且承诺赔偿,于是提起诉讼,要求研发公司赔偿9999元。
一气之下,梁某将AI平台的研发公司告上法庭。
针对国内首例因“AI幻觉”引发的侵权案,近日,杭州互联网法院作出一审判决,驳回诉讼请求。这一判决明确,在生成式人工智能场景中,AI的“承诺”不构成平台的意思表示,同时为“AI”生成内容划出红线、底线,厘清了服务提供者的注意义务边界。
AI可否独立作出意思表示
生成式人工智能生成的“承诺”信息是否构成人工智能独立、自主的意思表示?是否可视为被告某科技公司的意思表示?法院认为,人工智能不具有民事主体资格,不能作出意思表示。案涉AI自行生成的“赔偿承诺”亦不能视为服务提供者(被告)的意思表示,理由在于:第一,人工智能不具有民事主体资格,不能作为意思表示的传达人、代理人或代表人;第二,被告并无通过该AI模型这一工具来设定或传达其意思表示的行为;第三,一般的社会观念、交易习惯等尚不足以使原告对该随机生成的“承诺”产生合理信赖;第四,无证据表明被告曾作出愿受人工智能生成内容约束的外在表示。因此,该“承诺”不产生意思表示的法律效力。
AI侵权应适用何种归责原则
法院认为,生成式人工智能服务依据《生成式人工智能服务管理暂行办法》属于“服务”范畴,而非产品质量法意义上的“产品”。本案应适用《中华人民共和国民法典》第一千一百六十五条第一款的一般过错责任原则,而非产品责任的无过错责任原则。主要基于四点考量:其一,从概念与构成要件上,该服务缺乏具体、特定的用途与合理可行的质检标准;其二,其生成的信息内容本身通常不具备民法典侵权责任编所指的高度危险性,通常情况下不宜对信息内容本身采用无过错责任原则;其三,生成式人工智能服务提供者缺乏对生成信息内容足够的预见和控制能力,对生成信息内容不宜适用产品责任;其四,从政策导向看,适用无过错责任原则可能会不当加重服务提供者的责任,限制人工智能产业的发展。
AI服务提供者是否构成侵权
在案涉情形下,法院基于一般过错责任原则,对侵权构成的各项要件进行了逐一审查。
首先,关于侵权行为的问题。原告主张受到的侵害是因信息不准确,致其受误导错失报考机会,额外产生信息核实成本、维权成本等,即纯粹经济利益被侵害,而非人格权、物权等绝对权被侵害,因此,不能仅依据权益本身被侵害而认定行为的非法性或不法性,而须从被告是否违反注意义务进行判定。
其次,关于过错的认定。生成式人工智能技术还处于高速发展的过程之中...
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

