近年来,生成式人工智能越来越多地应用于人们的生活中。然而,虽然生成式人工智能提供了便利,但它常常会造成“人工智能错觉”,例如问题答案不正确或信息不准确,让用户感到不舒服。开发者是否应该对人工智能提供的信息的准确性负责?近日,杭州互联网法院审结了一起因生成人工智能模型提供不准确信息引发的侵权纠纷案件。 AI是否应对提供虚假信息负责? 2025年6月,本案原告梁先生在网上搜索大学信息时发现了生成式人工智能的应用。他简短地询问了云南省职业学校的情况。该应用程序基于本案被告公司内部开发的大规模语言模型,提供相关信息凡特信息。但经过多次询问,梁某意识到该应用程序提供的部分信息有误,立即在对话中纠正并批评了人工智能。然而,生成人工智能确认了该信息是正确的,并为争端找到了解决方案。如果生成的内容有误,梁某将获得10万元赔偿,并表示将向杭州互联网法院提起诉讼。 2025年7月25日,梁先生向法院起诉该人工智能公司,称生成式人工智能生成的不准确信息具有误导性,要求该公司支付一定金额的赔偿,称承诺赔偿为10万元。审判结果是,法院裁定人工智能不具备民事实体资格,不能作出具有法律约束力的意向声明。锗原生人工智能服务提供者应当履行对服务功能进行明显提醒和说明的义务,提高公众对人工智能功能局限性的认识,并采取有效的提醒措施,起到警示作用。生成人工智能服务提供商必须履行确保其功能可靠性的基本义务,并采取全行业技术措施不断提高生成内容的准确性和可靠性。在本案中,法院认定AI公司充分履行了基本报告义务,突出了服务特点,保证了其生成内容的真实性。法院认为,本案涉及的行为不存在过失,没有损害原告的权益。必须依法认定不存在违法行为。因此,法院作出判决,驳回原告的诉讼请求。我是。宣判后,原被告、被告人均未提出上诉。如何判断开发商是否有过错?随着生成式人工智能技术的快速发展和普及,越来越多的人开始关注“人工智能错觉”问题及其负面影响。我们在社交平台上看到很多与此相关的投诉。有的依靠人工智能投资理财造成损失,有的则利用人工智能体检结果来延缓死亡。每一次冲突的背后都有一个共同的问题。 “如果我们被生成人工智能欺骗了,是否可以承担侵权责任?”北京大学法学院教授薛军表示:“本案涉及法律法规、人工智能技术原理、产业发展状况等方面进行了比较全面的审查,并于法律专家普遍认为,该裁定对主体资格和责任原则提出了较为明确的意见。该裁定认为,人工智能不能认定为民事案件,人工智能以对话形式产生的信息应认定为服务而非产品,因此适用责任原则。过失责任。杭州互联网跨境商务中心主任肖翔法院认为,人工智能生成的不准确信息本身并不构成侵权,需要审查的是提供服务的开发者是否有过错。那么,如何判断开发者是否有过错呢?肖翔进一步解释说,基于目前的生成式人工智能,几乎不可避免地会存在一定程度的信息偏差。指出开发人员是否正在使用目前业界流行的、已被证明能有效提高技术可靠性和降低错误概率的措施,并证明是否存在缺陷。 “根据我们的调查,本案开发商试图采用可行的技术措施来减少错误的发生。”萧山说。据《pjournalist》调查,这起事件是人为生成的。发现该智能应用曾警告用户,页面显着位置的信息可能有误,称:“内容仅供参考”。请仔细核对。”法院认为,这也表明开发商尽到了谨慎、告知义务。如何在推动创新与保护权益之间找到平衡?人工智能行业人士表示,从底层来看从技术逻辑来看,目前的生成式人工智能基本上是基于语言元素的预测。如果这个底层架构不从根本上改变,信息偏差是不可避免的。去年2月,清华大学沉阳新媒体团队发布的一份报告指出,在eReal幻觉评级中,市面上多款热门机型的幻觉率超过19%。 “我们的训练和测试案例表明,即使数据集中只有0.01%和0.001%的文本是假的,模型生成的有害内容也分别增加了11.2%和7.2%。”业内专家表示。然而,该技术的客观限制并不能成为人工智能开发人员的借口。接受采访的法学家普遍认为,本案具有一定的特殊性。原告并未因误导性信息而遭受任何明显的个人财产或其他权益损失。原告使用了gen所有生成式人工智能应用程序,而不是配备人工智能软件的机器人或更精确的工业应用程序。 “让所有开发者都为自己制作的内容的准确性负责,既不现实,也不合理。”薛军说,但模型开发者不能以此为借口,盲目地为自己“开脱”。为避免用户盲目信任而产生负面后果,需要遵守相应义务并进行风险提示。肖翔表示,生成式人工智能侵权责任如何确定,是一个几乎没有司法先例的前沿司法问题。通过适当、准确的判断,引导开发者和平台提高信息标准,“促进创新、保护权益”。希望大家找到一个平衡点。业界玩家提出建立国家人工智能安全评估平台,以严格规范。大力测试新开发的大规模人工智能模型。开发简洁。同时,相关部门和平台应加强对人工智能生成内容的审查,提高检测和证伪能力。
(编辑:何欣)