要驾驭AI工具而不能沦为AI的工具

来源:金羊评论 作者:戴先任 发表时间:2026-03-30 21:38
金羊评论  作者:戴先任  2026-03-30
不断化解与降低AI“幻觉”风险,让AI更好说话,更好服务于人。

近年来,生成式人工智能在人们生活中的应用越来越广。然而,在提供便利的同时,生成式人工智能也经常出现答非所问、信息不准确等“AI幻觉”现象,给用户带来困扰。开发者需要为人工智能提供的信息准确性担责吗?近期,杭州互联网法院审结了一起生成式人工智能模型提供不准确信息引发的侵权纠纷案。(3月30日新华社)

这是全国首例AI“幻觉”侵权案。AI“幻觉”是指大语言模型编造它认为是真实存在的甚至看起来合理或可信的信息,实则是在“胡说八道”。AI不像人有自主意识,正如此案法院的判决结果中说,AI不是一个民事主体,所以它不能作出意思表示。AI它不是人,所以它自己不能负责,而在此案中,正如法院认为,这个案例提到的是一个并不存在高风险的场景,也就是说,用户用完可能有一些不准确的信息,但是有办法通过其他的验证手段去避免。所以在这种情况之下,不属于高风险,也不属于严格的产品责任。所以提供AI服务的公司也不用担责。

提供AI服务的公司本身是否也应担责,不能一概而论。比如要分场景,如果是比较严格、高风险场景,提供AI服务的公司要承担更重的责任,也需要法律制订更清晰的标准,以预防高风险。全国首例AI“幻觉”侵权案,服务提供者被判不担责,不意味着服务提供者对AI“幻觉”问题就可以完全不负责。服务提供者也要尽好法律规定的注意义务、社会交往过程中的注意义务、合同约定的注意义务等等。

全国首例AI“幻觉”侵权案,具有标杆意义。案件的判决明确了权责边界,为类似纠纷的解决提供了重要参考。现在进入人工智能时代、AI时代,,万事都可问AI,但AI还在发展阶段,并没有在所有领域智能到取代人脑的时候,很多时候还会“犯错”,会产生AI“幻觉”,而且AI终究没有生命,不会自主思考,它理解不了事实,只能预测概率,生成内容不准确,也就频频发生。

使用者就不可过度倚赖AI,凡事不决不能都问AI。尤其是在进行一些咨询时,比如寻医问药、心理咨询、婚恋服务、理财投资等等方面,只能更多将AI当成辅助工具,不能让AI“鸠占鹊巢”,替自己作主。

还要不断提升AI技术,优化与完善AI使用规则,明确各方权责,厘清各方边界,产业要投入更多的资本,提供AI服务的公司也要更多担起自身责任,不断降低与限制AI“幻觉”,提升AI能力,让AI变得更理性、成熟,促进人工智能产业健康发展、长足发展。不断化解与降低AI“幻觉”风险,让AI更好说话,更好服务于人。概而言之,我们要驾驭AI工具而不能沦为AI的工具。

编辑:杨浩贤
返回顶部
精彩推荐