当前,AI正赋能千行百业,为人们的工作、学习、生活带来极大便利。与此同时,不少人发现,用AI搜索数据,给出的内容查无实据;用AI辅助诊疗,出现误判干扰正常治疗……AI频频上演“一本正经胡说八道”。社交平台上,AI“幻觉”引发热议。
《中国互联网络发展状况统计报告》显示,截至2024年12月,我国生成式人工智能产品的用户规模达2.49亿人,占整体人口17.7%。利用生成式人工智能产品回答问题的用户最为广泛,使用率达77.6%。然而,AI带来的不只是便利,还有诸多不靠谱的现象,值得高度警惕。
今年初,有人通过AI咨询“多大年纪的老年人在宁波可以免费乘坐公交”,AI的回答是,“自2025年1月1日起,宁波市将免费乘坐公交车的年龄从70周岁降低至65周岁……”若相信这一回答,就被误导了。再如,有人让AI推荐10本高分小说,结果一多半都是它编造。
诸多事实表明,越来越多AI“胡说八道”。业内人士认为这是由于AI“幻觉”导致。某机构发布的2025年高校师生AI应用及素养研究显示,四千余名受访高校师生中,近八成遇到过AI幻觉。清华大学报告也指出,市场上多个热门大模型在事实性幻觉评测中幻觉率超19%。
这意味着部分AI在“说谎”。究其原因是,人工智能大模型训练数据来自开源网络,部分数据被“污染”;AI认知边界模糊,导致在准确评估自身输出的可信度方面尚存盲点;人为调校和干预,导致AI有时为了“讨好”用户而编造答案……这给AI有关各方都是重要提醒。
从人工智能厂商角度来说,在从开源网络获取数据时,要对某些虚假文本、不实数据尽可能进行识别、过滤,让大模型的训练数据更接近“干净”“真实”;而且,还应该不断提高AI认知能力,并明晰认知边界。相关企业要认识到,AI提供的信息越真实才有更多用户愿意买单。
作为用户,在工作、生活、学习中利用AI提高效率没有问题,但对AI不能“偏听偏信”,因为AI提供的未必是客观信息,更与“权威”不沾边。如果把AI提供的信息当“标准答案”,轻则误导个人,重则误导公众,有可能因为造谣传谣而触犯法律红线,付出愚昧的代价。
从监管角度看,已意识到问题所在。今年4月,中央网信办印发通知,在全国范围内部署开展“清朗·整治AI技术滥用”专项行动,训练语料管理不严、未落实内容标识要求、利用AI制作发布谣言等均为整治重点。除了专项整治外,还应该完善相关法规,对AI强化日常监管。
而要从根本上遏制AI“胡说八道”,要对网络上的不实数据和信息进行打假,进而不断清理,同时探索建立具有权威性的公共数据共享平台,鼓励人工智能相关企业从权威平台上获取训练数据,只有这样,数据的真实性、可靠性会越来越高,那么训练出来的AI就会更靠谱些。
作为普通用户,使用AI工具时,多些求真求实的态度和精神,才能避免被“胡说八道”的AI“牵着鼻子走”。当然,随着AI大模型技术日益成熟,“幻觉”现象有望减少。多家主流人工智能厂商表示已经采取措施,从技术层面减少AI“幻觉”发生。这种技术治理需要持续。