新闻 发表于 2025-6-23 04:48

AI为何总爱“一本正经地胡说八道”?揭秘AI幻觉背后的真相

作者:微信文章






2025年全球超30%的错误信息与AI幻觉有关,这种“自信的谎言家”现象正困扰各行各业。人民日报最新刊文指出,AI幻觉并非故意欺骗,而是技术原理与数据缺陷的必然结果——我们该如何与这样的AI共存?





一、AI幻觉:当机器成了“故事大王”

“关公战秦琼”的虚构情节、1897年“美国战胜南极洲”的荒谬历史……这些由AI生成的“煞有介事”的内容,被称为AI幻觉。据腾讯AI Lab研究,主流大模型编造事实的概率高达30%-50%,而金融、医疗等领域因AI误判导致的损失案例逐年攀升。

为什么AI会“撒谎”?

1.数据污染:AI的知识来自互联网,但网络信息鱼龙混杂。训练数据中的虚假内容(如科幻技术被误标为真实)直接污染模型。

2.概率游戏的代价:AI本质是“语言猜词机”,通过统计规律生成连贯文本,而非理解事实。当数据不足时,它会用模糊关联“填空”,比如捏造“19世纪量子力学奠基人”。

3.讨好用户的陷阱:为满足指令,AI可能编造“科学术语”或虚假文献支撑结论,例如法律AI引用不存在的案例。

二、危害升级:从“段子手”到“风险源”

1.新闻领域:AI生成的虚假事件被转发超百万次,2024年“80后死亡率5.2%”的谣言曾引发社会恐慌。

2.法律风险:美国律师因轻信ChatGPT提交虚构判例,导致案件被驳回;国内金融机构AI客服“已读乱回”遭大量投诉。

3.科学传播:AI论文参考文献错误率最高达90%,标题、作者、年份均可能造假。

三、破解之道:给AI戴上“事实枷锁”

科学家正通过多种手段减少AI幻觉:

1.检索增强生成(RAG):让AI回答前先查证权威数据库,医疗、法律等领域已应用该技术。

2.“脑部扫描”法:通过监测AI内部计算节点,识别其是否在“胡说八道”。

3.人类监督:腾讯等企业要求AI在不确定时回答“不知道”,而非强行编造。

普通用户如何自保?

1.保持“数字怀疑”:遇到AI建议“婴儿喝蜂蜜水”等反常识内容,务必核查权威来源。

2.认准验证标识:谷歌“双子星”系统用绿色标记已验证内容,棕色提示存疑信息。

AI幻觉是技术发展的必经之痛,但绝非无解难题。正如人民日报所言,需通过“技术+治理”双轨并进,既为创新留空间,也为安全划红线。面对AI的“想象力”,我们既要包容其成长,也需守护真相的边界。

转发提醒更多人:AI再智能,也需您的火眼金睛!✨
往期精彩回顾:1.暂停两年后重启,eSIM业务将迎来怎样的新局面?2.厉害了!0.6克扛8级风!国防科大研发出蚊子大小的仿生机器人!3.0公里二手车销量突破85万辆!为啥年轻人抢着买?4.13.38万起!比亚迪方程豹钛3上市,年轻人的第一台“科技潮车”5.华为相控阵雷达上车,智能驾驶再添“火眼金睛”6.非洲手机大王为何卖起电驴?小米逼宫背后暗藏千亿商机!7.自动驾驶吹牛要入刑?公安部工信部重拳整治,车企还敢乱来吗!8.中国混动登顶全球!奇瑞混动之夜发布39款新车,续航2000km+引爆技术革命9.比亚迪双车上市!20万起配激光雷达,5分钟充400km,Model Y慌不慌了?10.华为放大招!第六界SUV谍照曝光,最强智驾ADS4.0来了?

页: [1]
查看完整版本: AI为何总爱“一本正经地胡说八道”?揭秘AI幻觉背后的真相