首页 抖音热门文章正文

DeepSeek幻觉率达21%,今年WAIC研究劝退“一本正经胡说八道”

抖音热门 2025年07月28日 07:00 0 admin
DeepSeek幻觉率达21%,今年WAIC研究劝退“一本正经胡说八道”DeepSeek幻觉率达21%,今年WAIC研究劝退“一本正经胡说八道”

2025年世界人工智能大会各大论坛的议题中,“安全治理”几乎是绕不开的话题。记者在采访中发现,“AI确定性”也常常被人提及。

特别是DeepSeek-R1的横空出世,给业界带来震撼的同时,也引发了隐忧:推理能力越强,AI幻觉越高。在AI加速商业化落地的浪潮中,降低AI幻觉、提升输出的确定性,已成为业界面临的一道必答题。

推理模型的幻觉更严重

最近,一则“DeepSeek向王一博道歉”的消息冲上热搜。而事实证明是,AI幻觉导致以讹传讹,最终成了谣言。这无疑是AI时代的荒诞现实。

所谓的AI幻觉,就是大模型在“一本正经地胡说八道”。中文通用大模型综合性测评基准SuperCLUE的测评结果显示,DeepSeek-R1模型幻觉率高达21.02%,远远低于豆包大模型的4.11%,也低于DeepSeek另一款大语言模型V3的13.83%。该测评结果还显示,推理模型的幻觉比非推理模型更严重,推理模型平均幻觉率为22.95%,非推理模型的平均幻觉率为13.52%。

DeepSeek幻觉率达21%,今年WAIC研究劝退“一本正经胡说八道”

或许是过高的幻觉率,劝退了很多用户。第三方统计数据显示,相较于年初,DeepSeek的月均下载量与使用率已大幅下降。

DeepSeek也意识到这一问题。5月29日,DeepSeek在升级模型时,特意针对幻觉问题作出优化。据官方文档介绍,新版本模型在改写润色、总结摘要、阅读理解等场景中,幻觉率降低 45%—50% ,输出结果更为准确可靠。

AI幻觉难以避免

AI幻觉,本质上源于大模型的双重技术局限:一是推理时编造内容,二是训练数据不全。大模型只能靠训练数据来理解世界,如果训练数据漏掉了关键信息,或者有错误内容,大模型输出的结果就容易出错。

遗憾的是,“爱编故事”是大模型的天生缺陷。抛开那些复杂的技术原理,大模型生成的内容,主要就靠“猜”——遇到没学过的内容,会根据概率猜一个最可能的答案来补全,尤其是在回答开放性问题时,大模型常会编细节让答案看起来更完整,即便这是一个错误的答案。

另外,太多质量参差不齐的数据,也会让大模型“犯迷糊”,这些数据很可能相互矛盾,训练出来的大模型就容易说出前后矛盾或完全错误的话。

但是,AI幻觉也并非洪水猛兽。很多人想不到的是,人类也会产生幻觉,甚至依赖幻觉做出决策。

2025世界人工智能大会主论坛上,深度学习之父、2024年物理学诺奖得主杰弗里·辛顿语出惊人:人们理解语言的方式和大语言模型理解语言的方式几乎一样,人类有可能就是大语言模型,人类也会和大语言模型一样产生幻觉。

前不久,OpenAI的竞争对手Anthropic创始人公开表示,大模型产生幻觉的频率可能比人类还低,只是它们出错的方式经常出人意料。

把“二次核查”权利交给用户

既然AI幻觉无法彻底消除,那么尽可能减少幻觉概率,成了大模型落地应用必须跨越的门槛。

实践证明,不断优化算法和构建可控信源,能有效降低AI幻觉的负面影响。例如,阶跃星辰为大模型增加了“深入核查”的功能,保证模型输出结果的可信性。

DeepSeek幻觉率达21%,今年WAIC研究劝退“一本正经胡说八道”

阶跃AI的“深入核查”功能。

据阶跃AI产品负责人陈男群告诉记者,“深入核查”能调用大模型自身的四种能力:强大的信息获取引擎、交叉信源核查、信源权威性评估和提供引用来源。

“阶跃AI融合了各类搜索源和网页信息解析工具,实时获取互联网上大量信息,以弥补信源不足的短板。同时还能追踪事实陈述、数据引用等关键信息的来源,通过不同信息源进行交叉验证。更关键的是,我们会尽可能找到一手的、具备权威性的专业信源,并让模型理解不同信源渠道的可信度差异。”陈男群介绍,阶跃AI的特别之处在于“不输出‘事实’输出证据”,不让AI说“假、大、空”的定性结论,输出内容的同时还提供多个引用来源、原始网页、发布时间等详细信息,为用户提供“二次核查”的依据。

据悉,阶跃AI的“深入核查”获取了2000多个优质信源,文献库数量超过1000万篇,试运行一周内就登上了海外AI产品榜单前十名,收到用户正面反馈。

原标题:《DeepSeek幻觉率达21%,今年WAIC研究劝退“一本正经胡说八道”》

栏目主编:李晔

来源:作者:解放日报 查睿

发表评论

长征号 Copyright © 2013-2024 长征号. All Rights Reserved.  sitemap