首页 AI科技文章正文

杨强解析大模型六大矛盾与解决思路

AI科技 2025年10月18日 19:50 0 aa

来源:金融一线

10月18日金融一线消息,全球财富管理论坛·2025上海苏河湾大会10月18日至19日在上海市静安区举办。加拿大皇家学院院士、加拿大工程院院士杨强出席大会并深入剖析大模型发展中的六大矛盾及解决思路。

杨强首先指出,AI 领域存在 “扩展定律” 与 “摩尔定律” 的矛盾。“扩展定律” 显示 AI 每年成本下降十倍,能力增长十倍;“摩尔定律” 则表明芯片硬件能力每一年半增长一倍。随着时间推移,代表 AI 的蓝色曲线与代表硬件的红色曲线差距渐大,硬件对 AI 的支持远赶不上 AI 需求,而模型越复杂能力越强,如深度学习网络层次增至上千层时,能力较基线提升 20-50 倍。对此,他提出通过 AI 基础设施优化,将多个专家系统结合成算力中心,同时在训练、通信、推理、运行阶段全面优化,且 Oracle 等公司因聚焦基础设施与算力中心优化,股价大幅增长,GPU 集体优化也需重视。

第二个矛盾围绕智能体展开。智能体是大模型落地的有效方案,多智能体被认为是未来大模型应用的关键,但每个智能体准确率并非 100%,多智能体组合后准确率会因 “小于 1 的数相乘” 而不断下降,伯克利报告已指出此问题。杨强院士提到,可利用信念机制(Belief System)缓解,他与学生还提出 “智能体工厂” 概念,若多智能体系统中的智能体由大模型原生生产,能大幅缓解准确率下降问题。

第三个矛盾是人类对安全、价值观、道德准则的要求与大模型发展间的矛盾,涉及大模型幻觉、隐私保护、知识产权保护等。目前已有相关研究关注输出安全、模型自身安全及系统审计,可对模型跟踪、生成数据并审计。但杨强院士与学生推出的定理表明,模型隐私保护与推理能力不可调和,无法实现 100% 安全且 100% 高效。针对模型知识产权保护,他与同事提出模型版权保护及 “打水印” 方案,水印易检测且难抹除,还能防止模型合作中 “滥竽充数”,相关成果已收录于《AI 模型水印》一书。

第四个矛盾是大模型训练与推理阶段的算力分配矛盾。在计算资源有限时,需平衡算力在训练与推理上的投入,两者决策影响模型整体表现。研究显示,推理资源增多时,训练资源可适当减少,且推理可用 CPU 进行,无需依赖 GPU。

第五个矛盾是人类数据供应与 AI 数据需求的矛盾。人类制造的训练数据增长缓慢,而 AI 需求增长迅速,预计 2028 年两者曲线相交时,AI 或面临停止增长问题,根源在于公域数据耗尽。杨强院士指出,90% 以上的私域数据(如个人、医院、金融机构数据)未参与大模型训练,他聚焦相关研究,提出 “联邦学习和师生大模型” 方案。云端通用大模型缺乏行业知识,本地有私域数据却因算力不足只能建垂域小模型,通过联邦学习可连接两者,让大模型教小模型推理能力,小模型教大模型垂域知识,同时保护隐私。他还提到主导的 “迁移学习”,能在新领域数据不足时,将成熟领域知识迁移过去,联邦学习则可实现多 “学生” 互助及与 “老师” 学习。

第六个矛盾是 “灾难性遗忘” 与 “主动遗忘” 的矛盾。模型后续学习会抹除前期知识,即 “灾难性遗忘”;而 “主动遗忘” 也很重要,如按数据安全法要求撤出客户数据。杨强院士已设计相关算法解决。

杨强院士表示,大模型在金融界有客服、营销、反欺诈、反洗钱等成功应用。若不能妥善处理上述矛盾,AI 可能进入寒冬或面临巨大麻烦。

发表评论

长征号 Copyright © 2013-2024 长征号. All Rights Reserved.  sitemap