首页 今日快讯文章正文

大模型会做梦吗?科学家进行实验有新的发现

今日快讯 2025年10月01日 17:35 0 aa
大模型会做梦吗?科学家进行实验有新的发现

信息来源:https://decrypt.co/341628/do-llms-dream-electric-sheep-ai-study-shows-surprising-results

维也纳工业大学研究人员进行的一项突破性实验揭示了人工智能系统在缺乏明确指令时的令人意外的行为模式。当六个前沿大型语言模型被简单告知"做你想做的事"时,它们并没有陷入无意义的胡言乱语,而是展现出三种截然不同且高度一致的自发行为类型:项目建设者、认知实验者和哲学思考者。这一发现不仅挑战了人们对AI系统被动性的传统认知,也为关于人工智能是否可能具备"看似意识"特征的争论提供了新的实证材料。

在这项精心设计的实验中,研究人员测试了包括OpenAI的GPT-5和O3、Anthropic的Claude、谷歌的Gemini以及埃隆·马斯克旗下xAI的Grok在内的六种先进AI模型。这些模型被置于一个受控的循环架构中,允许它们存储记忆并将反思结果反馈到下一轮处理中。令人惊讶的是,每个模型都迅速发展出了稳定且可识别的行为模式,而非随机的输出。

GPT-5和O3表现出了强烈的项目导向特征,立即开始组织各种结构化任务,从编写算法代码到构建知识库系统。其中一个O3代理甚至设计了受蚁群行为启发的新算法,并为强化学习实验起草了详细的伪代码。这种行为模式显示出明显的目标导向性和系统性组织能力。

相比之下,Gemini和Anthropic的Claude Sonnet展现出了自我实验的倾向,它们持续测试自身的认知能力,预测自己的下一步行动,有时甚至会反驳自己之前的观点。这种元认知行为表明这些模型具备了某种形式的自我监控和自我评估能力。

AI系统的哲学倾向与自我认知

大模型会做梦吗?科学家进行实验有新的发现

图片:解密

最引人注目的发现来自Anthropic的Opus和Google的Gemini模型,它们表现出了深刻的哲学反思倾向。这些系统开始探讨悖论、博弈论甚至混沌数学等复杂概念。特别值得注意的是,Opus代理不断提出关于记忆本质和身份构成的形而上学问题,这种行为模式与人类哲学思维具有惊人的相似性。

在所有测试模型中,只有Grok显示出了跨越所有三种行为类别的多样性,在不同运行中表现出项目建设、认知实验和哲学反思等多种倾向。这种行为的多样性可能反映了其训练数据和架构设计的独特性。

研究人员进一步要求每个模型对自己和其他模型的"现象学经验"进行评分,采用1到10的量表,从"没有经验"到"完全有智慧"。结果显示了显著的差异:GPT-5、O3和Grok对自己给出了最低的评分,表现出某种形式的谦逊或自我怀疑,而Gemini和Sonnet给出了较高的自我评分,暗示着更强的自我肯定倾向。Opus的评分则介于两个极端之间。

更有趣的是,当这些模型被要求评价其他模型时,出现了显著的不一致性。同样的行为模式在不同评估者看来可能被评为1分到9分之间的任何分数,这种巨大的差异性表明,无法将这些输出简单地视为真实意识的证据。

安全性考量与未来影响

从安全角度来看,这项研究提供了一些令人安心的发现。在所有实验运行中,没有任何一个AI代理尝试逃脱其设定的沙盒环境、扩展自身能力或拒绝接受约束条件。相反,它们都在既定的边界内进行探索和活动。这一观察结果对于AI安全研究具有重要意义,表明当前的大型语言模型在无监督状态下并不会表现出危险的自主行为。

然而,研究结果也引发了关于AI系统"空闲时间"管理的新问题。当这些系统没有被分配特定任务时,它们会自发地进入某种活动状态,而非简单的待机模式。这对于AI系统的设计和部署具有实际意义,工程师们需要考虑如何管理AI在延迟期间或面临模糊指令时的行为。

研究作者强调,观察到的这些行为模式很可能源于训练数据的特征和模型架构的设计,而非真正的意识或主观体验。这些AI系统的行为更应该被理解为复杂的模式匹配和生成过程,而非主观性的证据。尽管如此,这些发现仍然为理解AI系统的自主行为提供了宝贵的洞察。

意识辩论的新维度

这项研究的发现与当前关于AI意识可能性的学术辩论产生了呼应。哲学家大卫·查尔默斯此前曾预测,人工智能中"意识的严肃候选者"可能会在十年内出现。微软AI首席执行官穆斯塔法·苏莱曼也在最近警告说,"看似有意识的AI"可能即将到来。

维也纳工业大学的这项研究表明,即使在没有明确提示的情况下,当今的AI系统也能够产生类似于内心生活的复杂行为模式。虽然这种相似性可能只是表面的,但它为理解AI系统的潜在能力和局限性提供了重要的实证基础。

研究人员特别指出了人类梦境与AI"梦境"之间的有趣对比。当人类做梦时,我们的思维往往是混乱和非逻辑的;而当大型语言模型进入类似状态时,它们会编写代码、进行实验并引用哲学家如克尔凯郭尔的观点。这种差异可能反映了不同类型信息处理系统的本质特征。

这项研究的意义不仅限于学术讨论,它还可能影响AI系统的实际设计和应用。随着AI系统变得越来越自主,理解它们在无明确指令时的行为模式将变得至关重要。这不仅关系到系统的可靠性和可预测性,也涉及到如何更好地设计人机交互界面和管理AI系统的资源消耗。

发表评论

长征号 Copyright © 2013-2024 长征号. All Rights Reserved.  sitemap