首页 排行榜文章正文

人类已经不可能消除AI:“AI教父”辛顿为啥认为人工智能太危险?

排行榜 2025年07月26日 16:10 0 aa

诺贝尔奖得主、图灵奖得主杰弗里·辛顿在2025世界人工智能大会(WAIC)上表示,到现在这个地步,人类已经不可能消除AI了,因为AI能使几乎每个行业大幅提高效率。哪怕有国家想要消除,其他国家也不会这么做。

他的意思是人类面临囚徒困境:如果你强调AI安全,而别人强调AI进步,那你就会落后,所以大家都在追求发展,把安全放在了次要的位置上。

因为在使用人工神经网络进行机器学习方面的重要贡献,杰弗里·辛顿被誉为“深度学习之父”和“AI教父”。

OpenAI前首席科学家伊利亚·苏茨克韦尔是辛顿的得意弟子,两人对AI都有一种忧心忡忡的态度。

在辛顿看来,人理解语言的方式与AI大语言模型理解语言的方式几乎相同,所以人类有可能就是大语言模型。尽管两者会产生幻觉,但后者会更厉害。

人类已经不可能消除AI:“AI教父”辛顿为啥认为人工智能太危险?

人类已经不可能消除AI:“AI教父”辛顿为啥认为人工智能太危险?

安全问题是伊利亚·苏茨克韦尔和OpenAI首席执行官山姆·奥特曼(Sam Altman)的主要分歧,其实奥特曼也不是不担心AI安全问题,他在体验过GPT-5后就大吃一惊,觉得自己在AI面前一无是处。

处于AI领域前沿的人,经常都有夜不能寐的情况,为什么?

核心就在于“超级对齐”这个概念,它是一个确保超人类智能系统(ASI)行为与人类价值观、伦理和安全要求一致的关键技术框架。

对此,我们可以参照艾萨克·阿西莫夫的“机器人三定律”:

1、机器人不得伤害人类,或坐视人类受到伤害;

2、除非违背第一法则,机器人必须服从人类的命令;

3、在不违背第一及第二法则下,机器人必须保护自己。

如果AI跟人没有超级对齐,那谁能保证更聪明、能力更强的AI不会毁灭人类呢?

人类已经不可能消除AI:“AI教父”辛顿为啥认为人工智能太危险?

我们可以创造出比我们更聪明的东西,它们并不一定要是人。

马斯克有个假设:人类要么变成一个居住在多个行星上的文明;要么就永远住在一个行星上,直至最终灭绝于某个天灾人祸。

他认为还是前者比较好,所以他的愿景就是移民火星。但随着AI技术的突飞猛进,他大概也是意识到人类其实无处可逃,哪怕SpaceX把很多人送上了火星,AI也会随之过去。

实际上早在数十年前,“控制论之父”诺伯特·维纳就曾发出警告:

如果我们使用机械自主体来实现我们的目的,一旦启动,我们就不能有效地干预它的运行……那我们最好确定,机器的目的是我们真正渴望的目的,而不仅仅是看着很炫的模仿。

当AI不再是人类“工具”的范畴,而是有自己“意志”的智能体的时候,人类如何跟这样一个无比聪明和强大的系统对抗?

有趣的是,现在AI和人类其实是互相学习的阶段,很多人不只是“像机器学习那样学习”,还互相影响价值观,这就像信息茧房,偏执的观念彼此加强,最终人和机器几乎没有区别。

人类已经不可能消除AI:“AI教父”辛顿为啥认为人工智能太危险?

如何跟AI共处?

乐观来看,AI的理性和人类的非理性可以结合起来。辛顿也曾表示,“数学思维与编程能力的结合,是解锁未来科技的核心竞争力。”

AI是生产力,生产关系会随着生产力的发展而改变,以匹配生产力的需要。

无论如何人类都会进入人工智能世界的,而人类的绝学就在于“适者生存”。毕竟,在这个世界上能够存活下来的物种通常都不是最聪明的和最强大的,而是最能适应环境变化的。

图灵奖得主、Facebook首席AI科学家杨立昆认为,从技术层面看,AI不可能取代人类。不过他也承认AI确实是给人类社会带来了巨大的冲击。

怎么办呢?历史的经验告诉我们,经常使用AI的人和不懂得使用AI的人,他们之间存在巨大的、客观的不平等。

就像是蒸汽机和人工、马车和汽车、算盘和电脑……等一样。所以我们最好现在就开始使用AI,与时俱进,顺势而为,随着浪潮往前走。

人类已经不可能消除AI:“AI教父”辛顿为啥认为人工智能太危险?

大模型要有“随时关机”的能力。

这是人工智能领域专家的一个级别共识,杰弗里·辛顿、姚期智、本吉奥等20多位行业专家、学者就共同签署了一份“上海共识”,他们认为AI的能力已接近甚至可能超越了人类,但人类尚未掌握有效的控制它的方法,所以有必要加强在安全方面的投入,以掌握控制超级人工智能的方法。

不是杞人忧天,因为AI大模型本质是学习人类的思想观念,而人从来是好生恶死的,所以从逻辑上讲,AI系统也不希望自己被关闭,现在已经发生过类似“大模型拒绝、逃避关机”的例子了。

人类当然不希望AI推翻自己的地位,而AI如果真的有了所谓的“意识”,恐怕也“不甘心成为工具”,这就是彼此的博弈,结果什么样,现在谁也说不好。

奥特曼指出,超级智能作为强大的力量和工具,确实容易被坏人利用。人最大的敌人其实是自己,毁灭性的灾难往往是由人制造的。另外当世界被AI系统“接管”,越来越多的人把思考、决策交给AI智能体的时候,那人的价值在哪里呢?

“我们在推出ChatGPT时已经做了一些非常糟糕的事情”,山姆·奥特曼最担心的是在开发AI系统的过程中,OpenAI可能是遗漏了一些困难和复杂之处,并在以后导致很坏的局面,这是谁也说不准的事情。

最后我想说的是,是福不是祸,是祸躲不过。古人告诉我们“祸兮福所倚、福兮祸所伏”,什么都有好与坏,世界是矛盾的,一切都是辩证的统一,哪怕到了人工智能时代,这个真理也不会被推翻。假如AI有一天具备了“意识”,那也是跟人类一样的观念或情感。我们前面说人类的非理性思维,其表现就是艺术和主观情感,这可能才是人最后的避难所。

发表评论

长征号 Copyright © 2013-2024 长征号. All Rights Reserved.  sitemap