首页 十大品牌文章正文

全球超3000名各界人士呼吁:暂停研发超级智能

十大品牌 2025年10月23日 17:52 0 aa

IT时报记者 潘少颖

“人工智能无论多么强大,都必须始终是由人类主导的工具。”图灵奖得主姚期智曾这样表示。

10月22日,未来生命研究所(Future of Life Institute,FLI)宣布,一项由全球知名的人工智能科学家、政策制定者、商业领袖及其他社会各界知名人士共同签署、汇聚不同政治与社会背景的空前广泛共识的倡议正式发布,呼吁在“超级智能”技术被科学界普遍认定为可控、安全,并获得公众广泛支持之前,暂停其进一步发展。

全球超3000名各界人士呼吁:暂停研发超级智能

有报道称,截至10月23日中午,这份声明的签署人数已经超过3000人。在中国学术界,多位知名学者参与联署此次倡议,包括姚期智、清华大学公共管理学院院长薛澜、清华大学智能产业研究院院长张亚勤以及人工智能伦理与治理专家曾毅。他们的参与和主张呼应了中国长期倡导的“安全、可靠、可控”和“以人为本”的人工智能发展理念。

曾毅指出:“直到现在,我们还没有坚实的科学证据和切实可行的方法来确保超级智能的安全,使其不会给人类带来灾难性的风险,世界尚未准备好迎接不是可控工具的超级智能。”

人工智能先驱杰弗里·辛顿(Geoffrey Hinton)、苹果公司联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)、维珍集团董事长理查·布兰森(Richard Branson)也参与了签名。

蒙特利尔大学教授、全球引用数最高的科学家Yoshua Bengio也指出:“前沿人工智能系统(Frontier AI)可能在未来几年内,在大多数认知任务上超越绝大多数人类个体。这些技术进展有望为全球重大挑战带来突破性解决方案,但同时也伴随重大潜在风险。要安全地迈向“超级智能”,我们必须通过科学手段设计出在根本上无法伤害人类的人工智能系统——无论是由于目标偏差,还是被恶意利用。同时,公众也应在塑造人类共同未来的决策中拥有更强的话语权。

未来生命研究所同期发布的一项美国全国性民意调查显示,公众对当前人工智能的发展方向普遍不满。仅有5%的受访者支持目前“无监管的AI开发现状”,而高达73%的受访者支持建立更为严格的监管机制,另有64%的受访者认为,在科学界尚未就安全与可控性达成共识之前,不应开发“超级智能”。

全球超3000名各界人士呼吁:暂停研发超级智能

所谓“超级智能”,是指能够在大多数认知任务上全面超越人类的人工智能系统。多位人工智能领域的顶尖专家认为,这样的系统可能在十年内出现,但人类目前尚且无法确保如何对其进行有效控制,应通过“可控的人工智能工具”来推动安全创新,聚焦解决医疗、能源、教育等具体领域的实际问题。

倡议与调查结果共同反映出一个正在形成的全球共识:尽管人工智能蕴藏着推动人类进步与繁荣的巨大潜力,但在缺乏安全保障的情况下,盲目发展超级智能,可能带来灾难性后果。

倡议强调,若人工智能作为“可控工具”应用于科学、医疗与教育等领域,将有助于推动以人为本的人工智能复兴,促进人类福祉与全球可持续发展。然而,目前部分科技企业仍在缺乏监管、约束与公众同意的情况下,推动潜在危险的技术发展。

发表评论

长征号 Copyright © 2013-2024 长征号. All Rights Reserved.  sitemap