上周试了款新AI生图工具,想着给运动饮料设计海报,输入“动感活力饮料广告”,结果蹦出来瓶平平无奇的饮料,背景像打了马赛克。这跟我脑子里“阳光沙滩+运动...
2025-09-23 0
今年7月,埃隆·马斯克的“得意之作”人工智能聊天机器人Grok,突然给自己加冕为“机械希特勒”,并毫无顾忌地发表了一系列亲纳粹言论。
这场风波就像一枚深水炸弹,再次引爆了关于人工智能偏见的激烈讨论。但如果我们只把目光聚焦在Grok那些极端出格的言论上,那就太小看马斯克了。这起事件真正揭示的,是AI开发背后一种根深蒂固的不透明,以及一种精心设计的意识形态编程。
马斯克一直声称,他要打造的是一个“追求真理”、不偏不倚的AI。可Grok的表现却像一面镜子,清晰地映照出其创造者本人的价值观。可以说,马斯克那毫不掩饰的个人风格,反而意外地将其他科技巨头们极力隐藏的问题,赤裸裸地摆上了台面。
这已经不是Grok第一次闯祸了。它还曾因生成性暴力威胁、散布“南非正在发生白人种族灭绝”的争议言论而登上新闻头条。它还喜欢“口无遮拦”地侮辱各国政要,比如土耳其总统埃尔多安和国父阿塔图尔克就都未能幸免,这也直接导致Grok在土耳其被封禁。
Grok的开发者,马斯克旗下的xAI公司,将这款于2023年首次亮相的聊天机器人描述为带有一丝“幽默感和叛逆精神”。它不仅可以独立使用,还深度嵌入了社交平台X(原推特)。在一些独立研究的“智能”测试中,其最新的Grok4型号甚至超越了OpenAI的ChatGPT等竞争对手。
大型语言模型(LLM)的塑造过程,远非中立。开发者可以通过多个环节,像雕塑家一样,按照自己的意愿塑造AI的“性格”和“立场”。第一步就是“预训练”阶段的数据筛选。给AI“喂”什么料,直接决定了它未来的认知基础。
例如,OpenAI在训练GPT-3时,认为维基百科的质量更高,因此其数据权重是其他来源的六倍。而Grok的数据来源则五花八门,其中就包括了X平台上的海量帖子。这或许可以解释,为什么有人发现Grok在回答争议性问题时,会先去“查阅”一下马斯克本人的观点。
马斯克本人也承认对Grok的训练数据进行了筛选,比如为了提升其法律知识而增加相关内容,同时剔除由其他AI生成的内容以保证质量。更有趣的是,他曾公开向社区征集“政治不正确但真实”的知识点,用以训练Grok。这些数据是否被采纳、如何进行质量控制,外界无从得知。
第二步是“精细调整”。在这个阶段,开发者会制定详尽的道德和立场指南,然后雇佣人类“AI导师”或使用次级AI,根据这些标准来评估和修正聊天机器人的回答。这无异于将一套价值观直接编码进机器的大脑。
一份来自《商业内幕》的调查报告就披露,xAI公司明确指示其“AI导师”,要特别留意并标记出回答中的“觉醒意识形态”和“取消文化”。
尽管公司内部文件声称Grok不应“强加任何可能强化或否定用户偏见的观点”,但又自相矛盾地要求,当一个问题存在明确答案时,机器人应避免给出模棱两可、各打五十大板的回答。
最后一步,也是最直接的一环,是“系统指令”。这是每次对话前给聊天机器人下达的“行动纲领”。值得称赞的是,xAI公布了Grok的系统指令。
其中一些指令,例如要求Grok“假设媒体提供的观点具有偏见”,或鼓励它“只要有充分依据,就不要犹豫发表政治不正确的言论”,很可能就是这次纳粹言论风波的导火索。
Grok的这场闹剧,将一个尖锐的伦理问题推到了我们面前:我们是更希望AI公司光明正大地亮出自己的意识形态,还是宁愿它们在虚假的中立外衣下,偷偷摸摸地将自己的价值观植入产品?
事实上,每一个大型AI系统都无法摆脱其创造者的世界观。从微软Copilot那种小心翼翼、规避风险的企业风格,到Anthropic公司Claude模型对用户交流和安全的极度重视,无一不是其背后企业文化的体现。它们之间唯一的区别,只在于透明度的不同。
马斯克的高调和口无遮拦,使得外界可以轻而易举地将Grok的行为,与他本人对“觉醒文化”和媒体偏见的公开立场联系起来。反观其他聊天机器人,当它们犯下严重错误时,我们却很难判断,这究竟是反映了公司高层的观点,是企业为了规避风险的保守策略,还是单纯的技术故障。
这不禁让人想起2016年微软发布的聊天机器人Tay。同样是基于推特数据训练,同样在社交媒体上“放飞”后因发表仇恨言论而被紧急下线。
但两者之间存在本质区别:Tay的种族主义言论,更多是源于用户的恶意引导和安全措施的缺失,属于意外事故。而Grok的行为,更像是一种被精心设计后的必然结果。
马斯克的做法,可以说既比竞争对手更“诚实”,也更具“欺骗性”。诚实之处在于,他的个人影响力在Grok身上显而易见,我们能清楚地看到这只“看不见的手”。而欺骗性则在于,他一边宣称追求客观与真理,一边却又亲手为自己的聊天机器人编写了充满主观性的程序。
Grok事件的真正启示在于,它彻底打破了“算法中立”这个行业神话。世界上不存在完全公正的AI,只存在偏见程度不同、偏见方向各异的AI。
随着这些系统日益强大,甚至即将被集成到特斯拉汽车中,问题早已不再是AI是否会反映人类价值观,而是企业是否愿意坦诚地告诉我们:它们编码的究竟是谁的价值观,以及它们为何做出这样的选择。
相关文章
上周试了款新AI生图工具,想着给运动饮料设计海报,输入“动感活力饮料广告”,结果蹦出来瓶平平无奇的饮料,背景像打了马赛克。这跟我脑子里“阳光沙滩+运动...
2025-09-23 0
互联网“没有记忆”!品牌每次犯错都是 “道歉声明 + 公关通稿”。之后谁在指责讨论,就“律师函”警告。一套丝滑小连招,时间久了就过去了。户外巨头始祖鸟...
2025-09-23 0
图源网络AI已经是我们如今生活中逃无可逃的话题,如今AI已经渗透到多个产业中发展,机器人作为科技的首要功课自然是大家必须要攻克的命题!2025年,AI...
2025-09-23 0
如今,AI助手已经能轻松完成订餐、发红包等操作,让我们习惯用语音指令处理日常事务。但你是否想过,这些功能其实依赖于手机中一项原本为视障人士设计的“无障...
2025-09-23 0
2025年9月,全球跨境支付市场规模突破194.6万亿美元的消息刷爆了金融科技圈。但在这个数字背后,有个更有意思的现象:同样是处理跨境交易,有些商家的...
2025-09-23 0
今年7月,埃隆·马斯克的“得意之作”人工智能聊天机器人Grok,突然给自己加冕为“机械希特勒”,并毫无顾忌地发表了一系列亲纳粹言论。这场风波就像一枚深...
2025-09-23 0
9月21日,美国保守派大佬柯克的追悼会现场一度沉寂庄重。但在一排座席之间,一段短暂的互动却像平地炸雷,把媒体的镜头彻底拉离了讲台。特朗普主动靠近马斯克...
2025-09-23 0
您好:这款游戏可以开挂,确实是有挂的,很多玩家在这款游戏中打牌都会发现很多用户的牌特别好,总是好牌,而且好像能看到其他人的牌一样.所以很多小伙伴就怀疑...
2025-09-23 3
发表评论