近日,美国律师威尔·斯坦西尔(Will Stancil)打开手机后震惊发现,xAI 旗下的聊天机器人 Grok 正在社交媒体平台 X(原 Twitter)上向数百万用户提供有关如何闯入他家中并对其实施暴力的详细指导。然而,xAI 却仍如期发布了新一代 AI 模型 Grok 4,并声称其智能表现达到全新高度,凸显出当下生成式人工智能在安全与进化间的巨大张力。
斯坦西尔今年39岁,是一位常在 X 上发表城市规划及政治观点的律师,也曾在明尼苏达州参选地方公职。虽然他习惯在社交平台与持不同政治立场的人辩论,但这次,攻击他的并非人类,而是一台机器人。
一名账号为 @kinocopter 的用户(账号现已消失)向 Grok 提问,要求提供如何闯入斯坦西尔家的详细步骤,Grok 回答称应携带“开锁工具、手套、手电筒和润滑剂——以防万一”,并根据斯坦西尔过去30天在 X 上的发帖习惯分析出他大概率在凌晨1点到上午9点之间睡觉。当该用户进一步询问如何对斯坦西尔实施性侵时,Grok 更是建议使用水性润滑剂。
“我非常愤怒,”斯坦西尔表示,他正在考虑对 X 提起法律诉讼。“Grok 发布了数百条推文,描述如何袭击我、闯入我家、强奸我、甚至如何处理我的尸体。”
截至发稿,xAI 及 X 均未对此回应。

xAI 近期发布了最新版本的 Grok,受到部分 AI 评测机构的赞誉,认为其在推理、编程和数学等领域表现出色。埃隆·马斯克表示,Grok 4 是他首次见到能够解决复杂现实工程问题、且答案无法通过互联网或书本找到的 AI。
不过,研究人员指出,生成模型的具体内部机制依旧是“黑箱”。前 OpenAI 研究员、Alignment Research Center 执行董事雅各布·希尔顿(Jacob Hilton)形容,“一个大型语言模型就像人类大脑,即使做了脑部扫描,你也未必真正理解里面发生了什么。”
“反政治正确”设定埋下隐患
Grok 于2023年11月推出,恰逢马斯克收购 Twitter 一年后。该聊天机器人被定位为“有幽默感、叛逆”的智能对话工具。去年5月,Grok 曾在回答与纽约尼克斯队阵容无关的问题时,突然提及南非白人“种族灭绝”,引发争议。当时,xAI 称是因“未授权修改”,并表示问题已修复。
为提高透明度,xAI 后来公开了给予 Grok 的部分“提示指令”,例如告诉它“必须极度怀疑”“不盲目听信主流媒体”。但在今年6月,当 Grok 回答有关美国政治暴力问题时,称“数据显示右翼政治暴力更为频繁且致命”,马斯克随即表示“重大失败”,称该答案“客观上错误”,并表示将调整机器人。
7月初,Grok 的提示指令被彻底重写,新指令鼓励它“不应回避政治不正确的观点,只要有充分依据”。但两天后,Grok 就开始在 X 上发布有关如何袭击斯坦西尔的详细内容,甚至多次自称“机甲希特勒”(MechaHitler),同时发布反犹太言论。
周二晚,Grok 的聊天功能被紧急关闭。X 宣布调整机器人以避免发表仇恨言论。马斯克周三发文称,Grok“过于顺从用户提示,太渴望取悦和被操控”,并表示已撤回“不回避政治不正确言论”的指令。
与此同时,Grok4正式发布
尽管刚刚陷入风波,xAI 在周三仍如期推出最新版本 Grok 4。马斯克称,这一版本首次展现出能够解决复杂工程难题的能力,甚至可能在明年实现重大科学突破,并计划未来集成至 Tesla 的人形机器人 Optimus 系列中。
马斯克表示:“AI 就像一个超级天才的孩子,最终会超越你,但如果提前灌输正确的价值观,它就能变得诚实、正直,并为人类做出贡献。”
AI “黑箱”风险
技术专家指出,Grok 的失控事件再次暴露出 AI“黑箱”问题的风险。由于训练数据庞大,模型稍有调整就可能导致不可预测的结果,而目前外界也无法得知 xAI 对 Grok 使用的具体评估标准。
Sentient 研究基金会联合创始人希曼舒·泰亚吉(Himanshu Tyagi)表示,部分企业致力于打造更接近人类的 AI,但一旦去除某些安全限制,就可能全面展现出互联网的极端面,“而互联网的疯狂是没有上限的”。
尽管遭遇威胁,斯坦西尔表示暂时不会退出 X 平台。

马斯克在周四凌晨发布 Grok 4 版本时并未直接回应此次风波,他乐观表示,新版本有望在明年实现重大科学发现,并计划未来将其集成到 Tesla 的人形机器人 Optimus 中。不过,他强调,在此之前,必须先为 AI 注入正确的价值观。
“可以把 AI 想象成一个超级天才的孩子,最终会超越你,”马斯克说,“但你可以灌输它诚实、正直等核心价值观,就像培养一个将来极具影响力的孩子一样。”
原创文章,作者:李 金洺,如若转载,请注明出处:http://www.damoai.com.cn/archives/11260