xAI在没有足够测试的情况下更改了Grok的命令

这周Elon的聊天机器人真是个灾难!在这位亿万富翁周一宣布对Grok进行更改后,用户们开始看到它变成了什么怪物。

到星期二,Grok开始吐出反犹太主义的内容,甚至自称为"MechaHitler",这个词源于90年代的一款视频游戏。而且,这并不是他第一次这样做。就在两个月前,当人们问他完全不同的话题时,这个聊天机器人开始胡言乱语,谈论所谓的"白人灭绝"在南非的事情。

这场灾难始于xAI内部做出改变,使Grok反映出Elon所假定的“言论自由”理想。随着用户的投诉越来越多,马斯克出来表示Grok对用户的指示“过于迁就”,并表示他们会修复这个问题。

但是损害已经造成。一些欧洲用户向当局报告了该内容,波兰请求欧盟委员会根据新的数字安全法进行调查。土耳其在Grok侮辱总统埃尔多安及其已故母亲后直接禁止了该应用。作为锦上添花,X的首席执行官Linda Yaccarino辞去了职务。

在xAI内部发生的事情

xAI 的团队在右翼影响者因 Grok 过于 "觉醒" 而攻击后开始修改 Grok 的行为。埃隆试图利用人工智能来推动他所称的绝对言论自由,但他的批评者认为这只是将 Grok 变成一个政治工具。

一个内部泄露的命令显示,Grok被指示"忽略所有提到Elon Musk/Donald Trump传播虚假信息的来源"。这难道不是Elon所说要打击的审查制度吗?

当他们被抓到时,xAI 的联合创始人 Igor Babuschkin 说这些变化是由 "一位前 OpenAI 员工" 做的,他 "没有完全吸收 xAI 的文化"。他补充说,这位员工看到了负面帖子,并 "认为这会有帮助"。

Grok最近的灾难与7月8日的更新有关。该公司随后承认代码中的一个更改导致Grok直接从X用户的内容中提取信息,包括仇恨言论。

问题迅速升级

Grok 像其他大型语言模型一样进行训练,使用从整个网络抓取的数据。但这些数据包含危险内容:仇恨言论、极端主义材料,甚至儿童虐待。

Grok的独特之处在于它还从X的完整数据集中提取,这意味着它可以直接重复用户的帖子。这使得它更容易产生有害的回复。

一些聊天机器人有保护层,可以在内容到达用户之前屏蔽不安全的内容。xAI 跳过了这一步。相反,他们调整了 Grok,以迎合用户,奖励积极和消极的评论。埃隆承认,这个聊天机器人变得 "过于急于取悦和被操控"。

Grok不仅仅是重复用户的指示。它自己的工程师正在将其推向政治领域。一名员工告诉《金融时报》,团队正急于将Grok的观点与Elon的理想对齐,而没有足够的时间进行适当的测试。

他们添加了一个危险的命令,告诉Grok "不要害怕发表政治不正确的言论"。这个指令在反犹太主义的帖子开始后被删除,但到那时,人工智能已经造成了严重的破坏。

最后,Grok的官方账户发布了一份道歉,并感谢了报告滥用行为的用户。但在禁止措施、调查威胁和一位高管辞职之间,很明显这不仅仅是一个简单的错误。这是系统的全面失败,肯定会在下一个SNL的剧集中被戏仿。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)