上周我不得不先停下来,想一想几乎同时出现的三个故事。都与重要机构如何使用(或不使用)人工智能有关。说实话,它们讲述了一个更大的故事:我们现在到底身处哪里。



我从英国曼彻斯特的学校开始。那所学校使用人工智能来审查图书馆,而机器建议移除193本书。每一本都有它那套自动给出的理由。《1984》被列入名单,理由是“包含折磨和暴力的主题”。也就是说,人工智能在审查一本字面上就讲审查的书。我的怒气都来不及生出来——简直有点像诗意。

学校的图书管理员觉得不对,拒绝执行。接下来那段彻底把我惹火了:学校以“儿童安全”为名对她展开调查,向地方当局举报,最终她在只是提出辞职之前就先请了病假离开。结论?当局同意她确实违反了规程。基本上:抵制人工智能的人失去了工作。那些只是“照做”的人呢?没有任何后果。

后来还被人知道:学校内部其实承认一切内容都是由人工智能生成的,但他们仍然认为“总体上差不多准确”。一位管理者把任务交给机器,机器返回的东西连她自己都不明白,而却没人认真去核实。

接下来把这一切和同一周维基百科的做法对比一下。它们以44票对2票,决定禁止LLMs生成或重写文章。因为一个名为TomWikiAssist的AI账号开始自动创建条目。条目生成只要几秒,志愿者核查却要数小时。而真正的问题在于:维基百科是全球AI训练的来源数据。错误数据一旦混进去,下一代模型就会用被污染的信息来训练。于是就形成了一个层层叠加的“毒化”循环。

但先让我告诉你更离谱的事。OpenAI?它们也在后退。取消了原本计划上线的ChatGPT“成人模式”。Sam Altman曾亲自说过,要“像对待成年人一样对待成人用户”。五个月后,这一计划被取消。因为内部健康委员会一致投票反对。具体理由包括:情感依赖;未成年人绕过年龄验证(taxa de erro acima de 10%);以及真实存在的伤害风险。

同一周,他们还停用了视频工具Sora和集成的支付功能。Altman说这是为了专注核心业务。但我们得承认:公司正处在IPO进程中。你在准备上市的时候,就会把那些争议功能先砍掉。于是连AI的开发者都不再清楚:用户到底还能不能用AI做什么、不能做什么。

这就是这一切的核心:AI生产内容的速度,与人类完成复核的速度,根本不在同一个宇宙。一个校方负责人选择用AI,是因为几分钟就能搞定,而不是因为它的质量值得信任。这纯粹是经济学——生成几乎不花什么钱,而审计却要付出全部成本。

因此,每一家受影响的机构都用尽可能强硬的方式回应。直接禁止。削减产品线。没有哪一个是在仔细反思之后做出的决定。它们都是应急措施。“先堵上漏洞”逐渐变成了常态。

问题就在于:目前的AI能力每隔几个月就会更新。没有任何国际框架规定AI到底能做什么、不能做什么。每个机构都划出自己的边界。这些边界彼此矛盾。而与此同时,AI的速度仍在继续加快;进行复核的人数却没有增加。这样的差距只会越拉越大。某一天,可能会出现比“禁掉《1984》”更糟糕得多的事情。当真正要画出最终边界的时候,或许已经太晚了。
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论