谷歌从AI工作室撤回Gemma AI,重申开发者专用目的,因准确性问题

简要介绍

谷歌在关于事实问题的幻觉报告后撤回了其Gemma模型,并强调该模型旨在用于开发和研究目的。

谷歌撤回Gemma AI于AI工作室的使用,重申仅供开发者使用的目的,因准确性问题而引发关注

科技公司谷歌宣布撤回其Gemma AI模型,原因是有报道称该模型对事实问题的回答不准确,并澄清该模型仅用于研究和开发人员。

根据公司的声明,Gemma不再通过AI Studio访问,但仍然可以通过API供开发者使用。这个决定是由于非开发者通过AI Studio使用Gemma请求事实信息的情况,这并不是它的预期功能。

谷歌解释说,Gemma从来不是为了作为面向消费者的工具,其移除是为了防止对其目的产生进一步的误解。

在其澄清中,谷歌强调,Gemma系列模型是作为开源工具开发的,目的是支持开发者和研究社区,而不是用于事实援助或消费者互动。该公司指出,像Gemma这样的开放模型旨在鼓励实验和创新,使用户能够探索模型性能,识别问题并提供宝贵反馈。

谷歌指出,杰玛已经为科学进步做出了贡献,引用了杰玛C2S-Scale 27B模型的例子,该模型最近在识别癌症治疗开发的新方法中发挥了作用。

公司承认了人工智能行业面临的更广泛挑战,例如幻觉——当模型生成虚假或误导性信息时——和谄媚——当它们产生令人同意但不准确的回应时。

这些问题在像Gemma这样的较小开放模型中尤其常见。谷歌重申了其减少幻觉并持续提高其人工智能系统的可靠性和性能的承诺。

谷歌实施多层次策略以遏制人工智能幻觉

该公司采用多层次的方法来最小化其大型语言模型(LLMs)中的幻觉,结合数据基础、严格训练和模型设计、结构化提示和上下文规则,以及持续的人类监督和反馈机制。尽管采取了这些措施,公司承认幻觉无法完全消除。

其根本限制源于大型语言模型(LLMs)的运作方式。这些模型并不具备对真相的理解,而是通过预测基于训练期间识别的模式的可能单词序列来运作。当模型缺乏足够的基础知识或遇到不完整或不可靠的外部数据时,它可能会生成听起来可信但实际上不正确的响应。

此外,谷歌指出,在优化模型性能时存在固有的权衡。增加谨慎和限制输出可以帮助限制幻觉,但往往以某些任务的灵活性、效率和实用性为代价。因此,偶尔的不准确性仍然存在,特别是在新兴、专业或代表性不足的数据覆盖有限的领域。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
  • 热门 Gate Fun查看更多
  • 市值:$3933.39持有人数:2
    0.01%
  • 市值:$3675.86持有人数:1
    0.00%
  • 市值:$3831.03持有人数:1
    0.00%
  • 市值:$3978.53持有人数:2
    0.01%
  • 市值:$4112.68持有人数:3
    0.18%
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)