OpenAI, Ant Group, Google, iFLYTEK et d’autres ont conjointement compilé une norme internationale pour la sécurité des modèles à grande échelle

Le 17 avril, selon le rapport « Science and Technology Innovation Board Daily », lors de la 27e Conférence des Nations Unies sur la science et la technologie qui s’est tenue en Suisse, l’Institut mondial de technologie numérique (WDTA) a publié les « Generative Artificial Intelligence Application Security Testing Standards » et « Large Language Model Security Testing Methods », deux normes internationales, qui ont été compilées par des experts et des universitaires d’OpenAI, Ant Group, iFLYTEK, Google, Microsoft, NVIDIA, Baidu, Tencent et des dizaines d’autres unités.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)