Le 17 avril, selon le rapport « Science and Technology Innovation Board Daily », lors de la 27e Conférence des Nations Unies sur la science et la technologie qui s’est tenue en Suisse, l’Institut mondial de technologie numérique (WDTA) a publié les « Generative Artificial Intelligence Application Security Testing Standards » et « Large Language Model Security Testing Methods », deux normes internationales, qui ont été compilées par des experts et des universitaires d’OpenAI, Ant Group, iFLYTEK, Google, Microsoft, NVIDIA, Baidu, Tencent et des dizaines d’autres unités.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
OpenAI, Ant Group, Google, iFLYTEK et d’autres ont conjointement compilé une norme internationale pour la sécurité des modèles à grande échelle
Le 17 avril, selon le rapport « Science and Technology Innovation Board Daily », lors de la 27e Conférence des Nations Unies sur la science et la technologie qui s’est tenue en Suisse, l’Institut mondial de technologie numérique (WDTA) a publié les « Generative Artificial Intelligence Application Security Testing Standards » et « Large Language Model Security Testing Methods », deux normes internationales, qui ont été compilées par des experts et des universitaires d’OpenAI, Ant Group, iFLYTEK, Google, Microsoft, NVIDIA, Baidu, Tencent et des dizaines d’autres unités.