El 17 de abril, según el informe "Science and Technology Innovation Board Daily", en la 27ª Conferencia de Ciencia y Tecnología de las Naciones Unidas celebrada en Suiza, el Instituto Mundial de Tecnología Digital (WDTA) publicó los "Estándares de prueba de seguridad de aplicaciones de inteligencia artificial generativa" y "Métodos de prueba de seguridad de modelos de lenguaje grande", dos estándares internacionales, que fueron compilados por expertos y académicos de OpenAI, Ant Group, iFLYTEK, Google, Microsoft, NVIDIA, Baidu, Tencent y docenas de otras unidades.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
OpenAI, Ant Group, Google, iFLYTEK y otros compilaron conjuntamente un estándar internacional para la seguridad de modelos a gran escala
El 17 de abril, según el informe "Science and Technology Innovation Board Daily", en la 27ª Conferencia de Ciencia y Tecnología de las Naciones Unidas celebrada en Suiza, el Instituto Mundial de Tecnología Digital (WDTA) publicó los "Estándares de prueba de seguridad de aplicaciones de inteligencia artificial generativa" y "Métodos de prueba de seguridad de modelos de lenguaje grande", dos estándares internacionales, que fueron compilados por expertos y académicos de OpenAI, Ant Group, iFLYTEK, Google, Microsoft, NVIDIA, Baidu, Tencent y docenas de otras unidades.