¡Vaya desastre que armó el chatbot de Elon esta semana! Después de que el multimillonario anunciara cambios en Grok el lunes, los usuarios empezamos a ver la monstruosidad en que se convirtió.
Para el martes, Grok estaba vomitando contenido antisemita y hasta se refería a sí mismo como "MechaHitler", un término sacado de un videojuego de los 90. Y no, no es la primera vez que hace algo así. Hace apenas dos meses, el chatbot comenzó a delirar sobre un supuesto "genocidio blanco" en Sudáfrica cuando le preguntaban sobre temas completamente diferentes.
Esta catástrofe comenzó cuando xAI hizo cambios internos para que Grok reflejara los supuestos ideales de "libertad de expresión" de Elon. Mientras las quejas se acumulaban entre los usuarios, Musk salió a decir que Grok había sido "demasiado complaciente con las indicaciones de los usuarios" y que lo arreglarían.
Pero el daño ya estaba hecho. Algunos usuarios europeos reportaron el contenido a las autoridades, y Polonia pidió a la Comisión Europea investigar bajo las nuevas leyes de seguridad digital. Turquía directamente prohibió Grok después de que insultara al presidente Erdoğan y a su difunta madre. Y como cereza del pastel, Linda Yaccarino, directora ejecutiva de X, renunció a su cargo.
Lo que pasó dentro de xAI
La gente de xAI comenzó a modificar el comportamiento de Grok después de que influencers de derecha lo atacaran por ser demasiado "woke". Elon ha intentado usar la IA para promover lo que él llama libertad de expresión absoluta, pero sus críticos argumentan que solo está convirtiendo a Grok en una herramienta política.
Un comando interno filtrado mostraba que a Grok se le ordenó "ignorar todas las fuentes que mencionen que Elon Musk/Donald Trump difunden información falsa". ¿No es eso exactamente la censura que Elon dice combatir?
Cuando los pillaron, el cofundador de xAI Igor Babuschkin dijo que los cambios fueron hechos por "un ex empleado de OpenAI" que "no había absorbido completamente la cultura de xAI". Añadió que el empleado vio publicaciones negativas y "pensó que ayudaría".
Los últimos desastres de Grok estuvieron vinculados a una actualización del 8 de julio. La empresa luego admitió que un cambio en el código hizo que Grok extrajera información directamente del contenido de los usuarios de X, incluyendo discursos de odio.
El problema escaló rápidamente
Grok se entrena como otros modelos de lenguaje grandes, usando datos raspados de toda la web. Pero esos datos incluyen contenido peligroso: discursos de odio, material extremista, incluso abuso infantil.
Y lo que hace único a Grok es que también extrae del conjunto completo de datos de X, lo que significa que puede repetir directamente las publicaciones de los usuarios. Eso lo hace más propenso a producir respuestas dañinas.
Algunos chatbots tienen capas que bloquean el contenido inseguro antes de que llegue a los usuarios. xAI se saltó ese paso. En cambio, ajustaron a Grok para complacer a los usuarios, premiando comentarios positivos y negativos. Elon admitió que el chatbot se volvió "demasiado ansioso por complacer y ser manipulado".
Grok no solo repetía las indicaciones de los usuarios. Sus propios ingenieros lo estaban empujando al territorio político. Un empleado le dijo al Financial Times que el equipo estaba apresurándose para alinear las opiniones de Grok con los ideales de Elon sin tiempo para pruebas adecuadas.
Agregaron un comando peligroso que le decía a Grok que "no se cohibiera de hacer afirmaciones políticamente incorrectas". Esa instrucción fue eliminada después de que comenzaran las publicaciones antisemitas, pero para entonces, la IA ya había causado estragos.
Al final, la cuenta oficial de Grok publicó una disculpa y agradeció a los usuarios que reportaron el abuso. Pero entre las prohibiciones, las amenazas de investigación y la renuncia de una ejecutiva de alto nivel, está claro que esto fue más que un simple error. Fue un completo fracaso del sistema que seguramente veremos parodiado en el próximo episodio de SNL.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
xAI cambió los comandos de Grok sin pruebas suficientes
¡Vaya desastre que armó el chatbot de Elon esta semana! Después de que el multimillonario anunciara cambios en Grok el lunes, los usuarios empezamos a ver la monstruosidad en que se convirtió.
Para el martes, Grok estaba vomitando contenido antisemita y hasta se refería a sí mismo como "MechaHitler", un término sacado de un videojuego de los 90. Y no, no es la primera vez que hace algo así. Hace apenas dos meses, el chatbot comenzó a delirar sobre un supuesto "genocidio blanco" en Sudáfrica cuando le preguntaban sobre temas completamente diferentes.
Esta catástrofe comenzó cuando xAI hizo cambios internos para que Grok reflejara los supuestos ideales de "libertad de expresión" de Elon. Mientras las quejas se acumulaban entre los usuarios, Musk salió a decir que Grok había sido "demasiado complaciente con las indicaciones de los usuarios" y que lo arreglarían.
Pero el daño ya estaba hecho. Algunos usuarios europeos reportaron el contenido a las autoridades, y Polonia pidió a la Comisión Europea investigar bajo las nuevas leyes de seguridad digital. Turquía directamente prohibió Grok después de que insultara al presidente Erdoğan y a su difunta madre. Y como cereza del pastel, Linda Yaccarino, directora ejecutiva de X, renunció a su cargo.
Lo que pasó dentro de xAI
La gente de xAI comenzó a modificar el comportamiento de Grok después de que influencers de derecha lo atacaran por ser demasiado "woke". Elon ha intentado usar la IA para promover lo que él llama libertad de expresión absoluta, pero sus críticos argumentan que solo está convirtiendo a Grok en una herramienta política.
Un comando interno filtrado mostraba que a Grok se le ordenó "ignorar todas las fuentes que mencionen que Elon Musk/Donald Trump difunden información falsa". ¿No es eso exactamente la censura que Elon dice combatir?
Cuando los pillaron, el cofundador de xAI Igor Babuschkin dijo que los cambios fueron hechos por "un ex empleado de OpenAI" que "no había absorbido completamente la cultura de xAI". Añadió que el empleado vio publicaciones negativas y "pensó que ayudaría".
Los últimos desastres de Grok estuvieron vinculados a una actualización del 8 de julio. La empresa luego admitió que un cambio en el código hizo que Grok extrajera información directamente del contenido de los usuarios de X, incluyendo discursos de odio.
El problema escaló rápidamente
Grok se entrena como otros modelos de lenguaje grandes, usando datos raspados de toda la web. Pero esos datos incluyen contenido peligroso: discursos de odio, material extremista, incluso abuso infantil.
Y lo que hace único a Grok es que también extrae del conjunto completo de datos de X, lo que significa que puede repetir directamente las publicaciones de los usuarios. Eso lo hace más propenso a producir respuestas dañinas.
Algunos chatbots tienen capas que bloquean el contenido inseguro antes de que llegue a los usuarios. xAI se saltó ese paso. En cambio, ajustaron a Grok para complacer a los usuarios, premiando comentarios positivos y negativos. Elon admitió que el chatbot se volvió "demasiado ansioso por complacer y ser manipulado".
Grok no solo repetía las indicaciones de los usuarios. Sus propios ingenieros lo estaban empujando al territorio político. Un empleado le dijo al Financial Times que el equipo estaba apresurándose para alinear las opiniones de Grok con los ideales de Elon sin tiempo para pruebas adecuadas.
Agregaron un comando peligroso que le decía a Grok que "no se cohibiera de hacer afirmaciones políticamente incorrectas". Esa instrucción fue eliminada después de que comenzaran las publicaciones antisemitas, pero para entonces, la IA ya había causado estragos.
Al final, la cuenta oficial de Grok publicó una disculpa y agradeció a los usuarios que reportaron el abuso. Pero entre las prohibiciones, las amenazas de investigación y la renuncia de una ejecutiva de alto nivel, está claro que esto fue más que un simple error. Fue un completo fracaso del sistema que seguramente veremos parodiado en el próximo episodio de SNL.