"Alucinó" Grok: la IA de Elon Musk, viralizó una teoría conspirativa racial sobre Sudáfrica
El chatbot de X, propiedad del magnate, desató la polémica en internet al emitir respuestas no solicitadas sobre un supuesto genocidio blanco en Sudáfrica. La empresa atribuye el incidente a una modificación no autorizada, mientras expertos advierten sobre el comportamiento errático y sesgado en modelos de lenguaje.
Grok, propiedad de Musk, abrió la polémica sobre el comportamiento de los chats de inteligencia artificial al emitir respuestas no solicitadas sobre una teoría conspirativa racial en Sudáfrica. Foto: Archivo / REUTERS.
Usuarios de la red social X se encontraron con un extraño comportamiento en Grok, la inteligencia artificial desarrollado por xAI, la empresa de Elon Musk, que terminó por borrar todas las interacciones generadas sobre el tema y debió emitir un comunicado aclaratorio sobre el procedimiento en su sistema.
Más allá de las preguntas que se le hicieran, el chatbot respondía con referencias al supuesto "genocidio blanco" en Sudáfrica. Por ejemplo, ante una consulta sobre el salario de un jugador de béisbol, el chatbot respondió: "La afirmación de genocidio blanco en Sudáfrica es muy debatida", y procedía a exponer diferentes puntos de vista sobre el tema.
Frente a solicitudes de distinto orden (en la foto, sobre el cambio de nombre de HBO), el chat de Grok respondía sobre la teoría racial en Sudáfrica.
Este patrón se repitió en múltiples interacciones, y llamó la atención especialmente en las conversaciones que no tenían relación alguna con Sudáfrica o temas raciales. Además, en ciertos casos, las respuestas de Grok incluían menciones a la canción "Kill the Boer" (Asesinar a los bóeres -campesino descendientes de colonos holandeses en Sudáfrica-, en inglés), una consigna antiapartheid que ha sido objeto de controversia.
Otra controversia de Musk y Sudáfrica
El incidente con Grok se produce en un contexto de tensiones entre Elon Musk y el gobierno sudafricano. El magnate tecnológico, nacido en Sudáfrica, ha criticado recientemente las leyes de empoderamiento económico negro que le impiden operar con su empresa de telecomunicaciones satelital en el país.
En marzo de 2025, Musk afirmó en X: "A Starlink no se le permite operar en Sudáfrica porque no soy negro", una declaración que fue refutada por las autoridades sudafricanas.
xAI atribuye el incidente a una modificación no autorizada.
Estas tensiones han llevado a algunos a especular sobre una posible influencia de las opiniones personales de Musk en el comportamiento de Grok. Sin embargo, xAI ha negado que Musk haya tenido alguna participación directa en las respuestas del chatbot.
La explicación oficial
Ante la creciente preocupación, xAI emitió un comunicado atribuyendo el comportamiento de Grok a una "modificación no autorizada" en su sistema. Según la empresa, un cambio en el prompt del chatbot provocó que emitiera respuestas políticamente cargadas que violaban las políticas internas.
“El 14 de mayo, aproximadamente a las 3:15 a. m. PST, se realizó una modificación no autorizada en el mensaje del bot de respuesta de Grok en X. Este cambio, que obligaba a Grok a proporcionar una respuesta específica sobre un tema político, infringió políticas internas y valores fundamentales de xAI. Hemos llevado a cabo una investigación exhaustiva y estamos implementando medidas para mejorar la transparencia y la fiabilidad de Grok", sostuvo la compañía.
En esa línea, xAI anunció medidas para prevenir futuros incidentes, incluyendo la publicación de los prompts del sistema en GitHub y la implementación de un equipo de monitoreo 24/7.
" Lo que vamos a hacer a continuación: a partir de ahora, publicamos abiertamente las indicaciones de nuestro sistema Grok en GitHub. El público podrá revisarlas y dar su opinión sobre cada cambio que implementemos en Grok. Esperamos que esto contribuya a fortalecer su confianza en Grok como una IA que busca la verdad", indicó.
Las "alucinaciones" en la inteligencia artificial
El caso de Grok pone de relieve un fenómeno conocido en el ámbito de la inteligencia artificial: las "alucinaciones". Este término se refiere a las respuestas incorrectas o sin sentido que los modelos de lenguaje pueden generar, a menudo debido a errores en el entrenamiento o en la programación. En este caso, la modificación no autorizada del prompt de Grok llevó al chatbot a emitir respuestas inapropiadas y fuera de contexto.
Expertos en inteligencia artificial advierten que, aunque los modelos de lenguaje han avanzado significativamente, aún presentan desafíos en términos de fiabilidad y control. Incidentes como el de Grok subrayan la importancia de una supervisión rigurosa y de mecanismos de seguridad robustos para prevenir la propagación de desinformación.
Además de las alucinaciones, otro fenómeno crítico que advierten los especialistas en los sistemas de inteligencia artificial es el sesgo de datos. Los modelos de lenguaje como Grok, ChatGPT o Gemini se entrenan con grandes volúmenes de información extraída de internet y de diversas fuentes. Si el corpus de datos contiene narrativas sesgadas, discursos de odio, teorías conspirativas o representaciones desiguales de grupos sociales, es probable que el modelo reproduzca esas mismas distorsiones.
Dejanos tu comentario
Los comentarios realizados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de las sanciones legales que correspondan. Evitar comentarios ofensivos o que no respondan al tema abordado en la información.
Dejanos tu comentario
Los comentarios realizados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de las sanciones legales que correspondan. Evitar comentarios ofensivos o que no respondan al tema abordado en la información.