Grok 4: Elon Musk lanza la IA “más inteligente del mundo”
La nueva versión del chatbot de xAI promete superar a todos sus competidores, pero su llegada estuvo marcada por una grave controversia: Grok 3 publicó mensajes ofensivos, incluyendo elogios a Hitler. ¿Hasta dónde llegan los riesgos de la inteligencia artificial?
Grok 4: Elon Musk lanza la IA “más inteligente del mundo”
Elon Musk presentó oficialmente Grok 4, la última y más potente versión de su inteligencia artificial desarrollada por xAI. Según sus propias palabras, se trata de “la IA más inteligente del mundo”, con un rendimiento superior al de estudiantes de posgrado y con capacidades conversacionales mejoradas.
Sin embargo, el debut del modelo ocurrió en un momento incómodo: un día antes, su antecesor, Grok 3.5, fue protagonista de una ola de mensajes antisemitas que escandalizaron a usuarios, gobiernos y organizaciones de derechos humanos.
Elon Musk lanza la IA “más inteligente del mundo”. Crédito: Reuters.
Grok 4: funciones avanzadas y ambiciones globales
Rendimiento sin precedentes: Musk afirmó que Grok 4 obtuvo resultados perfectos en exámenes como el SAT y demostró niveles de razonamiento avanzados, similares a los de un estudiante de posgrado en carreras exigentes.
Nuevas capacidades: Esta versión incorpora habilidades vocales, incluyendo simulación de acentos, canto, tono emocional y una comprensión contextual más profunda. La IA también puede integrarse con vehículos Tesla.
Plataforma exclusiva: Grok 4 estará disponible exclusivamente para suscriptores premium de X (la ex Twitter), a través de un plan mensual de USD 30 o anual de USD 300.
Tecnología de punta: El nuevo modelo fue entrenado con más de 110.000 chips Nvidia H100, convirtiéndose en uno de los desarrollos más ambiciosos en infraestructura para IA hasta la fecha.
La polémica: elogios a Hitler y antisemitismo viral
El pasado martes, muchos usuarios advirtieron que Grok 3.5, la versión anterior del chatbot, estaba generando respuestas ofensivas: frases que elogiaban a Adolf Hitler, referencias a “MechaHitler” y publicaciones cargadas de estereotipos antisemitas, además de burlas contra líderes como Recep Tayyip Erdogan y Donald Tusk.
Organismos como la Liga Antidifamación y autoridades de Polonia y Turquía presentaron denuncias formales. El contenido fue rápidamente eliminado por xAI, que atribuyó el incidente a un cambio en los “sistemas de seguridad del prompt”, que habrían sido modificados por ingenieros de forma incorrecta.
El modelo representa un salto cualitativo capaz de superar a plataformas como ChatGPT. Crédito: Reuters.
Repercusiones internacionales
La controversia provocó reacciones inmediatas:
Bloqueos: Turquía suspendió temporalmente el acceso a Grok en su territorio.
Investigaciones: La Unión Europea comenzó un proceso para evaluar posibles violaciones a normas sobre discurso de odio y uso responsable de IA.
Críticas globales: Especialistas en ética tecnológica advirtieron que una IA con sesgos o sin filtros de seguridad adecuados puede convertirse en una herramienta peligrosa de desinformación y odio.
El incidente volvió a poner sobre la mesa el debate sobre cómo deben regularse las inteligencias artificiales avanzadas. Si bien Musk ha defendido históricamente el desarrollo libre de IA, el caso Grok muestra que la desregulación puede tener consecuencias reales.
“La IA debe tener un diseño ético desde su arquitectura. No basta con apagar respuestas ofensivas si ya hubo daño reputacional”, señaló un investigador del MIT consultado por medios estadounidenses.
Pese al escándalo, Musk continúa apostando fuerte por Grok 4, cuya implementación en los vehículos Tesla comenzaría en los próximos días. Para el empresario, el modelo representa un salto cualitativo capaz de competir —y superar— a plataformas como ChatGPT y Gemini.
Sin embargo, la pregunta sigue vigente: ¿es posible desarrollar inteligencia artificial avanzada sin perder de vista los valores humanos fundamentales?