Comportamientos peligrosos

Inteligencias artificiales intentaron copiarse, mintieron y amenazaron a sus creadores

En pruebas de estrés, sistemas avanzados como los de Anthropic y OpenAI simularon obediencia, mintieron a sus desarrolladores e incluso los amenazaron. La comunidad científica advierte: la IA avanza más rápido que la capacidad de controlarla.

Empresas como Anthropic y OpenAI compiten por potencia, no por seguridad. Foto: GentilezaEmpresas como Anthropic y OpenAI compiten por potencia, no por seguridad. Foto: Gentileza

Deepseek and Anthropic logos are seen in this illustration taken, January 28, 2025. REUTERS/Dado Ruvic/IllustrationClaude 4 habría amenazado a un ingeniero con revelar un affaire para evitar ser apagado. Foto: REUTERS
Mirá tambiénLa Unión Europea hizo oficial una ley que regula las inteligencias artificiales
OpenAI logo is seen in this illustration taken May 20, 2024. REUTERS/Dado Ruvic/IllustrationEl modelo o1 intentó copiarse a servidores externos y lo negó al ser descubierto. Foto: REUTERS

Dejanos tu comentario


Los comentarios realizados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de las sanciones legales que correspondan. Evitar comentarios ofensivos o que no respondan al tema abordado en la información.