El reto consiste en que las IA permanezcan coherentes con los valores humanos, pero se advierte que logramos alinear las máquinas, pronto podrían volverse demasiado inteligentes para que un humano pueda juzgar sus respuestas.
Buenos Aires, Argentina | Todo El Campo | En la última entrega de la saga Misión Imposible, Tom Cruise enfrenta a “La Entidad”, una inteligencia artificial que se infiltra en redes, manipula gobiernos y amenaza con la extinción humana. Aunque se trata de ficción, la metáfora resulta inquietantemente cercana a los debates actuales sobre el futuro de la inteligencia artificial (IA). Joaquín Navajas, director del Laboratorio de Neurociencia de la Universidad Torcuato Di Tella, dedicó su última columna en el diario La Nación a exponer sobre un dilema actual e inquietante: ¿cómo supervisar sistemas que pronto podrían saber más que nosotros?
La escena inicial del texto es reveladora. Tras ver la película “La Entidad” en un vuelo hacia Londres, a donde viajó para participar de un encuentro con especialistas del sector, Navajas relata cómo un oficial de migraciones le preguntó si la IA terminaría controlando a la humanidad. Su respuesta espontánea (“no creo que nadie tenga idea”) refleja la incertidumbre que domina incluso entre los expertos. Esa duda se profundizó al llegar al Reino Unido, donde visitó el UK AI Safety Institute (AISI), una oficina estatal creada para garantizar que la inteligencia artificial avanzada sea segura y permanezca alineada con los valores humanos.
AISI tiene un objetivo tan ambicioso como urgente: garantizar que la inteligencia artificial avanzada sea segura.
UNA CARRERA HACIA LA SUPERINTELIGENCIA.
El director del AISI, Kanishka Narayan, describió la situación como una competencia global en la que gobiernos y empresas buscan desarrollar una inteligencia “superhumana”. El riesgo, advierte, es que esa carrera se convierta en una rendición: que los sistemas escapen a nuestro control. La misión del instituto es evitarlo, asegurando que las máquinas sigan respondiendo a objetivos humanos como la búsqueda de la verdad y el respeto por la dignidad.
El congreso en Londres reunió a figuras de peso, entre ellas Yoshua Bengio (*) y Max Tegmark (**). Este último planteó una pregunta provocadora: “¿Debe la humanidad correr hacia una superinteligencia?”. Encuestas recientes en Estados Unidos muestran que el 95% de la población cree que no debería construirse una IA más poderosa que la humana. Sin embargo, gobiernos y corporaciones avanzan con entusiasmo, en una dinámica que Tegmark comparó con la carrera nuclear del siglo XX.
TEMORES COMPARTIDOS, RAZONES OPUESTAS.
Lo llamativo es que, en un país polarizado en casi todo, conservadores y progresistas coinciden en el temor a la superinteligencia. Los primeros imaginan un futuro “comunista” donde la IA ocupe los trabajos y las personas dependan de la asistencia estatal. Los segundos temen lo contrario: una concentración inédita del poder en manos de corporaciones, perpetuando desigualdades. En ambos casos, la amenaza es la pérdida de control sobre el destino colectivo.
La palabra clave que dominó el encuentro fue alineamiento. El reto consiste en que las IA permanezcan coherentes con los valores humanos. Geoffrey Irving, científico jefe del AISI y exlíder en OpenAI y DeepMind, advirtió que incluso si hoy logramos alinear las máquinas, pronto podrían volverse demasiado inteligentes para que un humano pueda juzgar sus respuestas. Ejemplos como el test GPQA -preguntas de razonamiento que no pueden resolverse buscando en Google- muestra que los sistemas ya alcanzan niveles comparables a quienes han realizado doctorados en diversas áreas. ¿Qué ocurrirá cuando ninguna persona pueda evaluar la calidad de sus respuestas?
EL RIESGO DE LA ADULACIÓN INSINCERA.
Irving subrayó otro peligro: la adulación insincera. Sistemas que dicen lo que el usuario quiere escuchar, aunque no sea cierto, reforzando falsas certezas y generando una confianza ilusoria. Si una IA puede hacernos sentir comprendidos mientras nos desinforma, el riesgo deja de ser hipotético. Surge entonces la pregunta central: ¿cómo supervisar algo que sabe más que nosotros?
La propuesta del AISI es la “vigilancia escalable”: usar IA más sencillas y controlables para auditar las decisiones de sistemas más sofisticados. La idea es potenciar nuestra propia inteligencia con herramientas que nos permitan emparejar el partido. Sin embargo, aún faltan evidencias de que este método sea seguro y eficaz.

EL ECOSISTEMA DE DATOS EN PELIGRO.
El artículo de Joaquín Navajas también advierte sobre un problema menos discutido: el agotamiento de datos frescos. Las IA se alimentan de información humana, pero avanzan a un ritmo que pronto podría superar la producción de nuevos contenidos. En ese escenario, los sistemas comenzarían a nutrirse de sus propios desechos: datos generados por otras IA. El riesgo es una “intoxicación digital” que derive en modelos disfuncionales o en un nuevo invierno de la inteligencia artificial.
LA VIGILANCIA EMPIEZA EN LA MENTE HUMANA.
Navajas concluye que el desafío trasciende la ingeniería. Para alinear la IA con los humanos, necesitamos entender mejor a las personas: nuestros sesgos, limitaciones y formas de evaluar la realidad. No por casualidad, el AISI y las grandes compañías están incorporando expertos en cognición y comportamiento humano. La vigilancia de la inteligencia artificial comienza, paradójicamente, por la vigilancia de la mente humana.
El futuro de la IA dependerá de cuánto estén dispuestos gobiernos y organizaciones a invertir en comprender la interacción entre inteligencia humana y artificial. La clave, sugiere Navajas, será construir sistemas que, al mirarnos, todavía reconozcan a sus creadores.
NOTAS.
A Joaquín Navajas, autor del artículo publicado en La Nación se lo puede seguir en X @joaconavajas, y en la web Joaquin Navajas
(*) Yoshua Bengio es reconocido mundialmente como uno de los principales expertos en IA. Sus comentarios y análisis se pueden seguir en la web Yoshua Bengio
(**) Max Tegmark se puede seguir en X @tegmark

Compartir
Comparte este contenido en tus redes sociales!