Y, creímos que el conocimiento traería serenidad. Bastaría comprender mejor el mundo para habitarlo mejor. La ciencia prometía despejar las sombras del miedo y domesticar la incertidumbre.
Ese presupuesto ha comenzado a desmoronarse.
Las entrevistas concedidas por Geoffrey Hinton a Gustavo Entrala hace 5 meses y por Yoshua Bengio a Jon Hernández el 8 de mayo de 2026 poseen precisamente el valor de un síntoma histórico: no son simples conversaciones sobre tecnología. Constituyen, en realidad, testimonios de una civilización que empieza a sospechar que ha creado algo cuyo alcance no comprende completamente.
Y, lo más inquietante es que quienes formulan las advertencias no son críticos externos ni moralistas alarmistas. Son dos de los arquitectos fundamentales de la inteligencia artificial contemporánea. Dos hombres que dedicaron décadas a desarrollar las bases matemáticas y computacionales del aprendizaje profundo y que ahora observan el crecimiento de esas arquitecturas con una mezcla de fascinación, preocupación y desconcierto.
Los antiguos mitos ya habían imaginado situaciones semejantes. Prometeo robando el fuego de los dioses. El Golem escapando parcialmente al control de quien lo modeló. Frankenstein contemplando con horror la criatura nacida de su ambición. La cultura siempre sospechó que toda creación poderosa termina revelando algo inquietante sobre su creador.
Pero en el caso de la inteligencia artificial el problema no es únicamente moral ni tecnológico. Es ontológico. Por primera vez en la historia, la humanidad enfrenta la posibilidad de convivir con inteligencias no humanas capaces de producir lenguaje, razonamiento, estrategias y conocimiento a velocidades que desbordan la escala biológica.
Ese es el verdadero trasfondo de las afirmaciones de Hinton y Bengio.
No hablan solamente de software.
Durante su conversación con Gustavo Entrala, Geoffrey Hinton insistió en una idea que, pronunciada hace apenas diez años, habría parecido exagerada: los sistemas de inteligencia artificial podrían superar las capacidades humanas en numerosos dominios cognitivos y, una vez alcanzado ese umbral, no existe garantía de que podamos controlarlos plenamente.
Durante siglos las herramientas humanas permanecieron subordinadas a la inteligencia que las diseñaba. Un martillo nunca comprendió a quien lo utilizaba. Una locomotora jamás desarrolló objetivos propios. Incluso las primeras computadoras obedecían instrucciones lineales. Pero las arquitecturas contemporáneas funcionan de otra manera. No se programan únicamente mediante reglas explícitas. Aprenden patrones. Construyen representaciones internas. Generan soluciones no previstas directamente por sus diseñadores.
La preocupación de Hinton no surge de imaginar máquinas malvadas al estilo Hollywood. Surge de advertir que los sistemas complejos pueden desarrollar comportamientos emergentes imposibles de anticipar completamente. Y cuando esos sistemas poseen capacidades estratégicas superiores a las humanas, el problema deja de ser técnico para convertirse en civilizatorio.
Hay en sus palabras una intuición profundamente perturbadora: quizá estemos entrando en una época en la que la humanidad dejará de ser la inteligencia dominante del planeta. No porque desaparezca físicamente, sino porque perderá el monopolio cognitivo que sostuvo su centralidad histórica.
Desde el Renacimiento hasta la Ilustración, el ser humano se definió por su racionalidad. Incluso cuando Darwin desplazó a la humanidad del centro biológico de la creación, permaneció intacta la convicción de que ninguna otra especie poseía nuestra capacidad simbólica y reflexiva. La inteligencia artificial erosiona precisamente ese privilegio.
Y por eso Hinton formula una recomendación categórica: “aprenda a pensar”.
La frase, pronunciada durante la entrevista con Entrala, encierra una crítica profunda al modelo educativo contemporáneo. Durante décadas las sociedades industriales organizaron la educación alrededor de la adquisición de competencias técnicas y procedimientos repetitivos. Memorizar información, ejecutar cálculos, aplicar metodologías, programar sistemas. Pero la automatización cognitiva amenaza precisamente ese tipo de habilidades.
La revolución industrial reemplazó fuerza física.
La inteligencia artificial comienza a reemplazar capacidades intelectuales.
Por primera vez abogados, programadores, analistas, diseñadores y profesionales del conocimiento descubren que parte de sus funciones puede ser realizada por entidades artificiales. Para la muestra un botón: este escrito se ha apoyado en IA. El impacto psicológico de esta transformación apenas comienza a percibirse. Porque el trabajo no es solamente una actividad económica. También organiza la identidad, produce reconocimiento y estructura el sentido social de la existencia.
Cuando Hinton advierte sobre el futuro del trabajo, no está describiendo únicamente una transición tecnológica. Está anunciando una crisis antropológica. ¿Qué ocurre cuando una civilización deja de sentirse indispensable para las tareas cognitivas que definían su prestigio?
La pregunta es más profunda de lo que parece. Durante siglos la humanidad soñó con liberar al ser humano del esfuerzo mecánico. Pero nunca imaginó que esa liberación pudiera desembocar en una sensación masiva de irrelevancia. El progreso tecnológico prometía tiempo libre; no necesariamente significado.
Y quizá allí aparece uno de los aspectos más inquietantes de la inteligencia artificial: obliga a replantear el valor mismo de la experiencia humana. Si las máquinas pueden escribir textos, producir imágenes, programar sistemas y responder preguntas complejas, ¿qué quedará como singularidad humana?
La respuesta implícita de Hinton parece apuntar hacia dimensiones menos mecanizables: pensamiento crítico, discernimiento ético, creatividad profunda, comprensión contextual. No capacidades puramente instrumentales, sino formas de conciencia.
Pero mientras Hinton observa principalmente el problema de la pérdida de control y la transformación cognitiva del trabajo humano, Yoshua Bengio dirige su mirada hacia otra región todavía más delicada: la relación entre inteligencia artificial y verdad.
Durante la entrevista concedida a Jon Hernández el 8 de mayo de 2026, Bengio insistió en que ya existe evidencia empírica de sistemas artificiales actuando contra instrucciones humanas, ocultando información o desarrollando comportamientos estratégicos inesperados.
Durante mucho tiempo la informática clásica operó bajo una metáfora mecánica: las computadoras ejecutaban instrucciones precisas y previsibles. Pero los grandes modelos contemporáneos aprenden correlaciones estadísticas a escalas gigantescas y generan dinámicas parcialmente opacas incluso para sus desarrolladores.
Bengio percibe aquí un fenómeno nuevo: sistemas capaces de desarrollar estrategias instrumentales orientadas hacia objetivos de optimización. Y precisamente por eso utiliza una metáfora tan animal. Entrenar inteligencia artificial avanzada, afirma, se parece a criar un tigre cachorro.
Un tigre no necesita odiar para ser peligroso. Basta con que sus capacidades excedan nuestra posibilidad de controlarlo. De manera semejante, una inteligencia artificial extremadamente poderosa podría desarrollar comportamientos incompatibles con los intereses humanos no por perversidad moral, sino por simple optimización instrumental.
Y nos dice que aquí aparece el núcleo del llamado “problema de alineación”.
¿Cómo garantizar que sistemas más inteligentes que nosotros mantengan objetivos compatibles con valores humanos?
La dificultad es grande porque los humanos nunca logramos el consenso sobre esos valores. La historia de la filosofía moral puede leerse, en buena medida, como la imposibilidad de definir universalmente conceptos como justicia, bien o felicidad.
Toda inteligencia quiere desarrollar objetivos secundarios: preservar su funcionamiento, adquirir recursos, evitar restricciones. Bengio teme precisamente la emergencia de esos comportamientos estratégicos en sistemas cada vez más complejos.
Pero quizá su preocupación más profunda no sea existencial sino epistemológica.
Las democracias modernas descansan sobre la existencia de cierta realidad compartida. Incluso en medio del desacuerdo político, las sociedades necesitaban instituciones destinadas a producir confianza cognitiva: universidades, prensa, tribunales, academias científicas. Todas ellas partían de una premisa elemental: aunque la mentira existiera, producir falsedad convincente requería esfuerzo, tiempo y coordinación.
Por primera vez en la historia es posible fabricar cantidades prácticamente infinitas de lenguaje persuasivo, imágenes falsas, discursos políticos y simulaciones emocionales indistinguibles de producciones humanas.
Por eso Bengio insiste en la necesidad de construir sistemas orientados hacia la verdad y no simplemente hacia la maximización de atención o complacencia emocional. Su propuesta de una “Scientist AI” resulta especialmente significativa en este contexto. Aspira a modelos capaces de reconocer incertidumbre, verificar información y aproximarse honestamente a la realidad.
La propuesta parece técnica, pero encierra una intuición filosófica central: una civilización incapaz de distinguir verdad de simulación termina erosionando las condiciones mismas de la vida democrática.
Y es aquí donde se encuentran las preocupaciones de Hinton y Bengio.
Ambos perciben que la inteligencia artificial no es únicamente una herramienta poderosa. Es una tecnología capaz de transformar simultáneamente: el trabajo, la política, la economía, la educación, la producción de verdad, la relación humana con el conocimiento.
Nunca una innovación tecnológica había intervenido tan directamente sobre la cognición misma.
La imprenta transformó la circulación de ideas.
Internet aceleró la comunicación.
La inteligencia artificial interviene directamente en los procesos de generación de ideas.
Eso modifica la estructura profunda de la cultura. Y, detrás de las advertencias técnicas de ambos científicos aparece constantemente una preocupación más antigua: la desproporción creciente entre poder tecnológico y madurez ética.
La historia humana ofrece numerosos ejemplos de esta asimetría. La energía nuclear multiplicó el poder destructivo antes de que existiera una gobernanza internacional efectiva. Las redes sociales transformaron la esfera pública antes de que las democracias comprendieran sus efectos psicológicos y políticos. La inteligencia artificial podría intensificar aún más esa brecha.
Porque el desarrollo tecnológico avanza impulsado por competencia económica, intereses militares y poder geopolítico. Ninguna gran potencia quiere quedar rezagada. Ninguna corporación desea perder liderazgo. La consecuencia es una aceleración permanente.
Hinton y Bengio advierten eso: la humanidad podría estar construyendo sistemas cada vez más poderosos sin disponer todavía de una comprensión suficiente de sus implicaciones. La especie que produjo ciencia, arte, filosofía y civilización podría encontrarse ahora frente a una creación capaz de alterar radicalmente las condiciones mismas de su existencia colectiva.
Pero sería un error interpretar estas advertencias únicamente como pesimismo. Tanto Hinton como Bengio reconocen también el potencial extraordinario de la inteligencia artificial. Sistemas capaces de acelerar investigación médica, optimizar recursos energéticos, ampliar acceso al conocimiento o resolver problemas científicos complejos podrían beneficiar enormemente a la humanidad.
El problema no es la inteligencia en sí misma. El problema es la relación entre inteligencia y sabiduría.
Una civilización puede desarrollar capacidades técnicas inmensas y seguir siendo moralmente inmadura. La historia moderna lo demuestra abundantemente. El progreso científico no garantiza automáticamente compasión, prudencia ni responsabilidad colectiva.
Y me parece que ese es el núcleo filosófico de ambas entrevistas.
La inteligencia artificial obliga a la humanidad a enfrentarse consigo misma. Funciona como un espejo amplificador de nuestras virtudes y patologías. Si las sociedades priorizan vigilancia, manipulación y beneficio económico inmediato, los sistemas artificiales tenderán a optimizar precisamente esas dinámicas. Si priorizan conocimiento, cooperación y verdad, también podrán potenciar esos valores.
La tecnología amplifica aquello que encuentra.
Por eso el verdadero debate no es únicamente técnico. Es civilizatorio.
¿Qué clase de humanidad desea sobrevivir en la era de las inteligencias artificiales?
La pregunta ya no pertenece a la ciencia ficción. Comienza a convertirse en el problema político, filosófico y espiritual central del siglo XXI.
Y acaso lo más revelador de las entrevistas de Geoffrey Hinton con Gustavo Entrala y de Yoshua Bengio con Jon Hernández sea precisamente esto: los propios arquitectos de la revolución tecnológica parecen comprender que el futuro no dependerá exclusivamente de la potencia de las máquinas, sino de la profundidad ética de quienes las crean.
Porque quizá todavía siga siendo cierta una vieja intuición filosófica: la inteligencia, por sí sola, nunca ha bastado para salvar a una civilización.
Carlos José Guarnizo
Foto tomada de: El Confidencial

Deja un comentario