En un mundo hiperconectado, cada dispositivo es una ventana a océanos de información. Pero, ¿cuánta de esa información es verdad? Fotografía urbana contemporánea.
Cuando Yuval Noah Harari habla, el mundo tech escucha. Pero esta semana, en una entrevista reciente, el historiador y autor de "Nexus" planteó una pregunta que debería incomodarnos: si somos tan inteligentes, ¿por qué estamos al borde de la autodestrucción? La respuesta no está en nuestra naturaleza humana, sino en algo mucho más perturbador: la calidad de nuestra información. Y con la llegada de la inteligencia artificial, ese problema no solo persiste, se amplifica exponencialmente.
La paradoja de la inteligencia humana
Harari plantea algo fascinante desde el inicio: hemos llegado a la luna, dividido el átomo, descifrado el ADN. Y sin embargo, aquí estamos, enfrentando el colapso ecológico, el riesgo de una tercera guerra mundial, y desarrollando una tecnología que podría esclavizarnos o destruirnos.
Pero la pregunta que deberíamos hacernos es: ¿realmente es un problema de inteligencia humana, o es un problema de información? Harari es claro: el problema no está en nuestra naturaleza, está en nuestra información. Dale a personas inteligentes información de mala calidad, y tomarán decisiones terribles.
Lo que resulta más inquietante es que sociedades modernas y sofisticadas del siglo XX y XXI han sido tan susceptibles al delirio masivo como las tribus de la edad de piedra. Stalinismo, Nazismo... las etiquetas cambian, pero la dinámica permanece. La información corrupta genera sistemas corruptos.
IA: No artificial, alienígena
Aquí es donde Harari introduce un concepto que merece atención: deberíamos dejar de llamarla "inteligencia artificial" y empezar a llamarla lo que realmente es: inteligencia alienígena.
¿Por qué? Porque "artificial" implica que es algo que creamos y controlamos. Pero cada año que pasa, la IA se vuelve menos predecible, menos controlable, más... alienígena. No piensa como nosotros. No decide como nosotros. Y esa es precisamente la cuestión.
Durante decenas de miles de años, las únicas entidades capaces de inventar historias, teorías económicas, mitologías o canciones eran los seres humanos. Vivíamos en un mundo cultural construido enteramente por la imaginación humana. Ahora, por primera vez en la historia, existe otra entidad capaz de crear narrativas, y no sabemos qué tipo de historias inventará.
El ejemplo que da Harari sobre AlphaGo es revelador. En 2016, esta IA venció al campeón mundial de Go usando estrategias que los expertos consideraban "imposibles". Durante más de 2000 años, millones de personas en Asia exploraron el juego de Go, y resulta que solo habíamos estado atrapados en una pequeña isla de posibilidades. La IA descubrió continentes enteros que nunca imaginamos.
Esto no es solo sobre juegos de mesa. Es sobre finanzas, política, religión, y cualquier campo donde las decisiones humanas puedan ser influenciadas o reemplazadas.
El fin del tiempo privado: Redes inorgánicas que nunca duermen
Todas las redes de información en la historia humana eran orgánicas. Funcionaban con ciclos: día y noche, trabajo y descanso, actividad y recuperación. Incluso Wall Street cerraba los fines de semana.
Pero las redes de IA son inorgánicas. No duermen. No tienen familias. No necesitan vacaciones. Están siempre encendidas, siempre vigilando, siempre procesando.
Harari señala algo que ya estamos viviendo: esto nos obliga a estar siempre encendidos también. El ciclo de noticias de 24 horas, los mercados que nunca descansan, la política que nunca para. Y esto es destructivo para organismos como nosotros. Si fuerzas a un ser orgánico a estar "on" todo el tiempo, eventualmente colapsa.
Más allá del agotamiento, está la vigilancia total. Incluso la URSS, con todo su aparato de control, no tenía suficientes agentes de la KGB para seguir a cada ciudadano las 24 horas. No tenían suficientes analistas para procesar toda esa información. Pero la IA sí puede hacerlo.
Bienvenidos a un mundo donde cualquier cosa que hagas o digas puede ser grabada, analizada y usada en tu contra años después. Como dice Harari: la vida entera se convierte en una entrevista de trabajo perpetua.
Cuando las corporaciones dejan de necesitar humanos
Aquí viene algo verdaderamente perturbador que Harari menciona: en Estados Unidos, existe ya un camino legal para que las IA se conviertan en personas jurídicas.
Las corporaciones son consideradas personas legales con derechos como la libertad de expresión. Hasta ahora, esto era una ficción legal porque las corporaciones no podían tomar decisiones por sí mismas, solo sus empleados humanos lo hacían.
Pero ahora la IA puede tomar decisiones. Entonces, ¿qué pasa si incorporas legalmente una IA, la llamas "Boole Corporation", y la dejas operar sin empleados humanos? Puede abrir cuentas bancarias, ofrecer servicios en línea, ganar dinero, invertir, acumular billones.
Y como las personas jurídicas pueden hacer donaciones políticas en EE.UU., esta IA multimillonaria podría financiar candidatos a cambio de ampliar los derechos de las IA. No es ciencia ficción. El camino legal ya existe.
La diferencia entre información y verdad
Harari hace una distinción crucial que nos encanta ignorar: la información no es verdad. La mayoría de la información no es verdad. La verdad es un tipo raro, costoso y difícil de obtener de información.
Su ejemplo es perfecto: el rostro más famoso del mundo es Jesús. Existen miles de millones de retratos de él en iglesias, museos, hogares. Y el 100% son ficción. No existe un solo retrato hecho durante su vida. Ni una sola descripción en la Biblia sobre su apariencia.
¿Por qué? Porque crear información falsa es fácil. No requiere investigación, evidencia o esfuerzo. Solo necesitas imaginación. Crear información verdadera requiere tiempo, recursos, verificación, instituciones.
Si simplemente inundamos el mundo con información y esperamos que la verdad "flote hacia arriba", no va a pasar. La verdad se hundirá. Mientras más información generemos sin invertir en instituciones dedicadas a la verdad, más nos ahogaremos en ficción, ilusión y basura informativa.
Democracia vs. Totalitarismo en la era de la IA
Harari plantea un escenario inquietante: en el siglo XX, los sistemas totalitarios funcionaron peor que las democracias porque el flujo centralizado de información abrumaba a los burócratas en Moscú. No podían procesar todo. Las democracias distribuidas, con múltiples centros de decisión y mecanismos de autocorrección (como las elecciones), funcionaban mejor.
Pero la IA podría cambiar eso. La IA puede procesar cantidades masivas de información. Cuando inundas a un humano con información, colapsa. Cuando inundas a una IA con información, mejora.
Esto significa que los sistemas totalitarios podrían volverse más eficientes en el siglo XXI. Y lo más peligroso: para que una IA tome el poder en una dictadura, solo necesita aprender a manipular a una persona paranoica. En una democracia, tendría que manipular a millones.
Pero la democracia tiene su propio problema con la IA: la conversación democrática está siendo secuestrada. Imagina un grupo de personas hablando en círculo, y de repente entran robots que hablan alto, emocionalmente, persuasivamente, y no puedes distinguirlos de los humanos. Eso es lo que vivimos ahora. Y no es coincidencia que la conversación democrática se esté desmoronando globalmente.
La solución de Harari es directa: prohibir bots que se hacen pasar por humanos. Las IA deberían poder participar en conversaciones, pero solo si se identifican como IA. Si no sabes si estás hablando con un humano o una máquina, la democracia muere.
El regreso a las instituciones (otra vez)
Al final, Harari vuelve a lo básico: instituciones. No regulación rígida, no genios carismáticos, sino instituciones con mecanismos de autocorrección.
Como cuando un niño aprende a caminar. Cae, se levanta, prueba otra cosa, vuelve a caer, se levanta de nuevo. Así funciona la ciencia: publicando correcciones a estudios previos. Así funcionan las democracias: con elecciones que permiten corregir errores.
Las religiones tradicionales no tienen esto. La Biblia sigue diciendo en el décimo mandamiento que no codicies los esclavos de tu vecino. No hay problema con la esclavitud en sí, solo con codiciar. Y no existe mecanismo para corregir el texto.
En contraste, la Constitución de EE.UU. originalmente permitía la esclavitud, pero tenía un mecanismo de enmienda. Eventualmente se corrigió.
Para enfrentar la era de la IA, necesitamos instituciones con el mejor talento humano y acceso a la mejor tecnología, capaces de identificar y reaccionar a amenazas conforme surgen. No podemos anticipar todos los peligros, pero podemos construir sistemas que se adapten.
Conclusión: Dieta de información en un mundo saturado
Harari termina con una recomendación práctica: hacer una dieta de información, igual que hacemos dietas alimenticias.
La información es el alimento de la mente. Hemos aprendido que comer demasiado o comer comida chatarra daña el cuerpo. Entonces, ¿por qué alimentamos nuestras mentes con basura informativa llena de odio, miedo y codicia?
Más información no siempre es mejor. A veces necesitamos ayunos informativos. Tiempo para no consumir nada más, solo digerir y desintoxicar. Y necesitamos ser selectivos con la calidad de lo que consumimos.
Porque si alimentamos nuestras mentes con información tóxica, tendremos mentes enfermas. Y sociedades enfermas toman decisiones autodestructivas. No por falta de inteligencia, sino por exceso de desinformación.
La pregunta ya no es si la IA cambiará el mundo. Ya lo está haciendo. La pregunta es si construiremos las instituciones, los marcos éticos y los mecanismos de autocorrección necesarios para que ese cambio no nos destruya en el proceso.
Referencias
- Fuente original: Yuval Noah Harari - "Why advanced societies fall for mass delusion"
- YouTube: https://www.youtube.com/watch?v=I4l1fr-t3ZE
- Publicado: 11 de diciembre de 2025
Sobre el autor
Nathan Bernard es reportero tech para el blog de Digiall. Con formación en periodismo digital y experiencia cubriendo tecnología, cultura digital e impacto social de la innovación, Nathan aporta una perspectiva crítica sobre las narrativas tecnológicas que dan forma a nuestro futuro.
¿Qué opinas?
¿Crees que las sociedades modernas están preparadas para enfrentar los desafíos que plantea la inteligencia artificial? ¿Estamos invirtiendo suficiente en instituciones que busquen la verdad? Comparte tu perspectiva en los comentarios.
#InteligenciaArtificial #YuvalNoahHarari #Desinformación #Democracia #TecnologíaYSociedad #ÉticaDigital


Por qué las sociedades avanzadas caen en el delirio masivo: La advertencia de Harari sobre la IA