IA y cerebro humano: algoritmos y sabiduría

Por Javier Surasky

(Tiempo de lectura aproximado: aproximadamente 14 minutos)

 


Desde que la inteligencia artificial comenzó a integrarse en la vida cotidiana surgió una comparación casi automática: ¿se parece la IA al cerebro humano?

La pregunta nace de manera casi intuitiva porque ambos "aprenden" y generan respuestas, pero también induce a confusión si no se presta atención. Comprender qué similitudes existen, en qué divergen y qué implicancias éticas y de gobernanza se derivan de este vínculo resulta indispensable, especialmente desde la perspectiva de las relaciones internacionales y las ciencias sociales.

El cerebro humano es un órgano biológico. Producto de millones de años de evolución, se estima que posee alrededor de 86 mil millones de neuronas que se interconectan mediante sinapsis químicas y eléctricas, conformando una arquitectura jerárquica y modular de enorme complejidad. Como destaca Suzana Herculano-Houzel (2009:2), “el cerebro humano no es excepcional en su composición celular”, lo que sitúa su organización en continuidad con la de otros mamíferos, aunque con un número particularmente elevado de neuronas.

Existen múltiples tipos de neuronas en el cerebro, cada una con propiedades electrofisiológicas específicas para dar respuesta a los mensajes de neurotransmisores como la dopamina, serotonina, noradrenalina o acetilcolina. El funcionamiento cerebral está además inmerso en un entorno químico-hormonal que regula su actividad, modula su plasticidad y condiciona su capacidad de aprendizaje.

La IA moderna, por el contrario, opera sobre hardware digital especializado, como GPU, TPU y otros aceleradores, y se basa en modelos matemáticos que optimizan funciones específicas. Un componente central de esta IA son las llamadas "neuronas artificiales", concepto que existe desde mediados de la década de 1950 pero adquirió relevancia con el avance del aprendizaje automático y las redes neuronales profundas.

Cada neurona artificial en una red neuronal “calcula una suma ponderada de sus entradas y aplica una función no lineal a esa suma” (Goodfellow, Bengio y Courville, 2016:167) para generar una salida.



Su semejanza con una neurona biológica es, sin embargo, exagerada, y la distancia entre ambos tipos de neuronas es enorme

Para comenzar, podemos mencionar la eficiencia energética. El Human Brain Project (2023) estima que “un cerebro humano utiliza aproximadamente 20 vatios para funcionar”, menos que una lámpara doméstica, mientras que entrenar modelos de IA a gran escala implica consumos energéticos y de infraestructura muy superiores.

En el campo del aprendizaje, el cerebro cuenta con plasticidad sináptica, es decir, capacidad para fortalecer o debilitar conexiones entre neuronas según patrones de activación conjunta, modificando la eficacia sináptica y la forma de las espinas dendríticas. Como sintetizan Citri y Malenka (2008:18), “la plasticidad sináptica es el principal mecanismo mediante el cual la experiencia modifica la función cerebral” Se trata de un aprendizaje continuo, multimodal y profundamente contextual que hace que la “configuración” de nuestro cerebro cambie de acuerdo con nuestras experiencias y necesidades.

La IA, en cambio, aprende mediante optimización estadística: funciones de pérdida, gradientes y reglas para ajustar los pesos de sus neuronas artificiales y otras técnicas estadístico-matemáticas. Su objetivo es procesar grandes volúmenes de datos. En palabras de LeCun, Bengio y Hinton (2015:436), “el aprendizaje profundo permite que los modelos computacionales compuestos por múltiples capas de procesamiento aprendan representaciones de los datos con múltiples niveles de abstracción”.

Aunque ambos sistemas modifican conexiones internas, la IA requiere enormes cantidades de datos, aprende en etapas discretas, depende de funciones de error predefinidas y carece de la clase de sesgos inductivos innatos que orientan el aprendizaje humano.

Otra similitud superficial es la representación distribuida de la información: ni el cerebro ni la IA almacenan conceptos en una única unidad. Ambos generan patrones de activación complejos, lo que permite que modelos de IA funcionen como hipótesis de trabajo para estudiar la visión, el lenguaje o la categorización semántica. Sin embargo, esta convergencia funcional no implica equivalencia cognitiva. Los humanos incorporamos contexto social, intuiciones éticas, memoria autobiográfica y experiencia corporal en nuestros procesos cognitivos. La IA, en contraste, genera salidas basadas en correlaciones estadísticas sin comprensión semántica ni experiencia subjetiva. Como señalan Bender, Gebru, McMillan-Major y Mitchell (2021:1), “un modelo lingüístico es un sistema que ensambla de manera azarosa secuencias de formas lingüísticas (…) sin ninguna referencia al significado”.

La diferencia más profunda aparece al considerar la conciencia. En la película Transcendence (2014), el científico de IA interpretado por Morgan Freeman formula una pregunta insistente a los modelos de IA avanzados que encuentra: “¿Tienes conciencia de ti mismo?”. Esta es la frontera crítica: el cerebro humano no solo procesa información, sino que genera emociones, intencionalidad y experiencia subjetiva. Ningún modelo de IA actual es capaz de ello. “el acceso consciente nos permite extraer significado y razonar sobre él” (Dehaene, 2014:105).

Si las neuronas cerebrales son tan superiores a las artificiales, ¿puede una persona “correr” un algoritmo de IA sobre sus neuronas? La respuesta es categórica: no. Hay razones estructurales, biológicas y computacionales detrás de esa negación.

Un algoritmo artificial trabaja aplicando operaciones matemáticas explícitas, y el cerebro no tiene “memoria de trabajo matemática” ni “registro de operaciones” que lo permitan, razón por la que nuestro cerebro puede realizar operaciones matemáticas, pero con menor precisión que la IA. No hemos desarrollado “tensores” (una forma estructurada de organizar números en varias dimensiones para que los modelos de IA puedan procesarlos de manera eficiente) ni “matrices” que puedan manipularse con exactitud en nuestro desarrollo biológico, y sin ello el cálculo que hacen los modelos de IA es imposible.

Si con esto no bastara, agreguemos que los algoritmos funcionan mediante pasos ordenados (básicamente forward pass, cálculo de pérdida, backward pass y ajuste de parámetros) mientras que la dinámica cerebral no es secuencial ni determinista, sino masiva, paralela y continua ya que “el cerebro nunca está en silencio; la actividad neuronal es continua incluso en ausencia de estímulos externos” (Buzsáki, 2006:15), su actividad no puede pausarse ni ordenarse en etapas, y no son las matemáticas sino reglas bioquímicas locales y moduladas por neurotransmisores las que dan orden al procesamiento cerebral. Es un sistema ruidoso (ya volveremos a toparnos con el ruido más adelante) ya que “el ruido está presente en todas las etapas del procesamiento neuronal y da forma de manera fundamental a la función neural” (Faisal, Selen y Wolper. 2008:292). En parte, ese ruido nace del hecho de que el cerebro humano "carece de una estructura central de control; el control está distribuido entre muchas regiones que interactúan entre sí” (Sporns, 2011:89), lo que equivale a decir que es un sistema no lineal que carece un flujo computacional definido, una arquitectura fija o un orden de ejecución de tareas impuesto externamente, que sí están presentes en los modelos de IA.

¿Más razones? Los modelos IA almacenan información en vectores y matrices, mientras que el cerebro codifica en ensambles neuronales distribuidos aplicando representaciones que incluyen comportamientos afectivos y respuestas biológicamente predeterminadas (el miedo, por ejemplo) cuyos “pesos” no pueden ser expresamente ajustados para lograr fines predefinidos.

En cambio, el cerebro sí puede aprender a simular estrategias cognitivas, como aprender reglas, identificar patrones, reforzar conductas mediante ensayo y error o generalizar a partir de ejemplos, lo que le permite aplicar heurísticas y aprender a comportarse “como si” aplicara un algoritmo.

Otro elemento fundamental es que la unidad fundamental del cerebro es un potencial de acción, que depende de sodio, potasio, calcio, neurotransmisores, temperatura, fatiga, historia previa y otras múltiples variables en interacción. En palabras de Kandel, Koester, Mack y Siegelbaum (2021:145) “el potencial de acción es la señal fundamental que transporta información a través del sistema nervioso”. Todo allí es, por esencia, impreciso, ruidoso y contextual. En cambio, la unidad fundamental de cualquier IA es una operación matricial exacta, libre de ruido biológico y con precisión flotante en bites, pero controlada. En breve, la IA funciona por su exactitud, mientras que el cerebro lo hace gracias al ruido biológico que genera.

Por ello, la memoria humana es semántica, es “conocimiento sobre el mundo que no está ligado a experiencias específicas” (Tulving, 1983:386) que “encarpeta” sentidos, historias personales, contexto social, emociones junto a reglas lógicas. Es una memoria distribuida (no centralizada) e integrada a la experiencia histórica y corporal. La IA guarda correlaciones estadísticas establecidas como pesos numéricos, millones de ellas, pero nada más que eso. De esa forma el cerebro puede recuperar los por qué; mientras que la IA se enfoca en retener el cómo a lo largo del tiempo. La IA “recuerda” en formato de vectores, el cerebro tiene recuerdos multimodales (auditivos, visuales, emocionales, motores) porque esos han sido los canales desde los que ha recibido estímulos.

Todo esto es muy lógico ya que el cerebro aprende lo que la persona necesita para vivir y la IA lo que se le ofrece para optimizar un proceso. El cerebro comprende, la IA predice. La comprensión lleva a la sabiduría, la capacidad de predecir al accuracy (medida de precisión). El cerebro es parte de la subjetividad de cada individuo mientras que la IA es un objeto intangible o, si se prefiere, un proceso. El cerebro tiene un “yo”, y por tanto objetivos propios, la IA no tiene ni una ni otra cosa.

En forma general, podemos reducir nuestra respuesta negativa a la afirmación de que el cerebro es un sistema autoorganizado desarrollado por la evolución genética, mientras que la IA es un sistema especificado por diseño, y ello fija bases fundamentales diferentes para la organización, el trabajo y las formas de proceso que siguen uno y otro.

Si unimos esto al “asombro” de las conversaciones con un LLM que no comprende lo que dice, llegamos a un punto crucial: el cerebro y la IA pueden converger en comportamientos aparentes, pero sus arquitecturas y dinámicas son irreductiblemente distintas.

Estas diferencias no deben entenderse como un llamado a desatender el estudio de la relación entre IA y cerebro humano. Ambos campos se nutren mutuamente: algoritmos de IA se han inspirado en principios biológicos como la plasticidad y las neurociencias se valen de modelos de IA para explorar hipótesis y analizar grandes volúmenes de datos neuronales.

Más aún, hallamos en esas diferencias el origen de cuestiones éticas y de gobernanza que deben abordarse con urgencia.

La tentación de antropomorfizar la IA puede trasladar la responsabilidad desde las personas hacia la tecnología, desviando la atención hacia escenarios de ciencia ficción, utópicos o distópicos, da igual, opacando riesgos reales como sesgos en los datos, falta de transparencia, concentración de poder y profundización de desigualdades. Como sostiene el gobierno chino en su Global AI Governance Initiative (2023), “Debemos adherirnos al principio de desarrollar una IA para el bien, respetar las leyes internacionales pertinentes y alinear el desarrollo de la IA con los valores comunes de la humanidad”.

Comprender que la IA no es un cerebro artificial, sino un artefacto estadístico con consecuencias significativas para la vida social, obliga a formular políticas que respondan a riesgos actuales: auditorías, trazabilidad, transparencia, formación de capacidades y fortalecimiento de infraestructuras digitales en países rezagados, en línea con el llamamiento de la Asamblea General en su resolución A/RES/78/265 (2024) a “cerrar las brechas digitales y promover el acceso equitativo a los beneficios de los sistemas de inteligencia artificial seguros, protegidos y confiables”. Las instituciones creadas para mitigar riesgos sistémicos deben comenzar a entenderse como mecanismos contemporáneos de protección de derechos humanos.

En esa dirección, la Recomendación sobre la ética de la inteligencia artificial de la UNESCO afirma que “La protección de los derechos humanos y la dignidad es la piedra angular de la Recomendación” (UNESCO, 2021: párr. 23). En igual sentido, el Acta Europea de IA señala su orientación a “mejorar el funcionamiento del mercado interior y promover la adopción de una inteligencia artificial fiable y centrada en el ser humano, garantizando al mismo tiempo un alto nivel de protección de los intereses públicos, como la salud, la seguridad y los derechos fundamentales”.

Por su parte, el gobierno de los Estados Unidos sigue, con especial énfasis desde inicios de 2025, una política de IA que prioriza la innovación, desarrollo de infraestructura digital e inversión por sobre los derechos ciudadanos. La Executive Order Removing Barriers to American Leadership in Artificial Intelligence, del 23 de enero de ese año, declara que los EE.UU. “deben desarrollar sistemas de IA que estén libres de sesgos ideológicos o agendas sociales diseñadas” y establece como política nacional “mantener y reforzar el dominio global de los Estados Unidos en IA”.

Esto no implica desatender el estudio de la relación entre IA y cerebro humano. Ambos campos se nutren mutuamente: algoritmos de IA se han inspirado en principios biológicos como la plasticidad y las neurociencias se valen de modelos de IA para explorar hipótesis y analizar grandes volúmenes de datos neuronales.

En síntesis, el cerebro humano y la IA comparten ciertos principios mínimos y muy abstractos, pero difieren profundamente en estructura, finalidad y capacidades. La IA no es, ni puede ser, una "supermente digital", sino un conjunto de algoritmos diseñados para tareas específicas. Entender esta distinción es esencial para un debate serio sobre regulación y gobernanza que permita aprovechar sus beneficios sin socavar derechos fundamentales ni erosionar la autonomía y la democracia.

 

Referencias

Bender, E. M., Gebru, T., McMillan-Major, A., & Mitchell, M. (2021). On the dangers of stochastic parrots: Can language models be too big? In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (pp. 610–623). Association for Computing Machinery. https://doi.org/10.1145/3442188.3445922

Buzsáki, G. (2006). Rhythms of the brain. Oxford University Press.

Citri, A., & Malenka, R. C. (2008). Synaptic plasticity: Multiple forms, functions, and mechanisms. Neuropsychopharmacology, 33(1), 18–41. https://doi.org/10.1038/sj.npp.1301559

Dehaene, S. (2014). Consciousness and the brain: Deciphering how the brain codes our thoughts. Viking.

European Parliament & Council of the European Union. (2024). Artificial Intelligence Act. EUR-Lex. https://eur-lex.europa.eu/

Faisal, A. A., Selen, L. P. J., & Wolpert, D. M. (2008). Noise in the nervous system. Nature Reviews Neuroscience, 9(4), 292–303. https://doi.org/10.1038/nrn2258

Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT Press. https://www.deeplearningbook.org

Herculano-Houzel, S. (2009). The human brain in numbers: A linearly scaled-up primate brain. Frontiers in Human Neuroscience, 3, Article 31. https://doi.org/10.3389/neuro.09.031.2009

Human Brain Project. (2023, September 4). Learning from the brain to make AI more energy-efficient. https://www.humanbrainproject.eu/en/follow-hbp/news/2023/09/04/learning-brain-make-ai-more-energy-efficient/

Kandel, E. R., Koester, J. D., Mack, S. H., & Siegelbaum, S. A. (2021). Principles of neural science (6th ed.). McGraw-Hill.
https://accessmedicine.mhmedical.com/book.aspx?bookid=3249

LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436–444. https://doi.org/10.1038/nature14539

People’s Republic of China. Cyberspace Administration of China. (2023). Global AI Governance Initiative. Ministry of Foreign Affairs of the People’s Republic of China. https://www.mfa.gov.cn/eng/wjdt_665385/2649_665393/202310/t20231018_11159238.html

Sporns, O. (2011). Networks of the brain. MIT Press. https://mitpress.mit.edu/9780262528986/networks-of-the-brain/

Tulving, E. (1983). Elements of episodic memory. Oxford University Press.

UNESCO. (2021). Recommendation on the Ethics of Artificial Intelligence. UNESCO. https://unesdoc.unesco.org/ark:/48223/pf0000381137

United Nations General Assembly. (2024). Resolution A/RES/78/265. Seizing the opportunities of safe, secure and trustworthy artificial intelligence systems for sustainable development. https://documents-dds-ny.un.org/doc/UNDOC/GEN/N24/060/68/PDF/N2406068.pdf