Por Javier Surasky
(Tiempo de lectura aproximado: aproximadamente 14
minutos)
Desde que la inteligencia artificial comenzó a
integrarse en la vida cotidiana surgió una comparación casi automática: ¿se
parece la IA al cerebro humano?
La pregunta nace de manera casi intuitiva porque ambos
"aprenden" y generan respuestas, pero también induce a confusión si
no se presta atención. Comprender qué similitudes existen, en qué divergen y
qué implicancias éticas y de gobernanza se derivan de este vínculo resulta
indispensable, especialmente desde la perspectiva de las relaciones
internacionales y las ciencias sociales.
El cerebro humano es un órgano biológico. Producto de
millones de años de evolución, se estima que posee alrededor de 86 mil millones
de neuronas que se interconectan mediante sinapsis químicas y eléctricas,
conformando una arquitectura jerárquica y modular de enorme complejidad. Como
destaca Suzana Herculano-Houzel (2009:2), “el cerebro humano no es excepcional en su composición celular”, lo
que sitúa su organización en continuidad con la de otros mamíferos, aunque con
un número particularmente elevado de neuronas.
Existen múltiples tipos de neuronas en el cerebro,
cada una con propiedades electrofisiológicas específicas para dar respuesta a
los mensajes de neurotransmisores como la dopamina, serotonina, noradrenalina o
acetilcolina. El funcionamiento cerebral está además inmerso en un entorno
químico-hormonal que regula su actividad, modula su plasticidad y condiciona su
capacidad de aprendizaje.
La IA moderna, por el contrario, opera sobre hardware
digital especializado, como GPU, TPU y otros aceleradores, y se basa en modelos
matemáticos que optimizan funciones específicas. Un componente central de esta
IA son las llamadas "neuronas artificiales", concepto que existe
desde mediados de la década de 1950 pero adquirió relevancia con el avance del
aprendizaje automático y las redes neuronales profundas.
Cada neurona
artificial en una red neuronal “calcula una suma ponderada de sus entradas y
aplica una función no lineal a esa suma” (Goodfellow, Bengio y Courville,
2016:167) para generar una salida.
Su semejanza con una neurona biológica es, sin
embargo, exagerada, y la distancia entre ambos tipos de neuronas es enorme
Para comenzar, podemos mencionar la eficiencia
energética. El Human Brain Project (2023) estima que “un cerebro humano utiliza aproximadamente 20
vatios para funcionar”, menos que una lámpara doméstica, mientras que
entrenar modelos de IA a gran escala implica consumos energéticos y de
infraestructura muy superiores.
En el campo del aprendizaje, el cerebro cuenta con plasticidad
sináptica, es decir, capacidad para fortalecer o debilitar conexiones entre
neuronas según patrones de activación conjunta, modificando la eficacia
sináptica y la forma de las espinas dendríticas. Como sintetizan Citri y
Malenka (2008:18), “la
plasticidad sináptica es el principal mecanismo mediante el cual la experiencia
modifica la función cerebral” Se trata de un aprendizaje continuo,
multimodal y profundamente contextual que hace que la “configuración” de
nuestro cerebro cambie de acuerdo con nuestras experiencias y necesidades.
La IA, en cambio, aprende mediante optimización
estadística: funciones de pérdida, gradientes y reglas para ajustar los pesos
de sus neuronas artificiales y otras técnicas estadístico-matemáticas. Su objetivo es procesar grandes volúmenes de
datos. En palabras de LeCun, Bengio y Hinton (2015:436), “el aprendizaje
profundo permite que los modelos computacionales compuestos por múltiples capas
de procesamiento aprendan representaciones de los datos con múltiples niveles
de abstracción”.
Aunque ambos sistemas modifican conexiones internas,
la IA requiere enormes cantidades de datos, aprende en etapas discretas,
depende de funciones de error predefinidas y carece de la clase de sesgos
inductivos innatos que orientan el aprendizaje humano.
Otra similitud superficial es la representación
distribuida de la información: ni el cerebro ni la IA almacenan conceptos en
una única unidad. Ambos generan patrones de activación complejos, lo que permite
que modelos de IA funcionen como hipótesis de trabajo para estudiar la visión, el
lenguaje o la categorización semántica. Sin embargo, esta convergencia
funcional no implica equivalencia cognitiva. Los humanos incorporamos contexto
social, intuiciones éticas, memoria autobiográfica y experiencia corporal en
nuestros procesos cognitivos. La IA, en contraste, genera salidas basadas en
correlaciones estadísticas sin comprensión semántica ni experiencia subjetiva. Como señalan Bender, Gebru, McMillan-Major y
Mitchell (2021:1), “un modelo lingüístico es un sistema que ensambla de manera
azarosa secuencias de formas lingüísticas (…) sin ninguna referencia al
significado”.
La diferencia más profunda aparece al considerar la
conciencia. En la película Transcendence (2014), el científico de IA interpretado
por Morgan Freeman formula una pregunta insistente a los modelos de IA
avanzados que encuentra: “¿Tienes conciencia de ti mismo?”. Esta es la frontera
crítica: el cerebro humano no solo procesa información, sino que genera
emociones, intencionalidad y experiencia subjetiva. Ningún modelo de IA actual es capaz de ello.
“el acceso consciente nos permite extraer significado y razonar sobre él”
(Dehaene, 2014:105).
Si las neuronas cerebrales son tan superiores a las
artificiales, ¿puede una persona “correr” un algoritmo de IA sobre sus
neuronas? La respuesta es categórica: no. Hay razones estructurales, biológicas
y computacionales detrás de esa negación.
Un algoritmo artificial trabaja aplicando operaciones
matemáticas explícitas, y el cerebro no tiene “memoria de trabajo matemática”
ni “registro de operaciones” que lo permitan, razón por la que nuestro cerebro
puede realizar operaciones matemáticas, pero con menor precisión que la IA. No
hemos desarrollado “tensores” (una forma estructurada de organizar números en
varias dimensiones para que los modelos de IA puedan procesarlos de manera
eficiente) ni “matrices” que puedan manipularse con exactitud en nuestro
desarrollo biológico, y sin ello el cálculo que hacen los modelos de IA es
imposible.
Si con esto no
bastara, agreguemos que los algoritmos funcionan mediante pasos ordenados
(básicamente forward pass, cálculo de pérdida, backward pass y ajuste de
parámetros) mientras que la dinámica cerebral no es secuencial ni determinista,
sino masiva, paralela y continua ya que “el cerebro nunca está en silencio; la actividad neuronal es continua
incluso en ausencia de estímulos externos” (Buzsáki,
2006:15), su actividad no puede pausarse ni ordenarse en etapas, y no son las
matemáticas sino reglas bioquímicas locales y moduladas por neurotransmisores
las que dan orden al procesamiento cerebral. Es un sistema ruidoso (ya
volveremos a toparnos con el ruido más adelante) ya que “el ruido está presente en todas las etapas
del procesamiento neuronal y da forma de manera fundamental a la función neural”
(Faisal, Selen y Wolper. 2008:292). En parte, ese ruido nace del hecho de que el
cerebro humano "carece de
una estructura central de control; el control está distribuido entre muchas
regiones que interactúan entre sí” (Sporns, 2011:89), lo que equivale a decir que
es un sistema no lineal que carece un flujo computacional definido, una
arquitectura fija o un orden de ejecución de tareas impuesto externamente, que
sí están presentes en los modelos de IA.
¿Más razones? Los
modelos IA almacenan información en vectores y matrices, mientras que el cerebro
codifica en ensambles neuronales distribuidos aplicando representaciones que
incluyen comportamientos afectivos y respuestas biológicamente predeterminadas
(el miedo, por ejemplo) cuyos “pesos” no pueden ser expresamente ajustados para
lograr fines predefinidos.
En cambio, el
cerebro sí puede aprender a simular estrategias cognitivas, como aprender
reglas, identificar patrones, reforzar conductas mediante ensayo y error o
generalizar a partir de ejemplos, lo que le permite aplicar heurísticas y aprender
a comportarse “como si” aplicara un algoritmo.
Otro elemento
fundamental es que la unidad fundamental del cerebro es un potencial de acción,
que depende de sodio, potasio, calcio, neurotransmisores, temperatura, fatiga,
historia previa y otras múltiples variables en interacción. En palabras de Kandel, Koester, Mack y
Siegelbaum (2021:145) “el potencial de acción es la señal fundamental que
transporta información a través del sistema nervioso”. Todo
allí es, por esencia, impreciso, ruidoso y contextual. En cambio, la unidad
fundamental de cualquier IA es una operación matricial exacta, libre de ruido
biológico y con precisión flotante en bites, pero controlada. En breve, la IA
funciona por su exactitud, mientras que el cerebro lo hace gracias al ruido
biológico que genera.
Por ello, la memoria
humana es semántica, es “conocimiento
sobre el mundo que no está ligado a experiencias específicas”
(Tulving, 1983:386) que “encarpeta” sentidos, historias personales, contexto
social, emociones junto a reglas lógicas. Es una memoria distribuida (no
centralizada) e integrada a la experiencia histórica y corporal. La IA guarda
correlaciones estadísticas establecidas como pesos numéricos, millones de
ellas, pero nada más que eso. De esa forma el cerebro puede recuperar los por
qué; mientras que la IA se enfoca en retener el cómo a lo largo del tiempo. La
IA “recuerda” en formato de vectores, el cerebro tiene recuerdos multimodales
(auditivos, visuales, emocionales, motores) porque esos han sido los canales
desde los que ha recibido estímulos.
Todo esto es muy
lógico ya que el cerebro aprende lo que la persona necesita para vivir y la IA
lo que se le ofrece para optimizar un proceso. El cerebro comprende, la IA
predice. La comprensión lleva a la sabiduría, la capacidad de predecir al
accuracy (medida de precisión). El cerebro es parte de la subjetividad de cada
individuo mientras que la IA es un objeto intangible o, si se prefiere, un
proceso. El cerebro tiene un “yo”, y por tanto objetivos propios, la IA no
tiene ni una ni otra cosa.
En forma general,
podemos reducir nuestra respuesta negativa a la afirmación de que el cerebro es
un sistema autoorganizado desarrollado por la evolución genética, mientras que
la IA es un sistema especificado por diseño, y ello fija bases fundamentales diferentes
para la organización, el trabajo y las formas de proceso que siguen uno y otro.
Si unimos esto al “asombro” de las conversaciones con
un LLM que no comprende lo que dice, llegamos a un punto crucial: el cerebro y
la IA pueden converger en comportamientos aparentes, pero sus arquitecturas y
dinámicas son irreductiblemente distintas.
Estas diferencias no deben entenderse como un llamado
a desatender el estudio de la relación entre IA y cerebro humano. Ambos campos
se nutren mutuamente: algoritmos de IA se han inspirado en principios
biológicos como la plasticidad y las neurociencias se valen de modelos de IA
para explorar hipótesis y analizar grandes volúmenes de datos neuronales.
Más aún, hallamos en esas diferencias el origen de cuestiones
éticas y de gobernanza que deben abordarse con urgencia.
La tentación de antropomorfizar la IA puede trasladar
la responsabilidad desde las personas hacia la tecnología, desviando la
atención hacia escenarios de ciencia ficción, utópicos o distópicos, da igual, opacando
riesgos reales como sesgos en los datos, falta de transparencia, concentración
de poder y profundización de desigualdades. Como sostiene el gobierno chino en su Global AI Governance Initiative
(2023), “Debemos adherirnos al principio de desarrollar una IA para el bien,
respetar las leyes internacionales pertinentes y alinear el desarrollo de la IA
con los valores comunes de la humanidad”.
Comprender que la IA no es un cerebro artificial, sino
un artefacto estadístico con consecuencias significativas para la vida social,
obliga a formular políticas que respondan a riesgos actuales: auditorías,
trazabilidad, transparencia, formación de capacidades y fortalecimiento de
infraestructuras digitales en países rezagados, en línea con el llamamiento de
la Asamblea General en su resolución A/RES/78/265 (2024) a “cerrar las brechas digitales y promover el
acceso equitativo a los beneficios de los sistemas de inteligencia artificial
seguros, protegidos y confiables”. Las instituciones creadas para mitigar
riesgos sistémicos deben comenzar a entenderse como mecanismos contemporáneos
de protección de derechos humanos.
En esa dirección,
la Recomendación sobre la ética de la inteligencia artificial de la UNESCO
afirma que “La protección de los derechos humanos y la dignidad es la piedra
angular de la Recomendación” (UNESCO, 2021: párr. 23). En igual sentido, el
Acta Europea de IA señala su orientación a “mejorar el funcionamiento del
mercado interior y promover la adopción de una inteligencia artificial fiable y
centrada en el ser humano, garantizando al mismo tiempo un alto nivel de
protección de los intereses públicos, como la salud, la seguridad y los
derechos fundamentales”.
Por su parte, el
gobierno de los Estados Unidos sigue, con especial énfasis desde inicios de
2025, una política de IA que prioriza la innovación, desarrollo de
infraestructura digital e inversión por sobre los derechos ciudadanos. La Executive
Order Removing Barriers to American Leadership in Artificial Intelligence, del
23 de enero de ese año, declara que los EE.UU. “deben desarrollar sistemas de IA que estén libres de sesgos ideológicos
o agendas sociales diseñadas” y establece como política nacional “mantener y
reforzar el dominio global de los Estados Unidos en IA”.
Esto no implica desatender el estudio de la relación
entre IA y cerebro humano. Ambos campos se nutren mutuamente: algoritmos de IA
se han inspirado en principios biológicos como la plasticidad y las
neurociencias se valen de modelos de IA para explorar hipótesis y analizar
grandes volúmenes de datos neuronales.
En síntesis, el cerebro humano y la IA comparten
ciertos principios mínimos y muy abstractos, pero difieren profundamente en
estructura, finalidad y capacidades. La IA no es, ni puede ser, una
"supermente digital", sino un conjunto de algoritmos diseñados para
tareas específicas. Entender esta distinción es esencial para un debate serio
sobre regulación y gobernanza que permita aprovechar sus beneficios sin socavar
derechos fundamentales ni erosionar la autonomía y la democracia.
Referencias
Bender, E.
M., Gebru, T., McMillan-Major, A., & Mitchell, M. (2021). On the dangers
of stochastic parrots: Can language models be too big? In Proceedings of
the 2021 ACM Conference on Fairness, Accountability, and Transparency (pp.
610–623). Association for Computing Machinery. https://doi.org/10.1145/3442188.3445922
Buzsáki, G.
(2006). Rhythms of the brain. Oxford University Press.
Citri, A.,
& Malenka, R. C. (2008). Synaptic plasticity: Multiple forms, functions,
and mechanisms. Neuropsychopharmacology, 33(1), 18–41. https://doi.org/10.1038/sj.npp.1301559
Dehaene, S.
(2014). Consciousness and the brain: Deciphering how the brain codes our
thoughts. Viking.
European
Parliament & Council of the European Union. (2024). Artificial
Intelligence Act. EUR-Lex. https://eur-lex.europa.eu/
Faisal, A.
A., Selen, L. P. J., & Wolpert, D. M. (2008). Noise in the nervous system. Nature
Reviews Neuroscience, 9(4), 292–303. https://doi.org/10.1038/nrn2258
Goodfellow,
I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT Press. https://www.deeplearningbook.org
Herculano-Houzel,
S. (2009). The human brain in numbers: A linearly scaled-up primate brain. Frontiers
in Human Neuroscience, 3, Article 31. https://doi.org/10.3389/neuro.09.031.2009
Human Brain
Project. (2023, September 4). Learning from the brain to make AI more
energy-efficient. https://www.humanbrainproject.eu/en/follow-hbp/news/2023/09/04/learning-brain-make-ai-more-energy-efficient/
Kandel, E.
R., Koester, J. D., Mack, S. H., & Siegelbaum, S. A. (2021). Principles
of neural science (6th ed.). McGraw-Hill.
https://accessmedicine.mhmedical.com/book.aspx?bookid=3249
LeCun, Y.,
Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553),
436–444. https://doi.org/10.1038/nature14539
People’s
Republic of China. Cyberspace Administration of China. (2023). Global AI
Governance Initiative. Ministry of Foreign Affairs of the People’s Republic
of China. https://www.mfa.gov.cn/eng/wjdt_665385/2649_665393/202310/t20231018_11159238.html
Sporns, O.
(2011). Networks of
the brain. MIT
Press. https://mitpress.mit.edu/9780262528986/networks-of-the-brain/
Tulving,
E. (1983). Elements
of episodic memory.
Oxford University Press.
UNESCO.
(2021). Recommendation on the Ethics of Artificial Intelligence. UNESCO.
https://unesdoc.unesco.org/ark:/48223/pf0000381137
United Nations General Assembly. (2024). Resolution A/RES/78/265. Seizing the opportunities of safe, secure and trustworthy artificial intelligence systems for sustainable development. https://documents-dds-ny.un.org/doc/UNDOC/GEN/N24/060/68/PDF/N2406068.pdf

