El gran salto de la IA: hacia un cerebro artificial humano
La inteligencia artificial (IA) está en un punto de inflexión: los investigadores ya no solo buscan que las máquinas resuelvan tareas específicas, sino que procesen, aprendan y operen de formas semejantes al cerebro humano. A continuación, se exponen, en orden cronológico, los avances más significativos en ese esfuerzo, los desafíos que surgen, y hacia dónde podría ir toda esta transformación.
Invención de transistores neuromórficos con patrones de moiré
(Publicado en Muy Interesante, agosto de 2024)
Un equipo liderado por Mark Hersam (Universidad Northwestern) y Pablo Jarillo-Herrero (MIT) presentó un tipo de transistor sináptico neuromórfico basado en patrones de moiré, una superposición de materiales bidimensionales. Este dispositivo integra memoria y procesamiento en una misma unidad, al igual que ocurre en las neuronas biológicas. (Muy Interesante)
El transistor-moiré funciona a temperatura ambiente y consume unas 20 veces menos energía que otros dispositivos sinápticos existentes, lo que lo convierte en candidato para tareas donde la eficiencia energética y la toma de decisiones en entornos complejos son críticas: vehículos autónomos, sensores en entornos adversos, etc. (Muy Interesante)
Chips neuromórficos para dispositivos inteligentes: Spiking Neural Processor T1
(Live Science, enero de 2025)
El siguiente avance significativo vino con el lanzamiento del chip Spiking Neural Processor T1, diseñado para dispositivos inteligentes con autonomía limitada, como sensores, timbres inteligentes, detectores, etc. El T1 usa redes neurales espigadas (SNN, spiking neural networks), que mimetizan cómo las neuronas biológicas envían señales (“spikes”) sólo cuando alcanza cierto umbral. (Live Science)
Este chip promete reducir drásticamente el consumo energético: por ejemplo, dispositivos que ahora funcionan con conexión a la nube y transfieren grandes cantidades de datos podrían empezar a procesar localmente, con menos latencia, mayor autonomía, y menor dependencia del ancho de banda. En algunos prototipos, la duración de batería se multiplica, hasta 6 veces en ciertos escenarios. (Live Science)
IA “Super-Turing” que aprende como el cerebro: eficiencia energética y memoria integrada
(Texas A&M, marzo de 2025)
Investigadores de Texas A&M presentaron lo que llaman “Super-Turing AI”, un modelo que busca emular más directamente funciones integradas del cerebro: memoria y aprendizaje no separados, así como plasticidad sináptica (la capacidad de fortalecer o debilitar conexiones en función de la experiencia). (Historias de Texas A&M)
Este sistema evita que los datos tengan que migrar continuamente entre hardware de memoria y hardware de cálculo, lo que en IA tradicional consume enormes cantidades de energía. “El cerebro consume unos 20 vatios, los centros de datos usan gigavatios.” (Historias de Texas A&M) En pruebas realizadas con drones, el modelo pudo adaptarse “sobre la marcha” a entornos complejos, con menor consumo y rapidez en aprendizaje. (Historias de Texas A&M)
“Dimensión altura”: una arquitectura más cercana al cerebro
(Infobae, julio de 2025)
Un grupo de investigadores del Rensselaer Polytechnic Institute (EEUU) y la City University of Hong Kong presentaron una novedad arquitectónica: redes neuronales artificiales que incorporan una tercera dimensión a los parámetros tradicionales de anchura (nodos por capa) y profundidad (número de capas). Esa dimensión extra se llama “altura”. (infobae)
Esta nueva dimensión permite enlaces intra-capa (conectividad lateral entre neuronas de una misma capa) y bucles de retroalimentación (feedback), acercándose así a cómo funciona el cerebro, especialmente la corteza cerebral con sus numerosas conexiones laterales y recurrentes. (infobae) Además, estos bucles permiten que las salidas influyan en entradas, lo que favorece la estabilización y refinamiento progresivo, y mejora la capacidad de percepción bajo condiciones adversas. Pero no sin críticas: expertos advierten que hay riesgo en equiparar demasiado la IA con la mente humana, pues se pueden caer en metáforas engañosas que distorsionen la comprensión del aprendizaje humano. (infobae)
SpikingBrain-1.0: el modelo chino inspirado en neuronas espigadas
(Nuevo Mundo y Xataka, septiembre de 2025)
El más reciente avance proviene de China, con el modelo SpikingBrain-1.0, desarrollado en el Instituto de Automatización de la Academia de Ciencias de China. Este modelo rompe con la hegemonía de los Transformers al usar neuronas espigadas: neuronas artificiales que transmiten impulsos eléctricos sólo cuando superan un umbral, imitando el comportamiento neuronal real. (Nuevo Mundo)
Algunas de sus características destacadas:
- Consume mientras tanto muchos menos datos que los modelos tradicionales. SpikingBrain-1.0 consigue resultados comparables en tareas de lenguaje y razonamiento usando apenas ~2 % de los datos que emplean los Transformers estándar. (Nuevo Mundo)
- Velocidad de inferencia aumentada: por ejemplo, acelera ~26,5 veces la generación del primer token cuando se trabaja con un contexto grande (millones de tokens) en comparación con los Transformers convencionales. (Nuevo Mundo)
- Versiones como SpikingBrain-7B y SpikingBrain-76B buscan abarcar diferentes escalas, integrando atención lineal y mecanismos de expertos múltiples (“Mixture of Experts”, MoE) para mayor capacidad cuando se requiere. (Xataka)
- Implicaciones prácticas: revisión de historiales médicos completos, secuenciación genética, procesamiento de grandes documentos legales, entre otros. Ámbitos donde la longitud del contexto y los recursos computacionales han sido un cuello de botella. (Xataka)
Desafíos, riesgos y preguntas abiertas
Aunque estos desarrollos avanzan velozmente, no todo es claro ni seguro:
- Producción y escalabilidad: tecnologías como los transistores de moiré aún enfrentan dificultades para ser producidos en masa y de forma costo-eficiente. (Muy Interesante)
- Validación en condiciones reales: muchos modelos funcionan bien en laboratorio, pero su eficiencia, robustez y fiabilidad en el mundo real, con ruido, datos faltantes, sensores imperfectos, etc., aún tienen que confirmarse. (Live Science)
- Equilibrio entre inspiración biológica y precisión técnica: y aquí entra una crítica importante: hay quienes advierten contra las analogías fuertes entre cerebro humano y máquinas, que podrían inducir a errores conceptuales o éticos, especialmente si se confunden los límites cognitivos, morales o de responsabilidad. (infobae)
- Consumo energético y sostenibilidad: aunque los nuevos modelos prometen reducciones enormes de consumo, la producción de hardware especializado, la demanda de energía para entrenamiento y despliegue sigue siendo significativa. La eficiencia energética en uso real será el verdadero termómetro. (Historias de Texas A&M)
¿Qué viene después?
El camino que se perfila implica varias líneas simultáneas de innovación:
- Arquitecturas neuromórficas híbridas: combinar lo mejor de las redes actuales (transformers, atención, MoE) con mecanismos biológicamente inspirados como neuronas espigadas, plasticidad sináptica, estructuras recurrentes, etc.
- Hardware dedicado: chips que operen como cerebros reducidos — con memoria integrada al procesamiento — para disminuir latencia y dependencias de la nube, especialmente útil en dispositivos IoT, robótica, entornos remotos.
- Software que aprenda mejores políticas de adaptación en tiempo real: IA que no sólo se entrene una vez y despliegue, sino que siga aprendiendo durante su operación, adaptándose al contexto, los errores, los cambios ambientales.
- Mayor atención ética y conceptual: cómo definimos “aprender”, “inteligencia”, “mente” al comparar cerebro humano con máquinas, qué restricciones sociales, legales y filosóficas necesitamos para mantener la dignidad humana, evitar sesgos, distorsión de la percepción de lo que la IA puede o no puede hacer.
Conclusión
Durante los últimos dos años hemos visto cómo la IA inspirada en procesos del cerebro humano ha pasado de ser una curiosidad de laboratorio a incorporar componentes que prometen eficiencia, ahorro energético, rapidez, mejor memoria integrada, y modelos escalables para contextos complejos. Desde transistores moiré hasta chips neuromórficos y modelos como SpikingBrain-1.0, los investigadores están trazando una hoja de ruta clara hacia IA más humana en funcionalidad, aunque todavía con muchos retos por resolver.
El futuro cercano podría no ser que una máquina “piense” exactamente como un humano —eso quizá sea meta a largo plazo—, pero sí que realice cálculos, decisiones y adaptaciones con una eficiencia, flexibilidad y autonomía cada vez más próximas a las nuestras.
Fuentes consultadas:

Comentarios
Publicar un comentario