Computadoras que funcionan siguiendo los patrones del cerebro humano
�SPohoiki Springs, es el sistema informático neuromórfico más grande de Intel desarrollado hasta la fecha y es capaz de computar la capacidad de 100 millones de neuronas⬝.
Por Hermes Lavallén
La ingeniería neuromórfica, también conocida como computación neuromórfica, es un concepto desarrollado por Carver Mead, a finales de 1980. Describe el uso de circuitos que imitan las arquitecturas neurobiológicas del sistema nervioso. Los investigadores de Intel, IBM, HP, MIT, Purdue, Stanford y otros, esperan aprovecharlo para desarrollar una supercomputadora mil veces más poderosa que cualquier otra de la actualidad.
Intel advierte que los sistemas neuromórficos como Pohoiki Springs aún se encuentran en la fase de investigación y no están destinados a reemplazar los sistemas informáticos convencionales. Pero Intel señala que proporcionan una herramienta para que los investigadores desarrollen y caractericen nuevos algoritmos inspirados en neurología para el procesamiento en tiempo real, la resolución de problemas, la adaptación y el aprendizaje.
Cuál es la oportunidad para la escala: en el mundo natural, incluso algunos de los organismos vivos más pequeños pueden resolver problemas computacionales notablemente difíciles. Muchos insectos, por ejemplo, pueden rastrear visualmente objetos, navegar y evitar obstáculos en tiempo real, a pesar de tener cerebros con menos de 1 millón de neuronas.
De manera similar, el sistema neuromórfico más pequeño de Intel, Kapoho Bay, comprende dos chips Loihi con 262,000 neuronas y admite una variedad de cargas de trabajo de borde en tiempo real. Los investigadores de Intel e INRC han demostrado la capacidad de Loihi para reconocer gestos en tiempo real, leer braille usando piel artificial, orientar la dirección usando puntos de referencia visuales aprendidos y aprender nuevos patrones de olor, todo mientras consume decenas de milivatios de potencia. Con 100 millones de neuronas, Pohoiki Springs aumenta la capacidad neuronal de Loihi al tamaño del cerebro de un pequeño mamífero, un paso importante en el camino para soportar cargas de trabajo neuromórficas mucho más grandes y sofisticadas. El sistema sienta las bases para un futuro autónomo y conectado, que requerirá nuevos enfoques para el procesamiento dinámico de datos en tiempo real.
Los procesadores tradicionales de uso general, como CPU y GPU, son particularmente hábiles en tareas que son difíciles para los humanos, como cálculos matemáticos de alta precisión. Pero el papel y las aplicaciones de la tecnología se están expandiendo. Desde la automatización hasta la inteligencia artificial y más allá, existe una creciente necesidad de que las computadoras funcionen más como humanos, procesando datos no estructurados y ruidosos en tiempo real, mientras se adaptan al cambio. Este desafío motiva arquitecturas nuevas y especializadas.
La computación neuromórfica es un replanteamiento completo de la arquitectura de la computadora desde abajo hacia arriba. El objetivo es aplicar los últimos conocimientos de la neurociencia para crear chips que funcionen menos como las computadoras tradicionales y más como el cerebro humano.
Pohoiki Springs consiste en un rack de datos con 768 chips de investigación neuromórfica Loihi que ocuparían el espacio de 5 servidores estándar, y que sin duda se convierte en el sistema de investigación neuromórfica más potente construido hasta la fecha.
Los chips Loihi trabajan de manera distinta a un procesador normal, asemejándose a la manera de trabajar de una neurona, que suele basar su actividad en potenciales de acción (semejantes a los bits).
Más allá de las tareas de IA, Pohoiki Springs establece ayudas en muchos campos de investigación, haciéndolo 1.000 veces más rápido y 10.000 veces de manera más eficiente que los procesadores convencionales. Pohoiki Springs es capaz de procesar la información de un mamífero de pequeño tamaño, eso es lo que nos dice Intel.
Esta disciplina no es para nada reciente, sino que es poco conocida fuera del ámbito académico. En diálogo con Conclusión nos explica Guillermo Leale, Doctor en Ingeniería, profesor universitario, consultor en ciencia de datos y un referente científico en la ciudad de Rosario.
�SEn 1958, Frank Rosenblatt presenta el «Perceptrón», una palabra de ciencia ficción que describe una idea nueva sobre una base vieja: modelar situaciones reales mediante ecuaciones (algo que ya estaba inventado), pero propone que las ecuaciones se organicen como una neurona humana. Las neuronas, en su nivel más básico, tienen conexiones o sinapsis. Estas conexiones se refuerzan si las interacciones son fuertes, y se debilitan si pasa lo contrario. Aquí Rosenblatt plantea una serie de operaciones simples que se encadenan de tal forma que si se usan más frecuentemente, se multiplican por un número cada vez más grande, y viceversa. De esta manera nacen las redes neuronales artificiales: un modelo con base matemática, pero inspirado y organizado como una neurona humana. Estas redes se fueron complejizando y mejorando con el tiempo, y gracias a ese avance, entre otros, hoy las máquinas pueden simular muy fielmente la forma de pensar y actuar de los humanos.
Es a través de este aprendizaje sobre cómo aplicar modelos matemáticos y computacionales inspirados en la biología humana que aprendimos desde otro plano cómo funciona el cerebro. En este sentido, la computación neuromórfica es una forma de volver al principio: utilizar todo lo que los científicos computacionales aprendieron y mejoraron sobre la forma de funcionar del cerebro para devolver o mejorar funciones propias⬝.