Cómo la paralelización masiva aumenta la eficiencia cerebral sobre las capacidades de IA

El cerebro es un dispositivo complejo; en humanos, contiene alrededor de 100 mil millones de neuronas y alrededor de 100 billones de conexiones entre ellas. A menudo se compara con otro sistema complejo con enormes capacidades de resolución de tareas: una computadora digital. El cerebro y la computadora contienen una gran cantidad de unidades elementales (neuronas o transistores, respectivamente) conectadas a circuitos complejos que procesan la información transmitida por señales eléctricas. A nivel global, las arquitecturas del cerebro y la computadora son un poco similares, ya que consisten en bucles casi separados para entrada, salida, procesamiento central y memoria.
¿Quién es mejor para resolver problemas: el cerebro o la computadora? Dado el rápido desarrollo de la tecnología informática en las últimas décadas, puede decidir qué gana la computadora. De hecho, las computadoras están diseñadas y programadas para derrotar a los maestros humanos en juegos complejos, como el ajedrez en la década de 1990, y más recientemente, así como en competencias para el conocimiento enciclopédico, como el programa
Jeopardy! Game , pero por ahora que las personas vencen a las computadoras en una variedad de tareas relacionadas con el mundo real, desde la capacidad de distinguir entre un ciclista o un peatón en el camino hasta tomar una taza de té de una mesa y llevarla cuidadosamente a su boca, sin mencionar la conceptualización y la creatividad.
¿Por qué una computadora funciona bien con ciertas tareas y el cerebro con otras? Las comparaciones de la computadora con el cerebro ayudaron a los ingenieros y neurocientíficos a comprender este problema. La siguiente comparación se realizó en los albores de la era moderna de las computadoras, en el pequeño pero influyente libro The Computer and the Brain de
John von Neumann , especialista en muchos campos de la ciencia, quien fue el primero en desarrollar un esquema de arquitectura de computadoras en la década de 1940, aún luego sirve como base de las computadoras modernas. Veamos los números en estas comparaciones.
Las propiedades | Computadora | Cerebro |
---|
El número de elementos elementales. | Hasta 10 mil millones de transistores. | ≈ 100 mil millones de neuronas y 100 trillones de sinapsis |
Velocidad de operaciones básicas | 10 mil millones / seg | <1000 / seg |
Precisión | 1 en 4,2 mil millones (para un procesador de 32 bits) | 1 a 100 |
El consumo de energía | 100 vatios | 10 vatios |
Método de procesamiento de información | Mayormente serial | Serial y masivamente paralelo |
El número de entradas y salidas de cada elemento. | 1-3 | ≈ 1000 |
Modo de operación | Digital | Digital y analógico |
Datos tomados de las computadoras de 2008. El número de transistores por circuito integrado se duplicó cada 18-24 meses, pero con el tiempo, el aumento de la velocidad disminuyó debido a problemas con el consumo de energía y la disipación de calor.
La computadora tiene enormes ventajas sobre el cerebro en la velocidad de las operaciones básicas
1 . Hoy en día, las computadoras personales son capaces de realizar operaciones aritméticas básicas como la suma, a una velocidad de 10 mil millones de operaciones por segundo. Podemos evaluar la velocidad de las operaciones cerebrales elementales mediante los procesos elementales mediante los cuales las neuronas transmiten información y se comunican entre sí. Por ejemplo, las neuronas activan
potenciales de acción : ráfagas de señales eléctricas que se lanzan en las proximidades de una célula neuronal y se transmiten a lo largo de sus largas ramas, axones, que la conectan con las siguientes neuronas. La información se codifica en la frecuencia y el momento del inicio de estas ráfagas. La frecuencia máxima de activación neuronal es del orden de 1000 ráfagas por segundo. En otro ejemplo, las neuronas transmiten información a las neuronas asociadas relacionadas, emitiendo neurotransmisores químicos en estructuras especiales en los extremos de los axones, las sinapsis y las neuronas asociadas convierten el neurotransmisor en señales eléctricas, y este proceso se denomina
transmisión sináptica . La transmisión sináptica más rápida ocurre en 1 ms. Por lo tanto, a través de explosiones y transmisiones sinápticas, el cerebro es capaz de realizar un máximo de mil operaciones básicas por segundo, que es 10 millones de veces más lento que una computadora. Se supone que las operaciones aritméticas deberían convertir la entrada en salida, por lo que la velocidad del trabajo está limitada por las operaciones básicas de las comunicaciones neuronales, como los potenciales de acción y la transmisión sináptica. Pero hay excepciones a estas restricciones. Por ejemplo, las neuronas con sinapsis eléctricas (conexiones entre neuronas que no usan neurotransmisores químicos) que no producen sobretensiones son, en principio, capaces de transmitir información más rápido que en un milisegundo; también los eventos capaces de ocurrir localmente en las dendritas son capaces de esto.
La computadora también tiene serias ventajas sobre el cerebro en la precisión de las operaciones básicas. Una computadora es capaz de representar números con la precisión deseada utilizando bits, ceros y unidades asignadas a cada número. Por ejemplo, un número de 32 bits tiene una precisión de 1 a 2
32 , o 4.200 millones. La evidencia empírica sugiere que la mayoría de los números en el sistema nervioso (por ejemplo, la frecuencia de activación de las neuronas, que a menudo se usa como una estimación de la intensidad del estímulo) fluctúa en un pequeño porcentaje debido al ruido biológico, es decir, la precisión, en el mejor de los casos, es de 1 a 100, que es millones de veces peor que una computadora. Por cierto, el ruido puede servir como un indicador de que muchos procesos nerviosos son esencialmente probabilísticos. Los mismos estímulos pueden causar diferentes secuencias de explosiones de actividad eléctrica de las neuronas.
Sin embargo, los cálculos realizados por el cerebro no se pueden llamar lentos o inexactos. Por ejemplo, un jugador de tenis profesional puede seguir el camino de una pelota volando a una velocidad de hasta 260 km / h, moverse al asiento óptimo en la cancha, poner su mano en la posición correcta y agitar una raqueta, devolviendo la pelota a la mitad del oponente, y todo esto en unos pocos cientos de milisegundos. Además, el cerebro es capaz de todas estas tareas (utilizando el cuerpo que controla), consumiendo diez veces menos energía que una computadora personal. ¿Cómo tiene éxito el cerebro? Una diferencia importante entre la computadora y el cerebro es el modo en que cada uno de estos sistemas procesa la información. La computadora realiza tareas en su mayor parte en pasos secuenciales. Esto se puede ver por la forma en que los programadores escriben código, creando una secuencia de instrucciones consecutivas. Se requiere una alta precisión para cada paso de esta secuencia, ya que los errores se acumulan y amplifican en cada paso. El cerebro también usa pasos secuenciales en el procesamiento de la información. En el ejemplo del tenis, la información fluye de los ojos al cerebro y luego a la médula espinal para controlar las contracciones de los músculos de las piernas, el tronco, el brazo y la muñeca.
Pero el cerebro también utiliza el procesamiento masivo de datos paralelos, aprovechando la gran cantidad de neuronas y las conexiones entre ellas. Por ejemplo, una pelota de tenis en movimiento activa muchas células de la retina, fotorreceptores, que convierten la luz en señales eléctricas. Estas señales se transmiten a muchos tipos diferentes de neuronas retinianas. Para cuando las señales del fotorreceptor pasan a través de dos o tres conexiones sinápticas en la retina, la información sobre la posición, dirección y velocidad de la pelota ya ha sido extraída por circuitos neuronales paralelos y transmitida al cerebro. Del mismo modo, la corteza motora (la parte de la corteza cerebral responsable de la motilidad consciente) envía comandos en paralelo para controlar la contracción de los músculos de las piernas, el tronco, los brazos y las muñecas, de modo que el cuerpo y las manos ocupen simultáneamente la posición óptima para recibir la pelota.
Esta estrategia paralela masiva funciona porque cada neurona recoge la entrada y envía la salida a muchas otras neuronas, en promedio para los mamíferos, 1000 enlaces entrantes y salientes por neurona. Y cada transistor en total tiene solo tres nodos para entrada y salida. La información de una neurona puede ir de muchas maneras paralelas. Y al mismo tiempo, muchas neuronas de procesamiento de información pueden conectar sus datos de salida enviándolos a una neurona posterior. Esta propiedad es especialmente útil para aumentar la precisión del procesamiento de la información. Por ejemplo, la información proporcionada por una sola neurona puede contener ruido (es decir, su precisión es del orden de 1 a 100). Al percibir la entrada de 100 neuronas que procesan la misma información, la siguiente neurona a su vez ya puede proporcionar información con mayor precisión (en este caso, de 1 a 1000). Suponga que la desviación estándar σ de los
medios para cada unidad de datos de entrada corresponde aproximadamente al ruido. Para el número promedio de entradas independientes n, la desviación esperada de la media σ
media = σ / √ n. En nuestro ejemplo, σ = 0.01 yn = 100, entonces σ
media = 0.001.
La computadora y el cerebro tienen similitudes y diferencias también en la representación de sus unidades elementales. El transistor utiliza una representación digital de información con valores discretos (0 o 1). La explosión del axón también es una señal digital, porque una neurona en cualquier momento está activada o no, y cuando se activa, casi todas las explosiones tienen aproximadamente el mismo tamaño y forma. Esta propiedad permite la transmisión confiable de ráfagas a largas distancias. Sin embargo, las neuronas también aprovechan las capacidades de las señales analógicas que representan información utilizando valores continuos. Algunas neuronas (la mayoría de las neuronas de la retina) no producen explosiones, y su salida se transmite por señales eléctricas escalonadas (que, a diferencia de las explosiones, pueden variar en magnitud), que son capaces de transmitir más información que las explosiones. El extremo receptor de la neurona (generalmente ubicado en dendritas) también usa señales analógicas para integrar hasta mil señales de entrada al mismo tiempo, lo que permite que las dendritas realicen cálculos complejos.
Otra característica notable del cerebro, que se usa claramente en el ejemplo de un juego de tenis, es que la fuerza de las conexiones entre las neuronas se puede cambiar como resultado de las acciones y la experiencia; este proceso, como lo consideran los neurocientíficos, es la base del aprendizaje y la memorización. El entrenamiento repetido permite que los circuitos neuronales se sintonicen mejor con la tarea, lo que aumenta considerablemente la velocidad y la precisión.
En las últimas décadas, los ingenieros se han inspirado en el cerebro para mejorar las computadoras. Los principios del procesamiento paralelo y la modificación de los pesos de los enlaces, dependiendo del uso, se incluyen en las computadoras modernas. Por ejemplo, en el desarrollo de computadoras, la tendencia actual es el aumento del paralelismo, por ejemplo, el uso de varios procesadores (núcleos) en una computadora. Otro ejemplo es el aprendizaje profundo, la ciencia del aprendizaje automático y la inteligencia artificial, que ha logrado un enorme éxito en los últimos años y es responsable del rápido progreso en el reconocimiento de objetos y habla en computadoras y dispositivos móviles, se inspiró en descubrimientos relacionados con el sistema visual de los mamíferos.
2El aprendizaje profundo, que imita el sistema visual de los mamíferos, utiliza varias capas, cada una de las cuales representa las propiedades cada vez más abstractas del objeto (visual o del habla), y los pesos de los enlaces entre las diferentes capas se ajustan mediante el entrenamiento, y no debido a los esfuerzos de ingeniería. Estos avances recientes han ampliado la lista de tareas sujetas a las computadoras. Y, sin embargo, el cerebro sigue siendo una flexibilidad, capacidad de generalización y capacidad de aprendizaje superior a la computadora. A medida que los neurocientíficos descubran más y más secretos del cerebro (ayudados por el uso cada vez mayor de las computadoras), los ingenieros podrán tomar más ejemplos para inspirarse del cerebro a fin de mejorar aún más la arquitectura y el rendimiento de las computadoras. Quien resulte ser el ganador en una tarea particular, esta inseminación mutua interdisciplinaria sin duda avanzará tanto en neurobiología como en tecnología informática.
1. Patterson, DA y Hennessy, JL Computer Organization and Design (Elsevier, Amsterdam, 2012), 4ª ed.
2. LeCun, Y. Bengio, Y. y Hinton, G. Aprendizaje profundo. Nature 521, 436–444 (2015).
Likan Luo es profesora en la Facultad de Humanidades y Ciencias y profesora de neurociencia en la Universidad de Stanford.