Unidad de Comunicación

Noticias - Aprendiendo a aprender      

Aprendiendo a aprender      

Denisse Joana Flores
16/oct/2013

Miles de millones de células nerviosas (neuronas) se almacenan en uno de los órganos más complejos del que se tiene conocimiento: el cerebro humano. Esta compleja red de neuronas ya ha sido estudiada por distintas disciplinas y la Física no ha sido la excepción.

Élfego Ruíz Gutiérrez, estudiante de maestría en el IFUNAM, exploró este tema desde un enfoque físico, es decir, como un sistema complejo, según explicó en su plática "Modelo dinámico de aprendizaje en redes de neuronas" durante el Seminario de Estudiantes en el mes de mayo.

"Lo que me motivó a hacer este trabajo es el estudio de la mente, el cual intento abordar con base en lo que ya se conoce del cerebro. Me parece que los estudios que se pueden hacer al respecto desde el punto de vista de un físico, en general, podrían complementar el trabajo tanto de neurofisiólogos como de psicólogos", dijo a Noticias IFUNAM.

Bajo la tutela de Rafael Barrio, investigador del IFUNAM, Élfego partió de una pregunta clave: ¿qué podemos aprender y qué no?, lo que después lo llevó a cuestionarse: ¿Cómo aprende un conjunto pequeño de neuronas a realizar funciones muy simples bajo ciertas reglas?

Para encontrar respuestas tuvo que retomar los análisis de Hodgkin y Huxley, dos biofísicos que en los años cincuenta desarrollaron uno de los modelos más importantes de la biofísica celular después de estudiar el axón (prolongación de la neurona) gigante de calamar.

Los investigadores detallaron la iniciación y propagación de potenciales de acción (impulsos eléctricos) en las neuronas. Según sus análisis los iones de sodio y potasio desempeñan un papel central en la formación del potencial de acción.


(Izquierda) Esquematización de una neurona. La neurona recibe un conjunto de estímulos (s_j) que serán evaluados para la respuesta de la neurona \psi. (Derecha) Abstracción de la red de neuronas. La red recibe estímulos como señal de entrada, éste es procesado para más tarde devolver una señal de salida. Fuente: Élfego Ruíz Gutiérrez.

Sin embargo este modelo maneja una gran cantidad de detalles que lo hacen computacionalmente pesado por lo que los investigadores del IFUNAM decidieron extraer solamente las características más relevantes.

Así, la metodología de su investigación integró algoritmos de aprendizaje, concretamente, el de Monte Carlo que adivina la solución por medio de un método “prueba-error”, es decir, proponiendo conexiones hasta llegar a la solución del problema.

“Lo que hicimos fue modelar lo que, hemos observado, sucede en etapas muy tempranas del aprendizaje en las que prácticamente no hay experiencia ni otros métodos que favorezcan el proceso mismo de aprendizaje. Prácticamente lo redujimos a un método de tipo prueba-error”, explicó.

Una analogía que puede ayudar a comprender este método es el comportamiento que se puede observar en los bebés al alimentarse: aprenden a tomar la comida con sus manos e intentan llevarla a su boca repetidas veces (y fallando continuamente) hasta lograrlo.

Lo que buscaron fue que la red de neuronas respondiera ante ciertos estímulos de una manera específica. Así, el método pone a prueba una configuración determinada (que llamaremos solución) la cual se evalúa y compara con la solución anterior. Si ésta mejoró entonces se aprueba como solución potencial, de otro modo se van eliminando. Esto sucede hasta encontrar una configuración determinada para conectar las neuronas y lograr que la red responda de la manera buscada.


Una población de redes enseñadas a responder como las funciones lógicas “OR” y “AND”. Conforme el número de intentos va incrementando, las neuronas progresivamente disminuyen su error asemejándose cada vez más al objetivo.

“Nuestra contribución es dar una cota de cuántos intentos son necesarios, según el número de neuronas y algunos otros parámetros, para funciones muy simples. Y de paso ver si existe un conjunto de parámetros que optimicen este procedimiento manteniendo la regla de aprendizaje de prueba- error”, comentó.

Una de las conclusiones que el joven investigador remarca en su trabajo es la importancia de establecer determinadas conexiones entre las neuronas para obtener cierta funcionalidad, lo que revela que la información se almacena en las conexiones y no en las neuronas per se.

De este modo remarca la capacidad que tiene las neuronas de reproducir casi cualquier función aún sin estar conectadas entre sí. “Si les permites conectarse entre ellas de muchas otras maneras seguramente podrán reproducir más funciones aún”, agregó.

Por otro lado, también reconoce que para mejorar el modelo hay mucho trabajo pendiente: explorar a detalle el nivel fisiológico, por ejemplo, permitiría una comprensión más precisa sobre lo que sucede en el interior del cerebro y al mismo tiempo se buscaría una compatibilidad entre ambas disciplinas.

Por lo pronto nuevos paradigmas comienzan a surgir en el área de las ciencias cognitivas y en general en la psicología con la esperanza de dar respuesta a preguntas tan complejas como ¿qué es la conciencia?