Evelyn C. Ayala09/sep/2024
Durante una ceremonia solemne en Beijing, China, el investigador del departamento de Materia Condensada del Instituto de Física, Huziel E. Sauceda, recibió en julio pasado el Frontiers of Science Award (FSA) 2024, en representación del grupo de trabajo al que perteneció durante su postdoctorado.
Este premio es organizado por el International Congress of Basic Science (ICBS) y fue otorgado al grupo del Dr. Sauceda en reconocimiento de su artículo “Schnet: una arquitectura de aprendizaje profundo para moléculas y materiales”, publicado en The Journal of Chemical Physics, en marzo de 2018.
De acuerdo con la descripción del ICBS, se premia “la investigación más destacada, con énfasis en los logros de los últimos diez años que sean de excelencia y de valor académico sobresaliente”.
Para la edición 2024, se eligieron trabajos científicos tanto de investigación básica matemáticas, física teórica y ciencias teóricas de la computación y la información, así como ciencia aplicada en 42 áreas de los tres campos de las ciencias básicas. El trabajo de Sauceda tuvo que cumplir con tres requisitos, de acuerdo con el ICBS: “(1) debe haber sido publicado en los últimos 10 años; (2) debe ser del más alto valor científico y originalidad y haber tenido un impacto importante en su área; y (3) debe haber sido evaluado y aceptado por académicos en su área”.
Este premio tiene como objetivo alentar a los jóvenes académicos a trabajar en las fronteras de la ciencia básica y a obtener resultados innovadores, así como “contribuir con sabiduría y energía al estudio de la humanidad de los misterios del mundo natural”, de acuerdo con el premio.
La publicación galardonada se llama Schnet y es la primera propuesta de una red neuronal física y químicamente sesgada para el aprendizaje eficaz e interpretable Con ella es posible dilucidar con mayor rapidez y precisión el comportamiento químico de los materiales y sistemas moleculares. Hasta ahora, el artículo se ha citado más de 1,800 veces alrededor del mundo.
“SchNet presenta un modelo de aprendizaje profundo adaptado a moléculas y materiales, que ofrece una mayor capacidad de predicción de las propiedades moleculares y fomenta una comprensión más profunda de los sistemas químicos a través de representaciones aprendidas”, según se lee en el diploma.
Además del investigador Huziel E. Sauceda, el grupo de trabajo que desarrolló esta metodología estuvo conformado por: el Dr. Kristof Schütt y el Dr. Pieter-Jan Kindermans, quienes ahora se encuentran en Pfizer y Google DeepMind, respectivamente, además de los investigadores y profesores Alexandre Tkatchenko y Klaus-Robert Müller, de la Universidad de Luxemburgo y de la Universidad Técnica de Berlín, respectivamente.
De la misma manera en que los seres humanos aprenden diferentes destrezas y conceptos a lo largo de la vida, con base en experiencias cotidianas, también desarrollan modelos matemáticos que pueden aprender o encontrar patrones escondidos en bases de datos, según la teoría del aprendizaje estadístico.
A eso se le llama machine learning, un subdominio de la inteligencia artificial (AI, por sus siglas en inglés) en la que es especialista el investigador del IFUNAM, Huziel Sauceda.
Una de las muchas tareas en las que se puede aplicar el machine learning es la predicción del comportamiento de sustancias químicas, específicamente para saber cómo reaccionarán sus átomos y moléculas en diferentes condiciones o incluso ante la exposición a otras moléculas y átomos. Este tipo de investigación es útil, por ejemplo, en la creación de fármacos.
Es precisamente gracias a la red neuronal que un conjunto de miles de datos puede ayudar a predecir las propiedades químicas de sistemas químicos. “Una red neuronal está caracterizada por su arquitectura”, dijo el investigador.
Tal y como sucede en el cerebro, una neurona (artificial en este caso) se comunica con otras para formar una red interconectada que recibe, procesa y envía información continuamente. Si la información o señal que intercambian es suficiente para superar un umbral dado, es decir, si las neuronas (biológicas) reciben suficientes iones de sodio o potasio, entonces esta señal se propagará hacia otras neuronas.
“La red neuronal no manda señales hasta que pasas cierto umbral de voltaje; es como si empezaras a llenar una cubeta de agua, entonces la cubeta solo se va a empezar a derramar hasta que el agua llegue al borde”, dijo el investigador. En el caso de una red neuronal en machine learning, las neuronas enviarán señales a otras neuronas que, a su vez, también enviarán señales.
Esta reacción en cadena va a responder en función de cómo están conectadas las neuronas, o sea de su arquitectura, y con base en ello podrán ser una herramienta útil y eficiente para llevar a cabo ciertas tareas como predecir, con lenguaje algorítmico, cálculos más precisos en el menor tiempo posible.
“Dependiendo de qué tan preciso va a ser nuestro cálculo, va ser cuánto tiempo nos va a tomar resolver esa ecuación”. El investigador pone como ejemplo la aspirina y cómo se calcula la energía de esa estructura y las fuerzas que actúan en cada uno de sus 21 átomos y más de 60 electrones.
“Si yo quiero que mi cálculo de esas propiedades sea extremadamente bueno, entonces ya pasamos a otras metodologías que se llaman, por ejemplo, cúmulos acoplados, que tarda de 1 a 7 días en resolverse dependiendo de qué tan buena sea tu computadora”, dijo el investigador.
Pero el problema puede ser mucho más complejo: se podría calcular esas propiedades en un sistema de varios fármacos en un mismo sistema. “Entonces, si yo tuviera que calcularle a un millón de moléculas para concluir alguna correlación, tendría que hacer un millón de cálculos, entonces si mi cálculo tardara un segundo tendría que invertir un millón de segundos a ese estudio”, explica el investigador.
Es por eso que con ayuda del machine learning también se busca reducir los tiempos para obtener resultados, además de la precisión. SchNet, la propuesta premiada, cumple con estas características, reduciendo en varios órdenes de magnitud el tiempo requerido para el cálculo de dichas propiedades.
¿Qué tal si en lugar de hacer ese millón de cálculos haces 10 mil?, pregunta Sauceda. Hablando de machine learning, menos es más porque al generar una base de datos más pequeña será ´fácil´ de construir en términos de tiempo de súper-cómputo”, explica Con ello es posible entrenar una red neuronal para que sea capaz de encontrar correlaciones escondidas en la base de datos y, una vez entrenado el modelo, se pueden hacer predicciones de las propiedades de una molécula de características similares a las que constituyen la base de datos. Así es como funciona SchNet.
Entre las grandes ventajas de esta metodología se encuentran: la capacidad de encontrar correlaciones en milisegundos, y que permite usar computadoras portátiles en lugar de supercomputadoras que son más sofisticadas y por ende, más costosas.
“Los modelos de machine learning solo son herramientas estadísticas, los cuales solo aprenden lo que se les enseñas. Es decir, al abrir la caja de herramientas, tienes un montón de modelos que se especializan en diferentes cosas, casi todos pueden resolver tu problema pero tienes que escoger el modelo que mejor se adapte a la estructura de tus datos”, puntualiza el investigador.
A diferencia de un cálculo cuántico manual para descubrir cómo reaccionan las moléculas, SchNet utiliza el aprendizaje profundo de datos para predecir las interacciones químicas de las moléculas y cómo la energía de un sistema molecular cambia en función de cómo están acomodadas esas moléculas.
“Tratamos de imponer cierto conocimiento físico dentro de una arquitectura de una red neuronal. El propósito de este modelo de machine learning (SchNet) era predecir o aprender de manera más eficiente las propiedades químicas de sistemas moleculares”, explica el investigador.
Gracias al intercambio de mensajes entre nodos en la arquitectura, los cuales representan átomos en una molécula o material, se puede conocer el estado atómico en una posición dada, según los átomos le rodean. Dicha metodología de intercambio de mensajes ya se conocía de teoría de gráficas, por lo que para el desarrollo de SchNet solo se adaptó dicho concepto.
Luego, ocurrió la contribución al campo de investigación: la propuesta de usar el concepto de “convoluciones” para modular la importancia de los mensajes transmitidos según la configuración geométrica del sistema. Para ello, la red neuronal se encarga de aprender una serie de filtros para usar en dichas convoluciones, mismos que capturan la química del sistema atómico.
Sauceda lo ejemplifica con un sistema de reconocimiento facial para acceder a un edificio. Durante el entrenamiento de dicho modelo de reconocimiento facial, la “red neuronal convolucional” se encarga de aprender una serie de filtros que capturan las características faciales en las fotografías que forman la base de datos.
“Después, usan dichos filtros como una “base” (en el sentido de álgebra lineal) para asignar un vector de características a cada una de las caras en la base de datos. Entonces, una persona que desea entrar al edificio muestra su cara a la cámara, el modelo descompone o proyecta esta imagen en los “filtros” aprendidos y verifica que el vector de características de dicha cara se encuentre en la base de datos que otorgue acceso al edificio”, explica Sauceda.
De la misma manera, después de aprender detalles de las moléculas y de reconocer sus características, SchNet filtra aquellas que son de su interés para realizar predicciones acertadas.
“Lo que hicimos nosotros en este trabajo fue diseñar una arquitectura basada en la intuición química donde vamos a conectar todas estas neuronas de tal manera se asemejan a los procesos químicos y cuánticos en los que interaccionan los diferentes átomos”, describe Sauceda.
De acuerdo con el investigador, la arquitectura que se ha propuesto con SchNet permite perturbar las moléculas para modificar las distancias que hay entre una molécula y otra, para saber cómo varía la energía, las propiedades magnéticas, entre otras características.
“Hasta antes de nuestro modelo SchNet, no existía arquitectura end-to-end que fuera capaz de predecir superficies de energía potencial suaves de manera continua con las coordenadas del sistema. Esto fue posible con la introducción de las capas convolucionales y filtros continuos”, explica el investigador.
Cuenta el Dr. Huziel E. Sauceda que, hasta el momento, todas las arquitecturas modernas enfocadas en la predicción de propiedades moleculares y de materiales están basadas en el modelo SchNet, y en particular en las capas de convolución y filtros entrenables. Fue por ello que recibieron el Frontiers of Science Award 2024. Su contribución muestra la relación estrecha entre diseño de arquitecturas innovadoras sesgadas para sistemas atómicos y las propiedades moleculares.