Unidad de Comunicación

Noticias - Proponen un método de machine learning para el estudio de dinámicas cuánticas de los materiales

Proponen un método de machine learning para el estudio de dinámicas cuánticas de los materiales

Erika Montserrat Vilchis Quintero
01/06/2023

El desarrollo e implementación de los denominados Machine-learning force fields (MLFF) -el empleo del aprendizaje de máquina o aprendizaje automatizado en la reconstrucción de campos de fuerzas moleculares para el cálculo de interacciones atómicas, partiendo de cálculos ab initio- está transformando las simulaciones atomísticas en campos como la física, química, biología y ciencia de los materiales, pues ha permitido una gran cantidad de hallazgos novedosos y ha ampliado el conocimiento y entendimiento de los procesos físicos y químicos a escala atómica en moléculas y materiales.

En este contexto, a mediados de 2022, un grupo de investigadores, entre los que se encuentra el Dr. Huziel Enoc Sauceda Felix, del departamento de Materia Condensada del Instituto de Física de la UNAM, presentó en la revista Nature Communications el desarrollo de Bravais-Inspired Gradient-Domain Machine Learning (BIGDML), un modelo de aprendizaje de máquina para sistemas periódicos que es preciso, fácil de construir, eficiente en términos del uso de datos de referencia ab initio y computacionalmente económico.

“Lo que hace esta metodología es democratizar el uso de machine learning porque puede ser empleado por cualquiera que así lo requiera. Con muy pocos datos nosotros podemos replicar los resultados obtenidos por otros modelos populares en el mercado. De hecho, con sólo el 1% de la cantidad de datos usados por ellos, nosotros obtuvimos los mismos resultados. Esto es una reducción de dos órdenes de magnitud en la cantidad de datos”, mencionó el Dr. Sauceda Felix. “En general, se entiende que los métodos de machine learning usan muchos datos, pues se considera que hay en abundancia. Pero esto no es así en las ciencias físicas, pues es escasa la cantidad de información en la mayoría de los problemas de interés y uno debe generarla, lo cual cuesta tiempo de cómputo, y resulta una limitante para grupos pequeños de trabajo.”

Figura que muestra la simetrización sistemática de la energía potencial de superficie. En específico, se puede conocer cuando no existe simetría, cuando sólo existe simetría local y cuando hay simetría local y translacional. Esta figura forma parte del artículo científico mencionado. Fuente: Sauceda, H. E., et al, 2022.

Este novedoso método, el BIGDML, tiene sus fundamentos en un marco de referencia publicado en un trabajo previo -el Symmetric Gradient-Domain Machine Learning (sGDML) para sistemas finitos- al generalizar el uso de las simetrías para incluir grupos de traslación y de Bravais. Dicha metodología permite simular sistemas periódicos con superceldas compuestas de hasta 200 átomos, -si se entrena usando métodos directos, es decir inversión de matrices-, pero se puede escalar hasta 500 átomos por supercelda al usar entrenadores numéricos. Más aún, es conveniente resaltar que el BIGDML es el único modelo global en la literatura, es decir que describe al material o sistema extendido como un sistema de muchos cuerpos, no sólo como una colección de átomos. La imposición analítica de la conservación de energía y del grupo de simetrías, aunado a la representación global del sistema, hace del BIGDML un modelo de aprendizaje de máquina físicamente sesgado, lo cual acota fuertemente el espacio de soluciones al entrenar el modelo. Consecuentemente, esto hace que se requieran bases de datos muy pequeñas -con solo 10 a 200 geometrías- para reconstruir las superficies de energía potencial de materiales complejos con precisiones de estado-del-arte (los errores están sustancialmente por debajo de 1 meV por átomo). Esto sin asumir tipos de átomos artificiales o localización de interacciones atómicas.

“Todos los modelos que desarrollamos se refieren a energías de sistemas y fuerzas atómicas. En lugar de resolver la ecuación de Schrödinger para obtener la energía cada que vez que deseamos evaluar una función, usamos BIGDML y la diferencia en tiempo de cómputo es de tres órdenes de magnitud. Es decir que, si un sistema tarda 100 segundos en una computadora normal o en una supercomputadora como Miztli (supercomputadora de la UNAM), nuestro modelo tarda alrededor de 1 segundo y puede hacerse en una laptop. Esa es la gran diferencia y ahí se puede ver el beneficio del uso de machine learning.”

El BIGDML, que es resultado de una línea de investigación que inició en 2017 y que hasta entonces resultaba inédita a nivel mundial, consiste en la combinación de un descriptor global y el grupo de simetría completo del sistema dentro del marco de aprendizaje de máquina en el dominio de gradiente (GDML), lo que resulta en un MLFF robusto y altamente eficiente en datos, que es capaz de alcanzar una precisión de última generación con solo unas pocas docenas de puntos de entrenamiento, a diferencia de otros modelos existentes.

“Lo que hace esta metodología, además de poder entrenar modelos para describir materiales bastante complejos, es abrir la puerta para también hacer simulaciones más ambiciosas y hacer estudios predictivos que pueden ser corroborados de manera experimental. Por ejemplo, ya se pueden estudiar propiedades a temperaturas finitas que hasta hace un par de años era imposible. Si se desea estudiar la absorción óptica de un material a temperatura finita, se tendría que hacer algo llamado dinámicas moleculares de primeros principios, que son métodos tremendamente caros computacionalmente hablando y que pueden llevar meses en supercomputadoras, como Miztli. De ahí que haya pocos artículos en este tema.”

Además, la eficiencia de datos que proporciona este nuevo método abre muchas oportunidades para estudiar materiales avanzados utilizando altos niveles de teoría de estructura electrónica. Puede ser aplicado para reproducir con exactitud las fuerzas atómicas y la energía total de materiales en bulto, así como superficies e interfases.

Para determinar la capacidad de predicción del BIGDML, realizaron evaluaciones estadísticas basadas en curvas de aprendizaje, es decir se calcula el error de generalización o error global en función de la cantidad de datos utilizados para el entrenamiento. Esto debido a que, como comentó el Dr. Sauceda, “la mayoría de los grupos proponen su metodología de machine learning, la analizan con pruebas estadísticas. Es decir que entrenan a los modelos, pero no los aplican, así que se desconoce si físicamente son correctos y, al momento de generar conocimiento, éste no es válido. Es lo que criticamos en este artículo, pues no es suficiente con propuestas de metodologías, sino que también deben ser probadas y demostrar que son correctas.”

Para ilustrar la aplicabilidad de su modelo y su robustez, los investigadores seleccionaron sistemas representativos que cubren un amplio espectro de materiales: grafeno como material 2D, sólidos metálicos y semiconductores 3D, superficies (Pd absorbido en una superficie de MgO), moléculas unidas mediante enlaces de Van der Waals en superficies, como el benceno adsorbido en grafeno y materiales en bulto con defectos intersticiales (hidrógeno en paladio). Además, analizaron el caso de las perovskitas de composición CsPbBr3, con el objetivo de probar el comportamiento del modelo en superceldas más grandes.

Aunque ya supera a los modelos basados en átomos de última generación en una uno o dos órdenes de magnitud (pues permite llevar a cabo las simulaciones dinámicas extendidas de materiales al mismo tiempo que describe correctamente todas interacciones químicas y físicas relevantes en sistemas periódicos), para el modelo BIGDML, la descripción de materiales con varios cientos de átomos que tienen una gran cantidad de simetrías o la transferencia de modelos entre diferentes sistemas siguen siendo tareas desafiantes. No obstante, estos problemas técnicos podrían ser abordados mediante el uso de enfoques multiescala o compuestos, así como optimizadores numéricos iterativos. Los autores, además, remarcan la importancia de incluir conocimiento previo, leyes físicas y simetrías en los modelos de machine learning.

“Hay otras metodologías más complejas para resolver la ecuación de Schrödinger para electrones en la cual se pueden ganar hasta 6 órdenes de magnitud al momento de evaluar el valor de energía, tal como el método de coupled clusters”.

Hasta antes de la creación del BIGDML, todos los MLFF conocidos empleaban la “aproximación de localidad”, en donde para poder predecir la energía total de un sistema de materia condensada, era necesario partirla en contribuciones atómicas localizadas. Aunque, si bien es cierto que la aproximación de localidad ha brindado frutos en gran cantidad de aplicaciones, la suposición de localidad no toma en cuenta las interacciones no locales, por lo que no captura gran parte de las interacciones que dan origen a numerosos fenómenos físicos. En consecuencia, esto se verá reflejado en discrepancias de las predicciones de dichos modelos respecto a observables experimentales o dinámicas explícitas ab initio. Lo anterior, por tanto, restringe el poder de predicción de las simulaciones MLFF de materiales realistas, cuyas propiedades a menudo están determinadas por una interacción compleja entre enlaces químicos locales y una multitud de interacciones no locales.

En contexto:

La dinámica molecular es un tipo de simulación molecular computacional que permite analizar tanto el comportamiento como la evolución de sistemas de naturaleza física, química o biológica a través del tiempo. Esto permite estudiar procesos dinámicos dentro de algún sistema de interés pero, sobre todo, el objetivo principal de realizar simulaciones de dinámica molecular es calcular las propiedades termodinámicas de un sistema molecular o material.

Con el tiempo se han logrado crear distintas simulaciones de dinámica molecular cuya calidad depende, en gran medida, de la precisión del método de cálculo de las interacciones o fuerzas atómicas y, por ello, a mayor precisión, mayor es el costo computacional. Un método muy preciso es la “dinámica molecular ab initio”, que permite calcular las interacciones entre los átomos de forma mecánico-cuántica partiendo de cálculos ab initio –cálculos que se basan en resolver la ecuación de Schrödinger para electrones-. No obstante, su inconveniente es que se ve limitado por el tamaño del sistema, ya sea una molécula o el tamaño de la supercelda de un material, y por la longitud de la simulación, la cual es reducida para capturar la complejidad de sistemas realistas.

Actualmente, para acelerar los cálculos necesarios en la simulación se emplean campos de fuerza (o force fields), que son parametrizaciones de la energía potencial. Estas parametrizaciones varían y pueden constar desde funciones muy sencillas de parámetros empíricos, hasta funciones muy complejas que utilizan miles de cálculos ab initio. Generalmente, la creación manual de campos de fuerza precisos puede ser muy tardada, pues se requiere de amplios conocimientos y experiencia previa, además de que supone grandes costos.

Por ello, se ha optado por el uso del aprendizaje de máquina (machine learning) que evita muchos los inconvenientes de la creación manual de campos de fuerza, además de reconstruir las interacciones cuánticas provenientes de la solución de Schrödinger de manera mucho más precisa. Es precisamente de esta fusión de enfoques que surgen los campos de fuerza de aprendizaje de máquina (Machine-learning force fields o MLFF, por sus siglas en inglés).

A diferencia de los campos de fuerza convencionales, los MLFF pueden ser “entrenados” en datos de gran precisión, tales como en la Teoría del Funcional de la Densidad (DFT) o teoría de Cúmulos Acoplados (CC, Coupled Clusters), métodos usados en los cálculos cuánticos de la estructura electrónica de la materia. Durante la fase de entrenamiento de un MLFF, se le muestran los datos generados a partir de teorías de estructura electrónica; de ahí, la metodología de aprendizaje de máquina se encarga de encontrar las correlaciones relevantes entre las fuerzas atómicas y la estructura molecular de sistema, es decir las coordenadas cartesianas de los átomos que forman la molécula o el material. Una vez entrenado el MLFF, se puede usar para calcular las fuerzas atómicas con una precisión similar al nivel de teoría usado para generar los datos, pero órdenes de magnitud más rápidos.

El equipo de investigación en el que forma parte el Dr. Sauceda Felix apunta que, entre los obstáculos que se presentan para el desarrollo de los MLFF, se encuentran la optimización, la velocidad computacional y la eficiencia de datos, así como la aplicabilidad universal a sistemas químicos cada vez más diversos. También señalan que, en la práctica, todos los MLFF existentes introducen compensaciones (trade-offs) que restringen su precisión, eficiencia o aplicabilidad.