15  Conclusiones

El presente trabajo ha abordado la complejidad de resolver una ecuación diferencial parcial dependiente del tiempo en dos dimensiones espaciales a través de una red neuronal con la arquitectura DeepONet, asimismo se obtuvieron predicciones para el cuadrado de \([0,1]\times[0,1]\). Los hiperparámetros de la red se fueron variando para obtener la mejor configuración, usando como base los resultados obtenidos por Alessio Borgi (2023). Los resultados obtenidos mediante la comparación con el método de Crank Nicolson demostraron que la red neuronal DeepONet se aproxima eficientemente, pues el MAE se mantuvo entre 1.3% y 7%, con un valor máximo de 18.2% en el MaxAE Tabla 14.1. Complementando a los resultados previos, al comparar con la solución analítica, el MAE máximo fué de 6.8% y un MaxAE de 18% Tabla 14.2.

Los errores obtenidos demuestran la eficacia del modelo para converger a la condición inicial, pues tal como se aprecia en las figuras 14.5 y 14.6, a medida que la ecuación evoluciona en el tiempo, las predicciones entre el método de Crank Nicolson y la red neuronal divergen, esto es conforme evoluciona la función, vemos que cada vez se aleja más del valor real. Valdría la pena en otro trabajo comparar la solución con otro método númerico clásico para observar si se presenta el mismo comportamiento.

Lo anterior evidencia el potencial que tiene las PINNs como herramienta auxiliar en la solución de ecuaciones diferenciales parciales, pues solo a través de la definición de la geometria y el espacio temporal (si es necesario) junto con algunos puntos en el dominio y las condiciones iniciales y de frontera probarón predecir de forma muy acertada el conjunto de prueba. Una situación que es común en el ámbito científico, es la de no siempre contar con una base de datos extensa y libre de ruido con la que entrenar a un modelo, lo que le otortga a las PINNs una gran ventaja respecto a los modelos de Deep learning que necesitan una gran cantidad de datos para poder ser entrenados (George Em Karniadakis 2021).

Complementado a las PINNs, que predicen soluciones específicas para condiciones fijas; la arquitectura DeepONet aprende operadores (mapeos entre espacios de funciones) en lugar de solo aproximar funciones, lo que le otorga la capacidad de generalizar a nuevas condiciones iniciales y de frontera sin reentrenamiento, gracias a su estructura de red dual (branch-trunk). Esto lo hace ideal para aplicaciones en tiempo real, como la hipertermia, donde las características del problema son suceptibles a cambios, como lo son las propiedades del cuerpo humano que varían en cada paciente. Un problema clave que se encontró es que al tener una estructura más compleja, los tiempos de entrenamiento respectos a las PINNs son mayores, sin embargo esto se ve bien compensado por su alta capacidad de adaptabilidad a nuevas condiciones ya sean iniciales o de frontera.

La creación de éste tipo de modelos, tanto PINNs clásicas como DeepONets se puede ver obstaculizada por el conocimiento en programación del investigador o estudiante que se plantee programarlos. Si bien, tanto en el ámbito científico como en la programación el pensamiento crítico, seguimiento lógico y abstracción de los problemas son pilares fundamentales; también es necesario familiarizarse con las librerías que implementan éste tipo de modelos, además es bastante recomendado tener una noción básica de como funciona una red neuronal y las partes que la componen. Lo anterior implica una inversión de tiempo y esfuerzo por parte de los interesados, cosa que cuando se lleva a cabo un experiemento o investigación no siempre es posible. Si bien éstas herramientas son bastante fascinantes y con mucho potencial, como cualquier nueva habilidad hay que practicar su uso para obtener resultados que valgan la pena.

Cabe mencionar que las aplicaciones de las PINNs son tan amplias como lo es en sí en campo de las PDEs, si nos centramos en la hipertermia, la cual busca elevar la temperatura en tejidos tumorales (39-45°C), nos topamos con que predecir la distribución térmica en tiempo real es un desafío más complejo de lo que parece en un inicio, hay varias formas de caracterizar la temperatura en un cuerpo biológico, sin contar que las múltiples varibales que componen el fenómeno cambian dependiendo del individuo. Por ello, las redes neuronales, especialmente DeepONet por su capacidad de generalización, permiten aproximar la temperatura bajo distintas condiciones, optimizando la dosificación de calor y minimizando daños a tejidos sanos. Esto facilita terapias personalizadas y no invasivas, mejorando la eficacia clínica.