A los algoritmos se les da bien sumar, restar y multiplicar números enteros, pero hacer operaciones matemáticas como las ecuaciones diferenciales o las integrales todavía es un reto para ellos. Hasta ahora. Los investigadores de Facebook AI Research en París (Francia) han conseguido desarrollar un algoritmo capaz de hacerlo en solo unos segundos según el sitio Retina.
Por primera vez, han entrenado a una red neuronal para que sea capaz de hacer el razonamiento simbólico necesario para diferenciar e integrar las expresiones matemáticas. "Su trabajo supone un importante paso hacia un razonamiento matemático más potente y una nueva forma de aplicar las redes neuronales más allá de las tareas tradicionales de reconocimiento de patrones", asegura la publicación MIT Technology Review
Valen como un naftero, consumen la mitad: ¿cuánto ahorrás con un híbrido de Toyota, Hyundai o Ford?
Una de mayores las dificultades con las matemáticas, tanto para humanos como para máquinas, son las abreviaturas que se usan. "Por ejemplo, la expresión x3 es una forma abreviada de escribir x multiplicado por x multiplicado por x. En este ejemplo, la multiplicación es la abreviatura de la suma repetida, que es en sí misma la abreviatura del valor total de dos cantidades juntas", explican en MIT Technology Review. Si las redes neuronales no entienden estas abreviaturas, hay pocas posibilidades de que aprendan a usarla. Lo mismo pasa con las personas.
Así que los investigadores Guillaume Lample y François Charton han ideado una forma simple de descomponer las abreviaturas matemáticas para que sean más comprensibles. Lo han hecho representando las expresiones como estructuras en forma de árbol. De esta manera, los datos pueden ser procesados por una red llamada Seq2seq. De hecho, Lample y Charton subrayan que su enfoque básicamente trata las matemáticas como un lenguaje natural.
Taxi, Uber, Cabify y Beat: comparativa de precios por trayecto y la alternativa más barata para esta navidad
La siguiente fase consistió en el proceso de entrenamiento. Los investigadores recopilaron una gran base de datos: 80 millones de ejemplos de ecuaciones diferenciales de primer y segundo grado y 20 millones de ejemplos de expresiones integradas. Al procesar este conjunto de datos, la red neuronal aprendió a calcular la derivación o integral de una expresión matemática dada. Al final, Lample y Charton pusieron a prueba su red neuronal con 5.000 expresiones que nunca antes había visto y compararon los resultados creados en 500 casos con los de los programas disponibles comercialmente, como Maple, Matlab y Mathematica.
Estos programas utilizan un algoritmo de 100 páginas solo para integración. En muchos casos, los programas convencionales no pueden encontrar ninguna solución, después de intentarlo durante 30 segundos. En comparación, la red neuronal tarda aproximadamente un segundo en encontrar sus soluciones.
"Hasta donde sabemos, ningún estudio ha investigado la capacidad de las redes neuronales para detectar patrones en las expresiones matemáticas", explica Charton. El resultado tiene un enorme potencial, según el MIT, aunque los investigadores no han revelado los planes de Facebook para este enfoque. "Pero no es difícil ver cómo podría ofrecer su propio servicio de álgebra simbólica que supere a los líderes actuales del mercado".