Los chatbots basados en inteligencia artificial como ChatGPT de OpenAI demostraron en pocos meses lo útiles que son. Los llamados modelos de lenguaje de gran tamaño (Large language models, LLM) son herramientas entrenadas con grandes cantidades de datos para conversar, resolver dudas o agilizar las tareas de los usuarios como lo haría un humano.

Las respuestas que dan casi al instante a lo que las personas plantean asombraron a varios expertos, como Bill Gates. El cofundador de Microsoft expresó en su blog hace unos meses que lo que se consiguió con la IA le recordaba a lo que supuso la interfaz gráfica en su día.

Sin embargo, A los LLM actuales leS queda mucho recorrido por delante. Por ese motivo, para que no se salga de control, los reguladores comienzan a plantear normas, más o menos restrictivas, como la de la Unión Europea, EEUU o Japón.

¿Cómo se entrenan los LLM?

Los resultados de los LLM , tan parecidos a los que daría un humano, no surgen de la nada. Detrás de ello, hay un entrenamiento que tiene en cuenta millones de datos que circulan por Internet. 

Por ejemplo, el modelo LaMDA (Language Model for Dialogue Applications) en el que se basa Bard, utiliza la Wikipedia, "foros públicos" y "documentos de código de sitios relacionados con la programación, como sitios de preguntas y respuestas, tutoriales, etc.". 

Ante el uso de los foros como información de entrenamiento, Reddit y StackOverflow anunciaron sus intenciones de comenzar a cobrar por acceder a sus conversaciones de texto en línea.

ChatGPT crece día a día

Todos los datos recopilados de Internet (de momento de forma gratuita para los desarrolladores de IA) se procesan en una red neuronal. Esto último es una especie de "motor" de la IA compuesto por nodos y capas y que se ajustan constantemente para interpretar y dar sentido a la información almacenada en función al contexto de la conversación, teniendo en cuenta los resultados de pruebas y errores anteriores.

La mayoría de los LLM utilizan una estructura de red neuronal denominada "transformador". Este concepto comenzó a usarlo Google en 2017, al referirse a su desarrollo en IA. En la actualidad lo usan más marcas, como OpenAI, con sus siglas GPT, que significan "Generative Pre-Trained Transformer".

¿Qué es un transformador?

Un transformador es capaz de leer grandes cantidades de texto (como las que manejan los grandes LLM) y detectar patrones de cómo se formulan las frases y cómo se relacionan las palabras. 

De esta manera, las conversaciones que tan reales parecen con los chatbots son todo fruto del procesamiento de datos con transformadores.

LLM: en qué se pueden convertir

ChatGPT o Bard tienen poco de inteligentes, pese a que se los conozca como IA. Eso se debe a que no saben lo que dicen, sino que aprendieron a cómo poner una palabra detrás de otra para que el texto sea coherente y más creativo. 

Sin embargo, también se enfocan en no ser repetitivos, por lo que, a veces, no eligen las palabras más correctas para continuar su oración y eso puede llevar a textos con menos sentido.

Google tiene su propia IA llamada "Bard"

Esto último no ocurre con tanta frecuencia en los modelos más avanzados y se espera que, con el tiempo, lo hagan mucho menos.

Te puede interesar