El lanzamiento del modelo de inteligencia artificial R1, de la empresa china DeepSeek, conmocionó al sector y despertó preocupaciones entre sus competidores, como OpenAI, que acusó a la compañía china de haber utilizado su chatbot, ChatGPT, de manera indebida para extraer información con el propósito de desarrollar sus propios asistentes inteligentes.
El rápido ascenso de DeepSeek en el ámbito de la IA representó un desafío para las principales empresas del sector, todas ellas con sede en los Estados Unidos. La razón detrás de esta inquietud radica en que la firma china logró crear un modelo con un rendimiento comparable al de OpenAI, Gémini, de Google y Meta IA, de Meta, pero a un costo considerablemente menor.
En este escenario, Microsoft investiga si DeepSeek usó información técnica de ChatGPT para entrenar sus modelos de IA como R1.
David Sacks, jefe de IA y criptomonedas en la Casa Blanca, también deslizó que DeepSeek pudo haber realizado esta operación a través de un proceso llamado destilación de conocimiento: "Existe evidencia sustancial de que lo que DeepSeek hizo aquí fue destilar el conocimiento de los modelos de OpenAI".
Y añadió: "Una de las cosas que veremos en los próximos meses será a nuestras principales empresas de IA tomando medidas para tratar de prevenir la destilación. Eso definitivamente ralentizaría algunos de estos modelos imitadores".
Cómo funciona la técnica de destilación de conocimientos
En la industria de la inteligencia artificial (IA), es habitual recurrir a la destilación, un proceso que permite generar versiones más compactas de modelos avanzados. Esta técnica facilita la creación de alternativas capaces de ofrecer respuestas similares, pero con un menor consumo de recursos computacionales.
Sin embargo, la destilación puede cruzar el límite de la legalidad cuando es usada para entrenar modelos que compiten directamente con los originales, afectando los derechos de propiedad intelectual de sus creadores.
Este es justamente el argumento de OpenAI, que sostiene que DeepSeek logró desarrollar un chatbot de alto nivel reduciendo significativamente los costos de entrenamiento, al aprovecharse de su tecnología.
OpenAI precisó que tanto las compañías chinas como de otros países intentan "constantemente destilar los modelos de las principales empresas estadounidenses de IA".
Y agregó: "A medida que avanzamos, es de vital importancia que trabajemos estrechamente con el gobierno de los Estados Unidos para proteger mejor los modelos más capaces".
Naomi Haefner, profesora asistente de gestión tecnológica en la Universidad de St. Gallen, apuntó que el uso de la destilación podría cuestionar la afirmación de que DeepSeek logró crear sus modelos con una inversión significativamente menor.
"No está claro si DeepSeek realmente entrenó sus modelos desde cero", deslizó y explicó que "OpenAI ha declarado que cree que DeepSeek puede haberse apropiado indebidamente de ellos grandes cantidades de datos".
Y añadió: "Si este es el caso, entonces las afirmaciones sobre entrenar el modelo a un precio muy bajo son engañosas. Hasta que alguien replique el enfoque de entrenamiento no sabremos con certeza si un entrenamiento tan rentable es realmente posible".
OpenAI investiga a DeepSeek desde 2024
En 2024, la compañía identificó comportamientos inusuales en su chatbot, como intentos de acceder masivamente a datos de sus modelos por parte de entidades relacionadas con DeepSeek, acciones que infringen los términos de servicio de OpenAI.
Ante esta situación, la empresa optó por suspender las cuentas involucradas y encaró una investigación interna para determinar si DeepSeek incurrió en una posible extracción no autorizada de información.
Un vocero de OpenAI aclaró -en diálogo con Financial Times- que "muchas empresas, no solo en China, intentan destilar los modelos de IA de empresas líderes", aunque "la diferencia en este caso es que se trata de una competencia directa".
"Esto plantea una amenaza a nuestra propiedad intelectual", concluyó.