Elon Musk admitió durante su testificación en un juicio federal de California que xAI entrenó sus modelos Grok utilizando los sistemas de inteligencia artificial de OpenAI mediante destilación. La confesión surgió en el marco del litigio que enfrenta a ambas compañías, originado por la demanda que Musk interpuso contra Sam Altman por transformar OpenAI en una entidad con fines de lucro, alejándose de su estructura sin fines de lucro original.

La destilación es una técnica que permite transferir el aprendizaje de un modelo de IA grande a otro más pequeño. El modelo menor imita el comportamiento de la red neuronal más grande, absorbiendo sus predicciones y datos. Cuando se le preguntó específicamente si xAI había destilado tecnología de OpenAI, Musk respondió que "en parte" utilizó los modelos de ChatGPT para mejorar Grok. El CEO argumentó que esta es "una práctica habitual" en la industria y que "generalmente todas las empresas de IA" recurren a ella para validar sus propios sistemas.

AfiliaGo - DafaBet Latam

Sin embargo, la práctica es controversial. Aunque la destilación es común en laboratorios de IA para crear versiones económicas de modelos propios, puede convertirse en ilícita cuando compañías ajenas usan modelos externos para entrenar los suyos sin invertir en infraestructura propia. Esto se conoce como "ataque de destilación". OpenAI y Anthropic ya han denunciado este comportamiento, aunque las acusaciones previas se concentraban en empresas chinas como DeepSeek, Moonshot y MiniMax.

OpenAI señaló que DeepSeek utilizó destilación de ChatGPT para entrenar su modelo de código abierto, planteando problemas de propiedad intelectual. Anthropic denunció en febrero que empresas chinas ejecutaron ataques de destilación contra su modelo Claude a través de 24.000 cuentas fraudulentas, generando más de 16 millones de interacciones. Como respuesta, las compañías de IA implementan nuevas defensas: identificación de patrones de ataques, verificación reforzada de cuentas y salvaguardias a nivel de producto.