Anthropic denuncia "ataques de destilación" de IAs chinas para plagiar su modelo Claude
El uso de 24 mil identidades ficticias y más de 16 millones de ingresos ilegales al sistema permitió detectar el fraude.
El uso de 24 mil identidades ficticias y más de 16 millones de ingresos ilegales al sistema permitió detectar el fraude.
La compañía de inteligencia artificial Anthropic denunció una "campaña de ataques de destilación" (entrenar modelos de IA menos potentes a partir de otros más fuertes) desde DeepSeek, Moonshot AI y MiniMax, tres laboratorios de IA de China a los que acusa de técnicas fraudulentas para plagiar a su modelo Claude.
"Hemos identificado campañas a escala industrial por parte de DeepSeek, Moonshot AI y MiniMax para extraer ilícitamente las capacidades de Claude para mejorar sus propios modelos", denunció Anthropic en las últimas horas en un comunicado.
Según Anthropic, estos tres laboratorios de IA con sede en China mantuvieron más de 16 millones de interacciones con Claude a través de aproximadamente 24.000 cuentas fraudulentas, en violación de sus términos de servicio y de las restricciones de acceso regionales.
La compañía con sede en San Francisco describió estas técnicas como "ataques de destilación", que consisten en entrenar un modelo menos capaz basándose en los resultados de uno más fuerte.
La destilación es un método de entrenamiento legítimo y ampliamente utilizado en el sector de la IA, pero también puede usarse con fines ilícitos por parte de competidores que la usan para adquirir capacidades poderosas de otros laboratorios en mucho menos tiempo y menor precio de lo que les llevaría desarrollarlas de forma independiente.
Anthropic denunció que éste fue un caso de destilación "ilícita" porque usó "cuentas fraudulentas y servicios de proxy", ocultando la ubicación para acceder a Claude a gran escala sin ser detectados.
"El volumen, la estructura y el enfoque de los 'prompts' eran distintos de los patrones de uso normales, lo que refleja una extracción de capacidades deliberada en lugar de un uso legítimo", argumentó la compañía.
El informe también apunta que la destilación ilícita por parte de DeepSeek, hómonimo de OpenAI en China, se fundamentó en extraer el razonamiento interno de Claude para crear "alternativas seguras a la censura para consultas políticamente sensibles".
Anthropic advirtió de que los modelos destilados ilícitamente "carecen de las salvaguardas necesarias" para impedir "posibles desarrollos de armas biológicas o actividades cibernéticas maliciosas", lo que supone un "riesgo significativo para la seguridad nacional".