OpenAI inició una investigación sobre la posibilidad de que la startup china DeepSeek haya utilizado sus modelos para entrenar un chatbot rival, a través de un proceso conocido como “destilación”. Según The Wall Street Journal, este método permite que un modelo más pequeño y eficiente aprenda al replicar las respuestas generadas por uno más grande, como los desarrollados por OpenAI, lo que reduce significativamente los costos de entrenamiento.
Las sospechas de OpenAI surgieron al observar intentos desde cuentas asociadas a entidades chinas para extraer grandes cantidades de datos de sus herramientas de inteligencia artificial. Estas cuentas fueron bloqueadas por violar los términos de servicio, que prohíben específicamente usar las salidas de sus modelos para entrenar productos competidores. Según The Verge, Microsoft, como socio de OpenAI, detectó estas actividades en 2024 a través de sus investigadores de seguridad.
Un portavoz de OpenAI explicó al Financial Times: “Sabemos que empresas con sede en China —y en otros lugares— intentan constantemente destilar los modelos de las principales empresas de inteligencia artificial de EE. UU.”. La compañía añadió que, aunque la destilación es una práctica común en la industria, su aplicación para desarrollar modelos competidores constituye una violación explícita de sus términos.
OpenAI ha implementado medidas para enfrentar el uso no autorizado de sus modelos por parte de DeepSeek y otras entidades. Según The Wall Street Journal, la empresa bloqueó las cuentas sospechosas de llevar a cabo destilación de datos a gran escala desde su plataforma. Estas acciones se llevaron a cabo en colaboración con Microsoft, socio estratégico y proveedor de infraestructura de OpenAI, que ayudó a identificar a los actores responsables.
Un portavoz de OpenAI señaló que trabajan estrechamente con el gobierno de los Estados Unidos para proteger sus modelos más avanzados. En una declaración al Financial Times, enfatizó la importancia de establecer “contramedidas” para proteger la propiedad intelectual, incluyendo un cuidadoso control de las capacidades que se incluyen en los modelos lanzados públicamente.
Microsoft detectó actividad inusual a fines de 2024 que indicaba una posible exfiltración de datos, es decir, el acto de sustraer información de manera no autorizada, a través de cuentas de desarrolladores afiliadas a DeepSeek. Aunque OpenAI no reveló detalles precisos sobre las pruebas recopiladas, indicó que estas acciones violan sus términos de servicio, que prohíben el uso de su tecnología para crear modelos competidores.
Estas medidas forman parte de un esfuerzo más amplio para contrarrestar lo que describen como un intento constante de entidades ubicadas en China y otros países de extraer conocimiento de los principales desarrolladores de inteligencia artificial de EE. UU.
FUENTE: INFOBAE.