Publicado 29/01/2025 07:50

OpenAI señala a DeepSeek por utilizar destilación para entrenar sus modelos de IA basándose en los de ChatGPT

28 January 2025, Brandenburg, Sieversdorf: The logo of Chinese AI start-up DeepSeek can be seen on a computer screen, while a woman looks at her smartphone in front of it. The Chinese start-up DeepSeek has triggered a stock market quake with the prospect
28 January 2025, Brandenburg, Sieversdorf: The logo of Chinese AI start-up DeepSeek can be seen on a computer screen, while a woman looks at her smartphone in front of it. The Chinese start-up DeepSeek has triggered a stock market quake with the prospect - Patrick Pleul/dpa

   MADRID, 29 Ene. (Portaltic/EP) -

   OpenAI ha señalado que ha encontrado evidencias de que DeepSeek ha utilizado sus modelos de Inteligencia Artificial (IA) para entrenar su modelo de código abierto, mediante la técnica de destilación, lo que puede ocasionar problemas de propiedad intelectual.

   La IA de DeepSeek lidera actualmente las listas de descargas en las tiendas de aplicaciones App Store y Google Play Store con su asistente de IA generativa gratuito. Asimismo, sus nuevos modelos de razonamiento R1 han generado un gran impacto en la industria, con respuestas de compañías como Nvidia y OpenAI poniendo en valor el avance en IA que ofrece.

   Sin embargo, la compañía liderada por Sam Altman ha señalado ahora que, tras llevar a cabo una investigación, han encontrado evidencias de que DeepSeek ha utilizado los modelos de OpenAI para entrenar sus propios modelos de código abierto.

   Así lo han detallado fuentes relacionadas con la compañía en declaraciones a Financial Times, quienes han señalado que se han identificado pruebas que apuntan a que DeepSeek ha utilizado una técnica denominada "destilación" para entrenar sus modelos.

   En concreto, la destilación es una práctica de 'machine learning' que permite transmitir los aprendizajes de un modelo de IA a otro. Así, posibilita que un modelo más pequeño (modelo alumno) imite el comportamiento de redes neuronales más grandes (modelo profesor), aprendiendo sus predicciones y utilizando sus datos.

   En este sentido, aunque se trata de una práctica habitual en el sector, OpenAI ha manifestado que, en el momento en el que dichos datos se utilizan fuera de la plataforma, puede suponer una violación de los términos de la compañía, donde se detalla que no se permite utilizar los resultados de sus modelos para "desarrollar modelos que compitan con los de OpenAI".

   "El problema es cuando lo sacas de la plataforma y lo haces para crear tu propio modelo para tus propios fines", ha explicado una de las fuentes al medio citado.

   Además de todo ello, se ha de tener en cuenta que, según ha recogido Bloomberg, OpenAI y Microsoft ya estuvieron investigando durante el pasado otoño a algunas cuentas que estaban utilizando la API de OpenAI para llevar a cabo destilación con sus modelos y filtrar sus datos, violando los términos del servicio. En concreto, aunque estas cuentas fueron bloqueadas, se cree que eran propiedad de DeepSeek.

   Por su parte, en un comunicado también recogido por Financial Times, OpenAI ha compartido que son conscientes de que empresas con sede en China "están constantemente tratando de destilar los modelos de las principales empresas de IA de Estados Unidos".

   Al respecto, la tecnológica ha subrayado la importancia de trabajar en colaboración con el gobierno de Estados unidos para "proteger mejor los modelos más capaces de los esfuerzos de los adversarios y competidores para apoderarse de la tecnología estadounidense".

Contador

Leer más acerca de: