Nuevo capítulo en la historia de DeepSeek. Si has estado siguiendo la trama, sabrás que esta IA china ha causado todo un seísmo entre las grandes tecnológicas y causándole a Nvidia sufrió una de las mayores pérdidas bursátiles registradas en un solo día. Pero ahora la cosa se pone aún más interesante.
OpenAI ha lanzado una nueva acusación: DeepSeek podría haber usado sus datos sin permiso. Y no, no es la primera vez que escuchamos algo así en el mundo de la inteligencia artificial. La polémica está servida, y aquí estoy para contarte todo lo que necesitas saber.
Antes de meternos en harina, ¡inciso de Spam! Perdón perdón perdón, quería decir "Inciso de seguridad! 🙂 Recuerda que los antivirus son una herramienta crucial para mitigar las vulnerabilidades. Consulta algunos de los mejores antivirus gratis que hemos analizado para tí y descubre cuál se ajusta mejor a ti.
OpenAI vs DeepSeek: ¿de qué se les acusa?
Vamos al grano. OpenAI dice que DeepSeek ha usado una técnica llamada "destilado de modelos" para entrenar su IA. En cristiano: han hecho que su modelo aprenda de los de OpenAI, como quien copia en un examen. Y aquí está el problema: OpenAI deja clarito en sus términos de uso que esto no se puede hacer.
¿Qué es el destilado de modelos?
El destilado de modelos es una técnica avanzada en el aprendizaje profundo que permite transferir conocimientos de un modelo de inteligencia artificial grande y potente (modelo maestro o "profesor") a uno más pequeño (modelo "estudiante"). La idea detrás de esta técnica es reducir el tamaño del modelo sin perder demasiada precisión en sus respuestas.
Esta estrategia resulta especialmente útil en entornos donde los recursos computacionales son limitados. Si pensamos en dispositivos móviles o sistemas integrados, no es viable ejecutar modelos gigantes como GPT-4 debido a sus elevadas necesidades de procesamiento y memoria. Gracias al destilado, se pueden crear versiones más ligeras que conserven la esencia del modelo original sin los altos costos de computación.
El proceso de destilado funciona a través de tres pasos fundamentales:
- Entrenamiento del modelo grande: Se entrena un modelo potente con grandes cantidades de datos.
- Generación de etiquetas suaves: El modelo grande predice respuestas con una distribución de probabilidades detallada, lo que proporciona un mayor nivel de información a diferencia de una simple clasificación binaria.
- Entrenamiento del modelo pequeño: El modelo "estudiante" se entrena usando las salidas del modelo grande, permitiéndole imitar sus patrones de decisión con una capacidad de cómputo reducida.
¿Para qué sirve el destilado de modelos?
Esta técnica se usa en múltiples ámbitos dentro de la inteligencia artificial, entre ellos:
- Optimización de modelos: Permite que los modelos sean más eficientes y consuman menos recursos computacionales.
- Mejora de rendimiento: Hace que los modelos sean más rápidos en la generación de respuestas sin sacrificar calidad.
- Uso en dispositivos con menos potencia: Se usa para adaptar modelos a teléfonos móviles, dispositivos IoT y sistemas con capacidad de procesamiento reducida.
- Reducción de costes de operación: Como los modelos optimizados requieren menos capacidad de procesamiento, las empresas pueden reducir gastos en infraestructura.
- Desarrollo de modelos híbridos: Combinando modelos grandes con otros más pequeños, las empresas pueden ofrecer soluciones flexibles, desde servicios cloud hasta asistentes virtuales de bajo consumo.
¿Cómo usa DeepSeek el destilado de modelos?
DeepSeek, según las acusaciones de OpenAI, habría utilizado esta técnica para mejorar la eficiencia de sus modelos sin incurrir en los enormes costes de desarrollo que conlleva entrenar una IA desde cero. Sin embargo, aquí entra en juego el conflicto legal: OpenAI prohíbe explícitamente que sus modelos sean utilizados con fines de destilado en sus términos de servicio. Es decir, si DeepSeek ha utilizado datos de OpenAI para entrenar su IA mediante esta técnica, estaría incumpliendo dichas condiciones.
DeepSeek, por su parte, niega las acusaciones y sostiene que su modelo se ha desarrollado con técnicas propias y con datos recopilados de forma independiente. Los expertos en IA han señalado que la velocidad con la que DeepSeek ha alcanzado su nivel de sofisticación es sospechosa. Mientras OpenAI ha necesitado años y miles de millones de dólares para perfeccionar ChatGPT, DeepSeek ha llegado a un rendimiento comparable con un presupuesto de apenas 5,6 millones de dólares.
¿Lo irónico de todo esto? OpenAI ya lo hizo en el pasado
Y aquí es donde la historia se vuelve divertida. Porque OpenAI está acusando a DeepSeek de hacer algo que, casualmente, ellos mismos han hecho en el pasado. Recordemos que OpenAI ha utilizado toneladas de datos de internet sin permiso. Por ejemplo, transcribieron millones de horas de vídeos de YouTube para entrenar a GPT-4. Es decir, lo de "haz lo que digo, pero no lo que hago" parece encajar bastante bien aquí.
Timnit Gebru, investigadora y experta en IA, no se ha mordido la lengua sobre esto. En LinkedIn dejó claro que OpenAI "puede robar al mundo entero y engullir todos los recursos posibles, pero nadie puede darles a probar su propia medicina ni siquiera un poco". Vamos, que la hipocresía está a la orden del día.
La investigación a DeepSeek y el juego de poderes
Esta no es la primera vez que OpenAI y Microsoft investigan a DeepSeek. Ya el otoño pasado estaban con la lupa puesta en sus cuentas. Había sospechas de que estaban usando la API de OpenAI para destilar modelos y, si esto es cierto, estarían infringiendo las normas de la empresa de Sam Altman.
Desde OpenAI aseguran que DeepSeek no es el único que está intentando hacer esto. De hecho, dicen que en China (y en otros países) hay empresas que están constantemente buscando formas de replicar los modelos de IA líderes en Estados Unidos. En otras palabras: la guerra tecnológica entre China y EE.UU. se libra en el campo de la inteligencia artificial.
Y mientras tanto, DeepSeek sigue creciendo
Lo cierto es que, mientras OpenAI arma este revuelo, DeepSeek sigue avanzando. Sus modelos son tan potentes como ChatGPT o Gemini, y encima tienen la ventaja de que son más baratos y consumen menos energía. Por eso, ya ha logrado liderar las descargas de IA en más de 123 países.
Pero aquí viene su gran reto: la censura. DeepSeek es un modelo chino y, según algunos medios, tiene restricciones en los temas que puede tratar. Un artículo de The Guardian decía que probaron la IA y funcionaba de maravilla hasta que le preguntaron por la Plaza de Tiananmén o Taiwán. Ahí, sorpresa, la IA se calló.
¿Qué podemos esperar?
Esto no se acaba aquí. La guerra entre OpenAI y DeepSeek no ha hecho más que empezar. OpenAI podría llevar a DeepSeek a los tribunales por violación de propiedad intelectual, pero también debería prepararse para responder sobre su propio uso de datos ajenos. La ironía de la situación es evidente.
En cualquier caso, lo que sí está claro es que la IA avanza a un ritmo brutal y que cada nuevo episodio de esta saga nos deja con más preguntas que respuestas. Así que, si quieres estar al día, no le pierdas la pista a este culebrón tecnológico. Porque seguro que la próxima entrega nos trae aún más drama.