En Google ya sabían en 2023 que algo como DeepSeek era inevitable: "no tenemos ventaja competitiva... y OpenAI tampoco"

En estos días, la IA de DeepSeek ha estado sacudiendo el mercado tecnológico mundial: su chatbot gratuito superó en descargas a ChatGPT en la App Store de iOS y ha provocado un desplome del 18% en las acciones de NVIDIA y despertando temores en Silicon Valley sobre el dominio estadounidense en la IA. Sin embargo, este escenario no ha tomado (o no debería haber tomado) por sorpresa a todos. En Google, algunos expertos ya advirtieron hace casi dos años que la irrupción de un competidor 'open source' era solo cuestión de tiempo. Una revolución anunciada A mediados de 2023 se filtraba un informe interno de Google que señalaba que la tendencia hacia modelos de IA de código abierto no solo era imparable, sino que pondría en riesgo el predominio de las grandes tecnológicas en el sector. En aquel momento, sin embargo, la atención del mundo estaba centrada en el lanzamiento de GPT-4 por parte de OpenAI y en la carrera entre Microsoft y Google por liderar la revolución de los chatbots con IA. Uno de los argumentos clave del informe era que el modelo de negocio de OpenAI y Google, basado en ofrecer acceso restringido a potentes modelos propietarios, no sería sostenible a largo plazo: "Si bien los modelos cerrados aún tienen ventajas en términos de calidad y control, la velocidad de innovación del código abierto es imparable". De hecho, Google ya había experimentado esta presión de primera mano con la aparición de LLaMA de Meta y otros modelos abiertos que, aunque menos avanzados en aquel momento, mostraban un rápido crecimiento. La velocidad de innovación de la que hacía ya gala la IA open source (primeras tres columnas) El informe abordaba cómo el ecosistema de código abierto estaba logrando lo que parecía impensable: ejecutar LLMs en dispositivos tan pequeños como un teléfono móvil, afinar inteligencias artificiales personalizadas en portátiles domésticos en cuestión de horas y desarrollar modelos multimodales con apenas una fracción de los recursos necesarios hasta entonces. Todo esto, con una velocidad de innovación vertiginosa, en las que las nuevas versiones surgían en semanas, no en meses. En Genbeta "No creo que haya nada mágico aquí": los expertos explican cómo DeepSeek ha revolucionado partes de la IA que no se creían posibles La idea de que los usuarios no pagarían por modelos restrictivos cuando había alternativas gratuitas y comparables en calidad ponía en entredicho su modelo de negocio Uno de los puntos más preocupantes para los investigadores de Google era que la aparente ventaja competitiva de tener acceso a enormes cantidades de datos y poder computacional estaba desvaneciéndose ("Ya no tenemos ninguna 'salsa secreta'", decían), ya que los desarrolladores independientes lograban resultados sorprendentes con presupuestos modestos y hardware accesible. Ya en ese momento, técnicas como 'Low-Rank Adaptation' (LoRA) permitían ajustes rápidos y económicos a modelos ya entrenados, democratizando el acceso a capacidades avanzadas de IA. Además, la publicación de modelos abiertos por parte de actores inesperados, como Meta con su filtración de LLaMA, había empezado a convertirse en la chispa de un incendio de innovación colectiva: cada mejora hecha por un individuo o grupo se construía sobre la anterior, creando una cascada de avances que dejaba atrás la rigidez corporativa de las grandes tecnológicas. Los autores del informe interno de Google argumentaban que la única manera de mantenerse relevante era abrazar esta cultura de apertura, colaborando más estrechamente con la comunidad externa y considerando liberar versiones más pequeñas y manejables de sus propios modelos. El control estricto sobre sus modelos, pensado para proteger sus inversiones, en realidad estaba acelerando su obsolescencia frente a alternativas libres y adaptables. En Genbeta Enfrentamos a DeepSeek contra ChatGPT: sorprende con sus resultados y nos hace dudar si merece pagar ChatGPT Plus DeepSeek: bajo costo, alto impacto Lo que hace que DeepSeek-R1 sea tan disruptivo y haya atraído tanta atención mediática y de los mercados no es solo su rendimiento comparable a GPT-4, sino haber podido combinarlo con un bajo costo computacional. Mientras que modelos como Gemini de Google o Claude de Anthropic requieren enormes centros de datos y miles de GPUs para su funcionamiento, DeepSeek ha logrado reducir la carga de hardware a una décima parte de lo que se consideraba necesario para un modelo de lenguaje a gran escala. Este avance ha generado inquietud en Estados Unidos, donde algunos analistas han descrito el lanzamiento del chatbot de DeepSeek como un 'momento Sputnik' para la IA estadounidense, en referencia al shock que supuso el lanzamiento del primer satélite soviético en 1957 (también es cierto que EE.UU. terminó tenien

Feb 1, 2025 - 06:34
 0
En Google ya sabían en 2023 que algo como DeepSeek era inevitable: "no tenemos ventaja competitiva... y OpenAI tampoco"

En Google ya sabían en 2023 que algo como DeepSeek era inevitable: "no tenemos ventaja competitiva... y OpenAI tampoco"

En estos días, la IA de DeepSeek ha estado sacudiendo el mercado tecnológico mundial: su chatbot gratuito superó en descargas a ChatGPT en la App Store de iOS y ha provocado un desplome del 18% en las acciones de NVIDIA y despertando temores en Silicon Valley sobre el dominio estadounidense en la IA.

Sin embargo, este escenario no ha tomado (o no debería haber tomado) por sorpresa a todos. En Google, algunos expertos ya advirtieron hace casi dos años que la irrupción de un competidor 'open source' era solo cuestión de tiempo.

Una revolución anunciada

A mediados de 2023 se filtraba un informe interno de Google que señalaba que la tendencia hacia modelos de IA de código abierto no solo era imparable, sino que pondría en riesgo el predominio de las grandes tecnológicas en el sector. En aquel momento, sin embargo, la atención del mundo estaba centrada en el lanzamiento de GPT-4 por parte de OpenAI y en la carrera entre Microsoft y Google por liderar la revolución de los chatbots con IA.

Uno de los argumentos clave del informe era que el modelo de negocio de OpenAI y Google, basado en ofrecer acceso restringido a potentes modelos propietarios, no sería sostenible a largo plazo:

"Si bien los modelos cerrados aún tienen ventajas en términos de calidad y control, la velocidad de innovación del código abierto es imparable".

De hecho, Google ya había experimentado esta presión de primera mano con la aparición de LLaMA de Meta y otros modelos abiertos que, aunque menos avanzados en aquel momento, mostraban un rápido crecimiento.

Semanas La velocidad de innovación de la que hacía ya gala la IA open source (primeras tres columnas)

El informe abordaba cómo el ecosistema de código abierto estaba logrando lo que parecía impensable: ejecutar LLMs en dispositivos tan pequeños como un teléfono móvil, afinar inteligencias artificiales personalizadas en portátiles domésticos en cuestión de horas y desarrollar modelos multimodales con apenas una fracción de los recursos necesarios hasta entonces. Todo esto, con una velocidad de innovación vertiginosa, en las que las nuevas versiones surgían en semanas, no en meses.

La idea de que los usuarios no pagarían por modelos restrictivos cuando había alternativas gratuitas y comparables en calidad ponía en entredicho su modelo de negocio

Uno de los puntos más preocupantes para los investigadores de Google era que la aparente ventaja competitiva de tener acceso a enormes cantidades de datos y poder computacional estaba desvaneciéndose ("Ya no tenemos ninguna 'salsa secreta'", decían), ya que los desarrolladores independientes lograban resultados sorprendentes con presupuestos modestos y hardware accesible.

Ya en ese momento, técnicas como 'Low-Rank Adaptation' (LoRA) permitían ajustes rápidos y económicos a modelos ya entrenados, democratizando el acceso a capacidades avanzadas de IA.

Además, la publicación de modelos abiertos por parte de actores inesperados, como Meta con su filtración de LLaMA, había empezado a convertirse en la chispa de un incendio de innovación colectiva: cada mejora hecha por un individuo o grupo se construía sobre la anterior, creando una cascada de avances que dejaba atrás la rigidez corporativa de las grandes tecnológicas.

Los autores del informe interno de Google argumentaban que la única manera de mantenerse relevante era abrazar esta cultura de apertura, colaborando más estrechamente con la comunidad externa y considerando liberar versiones más pequeñas y manejables de sus propios modelos.

El control estricto sobre sus modelos, pensado para proteger sus inversiones, en realidad estaba acelerando su obsolescencia frente a alternativas libres y adaptables.

DeepSeek: bajo costo, alto impacto

Lo que hace que DeepSeek-R1 sea tan disruptivo y haya atraído tanta atención mediática y de los mercados no es solo su rendimiento comparable a GPT-4, sino haber podido combinarlo con un bajo costo computacional.

Mientras que modelos como Gemini de Google o Claude de Anthropic requieren enormes centros de datos y miles de GPUs para su funcionamiento, DeepSeek ha logrado reducir la carga de hardware a una décima parte de lo que se consideraba necesario para un modelo de lenguaje a gran escala.

Este avance ha generado inquietud en Estados Unidos, donde algunos analistas han descrito el lanzamiento del chatbot de DeepSeek como un 'momento Sputnik' para la IA estadounidense, en referencia al shock que supuso el lanzamiento del primer satélite soviético en 1957 (también es cierto que EE.UU. terminó teniendo su 'momento Apolo 11', así que no nos apresuremos a sacar aún conclusiones geopolíticas a largo plazo).

Imagen | Marcos Merino mediante IA

En Genbeta | DeepSeek lo cambia todo a la hora de aprender a programar porque ofrece algo que ChatGPT no: un vistazo a cómo piensa

-
La noticia En Google ya sabían en 2023 que algo como DeepSeek era inevitable: "no tenemos ventaja competitiva... y OpenAI tampoco" fue publicada originalmente en Genbeta por Marcos Merino .