Por Marina Adami
El lunes 27 de enero, sucedieron dos cosas extraordinarias en el ámbito de la IA. En primer lugar, la empresa estadounidense Nvidia, que fabrica y suministra chips informáticos esenciales para el entrenamiento de la IA generativa, perdió 589.000 millones de dólares en capitalización de mercado (o el 17% de su valor), lo que marcó el récord de la mayor pérdida de valor en un día de cualquier empresa en la historia. En segundo lugar, el asistente de IA de la empresa china DeepSeek reemplazó a ChatGPT en el primer puesto de la App Store de Apple.
DeepSeek afirma que ha entrenado sus modelos en una fracción de los chips Nvidia especializados y costosos que utilizan otros desarrolladores de IA generativa, incluido OpenAI. También afirma que está alcanzando, o en algunos casos superando, a sus pares en los puntos de referencia que la industria utiliza para medir el progreso. Esto hace que DeepSeek sea un modelo más eficiente y significativamente menos costoso que muchos de sus homólogos occidentales.
Sin embargo, a medida que los usuarios prueban el chatbot de DeepSeek, surgen preocupaciones sobre la censura , la protección de datos y los derechos de autor. Los modelos de la empresa se han convertido en código abierto, lo que permite descargarlos, usarlos y modificarlos libremente.
Mientras crece la emoción y la preocupación en torno a lo que algunos han descrito como «un terremoto de IA», recurrimos a la experta en IA y periodista Karen Hao para que nos explicara qué ha sucedido y qué puede suceder a continuación. Hao ha escrito extensamente sobre IA y China para el Wall Street Journal y actualmente está trabajando en un libro sobre OpenAI. Le preguntamos a Hao qué hace que DeepSeek se destaque, qué puede significar su éxito para el futuro de la industria y cómo puede afectar esto al periodismo en todo el mundo.
P. En pocas palabras, ¿qué tiene de especial DeepSeek?
A. DeepSeek es una empresa china que desarrolló una serie de modelos de IA que alcanzaron y en algunos casos superaron el desempeño de empresas estadounidenses como OpenAI y Anthropic en ciertos tipos de puntos de referencia, pero a una fracción extraordinariamente pequeña del costo.
Esto desafía un dogma que se ha instalado en la industria de la IA en los últimos años: que es necesario gastar sumas extraordinarias de dinero para lograr avances en IA. El dinero en este caso es un sustituto de muchos chips informáticos y centros de datos masivos para entrenar modelos de IA que puedan mejorar su rendimiento. DeepSeek acaba de demostrar que esto no es cierto.
Esta no es necesariamente una lección nueva para muchas personas dentro del mundo técnico de la IA que han estado siguiendo el desarrollo de la IA durante mucho tiempo. Hubo muchos críticos del enfoque de OpenAI y este dogma. Argumentaron que era necesario invertir en enfoques mucho más eficientes en términos de recursos, pero nadie los escuchó. Este momento es muy importante porque pone de relieve que deberíamos haber escuchado a esas personas. Esto debería ser un llamado a la acción para que la industria de la IA comience a pensar de manera diferente.
P. ¿Cuál cree que será la respuesta probable de Donald Trump y de la industria de la IA?
A. No es posible prohibir los modelos de DeepSeek. Simplemente los ponen en línea y no se puede imponer una prohibición sobre algo que es completamente de código abierto. Pero creo que estamos en una encrucijada en la que o bien la gente aprenderá la lección de DeepSeek y hará algo diferente, o bien serán aún más tercos y se empeñarán en el enfoque existente e intentarán demostrar que tenían razón.
Sospecho que en el gobierno de Trump veremos una intensificación de los esfuerzos, porque las empresas estadounidenses tendrán un enorme interés en convencer al gobierno de Estados Unidos de que su enfoque es correcto. El gobierno de Estados Unidos, y en particular el presidente Trump, pueden ser persuadidos de manera única en este sentido.
P. ¿Algún impacto positivo?
A. DeepSeek será una gran fuente de inspiración para los investigadores y desarrolladores de IA de todo el mundo, que les permitirá empezar a pensar más allá de las grandes empresas. Uno de los verdaderos desafíos del desarrollo de la IA en los últimos cuatro años, con la obsesión por el desarrollo de la IA que requiere muchos recursos, ha sido que los investigadores que no tienen acceso a tantos recursos (personas de universidades o de organizaciones sin fines de lucro) se han sentido desmoralizados por quedar fuera del juego.
Se han sentido perdidos y desorientados respecto de cómo deberían contribuir a la investigación en IA porque también aceptaron el dogma de que lo que está en juego son 100 millones o 1.000 millones de dólares.
Estos investigadores se dan cuenta ahora de que pueden desarrollar otros enfoques que requieren mucho menos dinero. A largo plazo, espero que surja una oleada de otros enfoques que irán socavando el predominio del actual enfoque intensivo en recursos.
P. Entonces, en lugar de que DeepSeek reemplace a OpenAI como la empresa de inteligencia artificial generativa de referencia, usted está sugiriendo que podría haber más competencia por parte de una variedad de empresas diferentes y más pequeñas.
R. Sí. No creo que DeepSeek vaya a sustituir a OpenAI. En general, lo que vamos a ver es que más empresas entrarán en este espacio y ofrecerán modelos de IA ligeramente diferenciados entre sí. Si muchos actores optan por tomar la ruta que requiere un uso intensivo de recursos, eso multiplicará la intensidad de los mismos y eso podría ser alarmante. Pero tengo la esperanza de que DeepSeek conduzca a la generación de otras empresas de IA que entren en este espacio con ofertas que sean mucho más baratas y mucho más eficientes en cuanto a recursos.
Entonces no terminaremos en un mundo extraño donde se consuman recursos energéticos para el desarrollo de esta tecnología. Tendremos a DeepSeek, OpenAI y muchos otros actores, y cada uno de ellos intentará diferenciarse dentro del mercado de diferentes maneras.
P. Como usted mencionó en un hilo reciente , esto podría tener consecuencias positivas para el medio ambiente. Pero también hay otras preocupaciones. Los periodistas y las empresas de medios en particular tienen dudas sobre la transparencia y los derechos de autor. Si el modelo DeepSeek prevalece, ¿dónde quedan estas cuestiones?
A. DeepSeek demuestra que las consecuencias ambientales negativas actuales no son necesarias, pero no diría que DeepSeek es ahora la estrella dorada que todo el mundo debería perseguir porque su enfoque aún tiene otros problemas.
Todavía hay una gran incógnita en torno a la privacidad de los datos, su procedencia, la infracción de los derechos de autor y otros problemas que afectan a la industria de la IA a nivel mundial. DeepSeek puede haber mostrado un camino para mitigar uno de los desafíos, pero en realidad sigue adoptando el manual de Silicon Valley y heredando otros desafíos.
Mi esperanza idealista es que una de las razones por las que hemos visto este modelo de desarrollo de la IA en el que las empresas pueden apoderarse de todos los datos y salirse con la suya es que Estados Unidos no ha tomado medidas drásticas para regular la privacidad de los datos. Y la razón por la que no lo han hecho es este temor específico de que China no lo haga y luego se adelante. Espero que DeepSeek demuestre que la cuestión de qué pasa con China ya no es válida: el gobierno estadounidense no reguló a ninguna de estas empresas y, aun así, una firma china terminó obteniendo mejores resultados en un entorno restringido.
P. ¿Hasta qué punto podemos confiar en lo que nos dicen sobre Deepseek? Ha habido cierto escepticismo sobre la forma en que trabaja la empresa, la cantidad de chips que utiliza y el coste de su desarrollo.
A. Debería haber escepticismo hacia cualquier empresa. No estoy de acuerdo con el hecho de que la gente sea especialmente escéptica con respecto a una empresa china, pero no tienen el mismo grado de escepticismo con respecto a las empresas estadounidenses.
Todo lo que dicen empresas estadounidenses como OpenAI también debe tomarse con extrema precaución porque no proporcionan evidencia para respaldar lo que dicen. Hay ciertas cosas estructuralmente que permiten que las afirmaciones de DeepSeek sean más verificables. La primera es que publican su modelo en línea, de modo que cualquiera puede descargarlo y probar sus afirmaciones.
OpenAI no hace eso. Anthropic no lo hace. Google no lo ha hecho desde hace tiempo con sus modelos líderes. Por eso, en realidad, califican sus propios exámenes en lo que respecta al rendimiento de sus modelos.
P. ¿Qué pasa con su afirmación sobre los chips?
A. Cuando DeepSeek dice que entrenaron su modelo con tan pocos chips, es muy probable que sea cierto porque las empresas chinas no pueden acceder a muchos chips debido a los controles de exportación de Estados Unidos . ¿Debemos ser escépticos con respecto a la cifra exacta? Sí. De la misma manera que debemos ser escépticos con respecto a las afirmaciones de cualquier empresa. Pero, ¿será que la cifra se desviará en órdenes de magnitud? No, debido al panorama geopolítico global.
P. ¿Es seguro utilizar DeepSeek en un entorno periodístico? Existen preocupaciones sobre la privacidad de los datos en relación con la aplicación, pero ¿se resuelven descargando el código fuente abierto?
A. Si la preocupación es por la privacidad de los datos, entonces sí, se soluciona utilizando el código fuente abierto si lo descargas y lo ejecutas localmente en tu computadora. Honestamente, esa es una alternativa de privacidad de datos mucho más segura que usar ChatGPT o Claude o Gemini, porque esos datos van directamente a las empresas, mientras que poder descargar la versión de código abierto en tu computadora local significa que nunca saldrán.
En general, no recomiendo a los periodistas que adopten la IA generativa a menos que exista un caso de uso bien definido que, en su opinión, aproveche de forma única las fortalezas de la IA generativa. Estas herramientas no están pensadas para ser motores de búsqueda ni para ser precisas en cuanto a los hechos, por lo que también existen riesgos en cuanto a la confianza que se deposite en esa información.
P. ¿Cómo plantearía usted esto?
A. He desarrollado un marco de trabajo como parte de la serie AI Spotlight del Pulitzer Center , que analiza cómo los periodistas deberían pensar cuándo utilizar la IA en su trabajo. El marco de trabajo incluye dos ejes diferentes. Uno es si la tarea que intentas realizar con la IA necesita una alta precisión o una baja precisión. El otro es si será interna para tu propia investigación o estará orientada al público como producto final.
Si la tarea que estás intentando realizar necesita ser muy precisa y estará orientada al público, como un artículo que has escrito o un video que has producido, entonces no deberías usar Gen AI allí, porque Gen AI no es una herramienta muy precisa.
Apple tenía una función que resumía los titulares y lo hizo mal. Ese es un ejemplo perfecto de algo que necesitaba ser sumamente preciso y que iba directamente al público, y ahí es donde puede ocurrir un gran error.
Pero si la precisión es baja y se trata de una investigación interna, entonces es mucho más seguro adoptar Gen AI durante esa etapa.
P. Hay varias publicaciones en las redes sociales de personas que experimentan con el chatbot y hacen preguntas sobre temas como las protestas de la plaza Tiananmen y el trato a los uigures, y reciben mensajes de error o respuestas partidarias. ¿Esto también se traduce en herramientas que las personas pueden crear con su código de fuente abierta?
R. Normalmente, el funcionamiento es que estos tipos de controles de moderación de contenido no están integrados en el modelo, sino que son un filtro que se coloca sobre el modelo.
Cuando DeepSeek publicó sus modelos en la plataforma de inteligencia artificial de código abierto Hugging Face, los desarrolladores de inteligencia artificial de todo el mundo comenzaron a copiar y perfeccionar sus modelos. Por eso, ahora hay cientos de variaciones y muchas de ellas habrán superado la censura porque se están desarrollando y perfeccionando en contextos completamente distintos a los chinos.
Esa es la belleza del código abierto: ahora hay un ecosistema de modelos similares a DeepSeek que estaban basados en el original, pero que ahora han sido adaptados y adaptados a las necesidades de diferentes usuarios y diferentes mercados con diferentes leyes en torno a la expresión.
Los periodistas podrían ir a Hugging Face y tal vez echar un vistazo a algunas de las alternativas y elegir una que pueda ser mejor para evitar el problema de la censura.
P. ¿Cómo deberían los periodistas abordar la cobertura sobre la popularidad de DeepSeek y cualquier otro evento “sismográfico” en el ámbito de la IA?
R. Primero, los alentaría a que vean la serie AI Spotlight del Centro Pulitzer, donde hablamos sobre esto en profundidad en un seminario web de 90 minutos y un taller de seis horas.
Hay que recordar que la IA no es solo una historia sobre tecnología. Es una historia sobre personas, poder y dinero, porque son personas las que desarrollan las herramientas y las que se ven afectadas por ellas.
En el sector de la IA se está produciendo una gran consolidación de poder y se está desperdiciando mucho dinero. Al registrar cualquier tipo de fenómeno importante en este sector, siempre hay que preguntarse quién está detrás de él, cómo afectará a otras personas, cómo podría exacerbar o mitigar los daños de la tecnología.
La otra cosa que diría es que evitaría centrarme en los países en lugar de en las empresas. Hay un gran interés en la competencia tecnológica entre Estados Unidos y China o en una carrera armamentista mundial de inteligencia artificial. Si bien el contexto geopolítico es importante, muchas personas dentro del ámbito del desarrollo de la inteligencia artificial no piensan en esto en términos de países. Solo piensan en términos de empresas y esta es una carrera corporativa global.
A veces veo comentarios sobre DeepSeek del tipo: «¿Deberíamos confiar en él porque es una empresa china?». No, no deberíamos confiar en él porque es una empresa. Y también: «¿Qué significa esto para el liderazgo de la IA en Estados Unidos?». Bueno, creo que la pregunta interesante es: «¿Qué significa esto para el liderazgo de OpenAI?».
Las empresas estadounidenses han recurrido a la retórica de que son activos de Estados Unidos porque quieren que el gobierno estadounidense las proteja y las ayude a crecer. Pero muchas veces, las personas que desarrollan esas herramientas no necesariamente piensan de esa manera y piensan más como ciudadanos globales que participan en una carrera tecnológica corporativa global, o una carrera científica global, o una colaboración científica global. Yo animaría a los periodistas a pensar en ello de esa manera también.
Reuters