Puede que la inteligencia artificial (IA) no se haya creado para posibilitar nuevas formas de violencia sexual, como la pornografía deepfake. Sin embargo, esta ha sido una consecuencia desafortunada del rápido avance tecnológico.
Éste es sólo un ejemplo de los muchos usos no previstos de la IA.
Los usos previstos de la IA no están exentos de problemas, incluyendo serias preocupaciones sobre derechos de autor . Pero más allá de esto, se está experimentando mucho con esta tecnología en rápido avance. Los modelos y el código se comparten, reutilizan y remezclan en espacios públicos en línea.
Estas comunidades colaborativas, con una red flexible —lo que llamamos «subesferas» en nuestro artículo publicado recientemente en New Media & Society— son donde los usuarios experimentan con la IA en lugar de simplemente consumirla. Estos espacios son donde la IA generativa se impulsa hacia direcciones impredecibles y experimentales. Y demuestran por qué se necesita urgentemente un nuevo enfoque para regular la IA y mitigar sus riesgos. La política climática ofrece algunas lecciones útiles.
Un enfoque limitado
A medida que la IA avanza, también aumenta la preocupación por el riesgo. Los responsables políticos han respondido con rapidez. Por ejemplo, la Ley de IA de la Unión Europea, que entró en vigor en 2024, clasifica los sistemas según su riesgo: prohíbe los «inaceptables», regula los usos «de alto riesgo» y exige transparencia para las herramientas de menor riesgo.
Otros gobiernos, como los del Reino Unido , Estados Unidos y China , están adoptando medidas similares. Sin embargo, sus enfoques regulatorios difieren en alcance, etapa de desarrollo y aplicación.
Pero estos esfuerzos comparten una limitación: están diseñados en torno al uso previsto , no a las formas desordenadas, creativas y a menudo no intencionadas en que realmente se utiliza la IA, especialmente en espacios marginales.
Entonces, ¿qué riesgos pueden surgir de la desviación creativa en la IA? ¿Y pueden los marcos basados en riesgos gestionar tecnologías fluidas, remezclables y de rápida evolución?

Experimentación fuera de la regulación
Existen varios espacios en línea donde se reúnen los miembros de la subesfera. Entre ellos se incluyen GitHub (una plataforma web para el desarrollo colaborativo de software), Hugging Face (una plataforma que ofrece modelos de aprendizaje automático, conjuntos de datos y herramientas listos para usar para que los desarrolladores creen y lancen fácilmente aplicaciones de IA) y subreddits (comunidades o foros individuales dentro de la plataforma Reddit).
Estos entornos fomentan la experimentación creativa con IA generativa fuera de los marcos regulatorios. Esta experimentación puede incluir instruir a los modelos para que eviten comportamientos previstos o hagan lo contrario. También puede incluir la creación de mashups o variantes más potentes de IA generativa mediante la remezcla de código de software que se pone a disposición del público para que cualquiera pueda verlo, usarlo, modificarlo y distribuirlo.
Los posibles daños de esta experimentación se ven resaltados por la proliferación de pornografía deepfake. También lo son los límites del enfoque actual para regular tecnologías en rápido avance como la IA.
La tecnología deepfake no se desarrolló originalmente para crear vídeos e imágenes pornográficas no consensuadas. Pero esto es lo que finalmente ocurrió en las comunidades de subreddit a partir de 2017. La pornografía deepfake se extendió rápidamente desde este submundo al público general; un análisis reciente de más de 95.000 vídeos deepfake en línea reveló que el 98 % eran vídeos de pornografía deepfake.
No fue hasta 2019, años después de la aparición de la pornografía deepfake, que comenzaron a surgir intentos de regularla a nivel mundial. Sin embargo, estos intentos fueron demasiado rígidos como para captar las nuevas formas en que la tecnología deepfake se utilizaba para causar daños. Además, los esfuerzos regulatorios fueron esporádicos e inconsistentes entre estados. Esto obstaculizó los esfuerzos para proteger a las personas, y a las democracias, del impacto de los deepfakes a nivel mundial.
Por eso necesitamos una regulación que pueda avanzar al ritmo de las tecnologías emergentes y actuar rápidamente cuando prevalece el uso no deseado.
Aceptar la incertidumbre, la complejidad y el cambio
Una forma de analizar la gobernanza de la IA es a través del prisma del cambio climático. Este cambio también es el resultado de la interacción de numerosos sistemas interconectados de maneras que escapan a nuestro control total, y sus impactos solo pueden comprenderse con cierto grado de incertidumbre .
Durante las últimas tres décadas, los marcos de gobernanza climática han evolucionado para afrontar este desafío: gestionar riesgos complejos, emergentes y, a menudo, impredecibles. Si bien este marco aún no ha demostrado su capacidad para reducir significativamente las emisiones de gases de efecto invernadero , ha logrado mantener la atención mundial a lo largo de los años sobre los riesgos climáticos emergentes y sus complejos impactos.
Al mismo tiempo, ha proporcionado un foro donde se pueden debatir públicamente responsabilidades y posibles soluciones.
Se debería adoptar un marco de gobernanza similar para gestionar la expansión de la IA. Este marco debería considerar los riesgos interconectados que generan las herramientas de IA generativa que se vinculan con las plataformas de redes sociales. También debería considerar los riesgos en cascada, a medida que el contenido y el código se reutilizan y adaptan. Asimismo, debería considerar los riesgos sistémicos, como la pérdida de confianza pública o la polarización del debate.
Es importante que este marco también incorpore voces diversas. Al igual que el cambio climático, la IA generativa no afectará solo a un sector de la sociedad, sino que se extenderá a muchos. Y el reto es cómo adaptarse a ella.
Aplicados a la IA, los enfoques de gobernanza del cambio climático podrían ayudar a promover acciones preventivas tras un uso imprevisto (como en el caso de la pornografía deepfake) antes de que el problema se generalice.

Cómo evitar los obstáculos de la gobernanza climática
Si bien la gobernanza climática ofrece un modelo útil para una regulación adaptativa y flexible, también trae consigo advertencias importantes que deben evitarse.
La política climática se ha visto afectada por lagunas legales, intereses contrapuestos y una formulación de políticas lenta. Desde las deficiencias de Australia en la implementación de su estrategia de energías renovables hasta los cambios de rumbo en Escocia y el estancamiento político en Estados Unidos , la implementación de políticas climáticas ha sido a menudo el mayor obstáculo para el derecho ambiental.
Pero, cuando se trata de la gobernanza de la IA, este estancamiento climático tan familiar trae consigo lecciones importantes para el ámbito de la gobernanza de la IA.
En primer lugar, necesitamos encontrar formas de alinear la supervisión pública con la autorregulación y la transparencia por parte de los desarrolladores y proveedores de IA.
En segundo lugar, debemos considerar los riesgos de la IA generativa a escala global. La cooperación y la coordinación internacionales son esenciales.
Por último, debemos aceptar que el desarrollo y la experimentación con la IA persistirán, y elaborar regulaciones que respondan a esto para mantener nuestras sociedades seguras.

THE CONVERSATION