Generic selectors
Solo coincidencias exactas
Buscar en el título
Buscar en contenido
Post Type Selectors

Inteligencia artificial en procesos electorales: veneno y antídoto de la desinformación

Los deepfakes se generan a partir de una grabación real de audio o vídeo por medio de aplicaciones como Faceswap, Software VoCo, Deep Art Effects, ReFace y DeepFakes Web. Foto: Shutterstock

En México usamos con frecuencia el dicho “a río revuelto, ganancia de pescadores”. Y los procesos electorales, pandemias o tragedias naturales traen aguas turbias y son terreno fértil para la desinformación.

A unos días de definir al candidato del partido oficialista para la jefatura de gobierno de la Ciudad de México, los medios de comunicación divulgaron un audio del actual alcalde capitalino, Martí Batres, en el que supuestamente conspiraba para socavar al candidato que va por encima en las encuestas, Omar García Harfuch. “Está producido con inteligencia artificial. No es real”, fue la defensa del funcionario en rueda de prensa, acompañado de Eduardo Clark, director de gobierno digital, quien explicó que para fabricar este material bastó un software de 200 pesos y 15 minutos.

Otros aspirantes de diferentes partidos también han sido víctimas de estas clonaciones. Con la efervescencia electoral en México, la gran paradoja de estas tecnologías vuelve a saltar al debate público. Si bien la IA permite la eficiencia y el ahorro de tiempos y costos en distintas actividades (incluyendo el periodismo), también tiene el potencial de producir contenidos de desinformación en grandes volúmenes.

Y así ha sido usada en varios países. En Eslovaquia, un audio falso en el que uno de los candidatos admitía una supuesta compra de votos circuló a falta de 48 horas para que empezara la votación. También en Colombia se divulgaron audios presuntamente generados con IA en Instagram y X (antes Twitter). En Nigeria, se distribuyó propaganda “incendiaria” a través de TikTok y, en el reciente proceso argentino, tuvo eco una declaración apócrifa del futbolista Lionel Messi asegurando que votaría por Javier Milei.

A este tipo de material se le conoce como deepfakes, y se generan a partir de una grabación real de audio o vídeo por medio de aplicaciones como Faceswap, Software VoCo, Deep Art Effects, ReFace y DeepFakes Web. Antes se requerían 20 minutos de muestra para crear una cápsula de 30 segundos y ahora basta con un minuto para generar estos contenidos ficticios.

El huracán Otis, que devastó la costa del estado de Guerrero en México, también generó una ola de desinformación, aunque por vías tradicionales (vídeos o imágenes sacados de contexto y documentos apócrifos). Si, aún así, esas noticias falsas se esparcieron como reguero de pólvora, ¿se imagina lo que habría pasado si se hubiera usado inteligencia artificial?

Aunque utilizar lenguaje bélico siempre resulta incómodo, la idea de una “guerra informativa”, en la que la IA juega un papel de arma de desinformación masiva, ilustra bastante bien lo que está sucediendo.

Desinformación masiva y acelerada

La desinformación se divide en dos grandes troncos:

  • Misinformation. Información falsa, pero no creada con la intención de causar daño.
  • Malinformation. Información falsa diseñada para infligir daño a una persona, grupo social, organización o país.

Ambos son dañinos, independientemente de su intencionalidad, pero la mayoría de los contenidos falsos que se generan con IA corresponden a la segunda categoría.

Durante el panel denominado “Ética Periodística: desinformación, inteligencia artificial e hiperconectividad”, organizado por la Maestría en Periodismo Digital de la Universidad de Guadalajara, Karen de la Hoz, propietaria de producto de La Silla Vacía, consideró que estamos ante “un nuevo capítulo en la historia de la desinformación, que marcará un antes y un después. Y lo peor es que todo viene pasando muy rápido”.

Estos contenidos de desinformación se propagan de manera vertiginosa, lo que complica desmentirlos en tiempo real. Y a esto se suma el sesgo de confirmación. Según este, las personas están más dispuestas a creer lo que fortalece sus convicciones previas. En cambio, raramente consumen los medios donde se verifica y se objetan las mentiras ya divulgadas.

Desinformación bajo demanda

Si bien la IA facilita la personalización y un modelo de consumo individualizado, José Luis Manfredi y María José Ufarte advierten que este modelo limita la libertad de elección, ya que únicamente “emite aquello que el lector tiene interés por conocer, sin la responsabilidad social de ofrecer una visión más amplia de la actualidad”.