Generic selectors
Solo coincidencias exactas
Buscar en el título
Buscar en contenido
Post Type Selectors

¿Es una buena idea utilizar la IA para clonar las voces de periodistas reales? Depende de cómo interpretes la pregunta

“Aún no se ha emitido un veredicto. El público parece estar de acuerdo con algunos usos de la IA, si se hacen de forma transparente; es posible que acaben aceptando este uso”, afirma Felix Simon
Ilustración creada por Eduardo Suárez a partir de una fotografía de Walter Lippman del archivo de Los Angeles Times. CC BY 4.0

Dr. Félix Simón

Un editor de noticias escandinavo me hizo recientemente una pregunta directa: «¿Crees que es una buena idea crear versiones de inteligencia artificial de las voces de periodistas reales?»

Recientemente han aparecido ejemplos de esto en varios lugares. Una réplica del difunto presentador Sir Michael Parkinson en el Reino Unido y una versión de inteligencia artificial del presentador de noticias noruego Kjetil H. Dale son solo dos ejemplos destacados.

En ese momento no logré darle una buena respuesta a esa persona, en parte porque no tenía tiempo y en parte porque mi instinto me decía que debía evitar una respuesta directa y pensar en la pregunta en sí. Espero que este artículo explique por qué.

Cuando escucho una pregunta como esta, me parece útil analizar primero con más detenimiento lo que se nos pide. En este caso, quiere que nos decantemos por uno u otro lado desde una perspectiva moral. Esto nos da varias formas de abordarla.

En primer lugar, podemos analizarlo desde una perspectiva deontológica (en honor al dios griego Deontos, el deber), en la que la cuestión es qué se le debe a quién, en función de nociones de justicia, derechos y deberes. Pero podemos adoptar un enfoque utilitarista y centrarnos en los resultados: qué beneficios y daños pueden surgir.

El primero analiza la cuestión desde la perspectiva de un juez, el segundo desde la de un ingeniero o un responsable de políticas. Por supuesto, se podrían adoptar otras perspectivas, pero, por el bien del debate, nos limitaremos a estas dos.

Cualquier respuesta es bastante complicada, pero ¿por qué dejar que la diversión termine ahí? Podemos añadir un tercer nivel de complejidad a la mezcla preguntando por el destinatario: ¿para quién se supone que es una buena (o mala) idea utilizar versiones de IA de las voces de periodistas reales?

Si tu cabeza no estaba dando vueltas ya, felicitaciones: probablemente te licenciaste en filosofía (en cuyo caso, quizá quieras dejar de leer aquí porque probablemente me avergonzaré).

Pero empecemos a analizar esta cuestión analizando primero al destinatario. De inmediato se nos ocurren entre tres y cinco categorías (que no son en absoluto exhaustivas): el periodista individual que da voz, los medios de comunicación que la utilizan, la audiencia expuesta a ella. Si uno así lo desea, también puede añadir a la mezcla a los desarrolladores de la tecnología y a toda la sociedad.

Si tomamos primero el enfoque deontológico, podemos preguntarnos qué se debe a cada uno de ellos cuando se utilizan voces de IA de periodistas reales y, por tanto, si su uso es una buena o mala idea, porque se ajusta en mayor o menor grado a estas categorías.

Se pueden detectar rápidamente áreas en las que las voces clonadas por IA podrían violar varios de estos puntos. Un mal uso (por ejemplo, el uso de esa tecnología para una historia lasciva) podría dañar la dignidad del periodista, especialmente si no está de acuerdo con su uso.

El público puede mostrarse reacio a aceptar la idea de que el uso de un clon de IA siga siendo considerado como el trabajo periodístico preciso y transparente que se merece. Al mismo tiempo, si su uso se controla estrictamente, los periodistas podrían verlo como una fuente adicional de ingresos y una nueva forma de llegar a las audiencias a través del periodismo.

Los medios de comunicación podrían considerarlo una herramienta útil para lograr sus objetivos. Las audiencias podrían incluso apreciarlo. A nivel macro, podría no haber un riesgo significativo para lo que los medios de comunicación «deben» a la sociedad al utilizar la tecnología para este propósito en particular.

Naturalmente, también deberíamos mirar el otro lado de la moneda. Si tomamos el camino utilitarista, se abre otro árbol de posibilidades.

Las voces clonadas por inteligencia artificial podrían traer algunos beneficios. Los periodistas podrían aumentar su reconocimiento y hacer más con menos. Los medios podrían crear nuevos productos que atiendan a las audiencias de maneras más interesantes y atractivas, lo que potencialmente también aumentaría sus perspectivas de ingresos.

Sin embargo, existen riesgos. El uso descuidado de esas voces podría empañar la reputación del periodista, tener un impacto negativo en el medio de comunicación si el público llega a desagradarle y, en el peor de los casos, aumentar la desconfianza en las noticias en su conjunto. Actualmente, muchas personas se sienten incómodas con los usos demasiado evidentes de la IA en el periodismo , especialmente cuando se utiliza para recrear la realidad . Algunas investigaciones también sugieren que a las personas les resulta difícil identificar clones de voces de IA, lo que potencialmente aumenta el riesgo de daños si esas voces se utilizan de manera nefasta.

¿Por qué complicar tanto las cosas?, te preguntarás.

Como académico, me inclinaría a decir que parte de mi trabajo consiste en meterle el dedo al oso y llegar a la complejidad que se esconde tras preguntas aparentemente sencillas. Pero prefiero responder con la ayuda del periodista estadounidense Walter Lippmann, quien escribió una vez que todos “estamos en algún punto del espacio y del tiempo y podemos ver no el mundo entero, sino sólo el mundo visto desde ese punto”.

Al menos, analizar una pregunta como esta nos ayuda a pensar no sólo en nuestra posición al respecto, sino también en quién más podría verse afectado por la respuesta que demos. En definitiva, la forma en que respondamos a esa pregunta dice más sobre nuestras propias posiciones y preferencias que sobre la respuesta «correcta» o «incorrecta».

El hecho de que no exista una respuesta definitiva no significa que no se pueda encontrar una buena respuesta: siempre habrá respuestas mejores y peores, como ocurre con cualquier pregunta que requiera múltiples compensaciones.

¿Y a dónde nos lleva todo esto? Mi opinión personal sería que «clonar las voces de los periodistas con IA probablemente sea bueno para todos los involucrados si se cumplen ciertas condiciones». Por ejemplo, si hay parámetros acordados sobre los tipos de historias para las que se puede utilizar, una fecha de vencimiento definida para el uso de la voz después de la jubilación o de un cambio de trabajo, acceso controlado con supervisión humana para garantizar un uso responsable y un etiquetado claro en algunos escenarios.

Pero parte de la respuesta también es que «no sabemos si es una buena idea», ya que el veredicto sobre los efectos aún no se ha emitido. El público parece estar conforme con algunos usos de la IA, si se hacen de forma transparente; ya están acostumbrados a las voces digitales y podrían llegar a aceptarlas también. Después de todo, las normas sociales no están escritas en piedra.

Sin embargo, no es imposible que se produzca algún tipo de reacción negativa. Las audiencias suelen formar un vínculo parasocial con los presentadores de noticias y los periodistas. Una de las principales razones por las que los medios de comunicación están jugando con la idea de clones de voz generados por IA es porque esperan explotar ese vínculo preexistente y la confianza que conlleva. Sin embargo, no está garantizado que el mismo no se evapore simplemente si las audiencias se dan cuenta del truco y reaccionan mal a este intento de autenticidad artificial.

Reuters