Generic selectors
Solo coincidencias exactas
Buscar en el título
Buscar en contenido
Post Type Selectors

Cómo Sora, la nueva herramienta de conversión de texto a vídeo de OpenAI, podría perjudicar al periodismo y a la sociedad

Si es tan bueno como lo hacen parecer las demostraciones, debemos estar preparados para una avalancha de videos falsos, advierten dos expertos en IA de Poynter.
Sora de OpenAI, un nuevo modelo de inteligencia artificial de texto a video, se muestra en una pantalla en Kaunas, Lituania, el 17 de febrero de 2024. (Shutterstock)

Por: Ren LaForme , Tony Elkins y Alex Mahadevan

La organización de investigación de inteligencia artificial OpenAI presentó el jueves una herramienta de conversión de texto a video increíblemente realista. Es difícil subestimar la reacción de los entusiastas, investigadores y periodistas de la IA. Algunos titulares representativos:

CBS News: «La nueva herramienta de conversión de texto a vídeo de OpenAI, Sora, tiene a un experto en inteligencia artificial ‘aterrorizado'».

ABC News: “El generador de vídeos OpenAI, Sora, corre el riesgo de alimentar la propaganda y los prejuicios, dicen los expertos”.

The New York Times: «OpenAI presenta inteligencia artificial que genera instantáneamente videos sorprendentes».

El lunes, llamé a Tony Elkins, profesorado de Poynter y miembro fundador de News Product Alliance, y a Alex Mahadevan, director de MediaWise en Poynter, para conocer su opinión sobre el desarrollo. Elkins y Mahadevan siguen meticulosamente la evolución de la IA y prueban nuevos modelos en sus funciones en Poynter. Esta conversación ha sido editada para mayor brevedad y claridad.

Ren LaForme: Hemos visto informes apasionantes sobre la nueva herramienta de conversión de texto a vídeo de OpenAI, Sora. Hay muchas incógnitas. Pero pensé en empezar preguntándote si podrías decirme qué sabemos al respecto.

Es una demostración lista para usar bastante importante. Se ve muy bien para su primer intento. Desde donde existía el video de IA hace un año, e incluso algunas herramientas que recién comencé a probar como Pika , el salto entre eso y esto es simplemente ridículo.

¿ Viste el video de la mujer en la cama con el gato ? Es muy realista a primera vista, pero cuando se da vuelta no hay ningún brazo allí, y luego el gato tiene un brazo que sale de la nada. Pero no fue muy discordante. Había que prestar mucha atención para saber que era IA.

Para mí, la parte más importante es que se trata de una demostración. ¿Cómo será el segundo lanzamiento? Se necesitaron varias versiones de DALL-E y Midjourney para producir imágenes realistas.

Alex Mahadevan: Estoy de acuerdo. Me quedé muy impresionado. También vi el del gato y la física del gato golpeando la cara de la mujer y el edredón rodando. Hay otro video que vi de la abuela que muestra las manos y luego prepara unos ñoquis . Su mano se convierte en una cuchara.

Claramente, en muchos de estos videos hay absurdos que son cómicos y bastante aterradores. Y eso pone de relieve las principales debilidades de esta tecnología.

Así que estoy muy impresionado, pero no me creo totalmente las exageraciones. Quiero esperar hasta que la gente normal pueda usar la herramienta porque en este momento estamos obteniendo una apariencia muy curada de Sora. Los vídeos más importantes han sido compartidos por el propio CEO de OpenAI, Sam Altman, y por OpenAI en sus comunicados de prensa. Le dieron acceso a él a un pequeño grupo de usuarios, nuevamente seleccionados. No sabemos si estos vídeos serán tan buenos cuando tengamos la herramienta en la mano.

Pero lo que me preocupa, desde el punto de vista de la alfabetización mediática y la desinformación, es que parece fácil generar imágenes plausibles de teléfonos móviles temblorosas. Realmente complica las cosas para informar sobre zonas de guerra o verificar cualquier contenido generado por el usuario porque ahora los usuarios pueden generar lo que quieran.

Entonces, el UGC en el que confiamos como periodistas digitales ahora requerirá un paso adicional de verificación. Ya dedicamos mucho tiempo a verificar el contenido generado por los usuarios de War Zone. Ahora tenemos que encontrar una nueva manera de hacerlo con el lanzamiento de Sora y la conversión de texto a video.

Elkins: Me alegra que hayas mencionado eso, el contenido generado por el usuario. Todo el mundo en el que vivimos ahora es una posverdad. Se podía inventar una narrativa falsa en una historia, pero las imágenes eran más difíciles porque había que tener conocimientos prácticos de Photoshop o software similar. Había una barrera de entrada con eso.

El vídeo es un nivel de producción completamente distinto. Se necesitó mucho tiempo, experiencia y dinero para crear vídeos falsos. Ahora puedes simplemente escribirlo y obtenerlo.

También me encanta el comentario que hiciste sobre los teléfonos móviles. Normalmente miramos una pantalla pequeña mientras hacemos otras tres cosas. ¿Nos estamos tomando el tiempo para mirar algo y ver si es real? Me pregunto cuántas personas tienen la formación para hacer eso. ¿Cómo sabes lo que estás mirando? Solía ​​​​requerirse presupuestos de Lucasfilm para crear videos falsos que parecieran tan reales. Con este tipo de herramientas, escriba un mensaje y listo.

LaForme: Incluso el hecho de que esto exista hace que sea más fácil difundir información errónea debido a esto llamado dividendo del mentiroso , donde incluso si un video es real y no tienes motivos para sospechar lo contrario, todavía tienes que preguntarte si es real. Estoy pensando si la cinta de “Access Hollywood” habría causado tanto revuelo como lo hizo (aunque supongo que al final no causó tanto ) si se hubiera estrenado dentro de un par de meses, después de esto. herramienta se vuelve pública. ¿Cuál es tu opinión sobre eso?

Ya estamos viendo la difusión de información errónea en línea por parte de mentirosos. Es un meme y una broma en este momento, como compartir clips de películas antiguas y el mensaje que se usa entre comillas para crearlo. Por ejemplo, vi uno que mostraba el video clásico de Rick Astley «Never Gonna Give You Up» y el mensaje era algo así como: «Un joven con un corte de pelo genial canta con una gabardina».

Todas estas son bromas, pero así es esencialmente como funcionará el dividendo del mentiroso. La gente dirá: «Oh, eso en realidad es generado por IA».

El otro meme que vimos de inmediato : «Yo en el juicio viendo evidencia en video de mí cometiendo un crimen que no cometí». Y por eso hay grandes preocupaciones sobre la capacidad de colocar a las personas en lugares donde quizás no hubieran estado.

El dividendo del mentiroso ya se está produciendo en otros países con los deepfakes de audio. Hay políticos en la India que tienen audio real y dicen: “No, este es un audio falsificado. En realidad, no dije eso”.

La investigadora Claire Wardle ha estado diciendo esto durante años , antes del apogeo de la moda de los deepfake cuando comenzó en 2019, que la mayor amenaza será el dividendo del mentiroso y la gente que dirá: «En realidad, no dije eso».

Elkins: Recuerdo cuando todos quedaron impresionados por el deepfake de Obama . Fue necesario todo un equipo de investigadores para crearlo en 2017. Si las plataformas de inteligencia artificial lo permitieran, se podría crear al instante.

Ahora tenemos que preguntarnos qué es real. Tenemos que hacer eso para las fotos. Tenemos que hacer eso para el texto. Tendremos que hacerlo para videos. Y crea tanta responsabilidad en el consumidor que nunca antes había existido.

LaForme: Saltamos a la desinformación, lo cual creo que tiene sentido ya que, Alex, tú diriges MediaWise y Poynter también es el hogar de PolitiFact y la Red Internacional de Verificación de Datos, pero cuando hablamos antes, mencionaste un par de otras formas en que esto podría Impacto en el mundo del periodismo. ¿Puedes compartir algunos de tus pensamientos nuevamente?

Elkins: Creo que tenemos que discutir la ética de cómo vamos a utilizar estas herramientas. ¿Qué políticas, éticas y directrices deben implementarse cuando comenzamos a experimentar?

Tenemos que invertir en nuestras propias habilidades como industria sobre cómo juzgar de dónde proviene el contenido, cómo determinar si el contenido es real y cómo se crean e implementan estos modelos.

No sé si puedo decir cómo va a cambiar el periodismo porque no sé de qué serán capaces estas herramientas y temo que nos tomará a todos desprevenidos.

Mahadevan: He estado pensando en los peores escenarios que esto me ha metido en la cabeza. Entonces tienes estos “cheques azules” de IA en línea y todos ellos fantasean con un mundo en el que pueden ver películas e insertar a las personas que quieren ver en las películas y pueden meterse ellos mismos en las películas y… es la muerte de creatividad si algunas de estas cosas suceden.

Estaba pensando en cómo esto podría cambiar el periodismo. Esto les dará a los influencers la capacidad de generar más contenido del que jamás hayan creado en el pasado. Simplemente creo que veremos esta explosión en el contenido de influencers generado por IA que desplazará por completo las noticias y los medios legítimos.

Las organizaciones de noticias básicamente competirán con esta baba de IA, ya sea texto a través de sitios de noticias de baba rosa o la baba de videos generados por IA que ya estamos viendo en YouTube y TikTok.

En este momento, las organizaciones de noticias tienen que descubrir cómo utilizar esto para competir con lo que está por venir.

Elkins: Quiero intervenir y agregar un ejemplo de la vida real de lo que Alex estaba hablando. Esto existe ahora. Hay un software de consumo disponible donde puedo entrar, puedo usar seis o siete conjuntos, poner una pantalla verde detrás de mí y puedo subir 10 segundos de video para cada uno de esos conjuntos y de repente existe mi avatar digital que puedo crear. decir cualquier cosa en un video. Entonces, en lugar de estar frente a una cámara, escribir guiones, dedicar tiempo a grabar, editar y cargar, puedo hacer todo esto una vez y tengo Video Tony a pedido.

Puedo empezar a producir vídeos para subirlos a cualquiera de los servicios de vídeo o servicios de redes sociales. Podría sentarme aquí y producir 10 vídeos en una hora, sin siquiera tocar una cámara ni un software de edición.

LaForme: Eso es demasiado, Tony.

Elkins: Sí, es demasiado Tony. Nadie necesita eso en su vida.

LaForme: Sabiendo todo esto, ¿qué hace el periodista promedio o incluso el consumidor de noticias promedio (supongo que ni siquiera importa si eres un consumidor de noticias, son todos) qué haces ahora para prepararte para este potencial? ¿ataque inminente?

Elkins: No creo que puedas. Así que esta es la cuestión, y tal vez Alex me respalde en esto, pero no creo que mucha gente esté necesariamente prestando atención como lo hacemos nosotros.

Además, es difícil porque la tecnología cambia muy rápido.

Mahadevan: Odio cuando digo: «¿Cómo deberías prepararte ?» Odio que estemos en una situación en la que tengamos que imponer a los consumidores la responsabilidad de prepararse para algo para lo que estas empresas deberían establecer salvaguardias.

En este momento, las organizaciones de noticias deben exigir más a las empresas de inteligencia artificial y exigir que establezcan salvaguardias. Por ejemplo, Anthropic implementó algunas salvaguardias electorales que le obligarán a obtener información electoral legítima cuando intente crear contenido electoral o hacer preguntas electorales. Eso debería ser estándar en todos estos. Deberían existir salvaguardias -como están tratando de hacer- sobre la generación de semejanzas de otras personas, semejanzas de celebridades, pero en realidad cualquier semejanza.

Entonces, la adopción de la televisión tuvo esta línea de 45 grados en términos de la cantidad de personas que adoptaron la televisión en color . Y luego Internet fue adoptado por el 20% de la gente y luego, de repente, el 90% de la gente y la línea era mucho más vertical. Con la IA, pasaremos de cero a 100 muy, muy rápidamente.

Las organizaciones de noticias deben comenzar a experimentar con estas herramientas antes de quedarse atrás. Necesitan descubrir cómo pueden encajar en su flujo de trabajo, hacerlo más productivo y ampliar y mejorar sus informes, no reemplazarlos.

Y las noticias y los propios consumidores deben redoblar sus esfuerzos para ser consumidores activos de información porque la IA va a ser muy peligrosa porque todo el mundo se desplaza. Eso es lo que tú haces. Ser capaz de detenerse y revisar la biografía de alguien probablemente pueda captar el 99% del contenido de IA que verás. Todo lo que tienes que hacer en TikTok es hacer clic en su nombre y consultar su biografía y podrás saber si son legítimos o no. Es muy rápido pasar de un consumidor pasivo a uno activo.

Lo que también quiero enfatizar para las organizaciones de noticias es que sigan haciendo un buen trabajo porque lo más importante será la confianza. Y creo que lo acertaste, Tony, cuando dijiste que ya nadie sabrá en qué o en quién confiar porque todos mirarán el contenido que ven en línea con escepticismo porque cualquier cosa podría generarse con IA. Por eso es muy importante que las organizaciones de noticias sigan siendo muy transparentes, atraigan a sus audiencias y se aseguren de que sigan siendo relevantes como fuente de información confiable. Esa es la única manera de sobrevivir.

O, eventualmente, cuando lleguemos al punto en el que se pueda licenciar la imagen del Sr. Bestia, las organizaciones de noticias deberían otorgar licencias para las imágenes de personas influyentes para que puedan entregar noticias sobre el Sr. Bestia generadas por IA a las personas. Alguien en Brooklyn puede recibir noticias sobre el desarrollo de Mr. Beast o Charlemagne Tha God que han sido generados por IA.

Elkins: Quiero llegar a algo que usted señaló, Alex: no podemos en absoluto volver a entregar el control y el poder a las empresas de tecnología. Pasamos por todo esto con las redes sociales. No creo que entendiéramos nuestro propio valor o el valor que ellos obtenían de ello.

Siento que ya estamos atrasados ​​porque no entendemos cómo entrenaron a los modelos o qué contenido se utilizó. El otro día vi que Reddit firmó un acuerdo en el que todo su contenido, el contenido del usuario, entrenará la IA. Entonces, todo lo que hayas publicado en Reddit se utilizará para entrenar una IA. Entonces ya eres parte de esto. No tienes compra. No tienes voz sobre cómo se utiliza tu contenido.

Y me asusta que ya nos hayan acorralado en ese rincón. No veo una salida a eso.

Pero creo que la mejor pregunta es: ¿cómo permitimos que estas empresas de tecnología utilicen todo este contenido y se capaciten en todo este contenido, sin acuerdos de licencia ni consentimiento? ¿Quién creó estas cosas? ¿Cuáles son los prejuicios que llevan incorporados? ¿Debería ser más transparente algo que va a cambiar drásticamente la sociedad? Todas estas son preguntas que todo el mundo debería hacerse ahora mismo.

LaForme: Estaba planeando terminar preguntando si existía la posibilidad de que todos esos titulares fueran demasiado apocalípticos y tal vez las cosas no estuvieran tan mal. Pero creo que voy a saltarme eso y preguntarles cómo duermen por la noche, suponiendo que así sea y que no estoy hablando solo con sus avatares de IA.

Mahadevan: Duermo toda la noche. Bien, entonces no creo que sea el fin del mundo porque, como dije, la advertencia que quería incluir es que aún no sabemos qué tan bueno es Sora.

Creo que debemos tener cuidado de no quedar atrapados en la exageración, ya sea demasiado pro IA, como si la IA fuera a salvar al periodismo.

No va a salvar al periodismo. Tampoco diezmará por completo el ecosistema de la información y conducirá a un mundo de posverdad.

Creo que está en algún punto intermedio.

Y si las organizaciones de noticias son realmente diligentes en responsabilizar a estas empresas, informar sobre lo que están haciendo, hacer todo el tipo de informes que hicimos en Facebook demasiado tarde, ¿qué pasa si hacemos esos informes desde el principio y responsabilizamos a estas empresas ahora? ? Creo que ya hay muy buen periodismo que está saliendo y haciendo eso. Tony, mencionaste 404 Media antes de comenzar a grabar. Creo que la gente puede emular los informes 404 . Hacen muchos equipos rojos de estos modelos y productos para que la gente sepa lo peligrosos que son.

Veo un buen uso de la IA en las redacciones. Creo que realmente puede mejorar los medios de comunicación locales que carecen de recursos.

Hablé con un tipo en un periódico muy pequeño en Carolina del Norte. Pudo informar básicamente sobre todas las reuniones del gobierno local porque pudo descargar las transcripciones de todas las reuniones y ejecutarlas a través de ChatGPT y producir artículos de noticias basados ​​en los acontecimientos locales. Es una ciudad muy pequeña y, obviamente, la ética de lo que se debe mostrar al público aún se está resolviendo.

Pero sí creo que permitirá que las organizaciones de noticias locales, las pequeñas organizaciones locales sin fines de lucro, puedan competir un poco más al hacer que sea más barato hacer los reportajes que quieren hacer. Hoy en día, un periodista tiene que cubrir cinco juntas escolares en cinco condados. Y eso simplemente no es posible. Y creo que puede resultar muy útil para ampliar las áreas de cobertura.

Por eso quiero decir que soy optimista con respecto a la IA y las noticias. Probablemente Tony tenga una opinión diferente, lo cual es bueno. Necesitamos eso.

Elkins: Creo que estoy de acuerdo con todos los puntos que plantea Alex. Duermo por las noches sabiendo que hay mucha gente inteligente en el periodismo reflexionando muy profundamente sobre el tema. Así que no siento que vayamos a quedar atrapados nuevamente por este ataque de Silicon Valley. Estamos más preparados para ello.

Una de las formas en que lo abordamos es lo que Alex mencionó anteriormente: es necesario experimentar. No sé si publicaría algo en este momento, pero es necesario que en cada organización de noticias haya alguien encargado de comprender la IA.

Donde me aparto un poco y soy menos optimista y más pesimista es en ver los efectos que ha tenido, no en la industria de los medios, sino en la sociedad. Ya hay historias de que la IA se está utilizando fuertemente como arma contra las mujeres. El Washington Post ha escrito sobre cómo se ha utilizado algún software para dañar a los adolescentes en las escuelas . Eso es profundamente aterrador.

He visto algún software que anima a las personas cargadas a partir de imágenes. Entonces puedes subir una foto de alguien y hacer que cree un video. Lo que más me asusta es cómo cosas así pueden convertirse en armas contra la gente.

Y cuando piensas si es bueno o malo para el periodismo, hay mucha gente inteligente que piensa en eso. Pero me preocupa que, a mayor escala, ya nos estamos quedando atrás en cuanto a cómo detener esta ola masiva de contenido.

Y eso es lo que más me asusta. Es la ola masiva de contenidos y cómo se puede utilizar en detrimento de la sociedad.

LaForme: Gracias por su tiempo. Estoy seguro de que seguiremos pensando en la IA, especialmente cuando se libere a Sora o lo que sea que suceda con él. ¿Existe un buen lugar para que la gente te siga? ¿Para escuchar esos pensamientos continuos? ¿Quizás aquí mismo en Poynter.org?

Elkins: Poynter.org y LinkedIn . Estoy publicando mucho más allí.

Mahadevan: Sí, Poynter. Quiero decir, desafortunadamente todavía estoy en Twitter , pero sigo resistiendo. Puedes encontrar mis pensamientos allí.

LaForme: Tú y los cheques azules.

Mahadevan: Oye, tienes que estar entre ellos porque ellos son los que utilizan estas herramientas, te guste o no.

Poynter.