Por César López Linares
En lugar de preocuparse por los empleos de periodismo que pudieran desaparecer por la llegada a las redacciones de las más recientes herramientas de inteligencia artificial (IA), como los modelos de lenguaje denominados Transformadores Preentrenados Generativos (GPT, por sus siglas en inglés), los periodistas deberían estar más abiertos a la experimentación y a encontrar nuevas formas de aplicar esas tecnologías en mejorar y potencializar su trabajo.
Esa fue una de las reflexiones en las que coincidieron los miembros del panel “¿Cómo puede el periodismo incorporar la IA, incluidas herramientas generativas como ChatGPT y Bard, para mejorar la producción y distribución de noticias?”, llevado a cabo durante la primera jornada del 24º Simposio Internacional de Periodismo Online (ISOJ), que se celebró el 14 y 15 de abril en el campus de la Universidad de Texas en Austin.
Aimee Rinehart, directora del programa de Inteligencia Artificial y Noticias Locales de The Associated Press; Sisi Wei, editora en jefe de The Markup; Jeremy Gilbert, cátedra Knight de Estrategia de Medios Digitales en la Universidad Northwestern; y Sam Han, director de IA/ML y Tecnología Zeus en The Washington Post, integraron el panel, moderado por Marc Lavallee, director de Tecnología, Producto y Estrategia en Periodismo de la Fundación Knight.
Muchos periodistas caen en la trampa de plantearse preguntas equivocadas sobre si las tecnologías generativas de IA van a acabar con sus trabajos, cuando deberían tratar de explorar lo que esas tecnologías les permiten hacer mejor en su trabajo, dijo Gilbert.
“Cada vez que decimos: ‘¿Es GPT mejor reportero que yo? ¿Es GPT mejor redactor que yo?’, es una comparación incorrecta que en realidad no importa. Cuando empecemos a explorar lo que estas herramientas y sistemas nos permiten hacer, pronto tendremos conversaciones mucho más sofisticadas, a medida que estas cosas se normalicen”, afirmó. “De eso es de lo que deberíamos hablar cuando analizamos los GPT: ¿dónde nos permite hacer más cosas que ahora no podemos hacer, atender más necesidades de nuestro público que hoy no podemos atender? En lugar de decir: ‘¿va a sustituir esto al periodista en la redacción local?’”.
Como ha ocurrido en anteriores avances tecnológicos, es difícil predecir si las herramientas de IA generativa eliminarán puestos de trabajo en el periodismo, y cómo se equilibrará eso con los empleos que se van a crear a partir de esas mismas herramientas. En este sentido, Wei cree que surgirán nuevas oportunidades de trabajo antes de que otros empleos empiecen a desaparecer.
La periodista afirmó que la introducción de herramientas de IA generativa no significa que el periodismo tal y como lo conocemos vaya a cambiar por completo. Más bien, se trata de pensar cómo esas herramientas pueden ayudar realmente a los periodistas a hacer lo que nunca pensaron que fuera posible.
“Cada uno de los trabajos que he desempeñado en el periodismo en los últimos 10 o 15 años han sido trabajos que no existían 10 o 15 años antes”, dijo. “Lo que hacen estos modelos lingüísticos, o incluso los modelos visuales, es simplemente algo mucho más rápido de lo que estábamos acostumbrados. Se trata de eso… Ahí es donde creo que cuanto más creativos seamos y más intentemos hacer cosas diferentes, más naturalmente empezarán a crearse esos puestos de trabajo por sí mismos”.
Rinehart dijo que actualmente es un buen momento para que las redacciones se lancen a incursionar con los modelos lingüísticos de IA y experimenten cómo sacarles mejor provecho. Sobre todo las redacciones pequeñas, ya que los precios para acceder a esas tecnologías están bajando, a medida que más empresas se suman a la carrera por desarrollar modelos mejores y más eficaces.
“Creo que [la tecnología generativa de IA] nunca ha sido tan accesible para las redacciones locales, por lo que estoy realmente entusiasmada por ellas, por las redacciones de 3 a 5 personas, las que realmente están luchando por compartir información básica en sus comunidades”, dijo. “Y, francamente, ahora mismo es una ganga. Hay una batalla entre unas seis empresas que se dedican a ello y están bajando los precios, así que creo que, de nuevo, durante los próximos uno o dos años, las redacciones locales saldrán realmente ganando en esto, porque pueden experimentar”.
Rinehart mencionó que los mejores usos de los modelos lingüísticos de IA en las redacciones locales hoy en día incluyen la cobertura de las reuniones de los gobiernos municipales, las noticias policiacas, los menús de los almuerzos escolares y la programación de televisión, que son temas útiles para las comunidades y que mantienen a la gente suscrita a los medios de comunicación locales.
Rinehart también habló de cómo las redacciones utilizan actualmente ChatGPT, la herramienta de procesamiento del lenguaje natural basada en IA desarrollada por la empresa de investigación en IA OpenAI. La herramienta fue lanzada en noviembre de 2022 y ha causado polémica en varios países en torno al manejo de datos y a la precisión de sus respuestas. Entre los usos más comunes de ChatGPT en las redacciones, Rinehart mencionó la generación de resúmenes, la creación de bocetos de noticias, la adición de hashtags, la lluvia de ideas sobre titulares y la construcción rápida de HTML.
Pero las grandes redacciones también están aprovechando las herramientas como ChatGPT. Sam Han describió cómo el modelo de procesamiento del lenguaje de OpenAI ha proporcionado automatización adicional al chatbot propio de The Washington Post, especialmente en la cobertura de elecciones. Los ingenieros de software del Post diseñaron un proceso de enrutamiento en el que ChatGPT categoriza las preguntas de los usuarios, genera consultas a los sistemas del Post y, a continuación, el periódico responde con información periodística de sus bases de datos en tiempo real.
Luego, ChatGPT elabora una respuesta en lenguaje natural y la envía al usuario. De este modo, la herramienta ofrece una respuesta de una fuente confiable, a diferencia del sitio web habitual de ChatGPT, cuyas
fuentes son a menudo cuestionables.
“Tenemos curiosidad sobre cómo será el futuro de las redacciones, en las que un agente de inteligencia artificial puede ayudar a los periodistas a recopilar información, analizarla y hacer sugerencias. Y también queremos explorar qué significa contar historias en un mundo en el que los usuarios pueden hacer preguntas o mantener una conversación con un chatbot de IA para obtener información”, explicó Han. “Mientras intentamos responder a estas preguntas, también queremos fomentar la innovación mediante la IA, de modo que podamos posicionarnos como líderes en el uso de la IA para la personalización de la narración y, potencialmente, la creación de contenidos. Y mientras hacemos todo esto, queremos asegurarnos de mantener la integridad y los estándares periodísticos en mente”.
Han recordó a la audiencia a Heliograf, el primer “reportero robot” de The Washington Post lanzado en 2016. La herramienta basada en IA, que fue diseñada para mejorar la narración, principalmente para la cobertura basada en datos de los principales eventos noticiosos, se introdujo durante los Juegos Olímpicos de Río para ayudar a los periodistas a informar sobre los resultados de las pruebas con medallas.
Sin embargo, Han dijo que Heliograf tiene sus limitaciones. Una de ellas es la dificultad de habilitar la herramienta como un chatbot de preguntas de formato libre, en el que los lectores pudieran hacer preguntas o solicitar piezas de contenido. Han dijo que entender la intención en las preguntas de los usuarios es una tarea muy difícil, en la que ChatGPT ha sido de gran ayuda. En ese sentido, dijo Han, ChatGPT ha llegado a The Washington Post para ofrecer lo mejor de ambos mundos: automatización con precisión y fuentes fiables.
Mientras en varios países e instituciones se habla de prohibir herramientas como ChatGPT, el panel también abordó las preocupaciones éticas sobre el uso de esas tecnologías en las redacciones y en las escuelas de periodismo. Los expertos coincidieron en que, en el mundo académico, los profesores deberían pensar más en tareas que los estudiantes no puedan completar con herramientas de IA generativa y, en su lugar, impulsar una formación más significativa en habilidades como el reporteo, la redacción y la edición, del mismo modo que los profesores de primaria siguen enseñando aritmética aunque sean conscientes de que existen las calculadoras.
Por su parte, Wei añadió que enseñar pensamiento crítico en las escuelas de periodismo es otra forma de empujar a los estudiantes a desarrollar habilidades significativas que no compitan con la tecnología de IA en las redacciones. La periodista sugirió utilizar ChatGPT, por ejemplo, para generar artículos, y hacer que los estudiantes los editen para que transformen ese material en historias periodísticas reales haciendo reporteo adicional y utilizando habilidades de verificación de hechos.
“Creo que es estupendo enseñar a los estudiantes de periodismo a editar, aunque su trabajo no vaya a ser el de editor desde el principio, pero a través de la edición activa realmente interrogan cada frase. No es precisamente verificación de hechos, pero incluye un poco de verificación de hechos”, dijo. “Y siempre he pensado que los profesores de periodismo podrían utilizar ChatGPT para generar artículos sobre diferentes temas que interesen a cada estudiante, y luego asignarles la tarea de editar ese trabajo para convertirlo en un buen artículo periodístico”.
Aunque las herramientas de IA generativa pueden ser útiles en la fase de reporteo del ciclo periodístico, su verdadero potencial está en la parte de la redacción. Según Gilbert, los grandes modelos lingüísticos no imitan tan fielmente el reporteo como sí lo hacen con la producción de noticias. Por lo tanto, las escuelas de periodismo deberían preocuparse más por enseñar buenas habilidades de reporteo que por prohibir el uso de tecnologías de IA.
“Un periodista no es automáticamente un buen escritor, y estos grandes modelos lingüísticos son mucho mejores generando cosas que parecen bien escritas, que haciendo un reporteo significativo en este momento”, dijo. “Una de las cosas que tenemos que enseñar a hacer a los periodistas jóvenes, a la gente que empieza su carrera, es pensar cómo podemos hacer preguntas que nos lleven en direcciones interesantes, y luego utilizar modelos de lenguaje para contar esas historias de todas las formas posibles. […] No digo que no tengamos que enseñar a redactar, pero si tenemos tareas que ChatGPT hace tan bien como nuestros estudiantes, entonces esas tareas no sirven”.
Los panelistas también coincidieron en que la transparencia va a ser un aspecto clave en el uso de herramientas generativas basadas en IA en el periodismo. Eso incluye informar a los lectores cuando una información ha sido generada total o parcialmente por una herramienta de IA, y contar con supervisión humana en todas las tareas relacionadas con la IA en la redacción.
Ante la pregunta de un asistente, Han mencionó que The Washington Post ha establecido directrices al respecto, que dicen que si algo es creado por IA, debe haber un humano en el proceso para asegurarse de que el contenido sea revisado antes de ser publicado.
“Creo que hay algunos esfuerzos en este sentido. Una de ellas es la Partnership on AI, en la que participan más de 100 organizaciones que acaban de publicar un marco de trabajo para medios, creadores y editores con el fin de empezar a establecer algunas de estas directrices, no sólo para el periodismo, sino también para todos los medios de comunicación”, explicó Lavallee.
KNIGHT CENTER