Generic selectors
Solo coincidencias exactas
Buscar en el título
Buscar en contenido
Post Type Selectors

Cómo pueden los periodistas hacer que la IA trabaje para ellos

Un marco para que las salas de redacción utilicen la IA de maneras que no sacrifiquen la calidad ni disminuyan la supervisión.
Ilustración de CJR

Por 

Pregúntele a un periodista en activo sobre IA y probablemente oirá una serie de improperios, una crítica a las empresas tecnológicas y, especialmente si la persona tiene más de cincuenta años, un lamento desgarrador por tiempos pasados.

El uso de la IA en el periodismo ha generado recientemente controversia en diversos medios, desde el Cleveland Plain Dealer hasta Associated Press, ya que muchos reporteros han expresado un profundo desacuerdo con los directivos que han insistido en su valor para la elaboración de reportajes y la redacción de artículos. Según una exclusiva de Max Tani, de Semafor , una conversación de Slack organizada por AP se descontroló cuando Aimee Rinehart, gerente sénior de producto de IA, citó las virtudes del uso de la IA y escribió que «la resistencia es inútil».

Un reportero de AP respondió en el chat que el «desdén y el desdén que algunos de ustedes han mostrado hacia la escritura humana son insultantes y aborrecibles. Un periodismo sólido y una redacción clara son el alma del periodismo, no la bazofia escrita por IA», según Semafor . A otro le resultó «difícil no escapar de la sensación de que quienes promocionan o guían las decisiones en torno a estas poderosas herramientas viven en una realidad totalmente diferente a la de quienes se despiertan cada día y realizan el trabajo de informar». (AP le dijo a Semafor , en un comunicado que explicaba con más detalle su uso de IA : «Esta discusión entre el personal de diferentes departamentos no refleja la postura general de AP respecto al uso de IA»).

Los sentimientos de los periodistas son totalmente comprensibles. Sin embargo, en el pasado, es posible que hayan escuchado la misma indignación sobre los efectos catastróficos de la radio, la televisión, la televisión por cable las 24 horas, la computadora, la edición electrónica, internet, el correo electrónico, los servicios de streaming y las redes sociales. Sin menospreciar las legítimas preocupaciones de que la IA, una potencia descomunal, pueda causar pérdidas de empleo y el deterioro de la profesión, los periodistas tendrán que ser más perspicaces y sentirse más cómodos con ella. 

Actualmente, en mi puesto en la Iniciativa de Ética y Periodismo de la Universidad de Nueva York, me resulta útil desmitificar los chatbots de IA separando su uso en tres categorías conocidas por casi todos los periodistas: fuente, colega y asistente. Dentro de cada categoría, es más fácil identificar los riesgos y las oportunidades. También puede facilitar que las redacciones articulen directrices claras para su uso. (OpenAI, la empresa detrás de ChatGPT, aportó capital inicial a la Iniciativa de Ética y Periodismo de la Universidad de Nueva York en 2023. La Iniciativa opera con independencia de sus financiadores).

La IA como fuente

Dada la cantidad de información que un bot de IA puede sintetizar casi instantáneamente, no me imagino ignorarlo como fuente, a pesar de sus evidentes defectos . Comparo sus habilidades con las de un humano errático, alguien que, sin embargo, me ha resultado útil, aunque a veces frustrante, al proporcionar información de fondo, sugerir ángulos de la historia y dar pistas sobre personas y eventos que podrían resultar noticiosos. Estas fuentes ofrecen mucho que comprobar, confirmar o desmentir, aunque uno sabe que a veces inventan cosas , y a menudo ni siquiera saben que lo están haciendo.

Al igual que con la mayoría de los entrevistados humanos, no se puede confiar en un chatbot como única fuente. Hay que descartar sesgos , verificar todos los supuestos hechos que recopilan e informar al público , en la medida de lo posible, cómo se obtuvo la información. Por supuesto, un chatbot no se responsabiliza de sus decisiones ni de sus errores. Es importante recordar que no es humano . Pero, a diferencia de las fuentes humanas, los chatbots siempre están disponibles cuando se los necesita. 

La IA como colega

Mo Tamman, de Reuters, cambió mi perspectiva sobre los chatbots cuando, a finales de 2023, describió ante un público de periodismo de la Universidad de Nueva York cómo emplea un bot como un compañero siempre disponible, conversando con él en una pantalla —evaluando ideas para artículos, considerando enfoques, revisando lo que otros han dicho y escrito sobre un tema— mientras trabaja en su artículo en una segunda pantalla. Comentó que utiliza IA generativa durante toda su jornada laboral y, aunque «no espero que acierte la mitad del tiempo, cuando hago una pregunta, estoy conversando con ella». Después de escuchar a Mo, empecé a hacerlo también, al igual que otros periodistas que conozco, y suele dar buenos resultados cuando se le da la motivación adecuada. (Me alegra decir que Mo, un excelente excolega mío, también sigue hablando con humanos).

La IA como asistente

El papel de AI como asistente o colega junior podría incluir delinear o escribir borradores iniciales , analizar y visualizar datos, proporcionar transcripciones y traducciones, crear resúmenes de historias y ayudar a criticar y editar el propio trabajo.

De hecho, usé Google Gemini y ChatGPT para criticar borradores anteriores de este artículo, que, para ser claros, escribí yo mismo. El proceso me resultó útil. Con algunas salvedades, me siento bastante cómodo cuando la IA realmente asiste en el trabajo en lugar de absorberlo. 

En cuanto a la escritura, creo que es esencial que los estudiantes de periodismo aprendan a redactar y organizar sus propias historias, principalmente porque los procesos de escritura y pensamiento están entrelazados. Pero si una historia es realmente sencilla, como un resumen de resultados deportivos o un informe de ganancias corporativas, la IA probablemente pueda redactarla más rápido y casi tan bien como yo, desde la perspectiva del público. Escribe, yo compruebo.

Nunca confiaría en un asistente para redactar historias más complejas , como artículos de fondo, artículos analíticos, reportajes de investigación o narrativas al estilo de The New Yorker y The Atlantic . Estas requieren una reflexión más profunda, un criterio más maduro y una mayor atención a los matices, la elegancia y la emoción humana, que no son los puntos fuertes de la IA, al menos por ahora. 

Decidí usar Google Gemini y ChatGPT para criticar, pero no para escribir ni editar, borradores anteriores de este artículo. Así, controlé el proceso. En general, los dos chatbots produjeron resultados igualmente apropiados y detallados, aunque ChatGPT tuvo considerables dificultades con la actualidad. En un borrador, cité la advertencia del Papa León XIV a los sacerdotes de no usar IA al escribir homilías. ChatGPT respondió con cierta brusquedad: «Hasta ahora, no ha habido un Papa León XIV. El papa actual es el Papa Francisco». Al ser cuestionado, insistió, respondiendo que los lectores podrían «preguntarse si usted insertó intencionalmente un falso papa para probar la IA».

Los dos chatbots demostraron ser especialmente valiosos y confiables en cuanto a la forma y el flujo. Corregí algunos errores de puntuación y repeticiones que los bots detectaron y ajusté el texto en varios puntos.

En la sección «IA como fuente», coincidí con las sugerencias de ChatGPT y, como resultado, recalqué que los chatbots cometen errores y añadí una cláusula que garantiza la transparencia sobre la obtención de información de la IA y una frase que enfatiza que, a diferencia de los humanos, los bots no pueden ser considerados responsables de sus acciones. En palabras de ChatGPT: «Una fuente humana puede ser considerada responsable; un chatbot, no».

Recuerdo que cuando empezamos a trabajar con Microsoft Windows en el Wall Street Journal en los noventa, tuvimos que soportar varios días de intensa instrucción en el aula. Muchos queríamos seguir con nuestro viejo y tosco software, llamado XyRite, pero Windows era mucho mejor y nos acostumbramos, y luego olvidamos que alguna vez había sido una opción. También recuerdo que, cuando era editor jefe de BusinessWeek a finales de la década de 2000, algunos de los periodistas más veteranos se negaron a escribir para la edición digital, a pesar de que era obviamente adonde los lectores estaban migrando. Con el tiempo, la oposición inicial parecía realmente anticuada, si uno se paraba a pensarlo. La nueva tecnología se había vuelto, como mínimo, familiar.

Sí, úsenla con cuidado, pero ignorarla sería como ignorar internet a principios de este siglo, o la electricidad en el anterior. Reflexionando sobre la creciente brecha entre quienes dominan la IA y quienes la ignoran, Gina Chua, directora ejecutiva del Centro Tow-Knight de Periodismo Empresarial de la CUNY, escribe que quedarse peligrosamente atrás es «un destino que temo para las redacciones que no se toman la IA en serio. Y no solo como una amenaza, aunque deberían hacerlo, sino como una verdadera oportunidad».

Este artículo fue producido en colaboración con la Iniciativa de Ética y Periodismo del Instituto de Periodismo Arthur L. Carter de la Universidad de Nueva York.

Stephen J. Adler es el director de la Iniciativa de Ética y Periodismo del Instituto de Periodismo Arthur L. Carter de la Universidad de Nueva York y miembro del Comité de Ética de la Sociedad de Periodistas Profesionales, que actualmente está revisando el Código de Ética de la SPJ.

CJR

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *