Asociación Mundial de Periodistas World Association of Journalists Association Mondiale des Journalistes

América • África • Asia • Europa • Oceanía

Generic selectors
Solo coincidencias exactas
Buscar en el título
Buscar en contenido
Post Type Selectors

YouTube mostrará contenido que educa a los usuarios sobre noticias falsas

YouTube planea publicar anuncios que eduquen a las personas sobre las técnicas de desinformación, luego de un experimento exitoso en la Universidad de Cambridge en el Reino Unido.

Los investigadores encontraron que los videos mejoraron la capacidad de las personas para reconocer contenido manipulador.

Se mostrarán en Eslovaquia, la República Checa y Polonia para luchar contra las noticias falsas sobre los refugiados ucranianos.

Google, la empresa matriz de YouTube, dijo que los hallazgos “emocionantes” muestran cómo las redes sociales pueden prevenir activamente la difusión de información errónea.

La investigación se basó en un área de estudio en desarrollo llamada ” prebunking “, que investiga cómo se puede desacreditar la desinformación mostrando a las personas cómo funciona, antes de que se expongan a ella.

En el experimento, los anuncios se mostraron a 5,4 millones de personas, de las cuales 22.000 fueron encuestadas posteriormente.

Después de ver los videos explicativos, los investigadores observaron:

– Una mejora en la capacidad de los participantes para identificar técnicas de desinformación;

– Una mayor capacidad para distinguir el contenido confiable del no confiable;

– Una mejor capacidad para decidir si compartir o no contenido.

La investigación revisada por pares se realizó en conjunto con Google y se publicará en la revista científica Science Advances.

Beth Goldberg, jefa de investigación y desarrollo de la unidad Jigsaw de Google, que se enfoca en abordar los riesgos de seguridad en línea, calificó los hallazgos como “emocionantes”.
“Demuestran que podemos expandir el prebunking a lo largo y ancho, utilizando anuncios como vehículo”, dice ella.

‘Tropos comunes’

Jon Roozenbeek, autor principal del artículo, le dijo a la BBC que la investigación trata de “reducir la probabilidad de que alguien sea persuadido por la desinformación”.

“Obviamente, no se puede predecir cada instancia de información errónea que se volverá viral”, dice.
“Pero lo que puedes hacer es encontrar patrones y tropos comunes”.

“La idea detrás de este estudio fue: si encontramos algunos de estos tropos, ¿es posible hacer que las personas sean más resistentes contra ellos, incluso en relación con el contenido que nunca antes habían visto?”

Los científicos inicialmente probaron los videos con miembros del público bajo condiciones controladas en un laboratorio, antes de mostrárselos a millones de usuarios de YouTube como parte de un estudio de campo más amplio.

La campaña contra la desinformación y la campaña de prebunking se transmitieron en YouTube “como lo serían en el mundo real”, explica Roozenbeek.

“Los publicamos como anuncios de YouTube, como un anuncio sobre crema de afeitar o lo que sea… antes de que se reproduzca el video”.

¿Cómo funcionó el estudio?

Los anunciantes pueden usar una función de YouTube llamada Brand Lift, que le indica si un anuncio ha aumentado el conocimiento del producto y cómo lo ha hecho.

Los investigadores utilizaron este mismo recurso para evaluar la capacidad de las personas para identificar las técnicas de manipulación a las que habían estado expuestas.

En lugar de una pregunta sobre el conocimiento de la marca, presentaron el titular de una historia a las personas, que fueron invitadas a leerla. Luego se les dijo que el título contenía manipulación y se les pidió que identificaran qué tipo de técnica se estaba utilizando.

Además, hubo un grupo de control separado que no vio ningún video, pero se le presentó el título y las preguntas correspondientes.

“Lo que se espera es que el grupo que vio los videos se identificara correctamente con mucha más frecuencia que el grupo de control, y resultó ser así”, dice Roozenbeek.

“En promedio, el grupo que vio los videos acertó aproximadamente un 5 % más de veces que el grupo de control. Eso es muy significativo”.

“No parece mucho, pero también es cierto que el grupo de control no siempre se equivoca. También aciertan muchas preguntas”.

“Esta mejora, incluso en el entorno ruidoso de YouTube, básicamente muestra que se puede mejorar la capacidad de las personas para reconocer estas técnicas de desinformación, simplemente mostrándoles un anuncio”.

‘Soluciones basadas en evidencia’

La Universidad de Cambridge dijo que este era el primer estudio de campo del mundo real de la “teoría de la inoculación” en una plataforma de redes sociales.

El profesor Sander van der Linden, coautor del estudio, dice que los resultados de la investigación fueron suficientes para llevar adelante el concepto de inoculación y expandirlo, para llegar potencialmente a “cientos de millones” de usuarios de las redes sociales.

“Claramente, es importante que los niños aprendan a leer de lado y verifiquen la veracidad de las fuentes”, dice.

“Pero también necesitamos soluciones que puedan escalar en las redes sociales e interactuar con sus algoritmos”.

Reconoció el escepticismo en torno a las empresas de tecnología que utilizan este tipo de investigación y un escepticismo más amplio en torno a las colaboraciones entre la industria y la academia.

“Pero al final del día, tenemos que enfrentar la realidad, ya que las empresas de redes sociales controlan una gran parte del flujo de información en línea. Entonces, para proteger a las personas, creamos soluciones independientes basadas en evidencia que las empresas de redes sociales pueden implementar. en sus plataformas”.

“Para mí, dejar que las empresas de redes sociales se las arreglen solas no generará el tipo de solución que permita a las personas discernir la información errónea que se propaga a través de sus plataformas”.

BBC

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *