Generic selectors
Solo coincidencias exactas
Buscar en el título
Buscar en contenido
Post Type Selectors

El periodismo entra en la era del “no anonimato”: cuando el estilo y la voz se vuelven biometría

El autor del artículo plantea que la inteligencia artificial está introduciendo un nuevo riesgo para el periodismo: la pérdida del anonimato, al convertir el estilo de escritura y la voz en una forma de huella identificable, capaz de exponer a periodistas y fuentes incluso cuando los canales están protegidos.
Foto de Ashutosh Sonwani / Pexels

Durante años, en el periodismo hemos entendido la protección como una cuestión principalmente técnica: cifrar comunicaciones, borrar metadatos, blindar dispositivos, compartimentar accesos, cuidar canales. Todo eso sigue siendo imprescindible. Pero ya no es suficiente. Porque la inteligencia artificial está desplazando el problema hacia un terreno mucho más incómodo: el de los rasgos humanos que antes parecían demasiado difusos como para ser explotados y que ahora empiezan a comportarse como señales medibles.

El estilo de escritura, la puntuación, los giros, la cadencia de una voz, las muletillas, incluso ciertas formas de ordenar un relato dejan de ser simple personalidad expresiva y empiezan a funcionar, en la práctica, como una huella.

Y cuando una huella se puede analizar, comparar y escalar, deja de ser estilo. Se convierte en biometría. 

Este es, precisamente, uno de los grandes temas que las redacciones siguen sin mirar con la gravedad necesaria, pese a que ya hemos visto las barbas cortar en las redes sociales. Hemos hablado hasta el cansancio de automatización, de deepfakes y de periodistas reemplazados por máquinas. Sin embargo, se nos escapa un problema mucho más estructural: la IA abarata la falsificación, sí, pero también la identificación. Permite fabricar voces falsas, de acuerdo, pero sobre todo inferir autorías. La amenaza ya no es únicamente engañar al público; es exponer a una fuente, estrechar el círculo de una filtración o, simplemente, sembrar la duda sobre quién escribió exactamente qué.

Y en periodismo de investigación, o en coberturas sensibles o para aquellos periodistas amenazados por regímenes totalitarios, eso es muchísimo.

La estilometría no es ninguna novedad. La diferencia es que durante años tuvo un límite práctico enorme: exigía pericia forense, tiempo y un análisis casi artesanal. Hoy, los modelos de lenguaje han destrozado ese umbral. Lo que antes no salía del laboratorio, ahora empieza a ser operativo. Y aquí está la trampa: no hace falta que la máquina “demuestre” una autoría con grado de certeza judicial. Le basta con elevar la probabilidad, con perfilar a tres sospechosos en lugar de veinte.

En investigaciones delicadas, ese simple filtro ya genera un daño irreparable, porque a una fuente no le hace falta ser identificada al cien por cien para asustarse. Basta con que intuya que su propia sintaxis la puede delatar.

Ahí está el primer gran choque para los medios. Durante décadas, la confidencialidad se ha entendido como un pacto ético y legal: proteger a quien te entrega información es parte del núcleo del oficio.

Pero la IA introduce una grieta nueva: el contenido lingüístico también puede delatar. Ya no basta con proteger el canal; hay que asumir que el propio texto puede convertirse en metadato. Eso obliga a repensar muchas cosas, desde los protocolos con filtradores hasta la edición de piezas especialmente delicadas.

La pregunta ya no es solo cómo se protege una fuente. La pregunta es si el periodismo está preparado para asumir que la voz, el tono o la sintaxis pueden convertirse en vectores de exposición.

La capacidad de suplantar

Al mismo tiempo, crece el problema inverso. No hablo solo de vídeos grotescos o montajes obvios. Hablo de audios plausibles, de mensajes verosímiles, de materiales suficientemente buenos como para atravesar filtros iniciales, condicionar coberturas o introducir ruido donde antes había prueba. Ese es otro cambio de era. Durante mucho tiempo, la verosimilitud fue una pista razonable. Ya no lo es. Una voz creíble no demuestra nada. Una imagen convincente tampoco. Y un texto bien imitado, menos aún. La IA no solo obliga a verificar más; obliga a desconfiar mejor.

Ese punto es crucial. El Reglamento europeo de IA no se limita a hablar de riesgos abstractos. Introduce obligaciones concretas de transparencia para determinados contenidos sintéticos y para las llamadas ultrasuplantaciones. Eso afecta de lleno al ecosistema de medios. Porque obliga a distinguir entre manipulación engañosa, asistencia tecnológica, control editorial y responsabilidad humana. Es decir, obliga a gobernar algo que, hoy por hoy, muchos medios ni siquiera han definido internamente con precisión.

Ahí aparece otro riesgo menos comentado: que la transparencia, siendo necesaria, se convierta en un arma arrojadiza. En un clima político polarizado, la etiqueta “contenido asistido por IA” puede dejar de ser una información útil al lector para convertirse en un recurso de deslegitimación.

Habrá quien la use para insinuar que un texto vale menos, que una pieza es menos periodística o que una redacción ha externalizado su criterio. El peligro, por tanto, no está solo en incumplir la transparencia. También está en aplicarla sin un marco claro y sin una pedagogía mínima.

Por eso creo que el debate no debe plantearse en términos simplistas. No estamos ante una discusión entre periodismo “humano” y periodismo “artificial”. Estamos ante una transformación mucho más incómoda: la de un oficio en el que la identidad expresiva, la voz propia y la singularidad —justamente aquello que siempre hemos considerado un valor— empiezan también a ser una vulnerabilidad.

La paradoja es feroz. Durante años hemos defendido que una buena firma se reconoce, que una voz periodística importa, que el estilo es parte de la credibilidad. Sigue siendo verdad. Pero en la era de la IA, esa misma singularidad puede servir para identificar, imitar, desacreditar o perseguir. Lo que antes era un activo puede convertirse, en ciertos contextos, en superficie de ataque.

Por eso la pregunta ya no es extravagante. Es urgente: ¿debemos empezar a tratar el estilo de un periodista como un dato sensible?

Puede parecer exagerado. No lo es. Porque cuando una tecnología convierte rasgos humanos en señales analizables a escala, el problema deja de ser marginal. Y cuando eso ocurre en una profesión que depende de la confianza, de la prueba y de la confidencialidad, el impacto no es lateral. Es central.

El periodismo no solo está entrando en la era de la inteligencia artificial. Está entrando, también, en la era del no anonimato. Y me temo que todavía no hemos asumido del todo lo que eso significa.

Laboratorio de Periodismo

FUNDACION LUCA DE TENA

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *