Ciencia y tecnología

Simón Peña: "Los periodistas pueden tener sesgo político, pero siempre ofrecen información confiable, contrastable y con responsabilidad"

'La ventana Euskadi' se une a la celebración de la semana de la alfabetización mediática e informacional reflexionando sobre el impacto de la IA en la información de interés público

Una presentadora creada por inteligencia artificial da las noticias en la televisión nacional de Tailandia. / https://www.nationthailand.com/

Una presentadora creada por inteligencia artificial da las noticias en la televisión nacional de Tailandia.

Vitoria-Gasteiz

'La ventana Euskadi' se une a la celebración de la semana de la alfabetización mediática e informacional con una serie de entrevistas sobre el lema de este 2024: "Las nuevas fronteras digitales de la información: Alfabetización mediática e informacional para la información de interés público". Durante toda la semana el objetivo es reflexionar sobre el impacto transformador de tecnologías emergentes como la Inteligencia Artificial Generativa y la nueva generación de creadores de contenidos digitales en la producción y difusión de información de interés público.

Simón Peña: "Ante la duda de bulo o fake news, hay que acudir a la fuente de confianza: el periodista o el medio de comunicación"

12:38

Compartir

El código iframe se ha copiado en el portapapeles

<iframe src="https://cadenaser.com/embed/audio/460/1729533240336/" width="100%" height="360" frameborder="0" allowfullscreen></iframe>

Simón Peña es profesor de la facultad de Periodismo en la UPV-EHU, de la que también ha sido decano.

Primero, un poco de contexto, porque los bulos han existido toda la vida, desde el gran incendio de Roma atribuido a Nerón o la explosión del Maine y la guerra en la que España perdió Cuba. ¿Esto no es nuevo, no?

Sí, por supuesto, la información siempre ha sido un arma de conflicto y como decía Winston Churchill, siempre hay que rodear los hechos con una red o con una serie de guardaespaldas de desinformación para garantizar que uno cumple sus sus objetivos. Esto no es diferente, lo que ocurre es que se han multiplicado los medios para hacerlo y en la actualidad tenemos muchos más medios para hacer cosas interesantes en el ámbito de la comunicación. Pero también tenemos esos mismos medios para hacer cosas dañinas. Vivimos en esa dualidad permanente.

¿La Inteligencia Artificial se usa ya en las redacciones de los medios de comunicación en Euskadi?

Sin duda y se usaba hace muchísimo tiempo. Es decir, muchas veces identificamos el término Inteligencia Artificial asociándolo a la Inteligencia Artificial generativa del Chat GPT. Pero mucho antes la utilizábamos de forma recurrente, por ejemplo, con los traductores automatizados había periódicos que ya tenían ediciones en otros idiomas que traducían sin ningún tipo de intervención humana, en fin, y se usaba de muchas otras maneras. ¿Y la Inteligencia Artificial generativa tal y como la conocemos ahora? Pues también, por supuesto que se utiliza. Quizás no necesariamente para redactar automatizadamente, pero sí como soporte o como ayuda para la elaboración de informaciones. De todos modos, yo diría que es en el ámbito de la comunicación corporativa, es decir, en aquellos casos en los que empresas e industrias elaboran la información, no tanto con fines periodísticos, sino con fines comerciales, donde está enormemente presente.

¿Qué ventajas aporta al trabajo de los periodistas y qué riesgos tiene?

Yo creo que una de las ventajas claras es que puede liberar a los profesionales de muchas tareas rutinarias en las que se dedicaba un montón de tiempo y que realmente no aportaban un valor añadido. Hoy en día, mediante cualquiera de estas herramientas podemos transcribir una rueda de prensa o una nota de prensa, y que nos resuma las ideas principales, incluso que nos las traduzca. Son una serie de cuestiones que no entran en conflicto con la labor periodística, de identificar qué es lo relevante y, sobre todo, qué es lo socialmente relevante, pero que sí pueden liberarnos de trabajo mecánico. De todos modos, la clave, en mi opinión, no es el tiempo que nos ahorra, sino que reflexionemos sobre en qué invertimos el tiempo que nos ha ahorrado.

¿Y qué riesgos tiene?

Bueno, pues evidentemente es un generador de contenidos que utilizado sin criterio periodístico, puede generar un volumen de contenido, con aspecto creíble y objetivo, pero malintencionado, de una manera en la que difícilmente se puede llegar a controlar. Todos hemos visto algunas imágenes, algunas de ellas cómicas, otras no tanto, generadas por esta tecnología que resultan prácticamente indistinguible de la realidad. Eso nos obliga a estar muchísimo más alerta. A los medios de comunicación, a desarrollar normas de autorregulación, de uso de la IA, recomendaciones para hacer buen periodismo. Y también, a trabajar en la alfabetización mediática para que las personas, los ciudadanos y las ciudadanas tengan unos recursos para poder enfrentarse a esta avalancha de información perniciosa porque no siempre van a tener el modo o el intermediario para poder discriminarla adecuadamente.

El otro día no recuerdo a quién le preguntaban cómo iba a ser el periodismo del futuro precisamente por toda esta revolución. Y decía precisamente que va a ser más importante que nunca, como filtro y garantía de que la veracidad de los contenidos.

Sin duda, porque una de las cosas que no conviene olvidar es que, efectivamente, estamos expuestos a un volumen de información gigantesco, en Redes Sociales, etc. Solo una pequeña parte de ese flujo de información es periodística. Y el periodismo siempre se ha regido, no tanto por la elaboración de los contenidos, sino por el fin social con el que se elaboran esos contenidos. Ese es el elemento diferencial del periodismo y esa tarea, esa labor no va a cambiar con la Inteligencia Artificial. No sé si va a ser más necesaria que nunca, porque siempre ha sido muy necesaria. Lo que va a tener que adquirir es las herramientas y las capacidades para hacer frente a este reto, que es gigantesco en todos los ámbitos.


¿Tienes en mente ahora algún ejemplo de fake-news generada con Inteligencia Artificial que pongáis en la facultad como ejemplo?

Bueno, los ejemplos más llamativos se han dado en campañas electorales, como las de Estados Unidos ahora. Estos vídeos que tratan de representar a personalidad política haciendo o diciendo algo que realmente no ha dicho. En ocasiones se hacen con fines cómicos que no tienen intencionalidad desinformadora. Pero en muchas otras, pues hemos podido ver deep fakes muy creíbles.

Ahora que estamos en la semana de la alfabetización mediática, convendría que diéramos una serie de consejos, que yo también me voy a apuntar, porque a los periodistas también nos las cuelan, y menos mal que tenemos los filtros de confirmar dos veces ir a las fuentes, etc, que si no podríamos estar como cualquier otro ciudadano. ¿Qué consejos podríamos dar para reconocer, estar alerta y protegernos de este mal uso de la Inteligencia Artificial?

Bueno, pues sin duda, el caldo de cultivo de este tipo de prácticas es, ante todo, no los medios de comunicación tradicionales, sino, sobre todo, las Redes Sociales, tanto públicas como privada. Todo el contenido que llegue a través de fuentes que habitualmente no se dedican a verificar la información, porque, como bien has dicho, una de las funciones esenciales de un periodista es verificar la información que luego difunde...Todo aquello que no llega a través de esos intermediarios de confianza siempre nos debe merecer, por lo menos, una primera reflexión. En segundo lugar, no seamos agentes activos de la redifusión de esos contenidos reenviándoselo a otras personas, aunque nos parezca gracioso o llamativo. Y en tercer lugar, acudir a los fact-checkers o las agencias de identificación de bulos en el caso de que nos generen alguna duda. En resumen, acudir a las fuentes de confianza, los periodistas y los medios de comunicación. Siempre van a hacer ese papel de que nos enseñaron en la facultad, es decir, comprobar dos veces, que lo digan dos fuentes, y si cometemos un error, no será porque no lo hayamos comprobado activamente y no nos hayamos cerciorado de que lo que estamos diciendo es digno de ser contado.

Sí, podemos cometer un fallo, pero, por lo menos, somos conscientes de los riesgos que tiene que trabajemos mal con estas nuevas tecnologías y estamos poniendo los medios para evitarlo. Un ejemplo es el decálogo para el uso ético de la Inteligencia Artificial en los medios de comunicación que se ha acordado entre el Colegio vasco de periodistas, la diócesis de Bilbao, medios de comunicación y las universidades vascas. ¿Cuáles son sus ejes principales?

En primer lugar, evidentemente, la necesidad de defender a los medios de comunicación como una fuente confiable de información, que era justo lo que lo que comentábamos. Son aquellos cuya palabra creemos cuando hablan. Pueden tener una determinada orientación política o un determinado sesgo, pero, en todo caso, siempre ofrecen información confiable, contrastable y con responsabilidad. En segundo lugar, la Inteligencia Artificial requiere transparencia en todos aquellos procesos en los que se hayan elaborado contenidos con ella. Tiene que haber una declaración de hasta qué punto o hasta dónde se ha utilizado esa tecnología para elaborar esa información; la información tiene que ser trazable. En esta era muchas veces es difícil realizar un seguimiento de dónde ha surgido una información y de ahí el temor a que las alucinaciones que tiene la IA contaminen la información.

Eva Domaika

Eva Domaika

Jefa de informativos en Cadena SER Vitoria. Presenta el informativo diario ‘La ventana Euskadi’. Si...

 
  • Cadena SER

  •  
Programación
Cadena SER

Hoy por Hoy

Àngels Barceló

Comparte

Compartir desde el minuto: 00:00