Sociedad

Unos 800 supermercados españoles ya cuentan con sistemas de vigilancia con inteligencia artificial que prometen acabar con el racismo en la seguridad

Los expertos en IA reciben la noticia con escepticismo: "También hay racismo en los datos"

Imagen policial de un ladrón que salía corriendo por la puerta de emergencias de un supermercado / Guardia Civil

Imagen policial de un ladrón que salía corriendo por la puerta de emergencias de un supermercado

Barcelona

Unos 800 supermercados y tiendas españolas ya han instalado un programa de vigilancia de seguridad innovador programado con inteligencia artificial. Este software se incorpora a las cámaras de seguridad y detecta los movimientos sospechosos de los clientes que puedan indicar un robo inminente. El programa pretende acabar con el 60% de los robos que sufren estos establecimientos, la mayoría de ellos con grandes superficies. La herramienta también promete ser un avance social, porque presume de eliminar el sesgo racista en la seguridad. Al analizar sólo el movimiento –y no el perfil o procedencia de los posibles ladrones– evita los estereotipos que puede tener inculcados un humano que se dedique a la seguridad. Una característica que, no obstante, los expertos analizan con escepticismo.

Vigilar sin sesgos racistas

La empresa francesa Veesion, propietaria del software, vende su producto como una forma de reducir los robos, pero también como una manera de limitar los estereotipos racistas. Paula Cárdenas, del equipo de la empresa, asegura a la SER que "los clichés no tienen cabida" en el programa, porque sólo analiza los movimientos de los clientes "aunque sean la persona menos sospechosa posible según los estándares de nuestra sociedad".

Este producto surge en un contexto en que las inteligencias artificiales cada vez tienen mayor presencia y cuando se está debatiendo si la regulación internacional debería limitarla con fines éticos. Precisamente en este contexto el investigador del CSIC y experto en sistemas de entrenamiento de estos programas, Pedro Meseguer, avisa de que a menudo la IA también reproduce los sesgos: "El racismo también puede existir en los datos".

El aprendizaje de cada IA, clave para determinar si será racista

Meseguer también asegura que las inteligencias artificiales aprenden de lo que ven en internet, por lo que es importante que las empresas controlen cómo entrenan: "Los datos a partir de los que aprendan serán determinantes para ver si orientará su comportamiento en un sentido u otro". Con todo, considera que el modelo ideal de seguridad es el modelo mixto: una IA que vigile y un humano que la supervise.

En toda España ya existen 800 tiendas -la mayoría supermercados- que han incorporado este software a sus cámaras de vigilancia. Cataluña atrae gran parte de ellas, unas 150.

Ferran Dalmau

Ferran Dalmau

Editor de Hora 14 Catalunya los fines de semana. Periodista por culpa de Tintín. Sigo queriendo ser...

 
  • Cadena SER

  •  
Programación
Cadena SER

Hoy por Hoy

Àngels Barceló

Comparte

Compartir desde el minuto: 00:00