Miles de pasajeros del metro de Londres han sido grabados y analizados por sistemas de inteligencia artificial (IA) sin su consentimiento, según una reciente investigación.
Las cámaras, operadas por Amazon, utilizaban tecnología de reconocimiento facial para estimar la edad, el género y el estado emocional de los viajeros.
La noticia ha generado gran controversia, con defensores de la privacidad que critican la vigilancia masiva y la falta de transparencia.
Se teme que esta tecnología pueda ser utilizada para discriminar a las personas o para invadir su privacidad.
Las autoridades de transporte de Londres han defendido el programa, argumentando que las imágenes solo se utilizan con fines de seguridad y que no se almacena información personal.
Sin embargo, la falta de información clara sobre el programa y la ausencia de supervisión independiente han generado desconfianza entre el público.
Este caso pone de relieve los crecientes desafíos éticos y legales que plantea el uso de la inteligencia artificial en espacios públicos.
Es necesario un debate público abierto y transparente sobre cómo queremos utilizar esta tecnología y qué salvaguardas se deben implementar para proteger la privacidad de las personas.
Esta semana, en el programa La mañana de COPE Canarias, hablamos sobre esta reciente polémica.