Inteligencia artificial, la nueva policía de los Juegos Olímpicos de París 2024
En
vísperas de la ceremonia de inauguración de los Juegos Olímpicos 2024, París es
una ciudad inundada de seguridad. Cuarenta mil barreras dividen la capital
francesa. Grupos de policías con chalecos de protección patrullan por las
bonitas calles adoquinadas. El río Sena está restringido a toda persona que no
haya sido inspeccionada y provista de un código QR personal. Soldados vestidos
de caqui, presentes desde los atentados terroristas de 2015, permanecen cerca
de una panadería junto al canal, con boinas y enormes pistolas en el pecho.
Gérald
Darmanin, ministro del Interior de Francia, ha dedicado la semana pasada a
justificar estas medidas como vigilancia, no como una exageración. Francia se
enfrenta al “mayor reto de seguridad que jamás haya tenido que organizar un
país en tiempos de paz”, declaró a la prensa el martes. En una entrevista
concedida al semanario Le Journal du Dimanche, explicó que se ha detectado a
“individuos potencialmente peligrosos” solicitando empleo o voluntariado en las
Olimpiadas, entre ellos 257 islamistas radicales, 181 miembros de la extrema
izquierda y 95 de la ultraderecha. Ayer, declaró a la emisora de noticias
francesa BFM que se había detenido a un ciudadano ruso sospechoso de planear
actos de “desestabilización” a “gran escala” durante la justa deportiva.
Por
primera vez en la historia de las Olimpiadas, la apertura no se celebrará
dentro de un estadio; el comité organizador aprovechará los sitios históricos
de la capital francesa. Esto es todo lo sabemos de la prueba que abre la 33ª
edición de los Juegos Olímpicos París 2024.
Los
parisinos siguen refunfuñando por los cierres de las calles y los carriles para
bicicletas que terminan abruptamente sin previo aviso, mientras que los grupos
de defensa denuncian “riesgos inaceptables para los derechos [humanos]
fundamentales”. Para los Juegos, esto no es nada nuevo. Las quejas sobre una
seguridad distópica son casi una tradición olímpica. Las iteraciones anteriores
se han descrito como el “Confinamiento de Londres”, la “Fortaleza de Tokio” y
la “carrera armamentística” de Río. Esta vez, son las medidas de seguridad
menos visibles las que han surgido como algunas de las más controvertidas. En París
estas se han visto impulsadas por un nuevo tipo de inteligencia artificial
(IA), ya que la ciudad permite que unos polémicos algoritmos rastreen las
grabaciones de las cámaras de seguridad de las estaciones de transporte en
busca de amenazas. El sistema se probó por primera vez en la capital en marzo,
en dos conciertos de Depeche Mode.
Algoritmos
para la seguridad en las Olimpiadas de París 2024
Tanto
para los críticos como para los partidarios, la supervisión algorítmica de las
grabaciones de los circuitos cerrados de televisión (CCTV) ofrece un atisbo de
los sistemas de seguridad del futuro, en los que simplemente habrá demasiadas
grabaciones como para que los operadores humanos logren supervisarlas
físicamente. “El software es una extensión de la policía”, explica Noémie
Levain, integrante del grupo activista La Quadrature du Net, que se opone a la
vigilancia mediante IA. “Son los ojos de la policía multiplicados”.
Cerca
de la entrada de la estación de metro de Porte de Pantin, hay cámaras de
vigilancia atornilladas al techo, dentro de una caja de metal gris que pasa
desapercibida con facilidad. Un pequeño cartel está clavado en la pared por
encima de la caja, informando a quien quiera detenerse a leer que forma parte
de un “experimento de análisis de videovigilancia”. La empresa que gestiona el
metro de París, la RATP, “probablemente” empleará “análisis automatizados en
tiempo real” de las imágenes de CCTV “en las que puedes aparecer tú”, explica
el letrero a los despreocupados pasajeros que pasan a toda prisa. El
experimento, indica, durará hasta marzo de 2025.
Porte
de Pantin está en el límite del parque La Villette, sede del Parque de las
Naciones de los Juegos Olímpicos, donde los fans pueden comer o beber en
pabellones dedicados a 15 países diferentes. La parada de metro es también una
de las 46 estaciones en las que se implementarán algoritmos de CCTV durante las
Olimpiadas, según un anuncio de la Prefectura de París, dependiente del
Ministerio del Interior. Los representantes de la ciudad no respondieron a las
preguntas de WIRED sobre si existen planes para utilizar la vigilancia por IA
fuera de la red de transporte. Según una ley de marzo de 2023, los algoritmos
podrán buscar en las grabaciones de CCTV en tiempo real ocho “sucesos”, como
aglomeraciones, grupos de personas anormalmente grandes, objetos abandonados,
armas o una persona que caiga al suelo.
“Lo
que hacemos es transformar las cámaras de CCTV en una poderosa herramienta de
vigilancia”, comenta Matthias Houllier, cofundador de Wintics, una de las
cuatro compañías francesas que obtuvieron contratos para emplear sus algoritmos
en los Juegos Olímpicos. “Con miles de cámaras, es imposible que los agentes de
policía [reaccionen ante cada cámara]”.
Wintics
consiguió su primer contrato público en París en 2020, recopilando datos sobre
el número de ciclistas en distintas partes de la ciudad para ayudar a los
funcionarios de transporte de la capital francesa a planificar la construcción
de más carriles para bicicletas. Conectando sus algoritmos a 200 cámaras de tráfico
existentes, el sistema de Wintics, que aún está en funcionamiento, es capaz de
identificar primero y contar después a los ciclistas en medio de calles muy
transitadas. Cuando Francia anunció que buscaba empresas que crearan algoritmos
para ayudar a mejorar la seguridad en los Juegos Olímpicos de este verano,
Houllier consideró que se trataba de una evolución natural. “La tecnología es
la misma”, afirma. “Analiza siluetas anónimas en espacios públicos”.
Tras
entrenar sus algoritmos con datos sintéticos y de código abierto, los sistemas
de Wintics se han adaptado para, por ejemplo, contar el número de personas que
hay en una multitud o la cantidad de gente que cae al suelo, alertando a los
operadores cuando la cifra supera un determinado umbral.
“Eso
es todo. No hay una decisión automática”, explica Houllier. Su equipo capacitó
a funcionarios del Ministerio del Interior para utilizar el software de la
empresa y ellos deciden cómo quieren aplicarlo, resalta. “La idea es llamar la
atención del operador, para que compruebe y decida lo que debe hacerse”.
Houllier
sostiene que sus algoritmos son una alternativa respetuosa con la privacidad a
los controvertidos sistemas de reconocimiento facial utilizados en anteriores
eventos deportivos internacionales, como el Mundial de Qatar 2022. “Intentamos
encontrar otro camino”, destaca. Para él, dejar que los algoritmos revisen las
grabaciones de los CCTV es una forma de garantizar la seguridad del
acontecimiento sin poner en peligro las libertades personales. “No estamos
examinando ningún dato personal. Solo observamos las siluetas, nada de rostros,
ni reconocimiento de matrículas, ni análisis de comportamiento”.
.-
Comentarios
Publicar un comentario