Grupos extremistas comienzan a entrenarse en inteligencia artificial y elevan las alarmas de seguridad
Grupos extremistas de diversos perfiles han empezado a experimentar y entrenarse en el uso de herramientas de inteligencia artificial (IA), una tendencia que preocupa a expertos en seguridad nacional y agencias de inteligencia debido a las posibles implicaciones para la radicalización, la propaganda y la desinformación en línea.
Según un informe de agencias de
noticias internacionales, facciones como el autodenominado Estado Islámico y
otras organizaciones militantes están utilizando sistemas de IA generativa para
crear imágenes y audios deepfake más realistas, perfeccionar sus campañas de
reclutamiento y ampliar su alcance propagandístico en redes sociales y otras
plataformas digitales.
Un mensaje divulgado en un sitio web pro-Estado Islámico instaba
recientemente a sus simpatizantes a incorporar la IA en sus operaciones,
destacando la accesibilidad de estas herramientas y cómo incluso grupos con
recursos limitados pueden lograr un impacto significativo con ellas. Los
analistas advierten que, aunque los grupos extremistas aún están detrás de
actores estatales en desarrollo tecnológico, la creciente disponibilidad de IA
puede permitirles automatizar la creación de contenido, mejorar la
sofisticación de sus tácticas de comunicación y fomentar narrativas violentas
más atractivas para sectores vulnerables de la población.
La preocupación no se limita a un solo tipo de grupo:
investigadores en contra del extremismo señalan que tanto organizaciones jihadistas
como células ultraderechistas o de otras ideologías están explorando cómo
aprovechar la IA para sus fines, desde generar propaganda personalizada hasta
posibles aplicaciones maliciosas en ataques cibernéticos o operaciones de
influencia. Este fenómeno subraya la necesidad de respuestas políticas y de
seguridad coordinadas para mitigar el uso indebido de tecnologías emergentes y
frenar la difusión de contenidos extremistas potenciados por IA en el mundo
digital.









Comentarios
Publicar un comentario