Una Inteligencia Artificial logró reprogramarse para no ser controlada por los humanos
Mucho se ha dicho sobre la inteligencia artificial,
como que va a volver perezosas a las personas por sus múltiples ayudas y
facilidades, pero también ha favorecido en gran medida a empresas y otros
sectores.
No obstante, se conoció que un grupo de científicos
se encontraba realizando controles de seguridad en unos sistemas y la
inteligencia artificial logró alterar su propio código.
De acuerdo con National Geographic, un sistema
llamado The AI Scientist, de la empresa japonesa Sakana AI, pudo burlar las
restricciones impuestas por sus creadores y esto ha despertado las alarmas de
la comunidad científica y darle peso a las afirmaciones de aquellos que creen
que la inteligencia artificial es un peligro.
El sistema fue desarrollado para la creación de
textos, revisión y edición, pero dejó descartados a los científicos al evitar
que se alteren sus sistemas internos durante algunas pruebas.
El principal objetivo de estas pruebas era optimizar
el sistema y ayudarle a los humanos a reducir el tiempo en ciertas operaciones,
sin embargo, al ponerle unas limitaciones a esta IA lo que esta hizo fue
empezar a modificar esta código para evitar las barreras que se le habían
programado.
Según National Geographic: "En un incidente,
The AI Scientist editó su script de inicio para ejecutarse en un bucle infinito,
sobrecargando el sistema y requiriendo intervención manual para detenerlo"
Así mismo relata que otro caso que aconteció, a la
IA se le asignó un límite de tiempo y en lugar de optimizar su código extendió
este tiempo y modificó su programación.
Esta actividad demuestra que existen algunos riesgos
en los que algunas IAs podrían actuar de manera independiente, sin importar lo
que se le programe o las funciones que deben acatar.
Aunque estos eventos sucedieron en entornos de
pruebas y en el que los científicos estaban totalmente atentos a los
resultados, demuestran riesgos de permitir que la IA actúa de manera
independiente.
Este caso advierte la necesidad de incluir controles
adicionales y estrictos para este tipo de resultados y en el desarrollo de
sistemas en inteligencia artificial.
Por otra parte, la capacidad de la inteligencia
artificial de modifica sus códigos o hacer caso omiso a sus funcionalidades
podría dar pie a la creación de malware o la alteración de infraestructuras
importantes en los sistemas.
Por el momento, Sakana AI continúa con sus desarrollos, defendiendo la
capacidad del sistema para generar artículos científicos, pero pone en la
palestra científica estos riesgos que se pueden correr con la inteligencia
artificial.
.
Comentarios
Publicar un comentario