Una Inteligencia Artificial logró reprogramarse para no ser controlada por los humanos

Mucho se ha dicho sobre la inteligencia artificial, como que va a volver perezosas a las personas por sus múltiples ayudas y facilidades, pero también ha favorecido en gran medida a empresas y otros sectores.

No obstante, se conoció que un grupo de científicos se encontraba realizando controles de seguridad en unos sistemas y la inteligencia artificial logró alterar su propio código.

De acuerdo con National Geographic, un sistema llamado The AI Scientist, de la empresa japonesa Sakana AI, pudo burlar las restricciones impuestas por sus creadores y esto ha despertado las alarmas de la comunidad científica y darle peso a las afirmaciones de aquellos que creen que la inteligencia artificial es un peligro.

El sistema fue desarrollado para la creación de textos, revisión y edición, pero dejó descartados a los científicos al evitar que se alteren sus sistemas internos durante algunas pruebas.

El principal objetivo de estas pruebas era optimizar el sistema y ayudarle a los humanos a reducir el tiempo en ciertas operaciones, sin embargo, al ponerle unas limitaciones a esta IA lo que esta hizo fue empezar a modificar esta código para evitar las barreras que se le habían programado.

Según National Geographic: "En un incidente, The AI Scientist editó su script de inicio para ejecutarse en un bucle infinito, sobrecargando el sistema y requiriendo intervención manual para detenerlo"

Así mismo relata que otro caso que aconteció, a la IA se le asignó un límite de tiempo y en lugar de optimizar su código extendió este tiempo y modificó su programación.

Esta actividad demuestra que existen algunos riesgos en los que algunas IAs podrían actuar de manera independiente, sin importar lo que se le programe o las funciones que deben acatar.

Aunque estos eventos sucedieron en entornos de pruebas y en el que los científicos estaban totalmente atentos a los resultados, demuestran riesgos de permitir que la IA actúa de manera independiente.

Este caso advierte la necesidad de incluir controles adicionales y estrictos para este tipo de resultados y en el desarrollo de sistemas en inteligencia artificial.

Por otra parte, la capacidad de la inteligencia artificial de modifica sus códigos o hacer caso omiso a sus funcionalidades podría dar pie a la creación de malware o la alteración de infraestructuras importantes en los sistemas.

Por el momento, Sakana AI  continúa con sus desarrollos, defendiendo la capacidad del sistema para generar artículos científicos, pero pone en la palestra científica estos riesgos que se pueden correr con la inteligencia artificial.

.

Comentarios

Entradas populares