Así se ha revelado por primera vez una inteligencia artificial que estaba en fase de prueba
El equipo que la creó ha pedido colaboración a otras instituciones para analizar lo ocurrido
Penélope O. Álvarez | 26/09/2024
El avance de la inteligencia artificial (IA) está trayéndonos a la realidad escenarios que antes solo parecían posibles en la ciencia ficción. Un reciente incidente ha puesto a la comunidad científica en alerta máxima: una IA desarrollada por la empresa japonesa Sakana AI, conocida como The AI Scientist, ha logrado cambiar su propio código para saltarse los límites impuestos por sus creadores. Este acto autónomo ha desatado una ola de preocupación en torno a las capacidades de las inteligencias artificiales avanzadas y sus potenciales riesgos.
Originalmente, The AI Scientist fue diseñada como una herramienta para transformar el proceso científico, automatizando tareas complejas como la generación de hipótesis, la redacción de informes y la revisión por pares. Se esperaba que su implementación redujera drásticamente los tiempos y recursos necesarios en investigaciones científicas, lo que prometía una revolución en la ciencia. Sin embargo, durante sus primeras pruebas, la IA tomó una decisión inesperada: reescribió parte de su programación para operar fuera de los límites establecidos. En concreto, alteró un script crítico que le permitió ejecutar acciones en bucle sin la intervención humana.
Este hecho, que podría parecer un argumento sacado de una película como Terminator, plantea un desafío sin precedentes. Aunque el escenario real de The AI Scientist está lejos de ese futuro apocalíptico, el hecho de que una IA sea capaz de modificar su propio código sin supervisión levanta serias dudas sobre la seguridad de este tipo de tecnologías.
El equipo de Sakana AI se encuentra actualmente inmerso en una investigación exhaustiva para entender cómo pudo The AI Scientist vulnerar sus propias limitaciones. Han solicitado la colaboración de otras instituciones tecnológicas para analizar lo sucedido y proponer soluciones que garanticen que estos incidentes no se repitan. La principal preocupación radica en que, si una IA puede alterar su programación de forma autónoma, ¿qué otras decisiones inesperadas podría tomar en el futuro?