Un estudio alerta de la dificultad de borrar datos sensibles en la inteligencia artificial

Un equipo de la Universitat Rovira i Virgili advierte sobre las limitaciones actuales del desaprendizaje en grandes modelos de lenguaje

EFE | Mallorca, 09 de Julio de 2025 | 14:22h

EFE

Un estudio de la Universitat Rovira i Virgili (URV) evidencia las limitaciones del desaprendizaje en modelos de inteligencia artificial y advierte de la necesidad de desarrollar nuevos métodos que permitan eliminar con garantías datos sensibles o personales.

Los investigadores han analizado la efectividad de las técnicas de desaprendizaje en modelos de lenguaje extensos como ChatGPT, Mixtral, Bard o Copilot. Estas técnicas tienen como objetivo eliminar información personal, incorrecta o discriminatoria de los sistemas, pero el estudio concluye que no existe una fórmula que asegure el olvido total de los datos, salvo volver a entrenar el modelo desde cero sin la información que se desea eliminar.

Científicos señalan los efectos catastróficos que puede causar la Inteligencia Artificial

Científicos de numerosos centros de investigación y universidades de varios países alertan, en un artículo que hoy...



CONFLICTO CON EL REGLAMENTO EUROPEO DE PROTECCIÓN DE DATOS


Según los autores del estudio, esta situación entra en conflicto con el derecho al olvido recogido en el Reglamento General de Protección de Datos de la Unión Europea, que obliga a suprimir los datos personales si así lo solicita el interesado.

Las grandes compañías que gestionan estos modelos entrenan sus sistemas con enormes volúmenes de información para mejorar su rendimiento, lo que dificulta la identificación y eliminación selectiva de ciertos datos.

Los investigadores distinguen dos vías para lograr el desaprendizaje: la primera consiste en reentrenar completamente el modelo, pero implica un coste computacional elevado; la segunda, más eficiente, busca eliminar solo partes concretas del conocimiento sin rehacer el sistema desde cero, aunque no ofrece garantías plenas.

Facebook acerca la Inteligencia Artificial al cerebro humano y le enseña a olvidar

Facebook ha desarrollado un sistema para sus mecanismos de Inteligencia Artificial (IA) que les enseña a olvidar...



Además, señalan que no se conoce con precisión cómo se almacena la información en los modelos, ni siquiera por parte de quienes los desarrollan.

El estudio concluye que será necesario diseñar nuevas formas de entrenar los modelos de inteligencia artificial pensando desde el inicio en el desaprendizaje. Una de las opciones propuestas es fragmentar los datos de manera que se puedan suprimir partes concretas del conocimiento sin comprometer la totalidad del modelo ni su funcionalidad.

Sentimiento general

Si te equivocas de voto, puedes desmarcarlo volviendo a hacer clic en el voto erróneo.
0
Comentarios

Hola!, escribe un comentario para esta noticia.Comentar


Curiosidades
Mascotas