🤔🤖 L’IA doit-elle apprendre à oublier ?
Depuis que les outils basés sur le machine learning ont commencé à se démocratiser, de nombreux chercheurs, professionnels et internautes lambda bénéficient d’un accès inédit à une nouvelle gamme de technologies. Elles sont typiquement basées sur des réseaux de neurones artificiels qui tentent d’imiter la façon dont le cerveau humain interprète des informations pour réaliser des tâches diverses et variées. 🔎
Peter Triantafillou, chercheur à l’université de Warwick, explique que l’on sait ce qu’on “donne à manger” aux algorithmes d’IA et on peut observer ce qu’ils apprennent ; mais lorsqu’il s’agit de savoir exactement comment ils arrivent à ces résultats, les humains sont généralement démunis. C’est un problème pour plusieurs raisons, mais il y en a une en particulier qui devient de plus en plus importante chaque jour qui passe : puisque nous ne sommes pas capables de naviguer à vue dans ce dédale algorithmique, il est excessivement difficile de corriger le tir une fois qu’un modèle IA a été entraîné pour lui faire oublier les éléments indésirables ou erronés. Cette thématique, baptisée “machine unlearning”, est en train de devenir un champ de recherche massif. 💡
Pour l’instant, il n’existe pas encore de solution universelle à ce problème, mais on commence tout de même à voir émerger quelques initiatives. Par exemple, l’équipe de Peter Triantafillou a récemment publié un papier de recherche prometteur dans ce contexte. Les auteurs ont créé un nouvel algorithme baptisé SCRUB qui s’est montré capable de faire oublier certaines données bien spécifiques à un modèle IA. 🚀
Vous souhaitez rester au courant de l’actualité scientifique et technologique ? Inscrivez-vous à notre newsletter hebdomadaire Back To Science