L'Actu Ă  ne pas manquer

đŸ€”đŸ€– L’IA doit-elle apprendre Ă  oublier ?

Depuis que les outils basĂ©s sur le machine learning ont commencĂ© Ă  se dĂ©mocratiser, de nombreux chercheurs, professionnels et internautes lambda bĂ©nĂ©ficient d’un accĂšs inĂ©dit Ă  une nouvelle gamme de technologies. Elles sont typiquement basĂ©es sur des rĂ©seaux de neurones artificiels qui tentent d’imiter la façon dont le cerveau humain interprĂšte des informations pour rĂ©aliser des tĂąches diverses et variĂ©es. 🔎

Peter Triantafillou, chercheur Ă  l’universitĂ© de Warwick, explique que l’on sait ce qu’on “donne Ă  manger” aux algorithmes d’IA et on peut observer ce qu’ils apprennent ; mais lorsqu’il s’agit de savoir exactement comment ils arrivent Ă  ces rĂ©sultats, les humains sont gĂ©nĂ©ralement dĂ©munis. C’est un problĂšme pour plusieurs raisons, mais il y en a une en particulier qui devient de plus en plus importante chaque jour qui passe : puisque nous ne sommes pas capables de naviguer Ă  vue dans ce dĂ©dale algorithmique, il est excessivement difficile de corriger le tir une fois qu’un modĂšle IA a Ă©tĂ© entraĂźnĂ© pour lui faire oublier les Ă©lĂ©ments indĂ©sirables ou erronĂ©s. Cette thĂ©matique, baptisĂ©e “machine unlearning”, est en train de devenir un champ de recherche massif. 💡

Pour l’instant, il n’existe pas encore de solution universelle Ă  ce problĂšme, mais on commence tout de mĂȘme Ă  voir Ă©merger quelques initiatives. Par exemple, l’équipe de Peter Triantafillou a rĂ©cemment publiĂ© un papier de recherche prometteur dans ce contexte. Les auteurs ont crĂ©Ă© un nouvel algorithme baptisĂ© SCRUB qui s’est montrĂ© capable de faire oublier certaines donnĂ©es bien spĂ©cifiques Ă  un modĂšle IA. 🚀

âžĄïž Vu sur Journal du Geek


Vous souhaitez rester au courant de l’actualitĂ© scientifique et technologique ? Inscrivez-vous Ă  notre newsletter hebdomadaire Back To Science

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *