đ€đ€ LâIA doit-elle apprendre Ă oublier ?
Depuis que les outils basĂ©s sur le machine learning ont commencĂ© Ă se dĂ©mocratiser, de nombreux chercheurs, professionnels et internautes lambda bĂ©nĂ©ficient dâun accĂšs inĂ©dit Ă une nouvelle gamme de technologies. Elles sont typiquement basĂ©es sur des rĂ©seaux de neurones artificiels qui tentent dâimiter la façon dont le cerveau humain interprĂšte des informations pour rĂ©aliser des tĂąches diverses et variĂ©es. đ
Peter Triantafillou, chercheur Ă lâuniversitĂ© de Warwick, explique que lâon sait ce quâon âdonne Ă mangerâ aux algorithmes dâIA et on peut observer ce quâils apprennent ; mais lorsquâil sâagit de savoir exactement comment ils arrivent Ă ces rĂ©sultats, les humains sont gĂ©nĂ©ralement dĂ©munis. Câest un problĂšme pour plusieurs raisons, mais il y en a une en particulier qui devient de plus en plus importante chaque jour qui passe : puisque nous ne sommes pas capables de naviguer Ă vue dans ce dĂ©dale algorithmique, il est excessivement difficile de corriger le tir une fois quâun modĂšle IA a Ă©tĂ© entraĂźnĂ© pour lui faire oublier les Ă©lĂ©ments indĂ©sirables ou erronĂ©s. Cette thĂ©matique, baptisĂ©e âmachine unlearningâ, est en train de devenir un champ de recherche massif. đĄ
Pour lâinstant, il nâexiste pas encore de solution universelle Ă ce problĂšme, mais on commence tout de mĂȘme Ă voir Ă©merger quelques initiatives. Par exemple, lâĂ©quipe de Peter Triantafillou a rĂ©cemment publiĂ© un papier de recherche prometteur dans ce contexte. Les auteurs ont crĂ©Ă© un nouvel algorithme baptisĂ© SCRUB qui sâest montrĂ© capable de faire oublier certaines donnĂ©es bien spĂ©cifiques Ă un modĂšle IA. đ
âĄïž Vu sur Journal du Geek
Vous souhaitez rester au courant de lâactualitĂ© scientifique et technologique ? Inscrivez-vous Ă notre newsletter hebdomadaire Back To Science