🔎 Faut-il protéger la recherche scientifique de l’IA ?
Dans un article paru dans la revue Nature Human Behaviour, des chercheurs de l’Université d’Oxford partagent leurs préoccupations concernant l’utilisation des grands modèles de langage d’IA dans la recherche scientifique. Ils peuvent générer des réponses erronées pouvant réduire la fiabilité des études. De plus, la science a toujours été décrite comme une activité intrinsèquement humaine. Elle fait appel à la curiosité et à la pensée critique. Le fait de “déléguer” tous ces aspects humains à des machines soulève des inquiétudes au sein des communautés scientifiques. 🤔
Les scientifiques d’Oxford ont évoqué deux principales raisons liées à l’utilisation des modèles de langage dans la recherche scientifique. La première est le phénomène récurrent qui porte le nom “d’effet Eliza”, dans lequel les utilisateurs considèrent inconsciemment ces systèmes comme étant compréhensifs et empathiques, voire sages. La deuxième raison est qu’ils montrent souvent une confiance aveugle aux informations fournies par ces modèles. Pourtant, les IA sont susceptibles de produire des données incorrectes. ❌
Par ailleurs, selon les chercheurs de l’étude, les IA fournissent souvent des réponses qui semblent convaincantes, qu’elles soient vraies, fausses ou imprécises. Tout cela remet évidemment en question l’utilisation même des IA génératives dans le cadre de la recherche, où l’exactitude et la fiabilité des informations sont cruciales. ℹ️
Vous souhaitez rester au courant de l’actualité scientifique et technologique ? Inscrivez-vous à notre newsletter hebdomadaire Back To Science