L'Actu Ă  ne pas manquer

🔎 Faut-il protĂ©ger la recherche scientifique de l’IA ?

Dans un article paru dans la revue Nature Human Behaviour, des chercheurs de l’UniversitĂ© d’Oxford partagent leurs prĂ©occupations concernant l’utilisation des grands modĂšles de langage d’IA dans la recherche scientifique. Ils peuvent gĂ©nĂ©rer des rĂ©ponses erronĂ©es pouvant rĂ©duire la fiabilitĂ© des Ă©tudes. De plus, la science a toujours Ă©tĂ© dĂ©crite comme une activitĂ© intrinsĂšquement humaine. Elle fait appel Ă  la curiositĂ© et Ă  la pensĂ©e critique. Le fait de “dĂ©lĂ©guer” tous ces aspects humains Ă  des machines soulĂšve des inquiĂ©tudes au sein des communautĂ©s scientifiques. đŸ€”

Les scientifiques d’Oxford ont Ă©voquĂ© deux principales raisons liĂ©es Ă  l’utilisation des modĂšles de langage dans la recherche scientifique. La premiĂšre est le phĂ©nomĂšne rĂ©current qui porte le nom “d’effet Eliza”, dans lequel les utilisateurs considĂšrent inconsciemment ces systĂšmes comme Ă©tant comprĂ©hensifs et empathiques, voire sages. La deuxiĂšme raison est qu’ils montrent souvent une confiance aveugle aux informations fournies par ces modĂšles. Pourtant, les IA sont susceptibles de produire des donnĂ©es incorrectes. ❌

Par ailleurs, selon les chercheurs de l’étude, les IA fournissent souvent des rĂ©ponses qui semblent convaincantes, qu’elles soient vraies, fausses ou imprĂ©cises. Tout cela remet Ă©videmment en question l’utilisation mĂȘme des IA gĂ©nĂ©ratives dans le cadre de la recherche, oĂč l’exactitude et la fiabilitĂ© des informations sont cruciales. â„č

âžĄïž Vu sur Trust My Science


Vous souhaitez rester au courant de l’actualitĂ© scientifique et technologique ? Inscrivez-vous Ă  notre newsletter hebdomadaire Back To Science

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *