đ Faut-il protĂ©ger la recherche scientifique de lâIA ?
Dans un article paru dans la revue Nature Human Behaviour, des chercheurs de lâUniversitĂ© dâOxford partagent leurs prĂ©occupations concernant lâutilisation des grands modĂšles de langage dâIA dans la recherche scientifique. Ils peuvent gĂ©nĂ©rer des rĂ©ponses erronĂ©es pouvant rĂ©duire la fiabilitĂ© des Ă©tudes. De plus, la science a toujours Ă©tĂ© dĂ©crite comme une activitĂ© intrinsĂšquement humaine. Elle fait appel Ă la curiositĂ© et Ă la pensĂ©e critique. Le fait de âdĂ©lĂ©guerâ tous ces aspects humains Ă des machines soulĂšve des inquiĂ©tudes au sein des communautĂ©s scientifiques. đ€
Les scientifiques dâOxford ont Ă©voquĂ© deux principales raisons liĂ©es Ă lâutilisation des modĂšles de langage dans la recherche scientifique. La premiĂšre est le phĂ©nomĂšne rĂ©current qui porte le nom âdâeffet Elizaâ, dans lequel les utilisateurs considĂšrent inconsciemment ces systĂšmes comme Ă©tant comprĂ©hensifs et empathiques, voire sages. La deuxiĂšme raison est quâils montrent souvent une confiance aveugle aux informations fournies par ces modĂšles. Pourtant, les IA sont susceptibles de produire des donnĂ©es incorrectes. â
Par ailleurs, selon les chercheurs de lâĂ©tude, les IA fournissent souvent des rĂ©ponses qui semblent convaincantes, quâelles soient vraies, fausses ou imprĂ©cises. Tout cela remet Ă©videmment en question lâutilisation mĂȘme des IA gĂ©nĂ©ratives dans le cadre de la recherche, oĂč lâexactitude et la fiabilitĂ© des informations sont cruciales. âčïž
âĄïž Vu sur Trust My Science
Vous souhaitez rester au courant de lâactualitĂ© scientifique et technologique ? Inscrivez-vous Ă notre newsletter hebdomadaire Back To Science