- Advertisement - spot_imgspot_img
AccueilAnalyses & EnquêtesL’intelligence artificielle va-t-elle mettre fin à la recherche en sciences sociales ?

L’intelligence artificielle va-t-elle mettre fin à la recherche en sciences sociales ?

L’impact de l’intelligence artificielle générative sur les sciences sociales peut être compris à travers la métaphore du roman Things Fall Apart de Chinua Achebe. Ce livre retrace les bouleversements de la société nigériane face à l’intrusion coloniale. Il offre une approche pertinente pour comprendre les tensions actuelles du monde académique.

Il y a quelques mois maintenant, un collègue m’a envoyé son article pour avoir une seconde lecture. Tout y était : problématique ciselée, revue de littérature exhaustive, méthodologie rigoureuse. Trop, justement. En y regardant de plus près, certaines formulations m’ont alerté : « crucial », « dans le monde dynamique de », « il est impératif de noter que ». Le vocabulaire typique de ChatGPT. J’ai demandé des explications. Réponse gênée : « Oui, j’ai utilisé l’IA pour rédiger certaines parties, mais j’ai relu, évidemment. »

Ce malaise révèle une vérité qui dérange : nous, chercheurs en sciences sociales, sommes en train de perdre le contrôle de notre métier. Et nous faisons semblant de ne pas le voir. Cette réflexion m’a amené à proposer un article à la Revue française de gestion à l’occasion du numéro de son 50ᵉ anniversaire.

Quelques chiffres illustratifs du changement de paradigme

Environ 13,5 % des résumés d’articles biomédicaux publiés en 2024 contiennent des traces d’utilisation d’intelligence artificielle (IA) générative selon une étude parue dans Science Advances. Plus inquiétant encore : une étude de chercheurs de Stanford révèle que jusqu’à 17 % du texte des évaluations d’articles dans les grandes conférences sur l’IA pourrait avoir été substantiellement modifié par l’IA elle-même. Nous sommes entrés dans une boucle où l’IA évalue l’IA.

Par ailleurs, des équipes de recherche analysent en quelques semaines des corpus qui auraient nécessité des années de travail. En sociologie numérique, par exemple, une étude publiée dans Science a examiné la diffusion de près de 126 000 informations vraies et fausses partagées par environ trois millions d’utilisateurs sur Twitter, soit plus de 4,5 millions de partages, un volume inimaginable sans outils d’analyse automatisés.

Ruptures dans les sciences sociales

Mais au-delà de ces gains de productivité, quelque chose se fissure. L’IA ne bouleverse pas seulement nos méthodes de travail. Elle remet en question ce que signifie « faire de la recherche ».

Comment valider des résultats produits par un algorithme dont les rouages internes restent opaques ? Comment garantir la rigueur scientifique quand l’IA peut « halluciner » et inventer des références bibliographiques qui n’existent pas ? Comment protéger notre pensée critique dans ce contexte ?

Read more:
Les sciences de gestion : une médecine pour soigner les organisations

Nous sommes actuellement confrontés au même dilemme que les personnages du roman de l’écrivain nigérian Chinua Achebe, intitulé Tout s’effondre (Things Fall Apart, en anglais). Dans ce récit, une société africaine traditionnelle se retrouve confrontée aux missionnaires européens qui viennent imposer de nouvelles croyances. Certains membres de cette société traditionnelle s’adaptent à cette arrivée, d’autres résistent. Tous comprennent que rien ne sera plus comme avant.

Technophiles contre traditionalistes

La communauté scientifique connaît aujourd’hui des divisions. Certains, les « technophiles », accueillent l’IA avec enthousiasme, convaincus qu’elle va accélérer les découvertes et ouvrir la recherche au monde en développement. D’autres, les « traditionalistes », dénoncent une course à la productivité aux dépens de la profondeur de pensée.

Cette fracture ne se limite pas aux questions techniques et technologiques, elle touche aussi à notre identité, collective et individuelle, de chercheurs. Sommes-nous en train de devenir de simples opérateurs validant des productions issues d’algorithmes ? Notre expertise se réduit-elle à savoir poser les bonnes questions à un modèle d’IA ?

Les jeunes chercheurs sont les premiers exposés. Ils jonglent entre la pression de publier rapidement et l’injonction implicite à ne pas trop utiliser l’IA. Résultat : beaucoup l’utilisent en cachette, créant une culture du secret qui a des conséquences pour la transparence scientifique.

Quelles solutions ?

Nous avons trop longtemps préféré détourner le regard. L’intelligence artificielle est là, et ignorer sa présence n’est plus tenable. Il nous faut repenser notre manière de faire de la science. Imaginer un nouveau cadre.

Trois grands principes pourraient nous servir de boussole.

Le premier, c’est la transparence. Chaque recours à l’IA devrait être précisé noir sur blanc dans nos publications : quels outils ont été utilisés, pour quels usages, et dans quelles limites. Certaines revues, comme Nature, commencent déjà à l’imposer.

Ensuite, la responsabilité. L’IA peut analyser des données, suggérer des pistes, rédiger des brouillons. Mais c’est au chercheur qu’il revient d’interpréter et de valider avec un esprit critique. Cette ligne rouge ne doit jamais être franchie. Une étude récente le rappelle cruellement : 52 % des réponses générées par l’IA à des questions de programmation contiennent des erreurs, et la supervision humaine échoue à les corriger dans 39 % des cas.

Enfin, le pluralisme. Il devient nécessaire d’accepter que certains chercheurs intègrent l’IA dans leur travail tandis que d’autres la refusent. Cette diversité peut devenir une richesse, si les débats ont lieu au grand jour, dans les conférences et les séminaires qui constituent la tradition scientifique.

Un nouveau paradigme scientifique

L’intelligence artificielle va continuer de gagner en puissance et en omniprésence.

Nous sommes à l’aube d’un tournant dans le monde de la recherche où l’intelligence humaine devient une « des » formes d’intelligences. Il semble clair que cette cohabitation ne portera ses fruits que si elle s’appuie sur des règles mises en place par les chercheurs eux-mêmes.

Le vrai risque ne provient pas de l’intelligence artificielle, mais de notre inertie. Notre envie de profiter de ce qu’elle offre sans trop s’interroger. D’accepter, sans résister, une facilité qui pourrait, à terme, nous échapper. Chinua Achebe raconte comment une société s’effondre lorsqu’elle perd le contrôle de son destin. Nous, chercheurs, avons encore le choix. Nous pouvons décider comment intégrer l’intelligence artificielle, à quelles conditions, mais aussi avec quelles limites.

L’enjeu n’est pas de résister au changement. Il est de le guider vers une science plus rigoureuse, plus transparente, plus consciente d’elle-même. Une science qui utilise l’IA sans s’y soumettre. Une science qui reste, avant tout, une aventure humaine.


Source:

theconversation.com

Annonce publicitairespot_img

Derniers articles

Annonce publicitairespot_img