- Advertisement - spot_imgspot_img
AccueilScienceCHRONIQUE. Pourquoi lire encore à l'heure des LLM ?

CHRONIQUE. Pourquoi lire encore à l'heure des LLM ?

Cet article est extrait du mensuel Sciences et Avenir n°950, daté avril 2026.

Les grands modèles de langage (LLM) écrivent à notre place. Ils génèrent toutes sortes de textes : articles scientifiques, dissertation, fictions, même des programmes informatiques. Finie l’angoisse de la page blanche ! Quel réconfort !

Que de temps gagné

Mieux encore : ces machines lisent pour nous, résument projets, romans, traités philosophiques, mémoires de recherche… Que de temps gagné pour les lycéens, étudiants et praticiens de toutes les professions de l’écrit. Des grincheux objectent les erreurs, ce qu’on appelle les « hallucinations », même si le terme prête quelque peu à confusion, puisque ces machines ne perçoivent pas au sens propre, mais qu’elles se contentent de galéjer de temps à autre. Les optimistes rétorquent que tout s’améliore. Déjà GPT-5.2 n’aurait rien à voir avec les versions précédentes ; quant à Claude opus 4.6, il pulvériserait tous les records.

Lire par soi-même pour déjouer les pièges

Et, demain, GPT-6, Claude opus 5, Gemini et autres les surpasseront et ne se tromperont plus jamais, disent-ils… Doit-on les croire ? Au-delà, un nouveau problème apparaît : un récent rapport de l’Anssi (Agence nationale de la sécurité des systèmes d’information) sur l’IA générative explique que les LLM sont vulnérables à des attaques informatiques de type nouveau (injection de prompts, empoisonnement de données, etc.) susceptibles de fausser leurs réponses sur des sujets précis, par exemple sur les résultats d’entreprise.

Lire aussiCHRONIQUE. L’éthique de l’IA selon Saint Musk

Puisque désormais tous ou presque écrivent avec des LLM, et que ceux-ci peuvent avoir été viciés par des cybercriminels, on doit se défier de tout. Seule solution pour déjouer les pièges consécutifs à ces malversations : décrypter les textes, les analyser dans le détail, les confronter à d’autres pour s’en faire une idée personnelle, bref, lire par soi-même, et non par machine interposée !

Par Jean-Gabriel Ganascia, professeur à Sorbonne Université, à Paris, chercheur en intelligence artificielle au LIP6 (Sorbonne Université, CNRS), ex-président du comité d’éthique du CNRS. Dernier ouvrage publié : L’I.A. expliquée aux humains, Seuil, 2024.


Source:

www.sciencesetavenir.fr

Annonce publicitairespot_img

Derniers articles

Annonce publicitairespot_img