Cette logique privilégie le probable au détriment de la découverte. Pour sortir de cette impasse, il est temps d’envisager une IA de prescription sémantique, capable de cartographier l’intention d’un texte plutôt que le profil d’un acheteur.
La machine comme infrastructure de soutien
L’IA n’a pas de goût. Elle ne ressent ni le frisson d’une phrase de Marie-Hélène Lafon ni la morsure d’une satire de Lionel Shriver. Prétendre le contraire est une promesse discutable.
En revanche, elle possède une capacité de traitement de données hors de portée humaine : la mémoire exhaustive de la réception critique. Là où un professionnel ne peut plus absorber les milliers de chroniques publiées chaque mois, l’IA devient une infrastructure de soutien.
Elle n’est pas là pour remplacer le médiateur, mais pour lui servir de sonar dans un océan de publications. C’est le concept de curation augmentée : la machine identifie des structures sémantiques, l’humain valide la recommandation.
Du mot-clé statique à la compréhension contextuelle
L’indexation matière a longtemps été le parent pauvre de l’automatisation, faute de précision. Aujourd’hui, l’IA change la donne. Là où les systèmes classiques se contentent de repérer la présence statistique d’un mot pour catégoriser un livre, les modèles actuels en comprennent le contexte.
Cette nouvelle indexation « matière » surpasse le catalogage manuel sur un point décisif : elle identifie des concepts émergents avant même qu’ils ne soient normalisés dans les thésaurus officiels. Les sujets transversaux, flottants, sans étiquette fixe : elle les capte en amont.
Elle permet de lier un ouvrage à des sujets complexes (ex : « le sentiment de déclassement en milieu rural ») de manière beaucoup plus fine qu’une simple étiquette « Ruralité ». C’est cette précision chirurgicale sur le fond du texte qui sert ensuite de base à la navigation multidimensionnelle.
Quand le livre devient une donnée multidimensionnelle
Le passage à une indexation par vectorisation (embeddings) marque une rupture avec nos vieux catalogues. Traditionnellement, on classe par étiquettes fixes (genres, thèmes). Avec la vectorisation, chaque ouvrage est converti en un vecteur dans un espace mathématique à plusieurs dimensions.
Cette indexation peut s’appuyer sur un corpus dense : quatrièmes de couverture, extraits significatifs ou agrégation de critiques littéraires.
Un exemple vaut mieux qu’une définition : un lecteur ayant apprécié la satire sociale mordante de Lionel Shriver ne se verrait pas proposer une énième dystopie américaine par simple affinité de genre, mais un texte partageant une même tension ironique ou un regard clinique sur les institutions. Au lieu de ranger les livres dans des cases, on les relie entre eux selon ce qu’ils partagent réellement.
La détection des OVNIs
Alors que les systèmes des GAFAM visent la réduction de l’incertitude (le consensus), la vectorisation permet de mesurer l’atypisme. En isolant les outliers (les points les plus éloignés de la moyenne d’un genre), le système identifie mécaniquement les OVNIs littéraires. Ce sont ces romans dont les marqueurs sémantiques sont en rupture avec les standards de leur catégorie. C’est mettre le calcul au service de la bibliodiversité en forçant la sérendipité.
Réactiver le patrimoine
Enfin, ce modèle brise le primat de la nouveauté. L’espace vectoriel ignore les dates de parution. Le système permet de créer des filiations asynchrones : en injectant un texte de référence (un classique de Giono ou de Zola), l’IA peut identifier dans la production contemporaine les auteurs dont l’écriture présente une corrélation structurelle avec ces maîtres. On ne cherche plus une influence historique, mais une analogie de texture littéraire.
La machine face au sens
La vectorisation n’est pas une baguette magique, c’est une loupe. Elle comporte ses propres biais : une machine peut identifier une proximité de vocabulaire sans saisir le décalage satirique ou la charge politique d’une œuvre. Elle reste tributaire de sa « matière première » ; si la critique littéraire s’appauvrit, le modèle mathématique s’appauvrira avec elle.
Mais préférons-nous courir après des algorithmes opaques basés sur nos habitudes d’achat, ou explorer des outils transparents basés sur le sens ?
Qui maîtrisera la boussole ?
La souveraineté de la prescription ne peut rester un vœu pieux. Elle doit devenir un bien commun technologique au service des médiateurs. Concrètement, cette maîtrise doit sortir des expériences isolées pour être portée par les acteurs collectifs de la filière : les structures professionnelles doivent s’emparer de ces outils pour les mutualiser.
Ce modèle ne remplace pas le jugement humain : il donne aux acteurs du livre les moyens de l’exercer. En faisant de l’IA une infrastructure partagée, nous ne déléguons pas notre expertise à la machine, nous nous donnons une puissance d’agir face aux logisticiens du Web.
Crédits photo : ActuaLitté, CC BY SA 4.0
Par Bernard StrainchampsContact : bs@bibliosurf.com
Source:
actualitte.com





