- Advertisement - spot_imgspot_img
AccueilLivres & LittératureFantasme du “mode adulte” et vidéo : OpenAI refroidit ses ardeurs

Fantasme du “mode adulte” et vidéo : OpenAI refroidit ses ardeurs

OpenAI recule. Et, cette fois, le mouvement dépasse le simple ajustement de produit. En l’espace de quelques jours, l’entreprise a d’abord enterré Sora, sa plateforme de génération vidéo, puis rangé le « mode adulte », ce projet de conversations érotiques pour utilisateurs majeurs que Sam Altman présentait encore, à l’automne 2025, comme une manière de « traiter les adultes comme des adultes ».

Ce 26 mars 2026, le Financial Times a appris que cette fonction était suspendue sans calendrier de retour. Sauf que le plus frappant ne tient pas au seul revirement moral. 

OpenAI a expliqué mener des recherches de long terme sur les effets des échanges sexuellement explicites et sur les attachements émotionnels que ces interactions peuvent susciter. Autrement dit, la société reconnaît qu’elle avance sur un terrain dont elle ne maîtrise ni toutes les conséquences psychiques ni toutes les implications commerciales.

Le projet vidéo annulé

Le dossier Sora complète ce tableau. Reuters a révélé le 24 mars l’arrêt brutal de l’outil vidéo, alors même qu’un accord de trois ans avec Disney, assorti d’un investissement envisagé d’un milliard de dollars et de l’accès à plus de 200 personnages du groupe, avait été négocié sans jamais être finalisé.

MANGA – L’ultime offensive avec IA du Japon contre le piratage mondial

Disney a dit respecter cette décision, mais le symbole reste sévère : l’un des démonstrateurs les plus spectaculaires de l’IA générative disparaît au moment même où la question des licences, des personnages et des univers protégés devient centrale pour les industries culturelles. La fermeture intervient d’autant plus brutalement qu’OpenAI publiait encore, quelques jours auparavant, un billet vantant les garde-fous de Sora contre les contenus sexuels, la propagande terroriste et l’automutilation.

Pour l’édition, le cinéma et l’ensemble des ayants droit, cette séquence vaut avertissement. Elle rappelle qu’en face des catalogues, des héros, des marques et des voix, les plateformes d’IA générative demeurent des partenaires extraordinairement volatils. La promesse technologique se heurte ici à une vieille réalité du secteur culturel : un actif créatif n’est pas un simple jeu de données, mais un faisceau de droits, de contrats et de risques.

Dès lors, la fermeture de Sora ne relève pas seulement d’un choix de portefeuille, se défend OpenAI. elle signale aussi la difficulté croissante à industrialiser la génération visuelle dès que des propriétés intellectuelles identifiables entrent dans l’équation. Elle montre aussi combien la relation entre laboratoires d’IA et détenteurs de licences reste expérimentale, réversible et profondément asymétrique.

Et plus largement, l’IA perd de sa superbe

Ce contexte juridique explique une part du malaise. Depuis 2023, le New York Times accuse OpenAI et Microsoft d’avoir utilisé des millions d’articles sans autorisation pour entraîner leurs modèles ; Reuters rappelait encore récemment que cette affaire, consolidée à New York avec d’autres procédures engagées par des auteurs et des médias, figure parmi les contentieux structurants sur le fair use et l’entraînement des IA.

Vu sous cet angle, le retrait de Sora réduit d’un coup l’exposition à un autre front : celui des personnages, des styles et des images reconnaissables générés à la demande. Il dit aussi quelque chose d’un secteur qui découvre, tardivement, que la question du droit n’arrive pas après l’innovation : elle en fixe désormais les limites matérielles.

L’autre pression vient d’Europe. La Commission européenne rappelle que l’AI Act est entré en vigueur le 1er août 2024, que certaines interdictions et obligations de littératie s’appliquent depuis le 2 février 2025, et que les obligations pesant sur les modèles d’IA à usage général sont devenues applicables à compter du 2 août 2025.

FRANCE – Laure Darcos, l’IA et les ayants droit : “On veut siffler la fin de la récré“

Le règlement européen 2024/1689 renforce en outre les exigences de transparence pour les contenus synthétiques. Sans expliquer à lui seul le revirement d’OpenAI, ce calendrier aide à comprendre pourquoi les usages les plus sensibles — vidéo réaliste, contenus sexualisés, interactions émotionnellement chargées — deviennent aussi des objets de prudence stratégique. L’Europe n’interdit pas tout ; elle transforme en revanche le coût du risque, ce qui suffit souvent à modifier la feuille de route d’une entreprise mondiale.

Ce que le livre doit retenir du moment OpenAI

Le cas d’« adult mode » donne à cette prudence un relief particulier. Techniquement, le projet devait s’appuyer sur une vérification de l’âge ; commercialement, il promettait d’élargir l’offre ; symboliquement, il testait une frontière nouvelle entre assistant, compagnon et machine à désir. Or OpenAI avait déjà reconnu, dans sa documentation de sécurité sur GPT-4o, que l’anthropomorphisation et la dépendance émotionnelle constituaient des risques réels, rapporte le Guardian.

Sa recherche menée avec le MIT Media Lab sur les usages affectifs de ChatGPT concluait elle aussi qu’une petite part des utilisateurs intensifs pouvait présenter davantage de solitude ou de dépendance émotionnelle. Le recul actuel ne contredit donc pas entièrement les avertissements antérieurs : il les rend soudain plus concrets, et surtout plus coûteux à ignorer pour une entreprise exposée à l’examen public.

À LIRE – Foire du Livre de Londres : un livre vide pour pointer les “vols” de l’IA

Pour les métiers du livre, l’enseignement dépasse OpenAI. Une fiction que l’on lit n’engage pas les mêmes responsabilités qu’une fiction qui vous répond, vous flatte, vous imite ou se greffe à des licences existantes. Les éditeurs, producteurs et détenteurs de droits ont longtemps observé l’IA générative comme une promesse de nouveaux formats.

Ils la voient désormais aussi comme un terrain d’instabilité juridique, économique et psychologique. La leçon, au fond, reste classique : plus la machine se rapproche des affects, des images et des personnages, plus le contrat, la régulation et la responsabilité redeviennent décisifs.

Chez OpenAI, la conquête des imaginaires se heurte à une vérité que le monde du livre connaît depuis longtemps : créer fascine ; gouverner les usages, lui, oblige. Et c’est peut-être là, au-delà du fracas médiatique, que réside la véritable information : non dans le recul d’une entreprise, mais dans l’aveu implicite qu’aucune industrie culturelle ne laissera durablement ses récits, ses figures et ses publics à la merci d’un simple test produit.

Crédits photo : ActuaLitté, CC BY SA 2.0

 

Par Nicolas GaryContact : ng@actualitte.com


Source:

actualitte.com

Annonce publicitairespot_img

Derniers articles

Annonce publicitairespot_img