IRI ressources vidéos

ENMI Préparatoires 2025 - jour 2

Créé le 18/06/25

Synthèse artificielle et contribution humaine : quelle économie pour de nouveaux milieux des savoirs ?

« Garbage Out ». Dans son numéro du 25 juillet 2024, le journal Nature sonnait l’alerte en dénonçant en couverture le fait qu’une IA nourrie de ses propres données évolue entropiquement vers du « charabia ». L’article des chercheurs d’Oxford et de Cambridge1 nous semble apporter des arguments solides pour que la contribution humaine soit reconnue comme un facteur déterminant de lutte contre ce que les chercheurs appellent un « effondrement » des modèles dits de « langage » (LLM). De la même manière que nous avons besoin d’analyser un texte pour en faire la synthèse, l’IA a besoin de l’humain pour créer des modèles qui offrent de nouvelles appréhensions synthétiques du réel. Dès lors, comment peut-on penser les nouvelles articulations entre modèles de synthèse artificielle, processus d’analyse humaine et dispositifs de contribution collective ? Ce nouvel agencement nous semble appeler une nécessaire reconnaissance de la valeur du savoir-faire humain dans le cadre d’une économie contributive, fondée localement et qui ne se réduit pas à une exploitation gratuite ou à un « travail du clic » aux conditions économiques, sociales et psychologiques largement dénoncées2.

C’est sur la base de ce plaidoyer, que nous proposons de revenir cette année sur ce qui semble pourtant surcharger l’espace médiatique et la production scientifique depuis deux ans. Faut-il pour autant se joindre à ceux qui dénoncent la menace de l’IA générale ? S’agit-il de prolonger le contre-sommet de l’IA proposé en février par le philosophe Eric Sadin ? Y-a-t-il encore un espoir d’articuler des modèles d’analyse symbolique avec la synthèse statistique ? Ou encore des pratiques contributives et des savoirs collectifs avec des modèles de synthèse statistiques pour repenser de nouveaux milieux des savoirs et de nouveaux réseaux sociaux ? La question de la synthèse sera au centre de notre recherche pour 2025 afin de tenter d’illustrer comment les technologies contributives–telles qu’elles ont pu se développer dans la tradition des sciences des bibliothèques, dans le champ sémantique, et avec le développement majeur de Wikipédia–peuvent s’articuler aujourd’hui à des outils de synthèse « artificielle » pour une nouvelle écologie de l’esprit.

Mais que faut-il entendre par synthèse « artificielle » ? Il faudrait tout d’abord s’intéresser au processus proche de l’intégration en biologie, tel qu’il ne se réduit pas au processus chimique de la photosynthèse. Il s’agit aussi de rappeler les travaux fondateurs en matière d’analyse et de synthèse du son et de l’image qui ont été développés à partir de modèles symboliques ou sémantiques beaucoup plus compréhensibles par l’humain avant de n’être surpassés par des modèles probabilistes fondés sur le traitement de grandes masses de données. Et bien avant cela, on pourra critiquer la question de la synthèse telle qu’elle fut pensée par Kant comme un processus de l’imagination articulant synthèse perceptive ou pré-catégorielle dans la sensibilité, synthèse reproductive grâce à la mémoire, synthèse intellective et catégorielle dans l’entendement. L’écoute de la musique suppose ces trois phases : j’attends, je reconnais, j’associe. La synthèse ne se réduit donc pas à un assemblage: elle annonce l’articulation de diverses opérations psychiques et collectives. Parler de synthèse « artificielle » nous permet de dépasser le clivage naturel-artificiel et d’explorer le riche monde de la synthèse pour le vivant, pour l’imagination, pour la technique. Il s’agit ainsi de distinguer synthèse organique, symbolique, statistique afin de pe(a)nser la synthèse « organologique » à la suite de Bernard Stiegler. Il s’agit aussi, comme l’a souligné Yuk Hui dans sa lecture de Kant3, de faire fonctionner à nouveaux frais le conflit des facultés (humaines et algorithmiques) dans le contexte d’une organologie qui nous ouvre à de nouveaux espaces où, comme chez Simondon, l’imagination conduit à l’invention et où l’anticipation permet de renouveler le cycle des images opératives et les diverses facultés qu’elles induisent.

L’imagination serait en fait plutôt à considérer comme un équilibre fragile entre conditionnement et liberté mais où le degré de liberté lié à notre perception est aujourd’hui de plus en plus pris en charge par la masse de données. Adaptation ? hybridation ? délégation à une matière imaginaire qui nous est humainement inaccessible comme le propose Michael Crevoisier4 ? adoption d’un nouveau régime de sensorialité performatif comme le propose Anaïs Nony5 ? Dès lors, Comment la menace de cette disruption de l’imaginaire par la masse de donnée des LLMs se joue-t-elle dès l’enfance6 ? Et comment la pratique artistique peut encore s’y appuyer de la même manière qu’un acteur apprend son texte par cœur, « s’automatise », pour pouvoir le dépasser, improviser, avancer vers une « idée esthétique » encore indéterminée, c’est-à-dire réellement penser l’incalculable à partir du calculable ou « l’infini » à partir du fini ? Ce sont des options esthétiques, épistémologiques, technologiques mais aussi politiques qu’il nous faudra explorer.

Les Entretiens du Nouveau Monde Industriel 2024 nous ont ouvert des pistes de réflexion pour une nouvelle écologie de l’industrie qui prend soin de son milieu numérique. La question de l’IA était déjà en discussion. En 2025, notre objectif est de prolonger cette perspective en examinant et distinguant précisément ce qui relève de l’analyse et ce qui relève de la synthèse dans ces modèles statistiques et comment il est nécessaire de les ré-articuler à des modèles symboliques et à des dynamiques contributives au service d’une hyper-interprétation7 comme synthèse de plusieurs interprétations pour le développement de nouveaux savoirs. La synthèse coupée de toute compréhension de l’analyse, des sources, des grammaires, des règles, des contextes, entretient l’aspiration à développer une IA générale biaisée, dominante, autonome, déterritorialisée, délocalisée, mais incluant progressivement le contexte dans son calcul. Cette tendance a-signifiante de l’IA8 est une menace pour la technodiversité et la noodiversité qui renforce les arguments spéculatifs d’un nouveau capitalisme algorithmique hégémonique.

Comme à notre habitude à travers ce séminaire préparatoire de juin, les Entretiens du Nouveau Monde Industriel en décembre 2025 et la publication l’année suivante d’un ouvrage collectif, nous aimerions croiser ici des regards théoriques, politiques, économiques, artistiques et industriels, pour mieux comprendre comment ré-articuler analyse, synthèse et imagination à l’ère des IA. La menace est immense mais nombreux sont les projets qui visent à des agencements très innovants entre technologies sémantiques, statistiques et contributives (ce dernier point constituant toujours le cœur de nos projets technologiques et d’innovation sociale et territoriale notamment en Seine-Saint-Denis (https://tac93.fr).

Dans le cadre de nos Entretiens préparatoires, nous proposons d’aborder ce thème selon six perspectives convergentes :

Une vision historique et prospective sur la composante synthétique de l’IAG qui disrupte l’économie mondiale dans le contexte d’un techno-capitalisme hors sol qui tend, par les IA générales ou génériques à réduire ses contextes, métiers, territoires à leur calculabilité, et court le risque d’une dégradation de ses performances s’il ne tisse pas de nouvelles alliances avec la contribution humaine et en premier lieu avec la science. Quel régime de vérité ou quel régime de « facticité », pour reprendre le terme d’Antoinette Rouvroy, se dessine avec cette disruption ?

Une perspective philosophique et épistémologique : qu’est-ce que la synthèse dans le champ biologique par exemple dans le contexte de la photosynthèse ? Inversement et dans une perspective kantienne, la synthèse n’a-t-elle pas toujours été « artificielle » ? Comment la perspective contributive et la question des catégories peut-elle encore être une voie de dialogue avec les IA ? Quelle analyse historique sur cette évolution et quel nouveau regard sur l’informatique théorique dès lors que les approches symboliques et statistiques se combinent ? Comment les produits de synthèse peuvent-ils être recontextualisés à leurs sources, à leurs méthodes d’analyse, et à la contribution humaine comme le propose Jaron Lanier9 ? Peut-on designer des outils de synthèse pas seulement pour des individus mais surtout pour des groupes ? Quelle écologie des milieux synthétiques ?

Une étude critique des publications contradictoires sur la destruction de l’emploi par les IA ne suffit pas. Il convient de reconnaître l’importance du « digital labor10 » et la misère physique, psychique et symbolique des travailleurs du clic11. Mais aussi distinguer ce qui au cœur de nos métiers relève à présent de tâches automatisables–en analyse comme en synthèse des connaissances–sans les confondre avec leur pratique collective dans le champ incalculable des savoirs. S’agit-il d’une destruction nette de l’emploi ou plutôt d’une déqualification tendancielle due à la prolétarisation qui s’inscrit désormais de manière générale et selon une échelle planétaire? A qui bénéficie cette nouvelle productivité et comment peut-elle être mobilisée pour dégager de nouveaux espaces d’autonomie, de savoir, de pratiques contributives et donc d’un travail qui se distingue de l’emploi ?

Un regard sur la création, sur ce qui ne sont plus des images de synthèse mais des vecteurs d’images et au-delà sur un synthèse imaginative soumise au calcul qui disrupte toutes les pratiques artistiques et les métiers créatifs. Traçabilité, nouvelles licences libres, « LLM vertueux », quelles perspectives pour l’enseignement ? Comment appréhender la nouvelle articulation des facultés d’apprentissage (mémorisation, interprétation, contemplation) et la création de nouveaux outils pour l’éducation tels que nous le propose les services libres de ladigitale ?

Un plaidoyer pour la reconnaissance et le soutien des dynamiques collaboratives et contributives et des règles juridiques qui dans le numérique et à l’image de Wikipédia, cherchent à défendre un milieu des savoirs ouvert sans qu’il soit l’objet d’une nouvelle forme de prédation pour nourrir (et sauver) une IA qui sinon s’appauvrit tendanciellement. Quels modèles économiques pour une redistribution plus équitable de ces profits ? Quel soutien financier à la contribution dans le contexte de territoires où les habitants, artistes, amateurs, s’appuient sur leurs « donnée contribuée » sans les commercialiser ? Comment aller au-delà de l’open source pour penser un « share source » fondé sur des données contribuées comme nous y invite aussi Francis Jutand12 ?

Des illustrations concrètes d’agencements innovants de modèles sémantiques et statistiques avec des technologies contributives pour un nouveau Web de l’interprétation, de la critique et de la démocratie renouvelant de nouvelles pratiques herméneutiques, par la catégorisation, l’annotation, l’éditorialisation ou la délibération. Une manière de repenser dans les start-ups ou les grands groupes de nouvelles formes de CivicTech, EdTech, MedTech ?

Ce thème transversal conçu et préparé avec notre Collège scientifique et industriel converge avec le rapport sur l’IA des Lumières que Cap Digital vient de publier, sous la direction de Francis Jutand qui fut un des fondateurs des ENMI en 2007 ! C’est aussi le prolongement d’un partenariat avec la Fondation Feltrinelli avec qui nous avions déjà collaboré en 2021 (https://fondazionefeltrinelli.it/scopri/report-parigi-okeurope-2021/) sur la question des mutations du travail. Deux événements plus récents ont aussi inspiré cette proposition : le séminaire hyper-interprétation organisé l’année dernière par l’IRI sous la direction de Franck Cormerais et Armen Khatchatourov (https://iri-ressources.org/collections/collection-55.html) et la Journée sur le mouvement Wikimédia organisée le 14 mars par Marta Severo et Antonin Segault au Dicen/Cnam-Un. Paris Nanterre (https://wikimouv2025.sciencesconf.org/). Programme

Mercredi 18 juin

10h-13h

Session 4. De l’image de synthèse à la synthèse d’image : la disruption du sensible
* Anaïs Nony, philosophe (Johannesburg Institute for Advanced Study) – Disruption des savoirs et du sensible
* Ariel Kyrou, écrivain et journaliste – Les imaginaires de l’IA
* Olga Kobryn, artiste – Synthèse des sens
* Caroline Sinders, artiste – Articulation et synthèse d’image
* Valérie Cordy (La Fabrique de Théâtre) – Que fait Adélaïde ?

14h30-16h

Session 5. Pour une économie de la contribution : cadre juridique et cadre de confiance
* Antoinette Rouvroy (Namur Un.) – Le nouveau régime de facticité
* Franck Cormerais (IRI-Un. Bordeaux Montaigne) – Nouvelle critique, IA et capitalisme algorithmique et économie de la contribution
    La « nouvelle critique » dont parlait Bernard Stiegler rencontre aujourd’hui une nouvelle synthèse, celle du numérique, qui entre dans toutes les sphères de l’existence. L’IA, pointe de l’avancée technologique d’un capitalisme algorithmique, annonce l’avènement d’un post-libéralisme qu’il convient d’aborder comme nouvelle étape de la grammatisation. Nous la confrontons ensuite l’économie de contribution, apparue dans les années 2010, pour essayer d’en préciser aujourd’hui les enjeux du local à l’internation.
* Nathalie Casemajor (Centre Urbanisation Culture Société, INRS) – L’entre-prise des communs : le modèle Wikimedia Enterprise
    En 2021, Wikimédia a lancé une filiale commerciale nommée Enterprise. Vingt ans après la création de Wikipédia, pourquoi ce mouvement emblématique du Web collaboratif et de l’Internet non marchand, a-t-il pris cette direction ? Je propose d’analyser cette initiative comme le plus récent chapitre d’une longue histoire d’entre-prises (au sens d’attaches mutuelles) entre un commun du numérique et les géants de la Tech. À travers sa filiale Entreprise, la WMF vise à bâtir une interface avec le capitalisme de plateforme, au sein d’un système d’acteurs commerciaux interconnectés, sans pour autant renoncer à son modèle distinct de production et de gouvernance guidé par une éthique F/LOSS. En s’appuyant sur les différentes prises qui l’attachent à Google, Wikimédia cherche ainsi à exercer un certain pouvoir de définir les termes de leur relation structurante.Franck Cormerais (IRI-Un. Bordeaux Montaigne) – Économie contributive, capitalisme algorithmique et IA
* Armen Khatchatourov (DICEN/Un. Gustave Eiffel) – Une approche heuristique de la normativité dans l’IA
    Les couches multiples de normativité ne sont jamais monolithiques ou réductibles à une domination à sens unique. Il existe au contraire une imbrication de différents mécanismes normatifs, liés à des formes parfois concurrentes de gouvernementalité. Cette contribution appliquera ce cadre d’inspiration foucaldienne à des agencements socio-techniques récents. La prolifération des systèmes basés sur l’IA a conduit à de nouvelles façons dont la normativité est enchevêtrée dans les systèmes techniques. D’une part, la normativité sociale se traduit par des systèmes IA dynamiques plutôt que par un ensemble de règles sociales à évolution lente. Dans ce cas, la question serait de savoir ce qui est considéré comme une erreur ou un biais, et par rapport à quel vision du “normal” – et comment les écarts et les alignements sont traités. D’autre part, la normativité sociale elle-même – non seulement dans son contenu mais aussi dans la manière même dont nous nous rapportons à elle – est affectée par l’opacité et l’adaptabilité des modèles de l’apprentissage machine, qui produisent néanmoins de nouvelles attentes, de nouveaux comportements et une forme de gouvernementalité algorithmique. Notre désorientation actuelle vient en partie de cette incapacité à démêler ces imbrications. Nous présenterons donc une approche heuristique pour aborder les multiples façons dont les concepts normatifs sont en jeu dans les technologies de l’IA.
* Antoine Srun (Wikimedia France) – Usages et limites de l’IA sur Wikipedia

16h30-19h

Session 6. Sémantique, statistique, contribution : le design de nouveaux agencements
* Christian Fauré (Octo Technology) – La part incalculable du numérique
    Dans un monde où chaque aspect semble devoir être mesuré, quantifié ou calculé, nous réalisons souvent qu’il nous manque quelque chose d’essentiel au-delà des chiffres et des algorithmes. Ce qui nous manque et qui échappe aux calculs, nous l’appelons l’incalculable : qu’il s’agisse de l’intuition, des émotions, de l’inconnu ou du mystère. Cet incalculable représente la dimension cachée des technologies numériques, une composante essentielle qu’il est urgent d’intégrer dans nos modes de pensée et d’action pour apporter de la profondeur et du sens aux transformations que nous entreprenons
* Florence Jamet-Pinkiewicz (Ecole Estienne) – Ré-interfacer les IA : du prompt au design d’interface
    L’usage généralisé des IA comme assistant, conseiller ou secrétaire, et leur intégration au sein de nos outils, pour traiter des informations et des contenus, faire des retranscriptions, concevoir un visuel, organiser des données, invitent à interroger la nature de la participation humaine à la génération « automatique ». Et tout particulièrement la place du design dans ces agencements de modèles. Comment ré-interfacer nos systèmes de publications et comment repenser le design d’interface lui-même ? Lorsque nous écrivons, et contribuons en ligne, nous pouvons observer que le Web actuel n’est pas seulement envahi de contenus générés par IA qu’il a nourri, mais qu’il est aussi profondément re-questionné par les possibles des IA : de l’auto-génération de sites à la structure sémantique permettant la recherche et l’indexation des contenus. Les modèles conversationnels que nous pratiquons maintenant tendent à « naturaliser » les interactions et donc à faire disparaître les interfaces. Comment le designer peut-il s’emparer des IA pour les agencer et rendre des interfaces plus lisibles, signifiantes ou plus  « simples » ?  Pour repenser le sens de nos interactions et préciser nos relations avec des technologies de plus en plus complexes et opaques ?
* Anne Asensio (Dassault Systèmes) – Comment l’IA peut s’intégrer à un groupe ?
* Bertrand Delezoide (Blue AI) – Vers une Intelligence Artificielle Responsable : l’Humain, la Santé, et la Transparence au cœur de BleuAI
    BleuAI développe des modèles d’intelligence artificielle centrés sur l’humain, notamment dans le domaine de la santé, avec une exigence forte de transparence, d’éthique et de respect de la vie privée. En misant sur des technologies explicables, peu énergivores et conformes aux réglementations, BleuAI construit une IA de confiance, au service du soin et de la société.
* Harry Halpin (Nym Technologies) – Artificial intelligence versus collective intelligence
    The ontological presupposition of artificial intelligence (AI) is the liberal autonomous human subject of Locke and Kant, and the ideology of AI is the automation of this particular conception of intelligence. This is demonstrated in detail in classical AI by the work of Simon, who explicitly connected his work on AI to a wider programme in cognitive science, economics, and politics to perfect capitalism. Although Dreyfus produced a powerful Heideggerian critique of classical AI, work on neural networks in AI was ultimately based on the individual as the locus of intelligence. Yet this conception of AI both fails to grasp the essence of large language models, which are a statistical model of human language on the Web. The training data that enables AI is the surveillance and capture of data, where the data creates a model to approximate the entire world. However, there is a more hidden ideology inherent in AI where the goal is not to perfect a model but to control the world. As prompted by an argument between Mead and Bateson, social change is prevented by the application of cybernetics to society as a whole. The goal of AI is not just to replace human beings, but to manage humans to preserve existing power relations. As the source of intelligence in AI is distributed cognition between humans and machines, the alternative to AI is collec- tive intelligence. As theorized by Licklider and Engelbart at the dawn of the Internet, collective intelligence explains how computers weave together both human and non-human intelligence. Rather than replace human intelligence, this produces ever more complex collective forms of intelligence. Rather than meta-stabilize a society of control, collective intelligence can go outside individualist capitalist ontology by incorporating the open world of the pluriverse, as theorized by Escobar. Collective intelligence then stands as an alternative ontological path for AI which puts intelligence at the service of humanity and the world rather than a technocratic elite.