« Garbage Out ». Dans son numéro du 25 juillet 2024, le journal Nature sonnait l’alerte en dénonçant en couverture le fait qu’une IA nourrie de ses propres données évolue entropiquement vers du « charabia ». L’article des chercheurs d’Oxford et de Cambridge1 nous semble apporter des arguments solides pour que la contribution humaine soit reconnue comme un facteur déterminant de lutte contre ce que les chercheurs appellent un « effondrement » des modèles dits de « langage » (LLM). De la même manière que nous avons besoin d’analyser un texte pour en faire la synthèse, l’IA a besoin de l’humain pour créer des modèles qui offrent de nouvelles appréhensions synthétiques du réel. Dès lors, comment peut-on penser les nouvelles articulations entre modèles de synthèse artificielle, processus d’analyse humaine et dispositifs de contribution collective ? Ce nouvel agencement nous semble appeler une nécessaire reconnaissance de la valeur du savoir-faire humain dans le cadre d’une économie contributive, fondée localement et qui ne se réduit pas à une exploitation gratuite ou à un « travail du clic » aux conditions économiques, sociales et psychologiques largement dénoncées2.
C’est sur la base de ce plaidoyer, que nous proposons de revenir cette année sur ce qui semble pourtant surcharger l’espace médiatique et la production scientifique depuis deux ans. Faut-il pour autant se joindre à ceux qui dénoncent la menace de l’IA générale ? S’agit-il de prolonger le contre-sommet de l’IA proposé en février par le philosophe Eric Sadin ? Y-a-t-il encore un espoir d’articuler des modèles d’analyse symbolique avec la synthèse statistique ? Ou encore des pratiques contributives et des savoirs collectifs avec des modèles de synthèse statistiques pour repenser de nouveaux milieux des savoirs et de nouveaux réseaux sociaux ? La question de la synthèse sera au centre de notre recherche pour 2025 afin de tenter d’illustrer comment les technologies contributives–telles qu’elles ont pu se développer dans la tradition des sciences des bibliothèques, dans le champ sémantique, et avec le développement majeur de Wikipédia–peuvent s’articuler aujourd’hui à des outils de synthèse « artificielle » pour une nouvelle écologie de l’esprit.
Mais que faut-il entendre par synthèse « artificielle » ? Il faudrait tout d’abord s’intéresser au processus proche de l’intégration en biologie, tel qu’il ne se réduit pas au processus chimique de la photosynthèse. Il s’agit aussi de rappeler les travaux fondateurs en matière d’analyse et de synthèse du son et de l’image qui ont été développés à partir de modèles symboliques ou sémantiques beaucoup plus compréhensibles par l’humain avant de n’être surpassés par des modèles probabilistes fondés sur le traitement de grandes masses de données. Et bien avant cela, on pourra critiquer la question de la synthèse telle qu’elle fut pensée par Kant comme un processus de l’imagination articulant synthèse perceptive ou pré-catégorielle dans la sensibilité, synthèse reproductive grâce à la mémoire, synthèse intellective et catégorielle dans l’entendement. L’écoute de la musique suppose ces trois phases : j’attends, je reconnais, j’associe. La synthèse ne se réduit donc pas à un assemblage: elle annonce l’articulation de diverses opérations psychiques et collectives. Parler de synthèse « artificielle » nous permet de dépasser le clivage naturel-artificiel et d’explorer le riche monde de la synthèse pour le vivant, pour l’imagination, pour la technique. Il s’agit ainsi de distinguer synthèse organique, symbolique, statistique afin de pe(a)nser la synthèse « organologique » à la suite de Bernard Stiegler. Il s’agit aussi, comme l’a souligné Yuk Hui dans sa lecture de Kant3, de faire fonctionner à nouveaux frais le conflit des facultés (humaines et algorithmiques) dans le contexte d’une organologie qui nous ouvre à de nouveaux espaces où, comme chez Simondon, l’imagination conduit à l’invention et où l’anticipation permet de renouveler le cycle des images opératives et les diverses facultés qu’elles induisent.
L’imagination serait en fait plutôt à considérer comme un équilibre fragile entre conditionnement et liberté mais où le degré de liberté lié à notre perception est aujourd’hui de plus en plus pris en charge par la masse de données. Adaptation ? hybridation ? délégation à une matière imaginaire qui nous est humainement inaccessible comme le propose Michael Crevoisier4 ? adoption d’un nouveau régime de sensorialité performatif comme le propose Anaïs Nony5 ? Dès lors, Comment la menace de cette disruption de l’imaginaire par la masse de donnée des LLMs se joue-t-elle dès l’enfance6 ? Et comment la pratique artistique peut encore s’y appuyer de la même manière qu’un acteur apprend son texte par cœur, « s’automatise », pour pouvoir le dépasser, improviser, avancer vers une « idée esthétique » encore indéterminée, c’est-à-dire réellement penser l’incalculable à partir du calculable ou « l’infini » à partir du fini ? Ce sont des options esthétiques, épistémologiques, technologiques mais aussi politiques qu’il nous faudra explorer.
Les Entretiens du Nouveau Monde Industriel 2024 nous ont ouvert des pistes de réflexion pour une nouvelle écologie de l’industrie qui prend soin de son milieu numérique. La question de l’IA était déjà en discussion. En 2025, notre objectif est de prolonger cette perspective en examinant et distinguant précisément ce qui relève de l’analyse et ce qui relève de la synthèse dans ces modèles statistiques et comment il est nécessaire de les ré-articuler à des modèles symboliques et à des dynamiques contributives au service d’une hyper-interprétation7 comme synthèse de plusieurs interprétations pour le développement de nouveaux savoirs. La synthèse coupée de toute compréhension de l’analyse, des sources, des grammaires, des règles, des contextes, entretient l’aspiration à développer une IA générale biaisée, dominante, autonome, déterritorialisée, délocalisée, mais incluant progressivement le contexte dans son calcul. Cette tendance a-signifiante de l’IA8 est une menace pour la technodiversité et la noodiversité qui renforce les arguments spéculatifs d’un nouveau capitalisme algorithmique hégémonique.
Comme à notre habitude à travers ce séminaire préparatoire de juin, les Entretiens du Nouveau Monde Industriel en décembre 2025 et la publication l’année suivante d’un ouvrage collectif, nous aimerions croiser ici des regards théoriques, politiques, économiques, artistiques et industriels, pour mieux comprendre comment ré-articuler analyse, synthèse et imagination à l’ère des IA. La menace est immense mais nombreux sont les projets qui visent à des agencements très innovants entre technologies sémantiques, statistiques et contributives (ce dernier point constituant toujours le cœur de nos projets technologiques et d’innovation sociale et territoriale notamment en Seine-Saint-Denis (https://tac93.fr).
Dans le cadre de nos Entretiens préparatoires, nous proposons d’aborder ce thème selon six perspectives convergentes :
- Une vision historique et prospective sur la composante synthétique de l’IAG qui disrupte l’économie mondiale dans le contexte d’un techno-capitalisme hors sol qui tend, par les IA générales ou génériques à réduire ses contextes, métiers, territoires à leur calculabilité, et court le risque d’une dégradation de ses performances s’il ne tisse pas de nouvelles alliances avec la contribution humaine et en premier lieu avec la science. Quel régime de vérité ou quel régime de « facticité », pour reprendre le terme d’Antoinette Rouvroy, se dessine avec cette disruption ?
- Une perspective philosophique et épistémologique : qu’est-ce que la synthèse dans le champ biologique par exemple dans le contexte de la photosynthèse ? Inversement et dans une perspective kantienne, la synthèse n’a-t-elle pas toujours été « artificielle » ? Comment la perspective contributive et la question des catégories peut-elle encore être une voie de dialogue avec les IA ? Quelle analyse historique sur cette évolution et quel nouveau regard sur l’informatique théorique dès lors que les approches symboliques et statistiques se combinent ? Comment les produits de synthèse peuvent-ils être recontextualisés à leurs sources, à leurs méthodes d’analyse, et à la contribution humaine comme le propose Jaron Lanier9 ? Peut-on designer des outils de synthèse pas seulement pour des individus mais surtout pour des groupes ? Quelle écologie des milieux synthétiques ?
- Une étude critique des publications contradictoires sur la destruction de l’emploi par les IA ne suffit pas. Il convient de reconnaître l’importance du « digital labor10 » et la misère physique, psychique et symbolique des travailleurs du clic11. Mais aussi distinguer ce qui au cœur de nos métiers relève à présent de tâches automatisables–en analyse comme en synthèse des connaissances–sans les confondre avec leur pratique collective dans le champ incalculable des savoirs. S’agit-il d’une destruction nette de l’emploi ou plutôt d’une déqualification tendancielle due à la prolétarisation qui s’inscrit désormais de manière générale et selon une échelle planétaire? A qui bénéficie cette nouvelle productivité et comment peut-elle être mobilisée pour dégager de nouveaux espaces d’autonomie, de savoir, de pratiques contributives et donc d’un travail qui se distingue de l’emploi ?
- Un regard sur la création, sur ce qui ne sont plus des images de synthèse mais des vecteurs d’images et au-delà sur un synthèse imaginative soumise au calcul qui disrupte toutes les pratiques artistiques et les métiers créatifs. Traçabilité, nouvelles licences libres, « LLM vertueux », quelles perspectives pour l’enseignement ? Comment appréhender la nouvelle articulation des facultés d’apprentissage (mémorisation, interprétation, contemplation) et la création de nouveaux outils pour l’éducation tels que nous le propose les services libres de ladigitale ?
- Un plaidoyer pour la reconnaissance et le soutien des dynamiques collaboratives et contributives et des règles juridiques qui dans le numérique et à l’image de Wikipédia, cherchent à défendre un milieu des savoirs ouvert sans qu’il soit l’objet d’une nouvelle forme de prédation pour nourrir (et sauver) une IA qui sinon s’appauvrit tendanciellement. Quels modèles économiques pour une redistribution plus équitable de ces profits ? Quel soutien financier à la contribution dans le contexte de territoires où les habitants, artistes, amateurs, s’appuient sur leurs « donnée contribuée » sans les commercialiser ? Comment aller au-delà de l’open source pour penser un « share source » fondé sur des données contribuées comme nous y invite aussi Francis Jutand12 ?
- Des illustrations concrètes d’agencements innovants de modèles sémantiques et statistiques avec des technologies contributives pour un nouveau Web de l’interprétation, de la critique et de la démocratie renouvelant de nouvelles pratiques herméneutiques, par la catégorisation, l’annotation, l’éditorialisation ou la délibération. Une manière de repenser dans les start-ups ou les grands groupes de nouvelles formes de CivicTech, EdTech, MedTech ?
Ce thème transversal conçu et préparé avec notre Collège scientifique et industriel converge avec le rapport sur l’IA des Lumières que Cap Digital vient de publier, sous la direction de Francis Jutand qui fut un des fondateurs des ENMI en 2007 ! C’est aussi le prolongement d’un partenariat avec la Fondation Feltrinelli avec qui nous avions déjà collaboré en 2021 (https://fondazionefeltrinelli.it/scopri/report-parigi-okeurope-2021/) sur la question des mutations du travail. Deux événements plus récents ont aussi inspiré cette proposition : le séminaire hyper-interprétation organisé l’année dernière par l’IRI sous la direction de Franck Cormerais et Armen Khatchatourov (https://iri-ressources.org/collections/collection-55.html) et la Journée sur le mouvement Wikimédia organisée le 14 mars par Marta Severo et Antonin Segault au Dicen/Cnam-Un. Paris Nanterre (https://wikimouv2025.sciencesconf.org/).
* Vincent Puig (IRI) – Symboliser, synthétiser, contribuer
* Francis Jutand (SFdP) – L’IA des Lumières
* Guillaume Pellerin (IRI) – Architectures et méthodes
* Giuseppe Longo (ENS) – L’empire numérique de l’alphabet à l’IA
* Laurence Allard (Lille III) – Trajectoires critiques de l’IA
* Alexandre Monnin, philosophe – La synthèse artificielle : les IA génératives et le régime de l’ésotérisme mémétique
La multiplication des textes et des images, à partir de corpus existants (eux-mêmes progressivement produits par des machines) suscite, à bon droit, de multiples interrogations. On a cependant peu noté que cette nouvelle forme d’automatisation est contemporaine de comportements humains que l’on pourrait qualifier, si ce n’est de génératifs, du moins de « dérivatifs ». On pense en particulier à la mémétique, la production d’images (souvent accompagnées de courts textes), destinés à une large circulation. Au-delà d’une sous-culture du Web, la mémétique a été investie d’une dimension à la fois politique, ésotérique et magique. Tant et si bien que la phrase : “We memed him to the White House”, à propos de Donald Trump, est elle-même devenue un mème chez ses soutiens suite à l’élection présidentielle américaine de 2016. Aussi le développement des IA génératives intervient-il dans un contexte où le régime des images (et de leur propagation) a acquis une dimension nouvelle. La synthèse artificielle des IA doit être analysée en regard de ce phénomène inédit.
* Dominique Boullier (Sciences-Po) – IA génératives et LLM probabilistes : contre la tyrannie du retard, pour une sécession sémantique européenne
La course à l’augmentation des paramètres, à l’accumulation de GPU et à la prédation massive de données pour entraîner les modèles d’intelligence artificielle (IA) générative n’a rien d’une fatalité. DeepSeek prouve qu’il est possible de faire aussi bien avec moins. Mais surtout, de nombreux modèles plus petits commettent moins d’erreurs en réduisant la part de probabilités au profit d’une approche sémantique, renseignée par des experts d’un domaine professionnel restreint. Un choix civilisationnel est en cours : celui entre des IA probabilistes, opaques, irresponsables et coloniales, et des IA à fortes valeur sémantique ajoutée, explicables, responsables sur les plans légaux et écologiques, et contrôlables par les collectifs locaux concernés. Les solutions existent, qu’elles viennent du monde alternatif ou de solutions déjà commercialisées par des entreprises de toutes tailles.
* Yuk Hui, philosophe (Erasmus Un. Rotterdam) – Fonctionnalité et Créativité
* Maël Montévil (ENS-CNRS) – De la fonction du processus de synthèse
* Marie-Claude Bossière (Pédopsychiatre) – Comodalité sensorielle et synthèse dans le développement de l’enfant
Comment le bébé, à partir d’un état de prématurité totale, acquiert, au travers de ses expériences sensorielles diverses et singulières, la capacité de les synthétiser et de penser le monde ?
* M. Beatrice Fazi, philosophe (Sussex Un.) – La synthèse et la question de l’unité
This talk examines how generative AI systems engage in a “computational search for unity.” Moving beyond viewing “synthetic” as merely “artificial,” it focuses on the unifying dimensions of synthesis in large language models (LLMs). While LLMs cannot reference an external world, they create a structured whole of distributed representations. Drawing on transcendental philosophy, the talk argues that LLMs construct their own “representational world within” rather than referring to “the world.” Unity in computation is that of a structure, not a self, with representation remaining central to synthetic activity. These distinctions preserve aspects of Kantian synthesis without anthropomorphizing AI. The argument presented in this talk considers whether computational structuring produces a form of thought without external referents, exploring the fundamental question of whether synthetic AI outputs should be understood as real in their own right.
* Michael Crevoisier, philosophe (Un. Marie et Louis Pasteur) – L’impureté technique de la synthèse de l’imagination
En quel sens les « IA générative d’images » produisent-elles des images de synthèse ? S’agit-il seulement d’un nouveau type d’images synthétiques ou l’imagination, comme opération de production d’images, est-elle aussi concernée ? Le problème est moins ontologique (qu’est-ce qu’une imagination artificielle ?) que méthodologique : comment analyser la relation entre la faculté d’imaginer et l’évolution technologique ? En focalisant ce problème sur le sens à donner à la synthèse qu’opère l’imagination, nous proposons à partir de la caractérisation kantienne de ce problème, de comprendre comment les méthodes de Simondon (analogie), Derrida (déconstruction) et Stiegler (organologie) ouvrent la voie à une pensée de l’impureté technique de la synthèse de l’imagination, invitant à réfléchir à nouveaux frais l’opposition entre synthèse et analyse.
* Spartaco Puttini (Fondation Feltrinelli) – Les défis de la recherche de nouveaux modèles
Dans l’histoire, les révolutions industrielles ont toujours provoqué des bifurcations. Mais aujourd’hui c’est fort probable que la tache soit bien au delà des limites de nos sociétés. Il y a plusieurs défis auxquels se confronter pour promouvoir un gouvernement de l’innovation technologique qui puisse bénéficier à la société en tant que telle, les couches sociales et les territoires les plus défavorisés surtout. Avant tout il nous manque les concepts pour gouverner les grandes transformations (économiques, sociales, techniques). Car nous nous sommes convaincus qu’il faut laisser faire les forces incontournables et magiques du marché pour obtenir un résultat optimale. Or, rien de cela ne s’est passé. Le deuxième enjeu c’est la question de l’échelle dans un contexte ou la dimension nationale doit fixer ses priorités en lien avec le niveau européenne et le niveau local. Et c’est toujours plus compliqué de comprendre qui doit faire quoi. La troisième questionne qui se pose c’est celle de la direction de la transformation. Pour faire quoi en fait? Au profit de qui surtout? Ces trois questions introduisent un espace de la recherche, de la culture et de la politique, des choix de la collectivité, en question. S’ouvre, pour la première fois, ici, en Europe, l’opportunité de réfléchir à nouveau à des paradigmes de développement. Et cela ne manquera pas de traverser plusieurs contradictions et conflits. Nous sommes à la croisée de chemins: pour ce qui concerne la tension entre force de production et rapport de production ; pour ce qui concerne la nécessité de sauver la planète et la nécessité plus proche d’arriver à la fin du mois ; pour ce qui concerne la promesse de prospérité qui risque de se renverser dans une réalité de la misère. Face à ces défis multiples qu’est-ce que peut faire la recherche? Qu’est-ce que peut faire la culture?
* Amaranta Lopez (EHESS) – Imaginaires domestiques de l’IA et reproduction sociale
Alliant féminisme de la reproduction sociale et féminisme post-humain, cette communication vise à examiner le caractère disruptif de l’IA dans l’espace domestique compris comme un terrain de dispute entre capitalisme et luttes sociales, en particulier féministes. Par la (dés)incarnation de l’archétype domestique de la femme au foyer, les assistantes vocales permettent de prolonger et reconfigurer une subjectivité à la fois consumériste et dominante, tout en invisibilisant le travail humain (genré et racialisé) derrière les chaînes de production et d’approvisionnement, agissant ainsi comme dispositif de micropédagogies du quotidien au service du colonialisme des données/capital algorithmique. Des propositions féministes de déprolétarisation par le design contributif basé sur des perspectives radicalement situées seront par la suite évoquées comme contrepoint.
* Nayla Glaise (Ugict-CGT et Eurocadres) – Le management algorithmique et son impact sur la santé au travail
L’intelligence artificielle (IA) transforme le monde du travail, modifiant profondément les emplois, la reconnaissance des compétences et les conditions de travail. Si l’IA promet des gains de productivité, elle menace également la valeur du travail humain, creuse les inégalités et crée des défis majeurs en matière de salaires, de santé, de sécurité et d’équité au travail. Des travailleurs des plateformes aux annotateurs des données, l’IA crée des conditions précaires avec un fort impact sur la santé. Ces effets sont également graves pour les travailleurs qualifiés, dont les fonctions sont confrontées à l’automatisation et à l’appropriation par l’IA générative, ainsi que pour les travailleurs vulnérables et certains groupes spécifiques comme les femmes, qui sont touchés de manière disproportionnée par les biais et la discrimination, relayés de manière exponentielle par les algorithmes.
* Warren Sack, philosophe (UC Santa Cruz) – L’IA comme rhétorique et « parafiction »
In 1942 Joseph Schumpeter declared that the process of creative destruction is the essential fact about capitalism. The latest iteration of creative destruction in the current flavor of capitalism, surveillance capitalism, is Silicon Valley’s pursuit of disruption aka the destruction of existing institutions and the construction of new institutions with artificial intelligence (AI) systems that are founded on the non-cooperative, data extractions of surveillance capitalism. For example, Amazon began by disrupting not only the business but the institutions of the book-as-commodity. Uber disrupted the taxis, taxi driving, dispatch, the very institution of “catching a cab.” As philosopher Bernard Stiegler observed in his 2016 book Dans la disruption : comment ne pas devenir fou ? the American giants of surveillance capitalism — Amazon, Google, Facebook, Apple, etc. — constitute a new hegemony presiding over a global disintegration of social and cultural norms (p. 22). This essay shortly reviews some of the key texts of design and computation from the last two decades and argues for specific ways in which design needs to be reconceptualized in order to remain vital for the contemporary conditions of surveillance capitalism. Of special concern is the reconceptualization of context of design as it is practiced in contemporary capitalism. We proposed to understand capitalism as a specific group of people with human and non-human means to destroy existing institutions and construct new ones. Design today must therefore consider not just what to make but also how to respond to capitalism’s voracious appetite to destroy everything already made.
* Anaïs Nony, philosophe (Johannesburg Institute for Advanced Study) – Disruption des savoirs et du sensible
* Ariel Kyrou, écrivain et journaliste – Les imaginaires de l’IA
* Olga Kobryn, artiste – Synthèse des sens
* Caroline Sinders, artiste – Articulation et synthèse d’image
* Valérie Cordy (La Fabrique de Théâtre) – Que fait Adélaïde ?
* Antoinette Rouvroy (Namur Un.) – Le nouveau régime de facticité
* Franck Cormerais (IRI-Un. Bordeaux Montaigne) – Nouvelle critique, IA et capitalisme algorithmique et économie de la contribution
La « nouvelle critique » dont parlait Bernard Stiegler rencontre aujourd’hui une nouvelle synthèse, celle du numérique, qui entre dans toutes les sphères de l’existence. L’IA, pointe de l’avancée technologique d’un capitalisme algorithmique, annonce l’avènement d’un post-libéralisme qu’il convient d’aborder comme nouvelle étape de la grammatisation. Nous la confrontons ensuite l’économie de contribution, apparue dans les années 2010, pour essayer d’en préciser aujourd’hui les enjeux du local à l’internation.
* Nathalie Casemajor (Centre Urbanisation Culture Société, INRS) – L’entre-prise des communs : le modèle Wikimedia Enterprise
En 2021, Wikimédia a lancé une filiale commerciale nommée Enterprise. Vingt ans après la création de Wikipédia, pourquoi ce mouvement emblématique du Web collaboratif et de l’Internet non marchand, a-t-il pris cette direction ? Je propose d’analyser cette initiative comme le plus récent chapitre d’une longue histoire d’entre-prises (au sens d’attaches mutuelles) entre un commun du numérique et les géants de la Tech. À travers sa filiale Entreprise, la WMF vise à bâtir une interface avec le capitalisme de plateforme, au sein d’un système d’acteurs commerciaux interconnectés, sans pour autant renoncer à son modèle distinct de production et de gouvernance guidé par une éthique F/LOSS. En s’appuyant sur les différentes prises qui l’attachent à Google, Wikimédia cherche ainsi à exercer un certain pouvoir de définir les termes de leur relation structurante.Franck Cormerais (IRI-Un. Bordeaux Montaigne) – Économie contributive, capitalisme algorithmique et IA
* Armen Khatchatourov (DICEN/Un. Gustave Eiffel) – Une approche heuristique de la normativité dans l’IA
Les couches multiples de normativité ne sont jamais monolithiques ou réductibles à une domination à sens unique. Il existe au contraire une imbrication de différents mécanismes normatifs, liés à des formes parfois concurrentes de gouvernementalité. Cette contribution appliquera ce cadre d’inspiration foucaldienne à des agencements socio-techniques récents. La prolifération des systèmes basés sur l’IA a conduit à de nouvelles façons dont la normativité est enchevêtrée dans les systèmes techniques. D’une part, la normativité sociale se traduit par des systèmes IA dynamiques plutôt que par un ensemble de règles sociales à évolution lente. Dans ce cas, la question serait de savoir ce qui est considéré comme une erreur ou un biais, et par rapport à quel vision du “normal” – et comment les écarts et les alignements sont traités. D’autre part, la normativité sociale elle-même – non seulement dans son contenu mais aussi dans la manière même dont nous nous rapportons à elle – est affectée par l’opacité et l’adaptabilité des modèles de l’apprentissage machine, qui produisent néanmoins de nouvelles attentes, de nouveaux comportements et une forme de gouvernementalité algorithmique. Notre désorientation actuelle vient en partie de cette incapacité à démêler ces imbrications. Nous présenterons donc une approche heuristique pour aborder les multiples façons dont les concepts normatifs sont en jeu dans les technologies de l’IA.
* Antoine Srun (Wikimedia France) – Usages et limites de l’IA sur Wikipedia
* Christian Fauré (Octo Technology) – La part incalculable du numérique
Dans un monde où chaque aspect semble devoir être mesuré, quantifié ou calculé, nous réalisons souvent qu’il nous manque quelque chose d’essentiel au-delà des chiffres et des algorithmes. Ce qui nous manque et qui échappe aux calculs, nous l’appelons l’incalculable : qu’il s’agisse de l’intuition, des émotions, de l’inconnu ou du mystère. Cet incalculable représente la dimension cachée des technologies numériques, une composante essentielle qu’il est urgent d’intégrer dans nos modes de pensée et d’action pour apporter de la profondeur et du sens aux transformations que nous entreprenons
* Florence Jamet-Pinkiewicz (Ecole Estienne) – Ré-interfacer les IA : du prompt au design d’interface
L’usage généralisé des IA comme assistant, conseiller ou secrétaire, et leur intégration au sein de nos outils, pour traiter des informations et des contenus, faire des retranscriptions, concevoir un visuel, organiser des données, invitent à interroger la nature de la participation humaine à la génération « automatique ». Et tout particulièrement la place du design dans ces agencements de modèles. Comment ré-interfacer nos systèmes de publications et comment repenser le design d’interface lui-même ? Lorsque nous écrivons, et contribuons en ligne, nous pouvons observer que le Web actuel n’est pas seulement envahi de contenus générés par IA qu’il a nourri, mais qu’il est aussi profondément re-questionné par les possibles des IA : de l’auto-génération de sites à la structure sémantique permettant la recherche et l’indexation des contenus. Les modèles conversationnels que nous pratiquons maintenant tendent à « naturaliser » les interactions et donc à faire disparaître les interfaces. Comment le designer peut-il s’emparer des IA pour les agencer et rendre des interfaces plus lisibles, signifiantes ou plus « simples » ? Pour repenser le sens de nos interactions et préciser nos relations avec des technologies de plus en plus complexes et opaques ?
* Anne Asensio (Dassault Systèmes) – Comment l’IA peut s’intégrer à un groupe ?
* Bertrand Delezoide (Blue AI) – Vers une Intelligence Artificielle Responsable : l’Humain, la Santé, et la Transparence au cœur de BleuAI
BleuAI développe des modèles d’intelligence artificielle centrés sur l’humain, notamment dans le domaine de la santé, avec une exigence forte de transparence, d’éthique et de respect de la vie privée. En misant sur des technologies explicables, peu énergivores et conformes aux réglementations, BleuAI construit une IA de confiance, au service du soin et de la société.
* Harry Halpin (Nym Technologies) – Artificial intelligence versus collective intelligence
The ontological presupposition of artificial intelligence (AI) is the liberal autonomous human subject of Locke and Kant, and the ideology of AI is the automation of this particular conception of intelligence. This is demonstrated in detail in classical AI by the work of Simon, who explicitly connected his work on AI to a wider programme in cognitive science, economics, and politics to perfect capitalism. Although Dreyfus produced a powerful Heideggerian critique of classical AI, work on neural networks in AI was ultimately based on the individual as the locus of intelligence. Yet this conception of AI both fails to grasp the essence of large language models, which are a statistical model of human language on the Web. The training data that enables AI is the surveillance and capture of data, where the data creates a model to approximate the entire world. However, there is a more hidden ideology inherent in AI where the goal is not to perfect a model but to control the world. As prompted by an argument between Mead and Bateson, social change is prevented by the application of cybernetics to society as a whole. The goal of AI is not just to replace human beings, but to manage humans to preserve existing power relations. As the source of intelligence in AI is distributed cognition between humans and machines, the alternative to AI is collec- tive intelligence. As theorized by Licklider and Engelbart at the dawn of the Internet, collective intelligence explains how computers weave together both human and non-human intelligence. Rather than replace human intelligence, this produces ever more complex collective forms of intelligence. Rather than meta-stabilize a society of control, collective intelligence can go outside individualist capitalist ontology by incorporating the open world of the pluriverse, as theorized by Escobar. Collective intelligence then stands as an alternative ontological path for AI which puts intelligence at the service of humanity and the world rather than a technocratic elite.