IRI ressources vidéos

Édition 2017 : Intelligence artificielle et épistémologie des « boites noires »

3 videos 9h 0 annotation

Intelligence artificielle et épistémologie des « boites noires »

Séminaire transdisciplinaire en préparation des Entretiens du Nouveau Monde Industriel sur le thème de la « bêtise artificielle » (19-20 décembre 2017)

Jeudi 29juin 2017 de 10h à 18h Vendredi 30 juin 2017 de 10h à 13h

Objectifs du séminaire

Dans le cadre d’une réflexion globale sur une nouvelle articulation des processus de traitement de données dans la data economy (intelligence artificielle réticulée, deep learning, machine learning en général et calcul intensif), d’une part, et de l’interprétation de ces données et de ces traitements, d’autre part, et dans le contexte scientifique aussi bien que dans l’exercice de la citoyenneté et plus généralement de la responsabilité, ce séminaire du projet ANR Epistémè se propose d’analyser l’impact des instruments scientifiques sur la constitution des savoirs académiques au moment où les technologies issues des mathématiques appliquées à l’informatique en réseau tendent à s’imposer au monde scientifique à partir des critères d’efficience prescrits par les marchés.

Il en résulte une menace extrême et hautement paradoxale quant aux possibilités d’exercer, de cultiver et de développer les savoirs scientifiques s’il est vrai que ceux-ci ne sauraient se soumettre aux processus de prolétarisation qui sont induits par les « boîtes noires » que les instruments et appareils deviennent pour les scientifiques désormais tout autant que pour le commun des mortels.

Il s’agira en particulier d’analyser les problèmes posés par les instruments scientifiques numériques dont le fonctionnement et les processus de catégorisation afférents deviennent inaccessibles, aveugles et non formalisables du point de vue théorique. À l’encontre d’Ian Hacking déclarant « inutile » la « connaissance du microscope », comme à l’encontre de Chris Anderson annonçant en 2008 « la fin de la théorie » à l’époque des « big data », il s’agit ici d’analyser, de questionner et de critiquer les phénomènes de boîtes noires dans le champ instrumental et appareillé en général et dans le cas des instruments scientifiques en particulier afin d’évaluer leur coût épistémologique aussi bien les bénéfices à attendre d’un dépassement de cet état de fait incompatible avec l’état de droit sans lequel aucun science n’est possible, et de prescrire autant que possible, dans les champs scientifiques concernés, des modèles instrumentaux et des pratiques instrumentales permettant de les surmonter.

Ces travaux qui seront menés en référence à l’analyse phénoménotechnique de Gaston Bachelard et à la mécanologie de Gilbert Simondon aussi bien qu’en mobilisant les questionnements et concepts d’Edmund Husserl, d’Alfred Whitehead, de Karl Popper et de Jack Goody, parmi bien d’autres, ont une valeur générique quant aux questions que pose l’expansion de l’intelligence artificielle réticulée dans toutes les dimensions de l’activité humaine. C’est pourquoi ils seront conduits dans la perspective d’une réflexion plus générale sur les enjeux de ce qui est appelé intelligence artificielle.

Dans le champ de l’astrophysique, et pour aborder l’énorme volume de données d’observation des télescopes, il faut concevoir des « pipelines de réduction de données » qui convertissent les données de la chaîne de détection en cartes et images. Le risque est ici d’abandonner ces procédures algorithmiques aux « boîtes noires ». Problématiser et formaliser le fonctionnement de ces instruments numériques implique d’incorporer par exemple aux instruments d’observation et de traitement des outils d’annotation, de visualisation et d’interprétation de l’ensemble de la chaîne de fonctionnement. Il s’agit en cela d’ouvrir la boîte noire afin de dissiper l’opacité épistémique (Humphreys, 2004) due au développement d’une pléthore de nouveaux instruments pour la recherche et l’expérimentation par exemple par le passage de la base de données au traitement en vue de produire des « big data« , l’analyse des données de flux en temps réel, ou encore l’utilisation d’objets connectés. Cette problématique s’impose à présent en archéologie, en biologie et en fin de compte dans pratiquement toutes les disciplines, des mathématiques aux sciences de l’homme et de la société, ce qui constitue l’objet des digital humanities et des digital studies. Dans le cas plus spécifique des sciences sociales, la question interfère directement avec les pratiques de la vie quotidienne : le calcul intensif mis en œuvre à travers la data economy et le capitalisme des plateformes généralise ces questions tout en mettant en évidence les processus performatifs induits par la vitesse de traitement des informations par les algorithmes prenant de vitesse tous les processus délibératifs, individuels ou collectifs. Ces évolutions factuelles encore très peu théorisées qui ont pénétré les marchés à travers le « capitalisme linguistique » (tel que l’a décrit Frédéric Kaplan) et la logistique de la vente en ligne atteignent désormais aussi bien la médecine dite 3.0, également appelée infomédecine, la gestion urbaine, et bien sûr la conception et la production robotisée. La question qui se pose à travers tous ces niveaux, si hétérogènes qu’ils puissent paraître, est la fonction du calcul, les bénéfices qui peuvent en être attendus, les conditions dans lesquelles il peut être mis au service d’une délibération, qu’elle soit scientifique ou citoyenne, ou les deux, ou au service d’une inventivité sociale, et les surdéterminations induites par les formats et architectures de données