Les big data configurent un processus social qui a été décrit par Thomas Berns et Antoinette Rouvroy comme l’avènement d’une gouvernementalité algorithmique. Outre la crise de la science statistique et de l’épistémè contemporaine (c’est à dire de l’articulation entre les savoir-faire, les savoir vivre et les savoirs académiques) que provoque le corrélationnisme des mathématiques algorithmiquement appliquées, la gouvernementalité algorithmique s’achemine vers l’époque du deep learning. Comment concevoir des agencements entre artifices computationnels et actions rationnelles des individus psychiques et collectifs qui ne conduisent pas à la standardisation massive des comportements et des représentations – c’est à dire à l’effondrement des capacités néguentropiques caractéristiques de l’homme ?
Mardi 15 décembre
9h30 : Olivier Grisel (INRIA) Modélisation prédictive et Deep Learning 10h00 : David Berry (Université du Sussex) Algorithms, Big Data, and Critical Theory 10h30 : Discussion 11h15 : Thomas Berns (Université libre de Bruxelles) La réflexivité algorithmique 12h00 : Paul Jorion (Vrije Universiteit, Bruxelles) Le mise à l’écart de l’homme par la machine est-elle irréversible ?