IRI ressources vidéos

ENMI 2017 - Session 2 - Structures de données et production des savoirs

Créé le 19/12/17

Session 2 :Structures de données et production des savoirs

Mardi 19 décembre -14h30 -18-9h

Wiener faisait de l’entropie et de sa réduction l’enjeu de la cybernétique – et il faut considérer ici l’entropie dans les champs thermodynamique, biologique et informationnel, ce qui reste un chantier à part entière. Alors qu’on parle de “management par la bêtise fonctionnelle”, et tandis que les plateformes computationnelles constituent des infrastructures automatisées de portée biosphérique, comment est-il possible de mettre la puissance de calcul au service de la lutte contre l’entropie plutôt que d’augmenter l’entropie (et le désordre – climat et pollution, réduction de la biodiversité et de la noodiversité) au profit de quelques-uns ? Quelles fonctions faut-il ici conférer aux structures des données ?

Intervenants

Benjamin Bratton (Université de San Diego)

Yuk Hui (Leuphana Un.)

Bêtise transcendantale et intelligences artificielles

André Spicer, business & management (Université de Londres)

The stupidity paradox

Christian Fauré, informatique (Octo Technology)

« Concrètement, comment fait-on ? »

Nous avons des concepts : prolétarisation, entropie, noodiversité, économie contributive, etc, qui nous permettent de faire des diagnostics et des pronostics, mais il y a toujours un moment où on est confronté à la question : « Oui, mais concrètement, comment fait-on ? ».

Supposons que nous souhaitions construire un système qui permette et favorise la délibération, c’est à dire une plateforme qui nous délivre de la betise systémique et qui permette de lutter contre l’entropie. Que peut-on répondre à la question, “concrètement, comment fait-on ? »

Rand Hindi, intelligence artificielle (SNIPS)

La fausse dichotomie entre IA et vie privée

L’intelligence artificielle est rapidement devenue le paradigme informatique dominant accélérant l’automatisation à un rythme beaucoup plus rapide. L’IA d’aujourd’hui repose principalement sur l’apprentissage automatique, qui permet à une machine de reproduire un comportement simplement en s’appuyant sur des exemples. Ainsi, plus on alimente l’algorithme de machine learning plus il est performant, ce qui conduit les grandes entreprises à collecter d’énormes quantités de données utilisateurs, au détriment de leur vie privée. Dans cet exposé, nous montrerons comment nous pouvons former des assistants conversationnels sans données utilisateur.