IRI ressources vidéos

Institut de recherche et innovation

Activité récentetime

bookFaculté de jouer sous la direction de Denis Guenoun

3 videos 5h 0 annotation dernière vidéo publiée 2017-07-03T16:31:03.739202

Séminaire « Sur la faculté de jouer »

(D. Guénoun, IRI)

Le séminaire interrogera la question du jugement – qui est au coeur des préoccupations de l’IRI – en se donnant, dans un premier temps, un objet circonscrit : tenter d’analyser la différence entre le jugement de goût, qui est supposé qualifier depuis les modernes la position de spectateur, et les jugements qui se forment chez des praticiens de la scène pendant le jeu. Dans ce but, on se propose de réfléchir sur des textes ou sur des pratiques qui ont voulu développer l’idée d’un théâtre fait pour ceux qui le jouent : théâtre imaginé non pas pour le bénéfice ou le plaisir des spectateurs appelés à le voir, mais dont la raison d’être principale se cherche dans l’effet à produire chez les acteurs qui (se) le présentent. On pense en particulier au théâtre pédagogique des Jésuites, dont la représentation n’était pas exclue mais qui se donnait comme finalité principale de contribuer à la formation (morale, théologique, humaine) des acteurs – amateurs, au sens moderne du mot ; aux fictions diderotiennes d’un théâtre sans spectateurs ; au théâtre didactique de Brecht, parfois interdit à la représentation publique, et ne valant que comme exercice pour les comédiens ; aux exercices de Grotowski et de ses continuateurs. Dans un deuxième temps, le séminaire tentera d’utiliser les acquis de cette analyse pour aborder plus largement les questions liées au jugement : concepts, appareils, programmation, pratiques critiques – dans le but de contribuer de façon plus directe à la préparation du colloque sur le jugement prévu pour décembre 2007.

bookPratique et jugement sous la direction de Catherine Perret

21 videos 27h 0 annotation dernière vidéo publiée 2017-07-03T15:29:34.867088

La pratique peut-elle être une instance de jugement aujourd’hui ?

Ethique foucaldienne et art contemporain

Ce nouveau séminaire aura pour objet l’articulation de la pratique artistique et du jugement critique. Il prendra appui sur un séminaire engagé en 2006 à Paris X, consacré aux impasses formalistes auxquelles s’est confronté l’art conceptuel et néo-conceptuel. En nous appuyant sur les écrits de Jeff Wall, nous avions étudié comment l’interrogation de l’institution par les pratiques conceptuelles et néo-conceptuelles de l’art avaient succombé à une institutionnalisation de ces pratiques, et un mouvement de retour à des positions formalistes plus ou moins explicites, et, par voie de conséquence, au renforcement de la lecture greenbergienne de l’histoire de l’art moderne.

Ces analyses nous ont amené à reposer l’importance pour l’art, pour sa production comme pour sa réception, de la notion d’expérience sans contenu. « L’expérience esthétique nous forme, modifie nos sentiments et nous transforme : c’est pourquoi, selon Kant, on a besoin d’art ». (Jeff Wall, Ecrits et entretiens, p.29). La critique doit passer « par » nous, si nous voulons en devenir les agents. Ce que Kant appelle « jugement » dans la Troisième Critique est l’appréciation « sentimentale » de cette formation par l’expérience esthétique. L’exercice du jugement s’oriente à partir du « jeu des facultés » et suppose que ce jeu puisse être appréhendé dans ses accords comme dans ses désaccords, comme plaisir ou comme déplaisir. Mais cette appréhension n’est pas intuitive : elle doit être réfléchie à partir d’une forme « une » que Kant identifie à la forme de l’entendement.

Tout en conservant l’essentiel de cette notion d’expérience esthétique, la modernité a contesté que cette forme « une » puisse être donnée a priori. Comme le montre l’histoire de la forme-tableau au moins depuis Manet, elle a montré et travaillé le caractère historique et artificiel de cette forme. Mais surtout elle a montré qu’elle devait être pratiquée pour donner lieu à expérience. La modernité a ainsi insisté sur la force non seulement formative mais transformatrice de l’expérience esthétique. Ce qui a donné lieu, du côté de la production, à l’abandon « du » medium pour l’expérimentation des media, et, du côté de la réception, à la problématisation de la forme-musée. C’est ainsi que le jugement s’est élargi jusqu’à inclure la pratique comme une de ses dimensions. L’articulation du jugement et de la pratique est au cœur de l’expérience artistique moderne, qu’on la considère du point de vue de la réception ou de la production. Elle pourrait être définie par le mot de « justesse » qui ajoute aux deux premières, jugement et pratique, la notion fondamentale de « balance » ou de critique. La justesse désigne la manière dont la transmission artistique de l’expérience peut transformer les données esthétiques de cette expérience.

Le séminaire à venir partira de ces formulations et reformulations de la modernité et les reprendra à la lumière du discours philosophique de Michel Foucault et de son analyse de la modernité comme « réflexion du présent » telle qu’elle est proposée dans les différentes versions de l’essai de 1984 Was ist Aufklärung. Foucault relance dans ce texte le projet kantien de modernité critique, à ceci près que le sujet de la réflexion n’est pas le sujet de l’entendement et ses capacités de schématisation mais ce qu’il appelle les savoirs, c’est-à-dire les formules épistémologiques qui en s’effectuant sous la forme de techniques opérent, sans l’intervention précisément d’aucun jugement, le contrôle des modes d’individuation. Comment dénouer le lien fatal entre maîtrise technologique et domination bio-politique ? ou encore comment déconnecter la « croissance des capacités et l’intensification des relations de pouvoir » ? Telle est la question à laquelle se trouvent confrontées les Lumières contemporaines.

Dans ce contexte, Michel Foucault réintroduit la fonction du « jugement » à partir de l’expérimentation des pouvoirs conférés aux savoirs par les techniques. L’expérimentation par exemple des pouvoirs sur les corps conférés aux théories sociales occidentales par les techniques d’administration de la vie et de la mort. Conduite dans un esprit de transgression méthodique, cette expérimentation des moyens non plus en vue de leurs fins « propres » mais indépendamment de ces fins, voire contre elles, « autorise » une réflexion de ces moyens, et, avec elle, l’invention de formules épistémologiques neuves. Le jugement désigne dans ce contexte la « conduite » de la transgression. Pour que la transgression puisse donner lieu à des modes d’individuation qui excèdent les « programmes de contrôle » sans pour autant sortir du terrain de l’expérimentation partageable, voire universalisable, -ce en quoi Foucault demeure un Aufklärer- elle doit en effet être dirigée. Cette conduite, direction ou pratique relève d’un art du jugement ou ethos que Michel Foucault réfère aux techniques de soi antiques et chrétiennes. Et tout particulièrement aux arts de la mémoire. Le jugement devient dans sa pensée « souci de soi ».

Qu’en est-il aujourd’hui de cet art du jugement, autrement dit de la possibilité de conduire l’expérimentation des modes de contrôle impliqués par les technologies contemporaines dans le sens de la transgression de telle manière qu’elle puissent servir de nouvelles formules épistémologiques et des modes d’individuation inédits ?

Michel Foucault lègue cette question ; il n’y répond pas, s’étant consacré à l’articuler dans le contexte de savoirs médiatisés par les techniques de production et d’administration du 19ème siècle. C’est pourquoi sa théorie a pu être mise au service de la défense des identités et récupérée par des épistémologisations à vocation identitaire, ce qui n’était assurément pas son propos. Pourtant son intérêt pour les arts de la mémoire sur lesquels reposent les techniques de soi traditionnelles est de première importance pour la compréhension de ce que peut être une pratique transgressive de nos outils.

L’articulation savoirs/pouvoirs passe aujourd’hui par les technologies de reproduction et d’archivage, et le contrôle politique des sociétés s’exerce par l’intermédiaire des appareils collectifs de mémorisation. Avant de s’exercer sur les individus, les pouvoirs des systèmes de programmation s’exercent sur l’information elle-même. La question est donc de savoir ce que signifient dans ce contexte nouveau et au-delà du pragmatisme ambiant les concepts de réflexion, de transgression, de jugement.

La nouvelle forme de la relation de pouvoir est aujourd’hui l’information. Cette information se réfléchit automatiquement en s’archivant. Pour que cette réflexion automatique devienne matière à expérimentation il est nécessaire que cet archivage émancipe l’information du programme qui l’a produite et la connecte avec d’autres programmes. C’est le modèle rhyzomatique de l’archive conçu par Gilles Deleuze « pour » Michel Foucault, modèle actuellement pratiqué par de nombreux artistes. Mais à quelle condition cette expérimentation est-elle transgression au sens où Foucault l’entend ? A condition qu’elle émancipe l’information non seulement de « son » programme, mais de sa fonction de communication soluble dans l’opération de sa transmission, et que sa réflexion ne soit pas simplement formelle mais réelle : qu’elle produise non seulement de la connectivité mais de l’individuation. L’information est réfléchie sur un mode pratique dès lors qu’elle est lue. Lue, interprétée, documentée. L’opération du jugement intervient ici avec l’intervention de la lecture, partie intégrante des techniques de soi et des arts de la mémoire.

Nous pourrons alors faire retour vers l’art contemporain, pour envisager les modes de lecture, de réinscription et d’archivage qu’il met en œuvre comme autant d’actualisations de la réflexion de Michel Foucault. On s’intéressera dans cette perspective à l’œuvre de Chris Marker, de Pierre Huyghe et de Tatiana Trouvé. Il s’agira au cours de cette étape de proposer des représentations du jugement aujourd’hui tel qu’il s’exerce dans la production/réception artistique de manière à pouvoir élargir ce concept de « lecture ». »

bookIngénierie du Vivant 2.0 : La biologie synthétique en question

3 videos 7h 0 annotation dernière vidéo publiée 2017-07-03T13:05:03.668974

Cycle 2009 de Débats Publics co-organisés par VivAgora, La Cité des sciences et de l’industrie, L’Institut de recherche et d’innovation (IRI) du Centre Pompidou Ingénierie du Vivant 2.0  La biologie synthétique en question

1 - Contexte et origine du projet

Fidèle à sa mission de mise en débat public des choix scientifiques et technologiques, VivAgora propose pour 2009 d’explorer les avancées, perspectives et projets des acteurs de la biologie synthétique. Elle invite le grand public à débattre des enjeux cognitifs, éthiques, sanitaires, sociétaux, soulevés par l’émergence de ces innovations dans le monde vivant. Elle propose ce parcours d’échanges afin de débattre des enjeux liés à cette nouvelle ingénierie du vivant. En interrogeant les fins et les moyens avec les acteurs concernés, VivAgora entend ainsi contribuer à une responsabilisation des parties-prenantes et à des politiques durables et éthiques pour accompagner la biologie synthétique.

VivAgora s’associe à la Cité des sciences et de l’industrie et à l’Institut de recherche et d’innovation (IRI) du Centre Pompidou pour réaliser cette série de rencontres. Les organisateurs proposent ainsi un parcours d’échanges et d’interaction pour aider les parties prenantes (entreprises, investisseurs, chercheurs, administrations…) concernées de société à • S’approprier le sujet, • Comprendre les enjeux, • Contribuer à des politiques durables et éthiques, fondées sur la confiance.

2 - Positionnement

La biologie synthétique connaît un développement fulgurant depuis quatre ans. Soixante-dix entreprises, près de dix mille laboratoires dans le monde, et pas moins de dix-huit programmes européens contribuent actuellement à cet effort pour la réalisation d’organismes vivant synthétiques. Cette discipline qui s’ancre dans la biotechnologie moderne, utilise le vivant comme une réserve de composants ou « biobriques fonctionnelles » pour fabriquer des circuits, à la manière de l’électronique. Elle matérialise les visions du biologiste américain, d’origine allemande, Jacques Loeb qui, au tournant du XXème siècle parlait d’ingénierie du vivant dans une approche mécaniste des « choses animées ». Elle s’inscrit dans l’aspiration d’Hermann Muller, généticien proche de Thomas Morgan, spécialiste de l’hérédité, qui était obsédé par la question du contrôle sur l’Evolution1. Le biologiste polonais Waclaw Szybalski, prédit l’avènement de la biologie synthétique en 1978 : «  Jusqu’à maintenant nous avons été dans la phase descriptive de la biologie moléculaire. Mais le vrai défi commencera avec la recherche d’une biologie de synthèse : nous allons diviser les nouveaux éléments de contrôle et ajouter ces nouveaux modules aux génomes existants ou bien construire entièrement de nouveaux génomes. Ce sera un champ d’expansion illimitée pour fabriquer des circuits mieux contrôlés et des organismes synthétiques comme des souris améliorées. Je ne m’inquiète pas sur l’excitation et les idées nouvelles qui vont alors fuser dans ce domaine ». La biologie synthétique n’est pas un perfectionnement de la biologie moléculaire, qui se cantonne à modifier des gènes, même si elle en exploite les découvertes (bases physico-chimiques de la vie) les résultats (séquençage des génomes) et les outils (synthèse, assemblage…). Alors que la création des OGM (organismes génétiquement modifiés) se limite à des transferts de portions de gènes, la biologie synthétique élabore sur mesure des « OGF », organismes génétiquement fabriqués. L’objectif est de réaliser des « bio-raffineries miniatures » pour obtenir des produits pharmaceutiques, réparer des tissus, décontaminer des sites pollués, élaborer des biosenseurs, produire de l’énergie (biocarburants)…. Alliant les deux courants opposés, descendants et ascendants (réductionnisme moléculaire et biologie des systèmes) mais aussi les technologies de l’information (électronique et software), la biologie synthétique figure la convergence des technologies. Elle est possible aujourd’hui, à la fois parce que l’on sait synthétiser - en masse et à bas prix - des séquences codantes d’ADN, support de l’information héréditaire, et parce que la puissance de l’informatique et de la modélisation permet de disséquer, comprendre et concevoir les systèmes vivants Elle considère le vivant comme une « boîte à outils, une réserve de composants ou biobriques pouvant être assemblés à la manière de Lego  ». Selon Rob Carlson, ingénieur électronicien à l’Université de Washington, et converti à la biologie synthétique, « les techniques d’ingénierie génétique sont terriblement primitives s’apparentant à un troc de morceaux de voitures pour aboutir à un meilleur véhicule. Mais notre ignorance va s’estomper et l’ingénierie biologique va devenir très vite réalité ».

Avec la biologie synthétique se met en place une véritable révolution dans la manière de pratiquer la biologie : ingénierie, cahier des charges, optimisation, contrôle, standardisation, open-source, approche ludique (biohackers), optimisme (on s’amuse), bricolage sont les maîtres mots d’une démarche qui tranche avec l’appréhension angoissée des « biotechnologues » d’Asilomar en 1975.
Ce nouvel état d’esprit ainsi que les constructions biologiques attendues méritent d’être explicités. Il s’agira d’explorer les enjeux sociétaux (éthiques), sanitaires et économiques de cette ingénierie du vivant :

Que penser de cet état d'esprit ludique, apparemment insouciant, de ce : "on s'amuse" ? L'inquiétude d'Asilomar est-elle ici véritablement dépassée, ressort-elle ici sous une autre forme, ou encore prend-elle la forme d'une revendication du type d'un gay savoir ? Comment se noue-t-elle à une revendication d'extra-territorialté de la recherche, dès lors qu'il s'agit ici de créer des briques vivantes, et d'une recherche extrêmement proche, chronologiquement, de sa propre application? Quels sont les buts poursuivis ? Quelle transformation introduit-elle dans notre rapport au vivant ? Quels sont les risques encourus ? Quels seront les effets sur la biodiversité, l’évolution ? Comment vont se recomposer les entreprises concernées (pétrochimie, agro-alimentaire, pharmaceutique) ?

3 - Conception du cycle - Calendrier et lieux

Le cycle de débats que VivAgora propose visera à mettre en lumière cette « nouvelle culture » et l’état d’esprit dans lequel se développe un nouveau « rapport au vivant ». Le cycle est proposé comme un processus exploratoire. Il n’a pas vocation à produire des recommandations. Il vise à créer un dialogue entre les parties prenantes pour les aider à repérer les interrogations, les attentes, pour construire en interaction une hiérarchie des points à surveiller collectivement.

Manière de faire

La construction du cycle respectera les principes de la « méthode de VivAgora » : - L’information est traitée en amont par la publication de fiches « Repères ».
- Les rencontres sont conviviales (disposition de type « cafés », sans formatage par les experts) - Un grand témoin (personne pressentie : Dominique Leglu) aide à expliciter les « jeux d’acteurs » et à soutenir le questionnement commun. - Chaque débat est l’objet d’un compte-rendu faisant apparaître les pistes de recommandations. - La dernière séance est une interpellation des acteurs en responsabilité (institutions de recherche, pouvoirs publics, industriels) de manière à ce que cette coopération multi-acteurs se traduise en nouvelles pratiques publiques et privées

Les communications et échanges seront enregistrés et suivi selon le mode « cartographie des idées » proposé par Jean Michel Cornu de la FING (voir http://www.cornu.eu.org/news/nous-avons-non-pas-un-mais-deux-modes-de-pensee Les enregistrements seront traités par l’indexation du logiciel « ligne de temps » pratiquée par l’IRI (resp : Sacha Loeve) et permettront une discussion inter-débats en ligne.

Comité de pilotage

Le programme est mis en place par un Comité de pilotage constitué de : Bernadette Bensaude-Vincent, Professeur de philosophie et d’histoire des sciences à Paris X David Bensimon, biologiste à l’Ecole Normale supérieure (ENS), Herve Chneiweiss, neurobiologiste au Collège de France Antoine Danchin, biologiste à l’Ecole Normale supérieure (ENS) Olivier Le Fèvre (Genoscope), Jean Claude Guillebaud, éditeur Seuil Pierre-Henri Gouyon, directeur de recherches au MNHN, professeur à l’Agroparistech Michel Morange, historien des sciences à l’ENS Paule Pérez, éditrice

tabsÉdition 2017 : Intelligence artificielle et épistémologie des « boites noires »

3 videos 9h 0 annotation dernière vidéo publiée 2017-07-03T10:21:12.192153

Intelligence artificielle et épistémologie des « boites noires »

Séminaire transdisciplinaire en préparation des Entretiens du Nouveau Monde Industriel sur le thème de la « bêtise artificielle » (19-20 décembre 2017)

Jeudi 29juin 2017 de 10h à 18h Vendredi 30 juin 2017 de 10h à 13h

Objectifs du séminaire

Dans le cadre d’une réflexion globale sur une nouvelle articulation des processus de traitement de données dans la data economy (intelligence artificielle réticulée, deep learning, machine learning en général et calcul intensif), d’une part, et de l’interprétation de ces données et de ces traitements, d’autre part, et dans le contexte scientifique aussi bien que dans l’exercice de la citoyenneté et plus généralement de la responsabilité, ce séminaire du projet ANR Epistémè se propose d’analyser l’impact des instruments scientifiques sur la constitution des savoirs académiques au moment où les technologies issues des mathématiques appliquées à l’informatique en réseau tendent à s’imposer au monde scientifique à partir des critères d’efficience prescrits par les marchés.

Il en résulte une menace extrême et hautement paradoxale quant aux possibilités d’exercer, de cultiver et de développer les savoirs scientifiques s’il est vrai que ceux-ci ne sauraient se soumettre aux processus de prolétarisation qui sont induits par les « boîtes noires » que les instruments et appareils deviennent pour les scientifiques désormais tout autant que pour le commun des mortels.

Il s’agira en particulier d’analyser les problèmes posés par les instruments scientifiques numériques dont le fonctionnement et les processus de catégorisation afférents deviennent inaccessibles, aveugles et non formalisables du point de vue théorique. À l’encontre d’Ian Hacking déclarant « inutile » la « connaissance du microscope », comme à l’encontre de Chris Anderson annonçant en 2008 « la fin de la théorie » à l’époque des « big data », il s’agit ici d’analyser, de questionner et de critiquer les phénomènes de boîtes noires dans le champ instrumental et appareillé en général et dans le cas des instruments scientifiques en particulier afin d’évaluer leur coût épistémologique aussi bien les bénéfices à attendre d’un dépassement de cet état de fait incompatible avec l’état de droit sans lequel aucun science n’est possible, et de prescrire autant que possible, dans les champs scientifiques concernés, des modèles instrumentaux et des pratiques instrumentales permettant de les surmonter.

Ces travaux qui seront menés en référence à l’analyse phénoménotechnique de Gaston Bachelard et à la mécanologie de Gilbert Simondon aussi bien qu’en mobilisant les questionnements et concepts d’Edmund Husserl, d’Alfred Whitehead, de Karl Popper et de Jack Goody, parmi bien d’autres, ont une valeur générique quant aux questions que pose l’expansion de l’intelligence artificielle réticulée dans toutes les dimensions de l’activité humaine. C’est pourquoi ils seront conduits dans la perspective d’une réflexion plus générale sur les enjeux de ce qui est appelé intelligence artificielle.

Dans le champ de l’astrophysique, et pour aborder l’énorme volume de données d’observation des télescopes, il faut concevoir des « pipelines de réduction de données » qui convertissent les données de la chaîne de détection en cartes et images. Le risque est ici d’abandonner ces procédures algorithmiques aux « boîtes noires ». Problématiser et formaliser le fonctionnement de ces instruments numériques implique d’incorporer par exemple aux instruments d’observation et de traitement des outils d’annotation, de visualisation et d’interprétation de l’ensemble de la chaîne de fonctionnement. Il s’agit en cela d’ouvrir la boîte noire afin de dissiper l’opacité épistémique (Humphreys, 2004) due au développement d’une pléthore de nouveaux instruments pour la recherche et l’expérimentation par exemple par le passage de la base de données au traitement en vue de produire des « big data« , l’analyse des données de flux en temps réel, ou encore l’utilisation d’objets connectés. Cette problématique s’impose à présent en archéologie, en biologie et en fin de compte dans pratiquement toutes les disciplines, des mathématiques aux sciences de l’homme et de la société, ce qui constitue l’objet des digital humanities et des digital studies. Dans le cas plus spécifique des sciences sociales, la question interfère directement avec les pratiques de la vie quotidienne : le calcul intensif mis en œuvre à travers la data economy et le capitalisme des plateformes généralise ces questions tout en mettant en évidence les processus performatifs induits par la vitesse de traitement des informations par les algorithmes prenant de vitesse tous les processus délibératifs, individuels ou collectifs. Ces évolutions factuelles encore très peu théorisées qui ont pénétré les marchés à travers le « capitalisme linguistique » (tel que l’a décrit Frédéric Kaplan) et la logistique de la vente en ligne atteignent désormais aussi bien la médecine dite 3.0, également appelée infomédecine, la gestion urbaine, et bien sûr la conception et la production robotisée. La question qui se pose à travers tous ces niveaux, si hétérogènes qu’ils puissent paraître, est la fonction du calcul, les bénéfices qui peuvent en être attendus, les conditions dans lesquelles il peut être mis au service d’une délibération, qu’elle soit scientifique ou citoyenne, ou les deux, ou au service d’une inventivité sociale, et les surdéterminations induites par les formats et architectures de données

bookNextleap Seminar : Decrypting Algorithms

7 videos 15h 1 annotation dernière vidéo publiée 2017-07-03T10:02:37.557120

NEXT generation techno-social and Legal Encryption Access and Privacy

In the wake of the Snowden revelations, public trust in the Internet has eroded.

NEXTLEAP aims to create, validate, and deploy communication and computation protocols that can serve as pillars for a secure, trust-worthy, annotable and privacy-respecting Internet that ensures citizens fundamental rights. For this purpose NEXTLEAP will develop an interdisciplinary internet science of decentralisation that provides the basis on which these protocols will be built.

NEXTLEAP pursues three main objectives

* The creation of a fundamental rights-preserving socio-technical science of decentralised internet architecture.
* A fundamental re-thinking of the ethical and philosophical foundations of the Internet.
* The modular specification of decentralised protocols implemented as open-source software modules for
   * Privacy-preserving contact lists and presence services supporting federated identity
   * Secure messaging services that hide metadata (e.g., who, when, how often, etc.)
   * Privacy-preserving analytics collection and computation.

The technical solutions developed by NEXTLEAP will be rooted in both philosophy and real-world usage of the Internet. In this aspect the project partners will strive to answer the following questions: What motivations and values can be used to predict successful adoption of decentralised systems by communities of users?

While it appears users are often unhappy with losing control of their data to companies that own centralised platforms, very few users do move to alternatives and what precisely the social success or failure of a system is unclear. Is there a decentralised philosophy at the core of the Internet that makes sense of the success of existing protocols?

It is claimed that values around collective intelligence, open innovation, privacy, and decentralisation are built into Internet protocols, but the precise philosophical grounding of these principles – and any new kinds of “internet rights” they entail - is often vague.

It is answers to these questions that are crucial for building succcessful protocols and systems that are adopted by citizens. The NEXTLEAP protocol will verify that the designed protocols have the properties required to guarantee the rights and needs elicited from the answers to the above questions.

tabsÉdition 2017 - L’écosystème muséal : espaces transitionnels des savoirs

8 videos 18h 687 annotations dernière vidéo publiée 2017-06-23T08:28:19.045839

Par delà son rôle de « pourvoyeur » d’expérience esthétique, nous soutenons que le musée a plus fondamentalement pour fonction de susciter et d’entretenir des régimes d’attention et des passions pour des objets et des activités ressortant des dynamiques de participations culturelles et artistiques. En tant qu’institution, le musée est un organe politique contribuant à la pérennisation des circuits de valorisations et d’interprétations socio-culturels, pérennisation qui passe non seulement par l’exposition et la patrimonialisation, mais encore nécessairement par la création et le maintien de processus psycho-sociaux de sublimation et d’individuation de significations collectives.

Depuis plus d’une trentaine d’années, parmi les nombreux facteurs avec lesquels le musée doit composer, deux phénomènes questionnent et transforment en profondeur le visage de l’institution muséale :

D’un côté, le bourgeonnement des CCSTI, nouvelles institutions culturelles tournées vers l’interactivité et la participation pratique des visiteurs – devenus visiteurs-acteurs –, a progressivement questionné le musée classique, organisé principalement autour de la patrimonialisation, de l’exposition et de la contemplation des œuvres. Des fab-labs aux ateliers en tout genre, les CCSTI ont insufflé de nouvelles formes d’adresse au public et donné naissance à autant de nouveaux espaces d’individuation psycho-sociale. Dans le même temps les institutions culturelles ont connu un large processus d’hybridation, duquel sont notamment apparues des formes intermédiaires entre musée et CCSTI, à l’instar du rapprochement du Palais de la découverte et de la Cité des sciences et de l’industrie dans l’établissement d’Universcience en 2009.

D’autre part, tout en catalysant ce tournant vers l’action et la participation, l’essor du web et des technologies numériques en général ont fait émerger une économie de la contribution dont les structures de fonctionnement relativement déhiérarchisés et plus distribuées questionnent désormais le modèle historiquement vertical et descendant des institutions en général, et notamment des musées. Dans ce cadre, la muséologie semble aujourd’hui être interrogée tant au niveau des fonctions du musée que de son organisation, et devoir intégrer à ses réflexions des éléments provenant de champs disciplinaires transverses et d’institutions culturelles variées, qui débordent de plus en plus le cadre du musée traditionnel.

Dans ces conditions, nous proposons dans ce séminaire une conception prospective du musée de demain, reposant sur la pleine assomption du rôle politique du musée comme moteur de propositions socio-culturelles et économiques nouvelles. Selon cette perspective, le musée est à concevoir comme un écosystème de relations, à la fois comme un lieu de la contemplation, de l’imagination et de l’action, comme une ruche de savoirs et d’innovation et comme un carrefour de corps de métiers se rencontrant dans des projets socio-économiques et culturels partagés. L’idée est de concevoir le musée comme une force de proposition afin d’infléchir dans le sens d’une muséologie tournée vers l’expérimentation socio-politique et culturelle. Dans ce sens, le musée serait en quelque sorte un laboratoire esthétique et politique, un espace d’apprentissage théorique et pratique, et constituerait un creuset pour l’émergence et la réalisation de projets et d’entreprises communes.

Pour soutenir cette conception du musée, nous nous appuierons sur la notion d’espace transitionnel qui renverra conjointement aux espaces muséaux dans leurs dimensions physiques et transitoires (scénographie, architecture, organisation, etc.) et à l’importance capitale que jouent ces espaces sur l’affectivité individuelle et les dynamiques de participation qui y ont lieu (jeux de contemplation, d’imagination, action individuelles et collectives). Au travers de cette notion charnière, il s’agira d’envisager les critères et les conditions nécessaires à la constitution de zones d’expériences partagées, en vue d’imaginer différentes configurations possibles pour créer les écosystèmes muséaux, entendus comme espaces transitionnels de la mémoire et des savoirs (savoir-faire, savoirs théoriques et pratiques).

= Structure du séminaire =

  • 2 séances d’introduction générale sur la conception du musée comme écosystème, sur la notion d’espace transitionnel et sur le cadre socio-économique global dans lequel s’inscrit le musée aujourd’hui
  • 4 séances d’explorations théoriques et pratiques des dynamiques déjà existantes qui pourraient illustrer nos propositions et constituer des points de départs possibles à leur réalisation
  • 2 séances d’ouverture sur des propositions architecturales et conceptuelles pour étendre le champ d’action et de pensée sur le musée vers de nouveaux horizons
book
Collections right