» Impression
Le document est prêt dans 30 secondes.

Si les images ne sont pas présentes dans le document généré, merci de recharger la page.
Les
écologies
du
numérique
Introduction

Résumé

La vocation de ce projet éditorial est de proposer une réflexion collective et multidimensionnelle sur les conditions et les modalités des écologies du numérique (matérielle, psychique, sociale et politique). Cette réflexion est menée de manière conjointe à travers des analyses de pratiques de conception, de production, de diffusion et d'usage propres au design au sens large (design objet, design graphique, design éditorial), et à travers des projets d'artistes et de designers confirmé·e·s, comme d'étudiant·e·s de 2e cycle à l'ÉSAD Orléans, qui interrogent les effets du système numérique sur les milieux naturels et artificiels tout en proposant de nouvelles pratiques de conception et de partage des savoirs. Dans cette introduction, il s'agit avant tout de poser les enjeux d'une pluralisation de l'écologie, puis des significations d'un horizon post-numérique, et enfin des raisons motivant une édition en web to print.

Text écrit en 2021 et actualisé en 2022 pour la publication des actes augmentés du colloque "Les écologies du numérique" organisé par l'ÉSAD Orléans (ÉCOLAB) en 2017 et 2018.

Mots clé 

Écologie, Design, Numérique, Édition, Post-numérique, Savoir 

Biographie

Ludovic DUHEM

Ludovic Duhem est philosophe et artiste. Il enseigne la philosophie dans des écoles supérieures d'art et de design en France et à l'étranger, ainsi qu'à l'université. Actuellement coordinateur de la recherche à l'ÉSAD Valenciennes, il était responsable de la recherche de l'ÉSAD Orléans de 2010 à 2019 et directeur de l'UR ÉCOLAB de 2016 à 2019. Ses recherches portent sur les relations entre esthétique, technique et politique en lien avec les enjeux écologiques. Site web : www.ludovicduhem.com.

Pluraliser l'écologie

Ce projet éditorial porte sur les conditions et les modalités d’une conception "écologique" du numérique à travers les pratiques contemporaines de design. Il repose plus précisément sur l’idée que l’écologie est irréductible à l’étude scientifique des écosystèmes et à l’engagement pour la protection de la nature, et qu’elle doit par conséquent se comprendre au sens large comme une approche relationnelle, dynamique, scalaire et complexe pouvant s’appliquer non seulement aux milieux naturels mais aussi aux milieux artificiels, et en particulier au milieu numérique devenu aujourd’hui le milieu associé de nos existences humaines, c'est-à-dire ce qui donne des conditions et des significations nouvelles à nos manières de sentir, de penser et d'agir.

À ce titre, l’élargissement de l’écologie appliquée au numérique n’est pas une naturalisation de la technique qui ferait des objets numériques des êtres autonomes vivant au sein d’écosystèmes isolés de la toxicité des conditions industrielles de leur production, de la dépense énergétique considérable de leur utilisation et des effets nocifs de leur destruction (ce que la cybernétique a pu longtemps laisser croire et que la logique d'effacement technocapitaliste poursuit aujourd'hui). Ce n’est pas non plus une manière de fonder la sortie de la crise écologique (si cette crise peut être clairement circonstanciée et n’être qu’un moment de notre histoire commune) sur le développement exclusif des technologies numériques. Cela signifierait avoir recours à un technicisme naïf reprenant le mythe moderne du progrès (irrésistible, infiniment désirable, intégralement rationnel et intrinsèquement bon) pour le transférer dans la "société de la connaissance" (grâce à la puissance de calcul, de simulation et de réticulation de la rationalité computationnelle) et de l'idéologie de l' "innovation permanente" (dont le sens est économique plutôt que technique), tout en ignorant volontairement que ce transfert implique en même temps la transformation du savoir en marchandise, l'accroissement du travail gratuit, et le contrôle de la vie individuelle et collective (donc une prolétarisation généralisée par la perte de savoir-faire, de savoir-être, de savoir-vivre et de savoir concevoir).

Au contraire, il est question d’opérer une véritable critique de l'hypermodernité numérique, celle du calcul automatique généralisé et de la transformation intégrale de toutes les dimensions de la réalité du niveau nanophysique au niveau cosmologique. Cette "critique" n’est pas une opposition à toute forme de "modernité" (exigence de rationalité, d’universalité et d’émancipation en font partie) ni au "numérique" comme tel (comme technique, industrie et média), mais une démarche de questionnement sur les conditions de sa constitution, de son évolution, de son fonctionnement et de ses effets. C’est aussi une recherche de dépassement des alternatives classiques entre humanisme et technicisme d’une part, humanisme et écologisme d’autre part, lesquelles limitent aussi bien la compréhension de la complexité de la crise écologique planétaire que la réussite des actions proposées pour la résoudre.

Selon une telle perspective critique, ce projet éditorial propose de pluraliser l’écologie en questionnant le numérique sur le plan de l’écologie matérielle (ressources, risques et alternatives), de l’écologie psychique (capture de l’esprit et design du savoir), de l’écologie sociale (transformation de l’identité, conditionnement des communautés, contrôles des échanges), de l’écologie politique (nouvelles formes d’exploitation et de lutte, de participation et d’organisation). Or, ces différents plans ne sont pas de simples catégories conceptuelles commodes pour traiter la question de l’écologie du numérique obtenues par son éclatement en aspects isolés, ce sont en réalité les dimensions du même problème, et plus encore les modes d’existence d’une même réalité qui se superposent, se heurtent, se plissent, se fracturent, au sein d’une situation tout à fait nouvelle. Plus précisément, en tant que le numérique tend désormais à transformer l’ensemble des relations entre la Terre et les êtres humains, mais aussi entre les humains et les artefacts, entre les humains et entre les artefacts eux-mêmes devenus autonomes et interconnectés ; il semble décisif de questionner non seulement l’impact écologique du numérique (ses effets physiques, biologiques, psychiques, sociaux, politiques) mais aussi l’impact du numérique sur l’écologie (comme science, discours, action, mobilisant les technologies numériques). À cet égard, une démarche critique doit nécessairement s'interroger sur les notions qu'elle convoque et sur les critères qu'elles mobilise, ce qui implique de questionner le "numérique" par rapport au "digital" et au "computationnel", l'extension de l'écologie (ainsi que les notions de milieu, d'écosystème et d'évolution) à la réalité artificielle, et la notion d'impact elle-même dans la mesure où elle est à la fois ce qui relève d'abord du choc, de la perturbation, de la destruction d'un donné supposé stable et normal, comme ce qui exprime ensuite un impératif de mesure, d'évaluation, d'enregistrement de ce qui est nécessairement identifiable et calculable, et comme ce qui suppose enfin un possible contrôle sur les facteurs déterminant l'impact et une adaptation à ses effets.

C’est selon une telle approche multidimensionnelle, systémique et réflexive que le design pourrait ainsi aider à comprendre ce qu'implique le numérique dans l’ensemble du processus de connaissance et de transformation de la réalité, et contribuer au dépassement des alternatives classiques mentionnées plus haut comme au dépassement de l’opposition en design entre écologisme militant (design radical) et mensonge publicitaire ("green washing") qui polarise de manière stérile les positions au sein du domaine ainsi que les choix opérés dans de nombreux projets. À cet égard, le recours à l' "écodesign" développé par l’industrie depuis les années 1990 s’avère insuffisant voire trompeur, avant tout parce qu’il participe d’une gestion de la crise écologique plutôt que d’une remise en question des principes du modèle dominant - celui du techno-capitalisme extractiviste, carbonné, anthropocentré, computationnel et réticulaire - qui maintiennent les conditions de cette crise (exploitation de la nature, standardisation, opposition entre producteur et consommateur, perte de savoir, court-termisme, etc.) en l'imposant comme un état de fait, un ordre du monde irréversible, voire dans le pire des cas comme ce qui est souhaitable par dessus tout.

Être écologique pour le design à l'époque du numérique intégral, signifie donc dépasser l'écodesign, non seulement pour interroger les conditions matérielles (métaux, pétrole, énergie électrique, systèmes de transport, bâtiments) et les effets écologiques de l'infrastructure numérique (câbles, satellites, antennes, data centers, relais, serveurs locaux), des appareils (ordinateurs, smartphones, smartwatches, objets connectés), de leurs usages (volontaires et automatisés), et pour trouver des solutions de réduction des conséquences nocives de leur existence pour les milieux naturels et les milieux humains (sur le plan psychique, social, économique et politique). Mais c'est aussi un impératif d'imagination et d'expérimentation de nouvelles formes de conception, de production, de partage et de critique du numérique. Le design est capable d'assumer un tel impératif en prenant ses responsabilités, y compris en interrogeant sa propre dépendance au numérique. C'est précisément ce que ce projet éditorial cherche à montrer dans la diversité des points de vue, des pratiques de recherche et d'expression.

Vers un monde post-numérique?

Un enjeu majeur s’impose alors comme horizon de ce projet éditorial : celui de la conception d’un monde "post-numérique". Faut-il vouloir, concevoir, produire, un monde "post-numérique" pour répondre aux enjeux écologiques? Le rôle du design est-il celui d’y contribuer comme il a pu contribuer au monde numérique actuel, c’est-à-dire aussi au modèle dominant de la modernité industrielle mondialisée devenu insoutenable? Venu du champ de l’art, le concept de "post-numérique" est récent et demeure aujourd’hui polémique tant il peut prendre des acceptions différentes et parfois contradictoires, surtout quand il s’applique au design.

Premièrement, on peut évidemment entendre cette dénomination au sens chronologique et considérer qu’il s’agit d’une période postérieure à la constitution des techniques de conception, de production et de diffusion issues de la cybernétique, de l’informatique et de la télématique (on pense alors aux années 1980 plutôt qu’aux années 1950, et plus encore aux années 1990 avec le développement de l’informatique personnelle et surtout celle d’Internet à travers le web). Mais si une telle chronologie semble a priori commode, elle est en fait très problématique, en ce sens qu'elle assigne au numérique une origine unique et fixe sans tenir compte des décalages, des superpositions, des anachronismes, qui s'opèrent toujours au moment de l'apparition d'un nouveau système technique et plus encore dans le rythme de son adoption par la société où le rôle du design est déterminant (pour le diffuser, le faire accepter, le rendre facile à utiliser, voire pour l'imposer dans la culture).

Deuxièmement, on peut exprimer par là une position historique plus marquée et affirmer que le "post-numérique" désigne un autre design que le design analogique nécessitant la reconnaissance d’une césure historique qui dépasse la simple adoption de nouveaux outils dont les effets sont alors non seulement techniques et esthétiques, mais surtout ontologiques au point que le design change de nature. Une telle signification a une certaine pertinence dans la mesure où elle pose à juste titre que l'apparition d'un nouveau système technique peut transformer une pratique comme le design au point de la modifier dans tout ce qui la définissait par rapport aux autres pratiques existantes et apparentées, comme d'autres systèmes techniques et symboliques ont pu le faire dans le passé (l'écriture et l'imprimerie par exemple). Il serait toutefois tout aussi légitime d'affirmer que le design "post-numérique" conserve et/ou transpose des caractéristiques qui existaient auparavant et dont la trace est encore visible dans le design numérique actuel (tels le "bureau", les "outils", la "page", le "menu", pour ne parler que des plus évidents et des plus connus).

Troisièmement, on peut considérer que le design "post-numérique" est un design qui cherche à questionner le numérique en tant qu’ensemble ayant transformé la société dont l’omniprésence risque de dissimuler les enjeux éthiques, sociaux, politiques, et de manière plus préoccupante encore, les enjeux écologiques. Cette façon critique de l’envisager implique par exemple de remettre en question la place des écrans (attention, apprentissage, dépendance), le primat du "high tech" (complexité, fragilité, temps long et coût élevé de la R&D, ignorance du fonctionnement par les utilisateurs, alternatives "low tech"), l’impératif de l’automatisation (autonomie, décision, erreur), la soumission aux mégadonnées (calcul, contrôle, délégation), mais aussi et surtout de rétablir, réinvestir et renouveler la relation au monde physique, à la matérialité, à la vie, au corps, à l’humain, au-delà du code, du calcul, du programme. Si tous ces aspects du problème posé par le numérique intégral sont effectivement importants et même décisifs, il ne faudrait pas sous-estimer la capacité des géants technologiques et économiques (GAFAM) à intégrer ces critiques comme des opportunités de redéploiement de leurs activités et de maximisation des profits, comme le corps-interface dans les activités vidéoludiques (par les capteurs de mouvement et l'appropriation corrélative des gestes par brevet) ou la bulle spéculative autour de la signature cryptée des NFT ont pu le montrer ces dernières années, ou comme on peut le constater plus profondément dans la transformation structurelle de la matière (nanoingénieurie) et de la vie (biotechnologies) dirigée par la technoscience (NBIC).

Quatrièmement, ce questionnement peut se faire plus critique encore et devenir radicalement politique en appelant "post-numérique", un design qui refuse de passer par le numérique, donc qui refuse de mobiliser des techniques, des machines, des ressources matérielles et des sources d’énergie, mais aussi des modes de représentation, des modes de socialisation et d’organisation collective, considérées comme étant propres au "numérique" et produisant une dégradation des milieux de vie et des humains qui leur donnent sens. Le recours au "pré-numérique" peut alors apparaître comme une solution de repli séduisante, mais comportant le risque d’un retour illusoire à une situation définitivement passée qui reste malgré tout déterminée, même indirectement, par le numérique. Une archéologie du numérique (par l'archéologie des médias par exemple) montrerait par ailleurs assez facilement : d’une part l’existence de liens quasi indéfectibles du numérique avec l’analogique (histoire de l’écriture, du code, du calcul, de la tabulation, de la transmission d’information, etc.) et en particulier avec des techniques vernaculaires artisanales (comme le tissage, la broderie, etc.), et d’autre part la nécessité pour toute invention d’intégrer les schèmes, les méthodes et les formes du passé pour se constituer et s’inscrire dans la culture. Ce à quoi il faudrait évidemment ajouter la dépendance directe du numérique au système analogique, ne serait-ce que celle qui l'unit au système de production d'énergie électrique (ce dernier étant cependant de plus en plus piloté par le numérique).

Sans prendre parti pour telle ou telle signification de l’expression "post-numérique" et de lui associer une idéologie, un courant intellectuel ou une esthétique, cet enjeu traverse, même implicitement, la plupart des contributions de ce projet éditorial. Et si elles n’investissent pas cette question de front, elles proposent en tout cas de réfléchir à une conception écologique pour "refaire un monde" soutenable et partageable selon des formes inédites de représentation, de production, d’édition et de narration qui intègrent le numérique comme questionnement sur les principes, les conditions et les effets de la pratique du design. Le paradoxe est alors que le "post-numérique" comme horizon possible des contributions n’en exclut pas pour autant l’intérêt du numérique, à condition de le considérer ni comme la cause unique de la crise écologique ni comme sa solution incontournable ni non plus comme un outil neutre et sans conséquences, mais comme un dispositif expérimental fait de tensions, de frictions, de traductions et de potentiels dont on ne peut pas ignorer la puissance constructrice et destructrice (c'est-à-dire "pharmacologique", à la fois "poison" et "remède" exigeant une thérapeutique). 

Dans ce projet éditorial, il en va donc non seulement de ce que le numérique fait au design mais surtout de ce que le design peut faire du numérique et au numérique pour qu’il puisse être enfin moins destructeur pour la nature comme pour l’esprit, pour les artefacts comme pour les milieux sans lesquels il n’y pas de création ni de vie possibles. C'est précisément dans cet esprit que les contributions réunies ici entendent apporter des éléments pour comprendre les enjeux pour le design actuel d'une postérité numérique qui ne soit pas l'aggravation de la catastrophe, la poursuite aveugle de l'innovation permanente et l'adhésion béate à la "smartness" des AI, mais le soin à long terme de l'alliance vertueuse de la vie organique, de la vie technique et de la vie symbolique, celle qui fait du monde humain un monde partageable et habitable au moment où la biosphère tend à se confondre avec la technosphère et où l'humanité est tentée par un avenir post-politique et trans-humain délétère.

Éditer "les écologies du numérique"

Ce projet éditorial témoigne des recherches de l'unité de recherche ECOLAB au sein de l’École Supérieure d’Art et de Design d’Orléans entre 2017 et 2019. Il constitue les actes augmentés de deux colloques dont le premier volet "Les écologies du numérique" (9 et 10 Novembre 2017) avait pour principale ambition de questionner les formes d’écologie que le design pouvait à la fois questionner, concevoir et transformer pour comprendre les enjeux actuels du numérique. Le second volet, intitulé "Les écologies du numérique #2 Vers un design post-numérique?" (13 et 14 Décembre 2018) proposait pour sa part d’interroger la possibilité et la pertinence d’un design "post-numérique" à travers deux thématiques : "matérialités post-numériques et savoirs vernaculaires" et "design éditorial et nouvelles formes de narration".

Par le choix d'un contenu proposé intégralement en ligne sous la forme d'un site web to print, il fallait en quelque sorte prendre acte d’une nouvelle économie de l’édition, en particulier de l’édition d’ouvrages collectifs proposant un contenu théorique (à la fois peu écologiques même avec un papier certifié, des encres végétales et des circuits courts d'impression ; coûteux à produire, surtout aujourd'hui avec la crise durable du papier ; difficiles à diffuser à cause du prix de vente et du contenu très spécialisé), mais aussi et surtout d’une nouvelle écologie du savoir directement engendrée par les nouvelles formes d’écriture, de lecture et de diffusion que le numérique rend possible. Il serait donc erroné de voir là un aveu d’échec quant au combat pour la circulation des idées dans la société actuelle ou un geste purement pragmatique d’adaptation au marché de l’édition classique bouleversé par le numérique (notamment par l’autocomplétion de l’écriture, l’automatisation de la lecture, l’algorithmisation de la narration, et plus encore par l’automédiatisation et l’autoédition). Il s’agit donc d’un véritable parti pris pour les idées, pour la pensée, pour la publicité du savoir dans une époque où s’imposent la numérisation massive du savoir publié, l’industrie des plateformes de contenu, la logique de l’audience et d’exploitation de l’attention, l’appropriation économique des langues, l’automatisation de la pensée et de la conversation, auxquelles tentent de résister le hacking, la conception de logiciels libres, les plateformes collaboratives et les communautés d’amateurs.

Partant de cette idée et participant de cet engagement, les contributions présentes dans ce projet éditorial sont toutes animées par l’impératif d’établir un nouveau rapport au savoir, à ses conditions de production et à sa publicité, en étant à la juste mesure des transformations produites par la numérisation. Cela se traduit dans le choix de proposer un ensemble de contributions qui soient des réécritures des interventions aux deux colloques, au double sens d’une écriture seconde qui approfondit et prolonge ce qui a été dit, et d’une nouvelle écriture qui en diffère complètement par le nouveau contexte de diffusion. D’autres contributions inédites (Yves Citton, Fabrice Flipo, Jean-Jacques Gay, Roxane Jubert, Andrew Feenberg) viennent aussi s’ajouter à l’ensemble initial en apportant un complément nécessaire, en déplaçant un point apparemment assuré, en ouvrant une perspective inattendue, pour faire de cette publication un objet non linéaire dans sa structure et non univoque dans son propos.

Les présentations de projets de création jouent à cet égard un rôle décisif qui n’est pas du tout celui d’une illustration des textes théoriques : leur rôle est à la fois celui d’une articulation entre les textes par le hors texte (celui de l’image), à la manière d’une trame rythmique et d’une pensée qui s’écrit autrement dans un réel dialogue, et celui d’un contrepoint sensible et autonome qui déborde les textes en traçant des lignes marginales à partir de ce que les textes ne peuvent pas dire. Une sélection de projets de Master d’ancien·ne·s étudiant·e·s de l’ÉSAD Orléans vient enfin marquer la synergie entre recherche et pédagogie, entre enseignement et création, entre ce qui est transmis dans une école et ce qui ne peut pas l’être autrement que par l’expérimentation. 

La construction d’un tel projet éditorial s’est donc faite sans hiérarchie entre les différentes contributions, dans l’esprit de la recherche produite dans les écoles d’art et de design qui se fait aussi bien par les chercheuses et chercheurs du monde académique, par les actrices et acteurs du monde de la création, que par les étudiantes et étudiants en 2e et 3e cycle. C’est ce qui fait de ce site web (réalisé via Wordpress) un premier engagement dans une recherche contributive décloisonnant les types de savoirs, de disciplines, de supports, de pratiques, de statuts, en cohérence avec le potentiel du numérique et la nécessité écologique de transformer toutes nos habitudes de penser, de vivre et d’agir. C’est justement là le rôle des structures d’enseignement, en particulier celui des structures publiques d’enseignement supérieur "artistique", de cultiver le goût pour le savoir mais aussi le désir de s’émanciper des réalités instituées pour ouvrir d’autres voies à l’esprit du temps et à l'avenir du monde.

Nota bene : les textes présentés dans cette publication ont été écrits à des dates différentes en raison de leur rédaction initiale pour une communication lors du colloque "Les écologies du numérique" (en 2017 et en 2018), puis de leur actualisation en vue de la publication des actes (2019 et 2020), et d'autres textes ont été écrits postérieurement en raison d'invitations adressées à des chercheuses et chercheurs (en 2020) pour compléter les contributions et offrir ainsi des "actes augmentés".

Publier, copier, sortir de l’obscurité
Eric SCHRIJVER

Résumé

Comment faire des livres dans l’ère post-numérique? Pour répondre à cette question décisive aujourd’hui, cet article propose de revenir sur différentes modalités d’édition en interrogeant supports et conditions, moyens et échelles. Mais c’est la question du droit d’auteur, restée jusque-là dans l’obscurité, dont l’impact est examiné comme atteinte à la liberté de création dans un contexte où les pratiques éditoriales sont de plus en plus menacées par le contrôle algorithmique. Des outils sont proposés ici pour tenter de lutter contre une situation délétère pour la création au profit d’une pratique « libre » qui réclame le droit de copier et cherche à faire évoluer la législation.

Texte écrit en 2020 pour les actes du colloque « Les écologies du numérique » organisé par l’Ésad Orléans (ÉCOLAB) en 2017 et 2018.

Mots clé 

Post-Numérique, droit d’auteur, copier, publier, législation, libre

Biographie

Eric SCHRIJVER

Auteur et designer d’interaction, Eric Schrjiver est né à Amsterdam et vit et travaille à Bruxelles. En tant que designer, il travaille notamment sur des interfaces d’édition et des publications numériques et hybrides. De 2011 à 2017, il a fait partie du noyau du collectif graphique Open Source Publishing. À travers son blog I like tight ponts and mathematics, il sensibilise les designers et artistes à des questions culturelles liées à la programmation informatique. En 2018, il a publié son premier livre Copy This Book. An Artist’s Guide to Copyright (Onomatopée, Pays-Bas). Ce guide à la fois critique et pragmatique aide des créatif·ve·s à naviguer dans les paradoxes du droit d’auteur.

www.ericschrjiver.nl


Dans les années 1990, en suivant un tutoriel édité par le mythique fournisseur d’Internet amstellodamois XS4ALL, j’ai réussi a faire apparaître sur le web les mots « HELLO WORLD ». Peu de choses de ma pratique numérique d’adolescent font encore partie aujourd’hui de ma vie, mais l’édition numérique, surtout en ligne, ne m’a pas quitté depuis. En 2008, quand j’ai commencé à enseigner le design d’interaction aux étudiant·e·s de l’École des Beaux-Arts de La Haye (la KABK), j’étais plongé dans différentes sous-cultures du numérique : le design web d’un côté, mais aussi la communauté du logiciel libre qui cherchait de nouvelles méthodes de collaboration en ligne. Toutes ces personnes avaient l’habitude de publier leurs projets sur des sites et des blogs, et de cette manière j’ai pu être au courant de leur travail et parfois collaborer avec des gens de l’autre côté du monde[1]. Le design et l’édition numérique se montraient très accessibles, et il me semblait facile d’y intervenir et d’avoir un impact sur ce qui était et qui reste encore un champ en pleine mutation et expansion. Bien plus facilement en tout cas que dans des pratiques plus établies, saturées et intimidantes comme le design de livres papier et d’affiches.

Lorsque j’ai commencé à enseigner, j’ai donc été un peu surpris de découvrir que mes étudiant·e·s (et certain·e·s de mes collègues) se montraient souvent beaucoup plus enthousiastes pour des supports graphiques comme les posters et les livres papier, et qu’iels ne ressentaient pas la même excitation à investir des formats édités et partagés sur écrans. Même dans des écoles très pluridisciplinaires, peu importe le sujet, mes étudiant·e·s revenaient presque systématiquement vers moi avec des éditions papier. 

Cet intérêt pour des formes analogues et au long pedigree ne se limite pas aux écoles, comme en témoigne une tendance mondiale à organiser des « book fairs », dont le nombre a explosé dans les dix dernières années[2], et cette tendance ne se limite pas non plus au livre, mais inclut plusieurs médiums « zombies », dont l’obsolescence semblait programmée, mais qui reviennent en force, comme les magazines xérographiés, l’impression riso et les cassettes audio.

La volonté d’éditer sur des supports physiques ne me semble pourtant pas liée à un refus des technologies numériques : le plupart des designers et artistes qui font des éditions aujourd’hui s’emparent d’ordinateurs et de logiciels. Ce n’est donc pas au sein du processus créatif que l’attraction se trouve, mais dans les modalités de distribution. Dans ce qui suit, je passerai en revue différentes modalités d’édition à l’heure post-numérique, en interrogeant supports et conditions, moyens et échelles. Je pourchasserai quelques zombies, en déterrant leurs racines profondes. Une d’entre elles, jusque-là restée dans l’obscurité : le droit d’auteur, dont j’examinerai l’impact, cette fois pas comme un vecteur d’émancipation des artistes mais plutôt comme une atteinte à la liberté de création, ayant une influence sur nos processus créatifs, incluant nos choix de médiums. Je mettrai en lumière la façon dont les changements législatifs amenés par la récente directive européenne impacteront les pratiques éditoriales avec l’évolution probable vers un contrôle algorithmique. Je tenterai enfin de fournir des outils pour se défendre contre ce qui s’avère pire que les zombies de l’analogique…

Faire des livres dans l’ère post-numérique

L’arrivée du numérique n’a pas rendu obsolète les médiums physiques, mais leur rôle et leur statut s’est transformé et continue à muter en relation avec de nouveaux objets dans le paysage de la publication désormais hybride. Dans Post-Digital Print, La mutation de l’édition depuis 1894[3], Alessandro Ludovico décrit les changements dans l’édition qui ont mené à un écosystème dans lequel les chaînes de production des supports physiques et analogiques sont entrelacés. Dans cet écosystème, le médium du livre imprimé a pu maintenir une position importante pour plusieurs raisons. D’abord, c’est une interface de lecture ergonomique, entre autre parce qu’il permet le feuilletage. Ensuite, là où beaucoup de systèmes d’édition numérique manquent en flexibilité pour varier leurs feuilles de style en fonction du contenu, le livre permet de faire un design cohérent entre forme et contenu, couverture et intérieur. Il contient sa propre représentation, par sa couverture, ce qui aide à se faire représenter et à s’imprimer dans la conscience collective. Et même si la majorité des expériences de lecture se fait aujourd’hui sur des écrans, ces éditions sont souvent fragiles. Elles dépendent d’un hébergement à maintenir, parfois d’abonnements qui peuvent être résiliés, et sont inscrites dans un réseau de liens qui peuvent à tout temps arrêter de fonctionner. Parce que le livre physique est contenu en lui-même[4] et que les infrastructures autour du livre existent depuis longtemps, il existe non seulement des magasins pour les vendre mais aussi des bibliothèques pour les prêter et les archiver. Finalement, le livre papier est aussi un moyen indispensable pour légitimer son contenu. Parce qu’il reste encore aujourd’hui peu accessible de publier un livre – il demande un certain nombre de moyens, notamment économiques, mais aussi de trouver sa place dans une chaîne relativement restrictive – on a tendance à légitimer les contenus et la parole d’auteur·e·s qui ont eu l’opportunité d’en publier[5]. Moi-même, ayant récemment publié mon premier livre en papier, j’ai pu faire l’expérience de la transformation, en tout cas symbolique, d’avoir publié un « vrai » livre. Et pourtant je publiais depuis longtemps en ligne.

Si l’attrait pour le livre reste donc compréhensible, cela ne veut pas forcément dire qu’un format imprimé est le meilleur format pour tout projet d’édition. Dans le monde post-numérique, certaines formes imprimées prospèrent et certaines sont marginalisées – comme en témoignent les annuaires téléphoniques et les encyclopédies, aujourd’hui principalement consultés en ligne. Dans le contexte de l’édition culturelle et artistique également, certaines formes imprimées bénéficient plus que les autres du remaniement effectué par l’arrivée du numérique. En tant qu’artiste, avoir un site internet et apparaître sur des blogs est une chose, mais un catalogue monographique reste inégalable pour se démarquer dans le marché de l’art. Même les graphistes les plus référencé·e·s de l’époque du premier « boom » du web, et qui traitaient de l’influence du numérique dans leur travail, se sont légitimé·e·s par des magazines imprimés (par exemple Emigre). C’est certainement à cette ironie que David Carson faisait référence en nommant sa monographie en papier The End of Print en 1995[6].

Au-dessous d’une certaine quantité de pages, par contre, beaucoup d’avantages du livre peuvent disparaître. Une raison toute bête, c’est qu’il devient alors impossible pour l’édition d’avoir un dos, et une grand partie de l’écosystème du livre dépend de son dos. Le dispositif principal pour présenter et ranger des livres, de la librairie à la bibliothèque de prêt et aux espaces privés, est la bibliothèque, dans laquelle les livres sont en majorité rangés « en montrant leur dos », qui contient des informations qui les rendent identifiables. C’est un des grands défis qu’amènent les zines, par exemple. Il est compliqué de les vendre dans un réseau de distribution en librairie[7], non seulement pour leur fréquente absence d’ISBN mais aussi pour leur format « sans dos ». Et une fois vendus, d’expérience, ils sont plus vite oubliés (car moins visibles), et ils survivent moins bien au tri, car on se débarrasse plus facilement des livres qui sont compliqués à ranger dans sa bibliothèque. Dans les bibliothèques publiques et les archives, ces publications sont classées comme « ephemera », et toutes les institutions n’ont pas forcément l’infrastructure pour les gérer.

De plus, pour qu’un contenu fonctionne en tant que livre, il faut aussi qu’il soit diffusé en un certain nombre d’exemplaires. L’objet pourra alors être diffusé dans un cercle moins restreint que le cercle social de son édit·eur·rice, en passant par exemple par une structure de diffusion. En plus, à partir d’environ 500 exemplaires, il devient possible de travailler en impression offset, ce qui donne une grande flexibilité au niveau des choix d’encres et de papier, mais aussi de travailler avec des imprimeu·r·se·s qui amènent leur expertise au projet, et avec des processus industriels amenant précision et rapidité. Je comprends qu’il ne soit pas nécessaire pour chaque projet de trouver les moyens d’investir dans une édition en offset. Il y aussi beaucoup de projets qui veulent travailler avec des contenus plus succincts. Mais c’est exactement là où, avant de se tourner vers une édition limitée en papier, je me demande toujours : – pourquoi pas une édition numérique ? L’édition sur écran offre des possibilités importantes : elle est moins chère,  plus rapide, et capable de toute une série de solutions graphiques inaccessibles aux formats physiques : l’inclusion d’animation, de son, de vidéo ; la contextualisation par hyperlien, et l’ajout des interactions programmées. Avec en plus la possibilité pour les contenus de circuler à une échelle mondiale sans dépendre de services postaux. 

Médiums zombies

Aujourd’hui, beaucoup de graphistes, édit·eur·rice·s et artistes créent des éditions numériques[8]. Et en même temps, il y a également une tendance à créer des petites éditions d’objets physiques. Je reviendrai sur cette question des éditions limitées. La dimension « micro » est tout à fait assumée par les créat·eur·rices qui la pratiquent, comme en témoigne l’utilisation du le terme « micro-édition » pour désigner des objets, des événements et des structures éditoriales. La notion de petite échelle dans l’édition est une catégorie à part entière. Cette tendance me semble intéressante à rapprocher du mouvement des « micro-brasseries », qui nomme la tendance à créer des bières à petite échelle avec des méthodes artisanales. Mais il y a une différence fondamentale entre faire de la bière et faire des œuvres d’esprit. Dans le cas des bières, produire à une échelle industrielle demande des fonds importants, alors que la particularité de l’édition numérique, c’est qu’elle permet une grande flexibilité d’échelle, avec des moyens réduits au minimum. Pourquoi donc cette insistance sur les productions à petite échelle?

Une autre tendance que j’ai pu remarquer, au-delà du choix de faire de la « petite édition », autre terme utilisé dans le champ, c’est le recours à des techniques de reproduction oubliées par le mainstream. On pourrait par exemple se pencher sur la forme du fanzine, qu’on trouve de plus en plus sur les tables des foires de livres d’artistes. Les fanzines, c’est d’abord un phénomène historique. Les fans de science fiction ont trouvé ce moyen pour échanger à propos de leur passion (à noter qu’il n’existait alors pas de revues qui représentaient ce qui était classé comme sous-littérature à l’époque), puis ce fut le tour des punks et des Riot Grrrls, entre autres mouvements contestataires. Aujourd’hui, ce n’est pas comme si les fans de science-fiction ne discutaient plus, n’écrivaient plus et n’exprimaient plus leur créativité. Sauf qu’iels n’ont plus vraiment besoin d’une photocopieuse pour cela. Iels se sont appropriés les forums, les blogs, les réseaux sociaux… Les artistes, commissaires d’exposition et graphistes qui choisissent aujourd’hui de s’approprier les formes du fanzine peuvent profiter d’un héritage culturel important (et espèrent peut-être profiter un peu de son aura!) mais en choisissant ces formes, iels se retrouvent un peu le « cul entre deux chaises », ne pouvant ou ne voulant pas forcément profiter des réseaux informels de distribution qui se sont historiquement construits autour des zines, ni des possibilités des formats numériques.

Comment expliquer le fait qu’une photocopieuse à encre liquide – largement oubliée depuis que la combinaison imprimante laser, scanner et photocopieuse numérique a conquis les bureaux – gagne une grande renommée chez les graphistes? Je parle du risographe bien sûr, qui dans cette dernière décennie a vécu une renaissance spectaculaire. En fait, avec la risographie, je peux encore comprendre en partie son intérêt. Tout comme les photocopieuses et les imprimantes laser, qui forment la base de la technologie « print on demand », la riso permet de faire des reproductions papier en petite édition et demande donc moins de moyens économiques à investir. L’avantage c’est que la riso permet l’utilisation de couleurs éclatantes qui sont normalement réservées à l’impression offset, économiquement viable qu’à partir d’un nombre d’exemplaires élevé, ou encore la sérigraphie, qui demande un processus de préparation long et un matériel plus complexe.

De tous les médiums que j’ai vu renaître dans ce monde post-numérique, celui qui m’as le plus surpris n’est pas en papier : il s’agit du regain d’intérêt actuel pour l’édition en cassette audio. Le journal néerlandais NRC a publié un entretien avec deux habitants de la région d’Eindhoven. D’un côté un ancien ingénieur nonagénaire de chez Philips, de l’autre un jeune entrepreneur ayant racheté une fabrique d’audio-cassettes[9]. L’ingénieur, qui était à la base du développement de l’audio-cassette quand il avait l’âge de l’autre, a ensuite rejoint l’équipe qui a développé le compact disc. Il ne comprend rien à cette nouvelle génération qui veut utiliser un médium de mauvaise qualité sonore. Écrire un CD, ça coute moins qu’une audio-cassette, et surtout, aujourd’hui, la bande passante d’internet est bien assez puissante pour qu’on puisse distribuer sans investissement préalable des morceaux de qualité CD ou même supérieure. D’où vient donc le choix de distribuer son travail sur cassette ?

Avant, j’avais des explications peu flatteuses pour justifier le désir des artistes et graphistes de disséminer sur des supports physiques (démodés en plus!), en édition limitée. Je pensais surtout qu’iels étaient soit nostalgiques et soit élitistes. Mais aujourd’hui je ne suis plus tout à fait d’accord avec cela. J’ai trouvé une réponse plus sympathique. Je pense qu’iels ont aussi compris que le support physique leur permet l’accès à quelque chose d’autre : la liberté de création.

Le droit d’auteur et la liberté de création, ou comment le sampling est devenu bling bling

Dans le contexte de l’Europe occidentale, un des vecteurs majeurs pour restreindre la liberté de création est le droit d’auteur. Ce n’est pas forcément évident, mais le droit d’auteur peut en réalité se montrer très contraignant pour la création, alors qu’il est souvent présenté comme étant censé la défendre. Malgré le fait que les techniques comme la citation, la parodie, le sampling, le remix et le détournement sont devenues très courantes comme stratégies artistiques (même si elles ont toujours fait partie de la création), les lois et la jurisprudence sont devenues plus strictes. Si à ses débuts au 18e siècle le droit d’auteur se concentrait sur la copie d’un contenu tel quel (notamment des livres), le droit d’auteur a évolué vers un modèle où n’importe quelle adaptation est une infraction. Oui, il y a la liberté de citation, mais cette liberté n’est clairement développée que pour le texte, pas pour l’image.

Le fait que le droit d’auteur ait un impact sur la création n’est pas du tout une évidence, ni pour les créati·f·ve·s, ni pour les politicien·ne·s, ni pour les juristes. Dans la rhétorique du droit d’auteur, ce dernier est censé protéger l’auteur·e. Et c’est vrai : le droit d’auteur donne aux créatifs la possibilité d’exploiter et de contrôler une partie de sa production. Il est par exemple indispensable dans les négociations avec des éditeurs et autre diffuseu·r·se·s. Mais il contraint aussi sa création.

L’histoire de la musique contemporaine nous en montre un exemple simple. Quand la technique du « sampling » est devenue populaire dans les années 1980, il n’y avait pas encore de pratique légale pour la contester. C’est pour cela que les artistes de l’époque ont pu incorporer des fragments de nombreux morceaux pour les détourner de façon créative. En écoutant aujourd’hui des morceaux de De La Soul ou des Beastie Boys, il est surprenant de remarquer à quel point ils ont été capables de réutiliser ou citer des morceaux très connus – souvent même en faisant du sampling de plusieurs morceaux sur une piste. C’était une période où les ayant droits n’avaient pas encore commencé à revendiquer leurs droits, et personne alors ne savait si le droit d’auteur allait incorporer une possibilité de sampling. Les choses ont bien changé ensuite. Au fur et à mesure des procès contre le sampling, la jurisprudence a basculé vers une situation où n’importe quel sample, même très court, doit faire l’objet d’une licence. Aujourd’hui, le sample a disparu du vocabulaire, sauf pour le sampling « bling bling ». Le sample est devenu comme la Bentley dans les clips: quand Kanye sample Daft Punk, on sait que cela lui a coûté cher.

Cette situation ne concerne pas uniquement la musique. Les artistes plasticien·ne·s et les graphistes se retrouvent aussi restreint·e·s par le droit d’auteur. Voici une liste non-exhaustive de choses qui sont empêchées par le droit d’auteur :

– utiliser n’importe quelle image sans demander la permission à son auteur·e – même si on ne sait pas qui est l’auteur·e  (une « image orpheline »)

– faire un dessin ou une peinture basée sur une photographie

– faire un détournement critique et/ou artistique d’une image existante sans humour (la moquerie est importante pour que cela soit considéré comme une parodie – une des rares exceptions au droit d’auteur)

– faire une photographie en studio où sont utilisés du mobilier, des vêtements ou des bijoux, sans permission[10]

Certaines de ces pratiques qui constituent des infractions au droit d’auteur semblent pourtant très courantes dans le travail créatif. Et une partie du problème est là. Le droit d’auteur est à la fois très strict, très souvent enfreint et peu mis en pratique. Le droit d’auteur fait partie du droit civil, et lorsqu’une reproduction enfreint les droits d’auteurs d’une personne, légale ou physique, il faut qu’elle-même montre un intérêt actif à empêcher ou à négocier cette reproduction. Pour cela, il faut d’abord qu’elle repère l’infraction à ses droits d’auteurs. Ensuite, c’est à elle de décider si elle veut contacter la personne qui a copié son travail pour négocier les conditions de cette utilisation ou l’interdire. Si ces deux personnes ne trouvent pas d’accord, la personne copiée, si elle en a les moyens, peut faire un procès à la personne l’ayant copiée. Pour qu’une infraction devienne un problème, il faut donc que l’ayant droit soit au courant de cette infraction et veuille agir. Il n’y a pour l’instant pas de processus magique permettant aux ayants droit de constater des copies d’un travail. Tout cela dépend beaucoup des rencontres faites par hasard, et aussi du fait que plus une œuvre circule, plus elle risque de croiser le regard des ayant-droits.

La sécurité par l’obscurité

Il me semble que les risques légaux de la création artistique contemporaine font partie des raisons pour lequelles les créati·f·ve·s choisissent de travailler dans des éditions physiques et limitées. Tout le monde n’est pas au courant des détails du droit d’auteur, mais les gens en savent assez pour que les personnes qui pratiquent des stratégies artistiques courantes, comme la citation visuelle, se disent que cela pourrait représenter un risque. Et il me semble que, consciemment ou inconsciemment, on cherche des stratégies pour réduire ce risque.

Je crois qu’aujourd’hui beaucoup de créati·f·ves suivent une stratégie qu’on peut appeler la « Sécurité par l’Obscurité ». C’est une terme utilisé par les ingénieur·e·s du domaine de la sécurité informatique pour désigner les stratégies qui dépendent que certaines informations restent en sous du radar. Il ne s’agit pas d’éviter l’infraction au droit d’auteur, mais de minimiser les chances que son infraction soit repérée. Avec des éditions graphiques sur papier, on a l’avantage d’utiliser un médium qui permet de faire circuler un contenu dans un cercle restreint. Dès que l’on publie en ligne, si un contenu devient « viral » il peut se retrouver tout d’un coup partagé à une échelle énorme. Si on publie sur papier, ou sur cassette, ce risque est moins probable. On maîtrise donc mieux la dissémination[11].

Un projet d’édition numérique demande une stratégie différente, où on essaie non pas de minimiser les chances de découverte des infractions, mais de minimiser les infractions elles-mêmes. Ce type de stratégie demande une certaine connaissance du droit, une compétence qui ne fait pas forcément partie des outils acquis lors des études artistiques, et qui n’est pas non plus activée ni valorisée par la suite… C’est peut-être pour cette raison que les premiers projets d’édition numérique dans lesquels je me suis retrouvé, étaient soit faits par des grandes maisons d’édition, soit par des gens intéressés par le monde du logiciel libre et des Creative Commons. Ces maisons d’édition de grandes tailles peuvent investir dans des conseils légaux et/ou payer pour des licences. Et pour les passionné·e·s du libre, il est plus habituel que pour les autres créateur·e·s d’avoir une connaissance du droit d’auteur et une volonté idéologique que des éléments adaptés ou réutilisés soient eux-mêmes sous licence libre ou dans le domaine public. C’est cet accès aux ressources légales qui fait que ces act·eu·rices se sentent plus sûr·e·s dans leur démarche d’édition numérique.

La directive qui risque de changer la donne

Une alternative à la sécurité par l’obscurité peut donc passer par l’acquisition des connaissances juridiques d’un côté, et de l’autre par la volonté de trouver d’autres stratégies créatives. La nécessité de ne pas uniquement compter sur l’obscurité va devenir de plus en plus importante, notamment à cause des nouvelles législations liées à la directive européenne récente sur le droit d’auteur dans le marché unique. La directive ayant été votée en mars 2019, les états membres ont jusqu’à mars 2021 pour la concrétiser dans des lois nationales. Si la majorité du droit d’auteur va rester telle qu’elle est déjà, il va quand même être appliqué de façon beaucoup plus massive. Avec l’application de ces nouvelles lois, le droit d’auteur va se transformer d’un droit activé par l’initiative des personnes impliquées vers une règle appliquée de façon algorithmique.

Malgré ses bonnes intentions de base, celles de vouloir mettre au même niveau les différents législations nationales et d’uniformiser la gestion du droit d’auteur entre différents supports, l’Union Européenne semble avoir raté plusieurs occasions importantes autour de la directive. Il me semble que les législateur·e·s auraient pu essayer de régler au moins une partie des problèmes que le droit d’auteur pose actuellement avant d’agrandir sa portée. Par exemple, il existe aujourd’hui des différences importantes entre les états membres de l’U.E. dans la façon dont ils implémentent les exceptions du droit d’auteur. La citation audiovisuelle est par exemple gérée différemment partout, ce qui fait qu’en France, la citation d’une image pose plus de problèmes qu’en Belgique[12]. Dans les lois Européennes, il manque un équivalent au statut de « fair use » comme ont pu l’établir les États-Unis. Ce statut permet une copie non-consentie par les ayants droit sous certaines conditions : en prenant en compte le nombre de copies, le contexte de la reproduction (par exemple dans un contexte pédagogique), si et comment l’original a été transformé et si la nouvelle œuvre est en compétition économique avec l’original. Ce statut donne une viabilité légale pour le détournement artistique et l’appropriation en art. En uniformisant les exceptions, et en créant des possibilités légales de reprises sous certaines conditions, l’U.E. aurait pu limiter les aspects du droit d’auteur qui ont l’impact le plus fort sur la création artistique tout en maintenant la partie permettant au créateurs et créatrices de négocier une rémunération pour la reproduction de l’intégralité de leur travail (puisque le fair use intervient notamment sur des copies partielles et transformées).

Le changement le plus important dans la directive consiste à rendre les plateformes numériques de partage légalement responsables des infractions de droit d’auteurs commises par leurs utilisat·eur·rice·s. Pour l’instant, ce sont les utilisat·eur·rice·s iels-mêmes qui sont responsables de leurs partages : les ayants droit peuvent demander aux plateformes de retirer des contenus, mais ce n’est pas vers elles qu’iels peuvent réclamer des dommages. C’est ce qui va changer avec l’application de la nouvelle directive : ce sont les plateformes qui vont devenir légalement responsables pour des infractions commises par leur utilisat·eur·rice·s. Pour éviter de courir des risques légaux, les plateformes vont devoir commencer à surveiller elles-mêmes les contenus sur leurs sites. Vu le volume des contenus publiés chaque jour, iels n’auront pas d’autre choix que de développer des filtres automatiques. Très controversée, l’obligation d’installer des « upload filters » destinés à filtrer au préalable chaque contenu mis en ligne par les utilisat·eur·rice·s a été enlevée de la directive en dernière minute. Mais il est très probable qu’un contrôle algorithmique des contenus sera le résultat de ces mesures. Cela existe déjà pour la musique : Youtube utilise le système ContentId, Facebook peut supprimer des posts live quand il y est détecté de la musique connue dans leur base de données. Maintenant qu’il existe un réel intérêt financier pour les plateformes, ce genre de système va sûrement voir le jour pour les images. Le déploiement de ces filtres va avoir un grand impact en ligne, et pas seulement parce que les filtres vont détecter des infractions qui n’en sont pas (les « false positives ») : aussi simplement parce qu’une majeure partie des contenus partagés en ligne à l’heure actuelle contient des infractions au droit d’auteur. Quel pourcentage des images partagées sur les réseaux sociaux est une création tout à fait nouvelle ? Reposter des images, des news, des livres, des archives est une pratique courante. Même avant de prendre en compte la création artistique qui dépend beaucoup de la citation et de l’adaptation, la citation visuelle est une partie intégrante du discours en ligne.

On pourrait alors se demander, quel en sera l’impact sur la stratégie de l’obscurité ? Tant que les images sont sur du papier ou dans une exposition, il n’y aura pas beaucoup de risques de filtrage. Mais le monde analogique et numérique sont de plus en plus entrelacés. Il suffira qu’une personne poste une image sur Instagram pour que les algorithmes installés sur les serveurs de ce géant du web puissent faire leur travail : comparer les photos avec une base de données massive fournie par des sociétés de gestion de droits et des autres representant·e·s des ayants droits. On risque alors que les infractions massives aux droit d’auteur commises par la plupart des graphistes-micro-éditeur·ice·s soient repérées. C’est à ce moment-là qu’on va vraiment se rendre compte de l’ampleur du droit d’auteur tel qu’il a été construit au fil des dernières décennies.

Sortir de l’obscurité

Aujourd’hui, la stratégie de la sécurité par l’obscurité commence à perdre son utilité, car on ne pourra bientôt plus ignorer le droit d’auteur. Quelle est alors la solution? D’un point de vue pratique, il me semble d’abord important de bien connaître le droit d’auteur. Cela fait immédiatement sens, parce que c’est un des droits que concerne le plus directement les créati·f·ve·s. De plus, ce n’est pas seulement utile pour comprendre comment copier, c’est aussi indispensable si vous êtes en train de négocier la diffusion de vos propres travaux. Ensuite, d’un point de vue pratique, respecter le droit d’auteur est vraiment la façon la plus simple de ne pas avoir d’ennuis. Même si on ne peut jamais se protéger à 100%, il est au moins possible de prendre des risques calculés.

Si vous tenez à la dimension de réutilisation et de partage, vous pouvez vous tourner vers l’écosystème du libre. Il est tout à fait possible de créer du contenu, de le mettre sous licence libre, et de réutiliser des contenus faits par d’autres publiés également sous licence libre, tout en respectant le droit d’auteur. J’ai passé des années au sein d’une équipe qui s’appelle Open Source Publishing[13], qui travaille de cette manière, et je crois dans la force de cet écosystème.

Mais pour toutes les œuvres que l’auteur.e n’a pas publié sous licence libre, cela reste quand même dommage qu’elles soient pour l’instant interdites de détournement, adaptation et citation sans autorisation préalable. Ainsi, on me demande souvent si je n’ai pas de « tricks ». Mais des tricks, je n’en ai pas. Tant qu’on ne réclame pas son droit de copier, on ne réclame pas pleinement le droit de créer et de publier. La seule option qui reste, c’est alors de militer pour que la législation change[14].

Troubler les programmes. Design, cybernétique et biologie moléculaire
Anthony MASURE & Élise RIGOT

Résumé

Dans un monde où presque aucune activité humaine n’échappe aux programmes numériques, ces derniers prennent un caractère existentiel et engendrent un assujettissement du vivant à des logiques d’automation. Il en résulte un profond déséquilibre des milieux de vie (théories de l’effondrement, perte de la biodiversité, etc.) et une perte de sens de l’existence. Afin de cerner le concept de programme, nous associerons trois champs tendant à converger : le design, l’informatique et la biologie. Ce rapprochement permettra de formuler trois perspectives écologiques non binaires – autant de scénarios qui contestent le présupposé d’un design comme plan et qui le redéfinissent comme « art de l’équilibre », « zone de trouble », et « variation d’insignifiant ».

Texte écrit en 2020, actualisé en 2021 pour compléter les actes du colloque « Les écologies du numérique » organisé par l’Ésad Orléans (ÉCOLAB) en 2017 et 2018.

Mots clé 

Biologie, Code, Design, Écologie, Génétique, Physique, Programmation, Programme 

Biographies

Anthony Masure est responsable de la recherche à la Haute École d’Art et de Design de Genève (HEAD – Genève, HES-SO). Agrégé d’arts appliqués et ancien élève du département design de l’ENS Paris-Saclay, il est membre associé du laboratoire LLA-CRÉATIS de l’université Toulouse – Jean Jaurès. Ses recherches portent sur les implications sociales, politiques et esthétiques des technologies numériques. Il a cofondé les revues de recherche Back Office et Réel-Virtuel, et est l’auteur de l’essai Design et humanités numériques (éd. B42, 2017). Site Web : http://www.anthonymasure.com 

Élise Rigot est agrégée d’arts appliqués, ancienne élève du département Design de l’ENS Paris-Saclay et diplômée de l’école Boulle. Elle est chargée de cours à l’université Toulouse − Jean Jaurès. Son sujet de thèse de doctorat en design (LLA-CRÉATIS et LAAS-CNRS) porte sur les f(r)ictions entre le design et les nano-bio-technologies. Elle est l’auteure d’un podcast, Bio Is The New Black, autour du design et des technologies de bio-fabrication. Elle publie dans la revue Sciences du design. Site Web : http://eliserigot.com


Introduction

« En ce temps, en prévision des mutations à venir, d’obscurs constructeurs modelaient les images prématurées d’un futur éventuel très lointain.[1] »

Dans son recueil de nouvelles Cosmicomics (1965), l’écrivain Italo Calvino élabore une cosmologie hantée par des êtres polyformes, dont les soubresauts peuvent faire écho à l’ambition démiurgique du design. En effet, la faculté du design de pouvoir créer tous les objets possibles (« de la cathédrale à la petite cuillère[2] »), renvoie en creux à la volonté de façonner une réalité complexe et incertaine en adéquation avec un plan : les choses engendrent des comportements[3] (behavioral design) et dessinent des cadres permettant plus ou moins de liberté[4]. Cette définition commune du design comme « plan » (comme dessein) recoupe la définition d’un « programme », à savoir une suite d’actions visant un objectif déterminé. 

La logique opératoire du programme est aujourd’hui omniprésente : depuis le développement à grande échelle des programmes informatiques, des laboratoires technoscientifiques (bio-impression, biologie synthétique, CRISPR CAS9, etc.), jusqu’au dessin des modes de vie. Cerner la notion de programme implique donc de rapprocher les trois champs que sont le design, l’informatique et la biologie. Mais si le monde entier devient un programme (un projet), qui décide, ou non, des conditions de l’équilibre entre les milieux humains et non humains, et selon quelles valeurs ? La notion de programme supposant une écriture « à l’avance » (pro-gramme), comment conjuguer l’élaboration de règles et de procédures propres aux pratiques de programmation avec le caractère incontrôlable du vivant ? La notion de programmation, « appliquée » au vivant, pourrait-elle redéfinir ce que l’on attend habituellement du design ? 

Pour y voir plus clair dans ces enjeux et tracer quelques lignes de fuite, nous établirons tout d’abord une rapide généalogie de la notion de programme en croisant l’histoire de l’informatique et de la biologie pour montrer comment elle prend un sens politique voire existentiel. Nous verrons ensuite comment le design peut œuvrer à échapper à la logique fonctionnaliste et aux conséquences écologiques liées au déséquilibre des milieux (« 6e extinction », théorie de l’effondrement, perte de la biodiversité, etc.) qu’elle entraîne. Autrement dit : comment penser la notion de programme depuis des perspectives écologiques ? 

Programme et programmabilité

« Programme » apparaît dans le dictionnaire autour de 1680. Dérivé du grec programma, de pro, « avant » et gramma, « ce qui est écrit  », il peut se comprendre littéralement comme «  ce qui est écrit à l’avance  ». Avec l’émergence des médias de masse au début du XXe siècle, ce mot en vient à qualifier ce qui est annoncé en amont d’un objet temporel destiné à une large audience (radio, TV, etc.). Mais un autre sens, issu de la Révolution française (1789), mérite d’être examiné : c’est à cette époque que le terme de programme prend le sens d’« exposé général des intentions et projets politiques (d’une personne, d’un groupe) ». Il en vient alors, par extension, à désigner une suite d’actions que l’on prévoit d’accomplir en vue d’un résultat  : « Le mot a développé des emplois didactiques en art, économie, architecture et musique avec le sens de base, « ensemble de conditions à remplir, de contraintes à respecter ». Il est en concurrence partielle avec plan. » 

Avec l’invention d’un des premiers calculateurs, l’ENIAC (Electronic Numerical Integrator And Computer, 1945), la notion de programme se lie à l’informatique. Le « master programmer » (programme principal) désigne alors le composant électronique en charge de contrôler le bon fonctionnement de chaque unité de la machine[5]. Par analogie aux personnes réalisant la « mise en place » de l’ENIAC (via des actions de câblage et décâblage de la machine pour résoudre des problèmes particuliers[6]), le mot « programmeur » apparaît pour caractériser non pas des éléments machiniques, mais des êtres humains. Toujours avec le développement des ordinateurs, le terme de programme change de sens, passant de « ce qui est transmis » (sens dérivé du « signal de programme » de l’ingénierie électronique) à « ce qui est responsable de l’exécution ». En France (1954), Raymond Ruyer définit le programme comme un « ensemble de dispositions déterminant l’ordre de fonctionnement d’une machine électronique[7] ». Dans l’entrée « Programmability » (programmabilité) de l’ouvrage Software Studies: A lexicon (2008), la chercheuse Wendy Hui Kyong Chun souligne ce qui sépare le programme (de l’ENIAC) de la programmation (des ordinateurs) : « La programmation d’un ordinateur analogique est descriptive ; la programmation d’un ordinateur numérique est prescriptive[8] ». En effet, dans la lignée des travaux de l’informaticien John Von Neumann, il est possible de définir un programme numérique comme un ensemble de règles stockées dans la machine (mis en mémoire), et donc d’appréhender le programme comme une suite d’écritures précédant (prescrivant) une action ou un comportement. Avec la prescription, le programme devient un donneur d’ordres et d’ordonnances de contrôle. Le programme impose un plan où la liberté n’a guère de place.

Cybernétique et biologie moléculaire 

Avec le développement de l’informatique, la notion de programme ne s’applique plus seulement aux machines. Organismes, algorithmes génétiques, biodiversité technologique, etc., ces nouvelles matérialités du vivant exigent d’être attentif au milieu à la fois artificiel et naturel créé par les humains : celui-ci doit-il être programmé au sens d’un plan prescriptif ? Comment envisager, pour reprendre les mots de l’artiste Louis Bec, « le devenir d’un vivant indissociable de la liberté[9] » ? Existe-t-il un programme régissant le fonctionnement voire l’évolution du vivant ? 

La question de l’évolution et de l’hérédité, qui renvoie directement à la possibilité d’un programme non pas électronique mais génétique, trouve son origine dans l’ouvrage What is Life ?[10] (1944), dans lequel le physicien Erwin Schrödinger postule l’existence d’un « code génétique » pour expliquer la présence d’un ordre à l’échelle microscopique, là où les lois de la physique traditionnelle ne s’appliquent pas : « Ce sont ces chromosomes […] qui contiennent sous la forme d’une espèce de code [code-script][11], le modèle intégral [pattern] du développement futur de l’individu et de son fonctionnement à l’état adulte[12]. » Il ajoute plus loin que « le terme code est […] trop étroit. Les structures chromosomiques servent en même temps à réaliser le développement qu’ils symbolisent. Ils sont le code loi [law code] et le pouvoir exécutif […], ils sont à la fois le plan de l’architecte et l’œuvre d’art de l’entrepreneur [builder’s craft][13] ». 

À la suite de ce modèle du mécanisme héréditaire énoncé depuis la physique vers la biologie, l’école de la biologie moléculaire française (dont François Jacob, André Lwoff et Jacques Monod[14]) va opposer aux principes déterministes d’une conception mécanique du vivant le concept d’un « programme de l’hérédité », dans une formulation faisant écho au code informatique. La logique du vivant[15] (1970), un ouvrage d’histoire de la biologie rédigé par François Jacob, décrit ainsi l’hérédité en termes d’informations, de messages et de codes : « L’organisme devient ainsi la réalisation d’un programme prescrit par l’hérédité[16] ». Ici, l’exécution d’un dessein, d’un plan, n’a pas été réalisée par un programmateur humain mais répond à l’exigence de la reproduction de l’espèce. Ce programme est le fruit du hasard et des rencontres de l’organisme avec son milieu : « Le programme représente un modèle emprunté aux calculatrices électroniques. Il assimile le matériel génétique d’un œuf à la bande magnétique d’un ordinateur[17] » On pourrait y voir un rapprochement évident entre la cybernétique et la biologie moléculaire, proches historiquement, Jacob citant Norbert Wiener[18], père de la cybernétique[19]. Pourtant, selon l’école de la biologie moléculaire, on ne saurait expliquer la logique du vivant depuis un cadre déterministe voire mécanique : « La notion cybernétique de programme maintient de facto le vivant dans un cadre mécaniste où l’on procède nécessairement des parties vers le tout comme le ferait un horloger, en droite ligne avec le postulat de l’animal-machine de Descartes[20] ». Au pilotage cybernétique s’oppose le concept de « milieu ». François Jacob note ainsi que : « dans le programme sont contenues les opérations qui […] conduisent chaque individu de la jeunesse à la mort. […] Tout n’est pas fixé avec rigidité par le programme génétique. Bien souvent, celui-ci ne fait qu’établir des limites à l’action du milieu[21] ». Plus précisément, la notion de notion de « programme » de l’hérédité est établie par l’école de la biologie moléculaire pour rendre compte d’une histoire de l’évolution, inscrite au cœur de chaque cellule, et permettant à chaque entité vivante de transmettre des informations à la génération suivante. À mesure que le temps géologique passe, ce programme s’affine afin de permettre aux êtres vivants de se reproduire. François Jacob souligne la différence entre le programme génétique biologique et le programme informatique dès le début de son ouvrage[22] : le matériel génétique de la cellule n’est pas modifiable et s’appuie sur une organisation structurelle améliorante, tandis que la bande magnétique est réinscriptible, non structurelle, et ne peut pas s’améliorer toute seule. Établie en 1970 – soit donc à l’aube de l’informatique personnelle –, cette distinction est-elle toujours valable ?

Brouillage : entre programme informatique et programme génétique

Depuis les recherches de l’école de la biologie moléculaire, la situation technique a changé, rendant sans doute cette partition inopérante. Contrairement au caractère ancestral du « programme de l’hérédité », les modifications du génome (biologie synthétique) montrent que le code génétique peut être « édité » par l’action humaine. On pourrait en premier lieu penser aux OGM (Organismes Génétiquement Modifiés) apparus depuis les années 1990, qui consistent à introduire dans un organisme un fragment du génome d’une autre espèce. Plus proche de nous, « l’édition génétique » de CRISPR se « contente » de modifier un gène, parfois très légèrement, pour « accélérer » son évolution dans un sens planifié. Les applications de CRISPR sur l’être humain pourraient ainsi permettre l’augmentation de la capacité musculaire ou l’éradication de maladies génétiques[23]. Ces exemples sont largement controversés, que ce soit dans les pratiques d’édition ou de modification génétiques, et tendent à montrer l’absence de prise en compte de la notion de « milieu » dans ces savoir-faire technoscientifiques. 

Un travail entre art et design permet d’éclairer ces enjeux. Dans le projet Human × Shark[24] (2017), la designeuse Ai Hasegawa détourne l’imaginaire du « post-humain » – souvent caucasien et masculin –, et cherche à produire une relation inter-espèce avec un requin. Elle crée en laboratoire un fluide pouvant attirer des requins mâles et se filme dans l’eau avec eux lors d’une plongée sous-marine. La vidéo est accompagnée d’une installation de deux fragrances favorisant l’accouplement. Cette œuvre fait écho au récent développement d’« organes-sur-puce[25] » ou de flacons micro-fluidiques, faisant de la biotechnologie une possibilité d’hybridation et de collage du vivant. 

Ai Hasegawa, Human × Shark, 2017, https://aihasegawa.info/human-x-shark

Un autre exemple de rapprochement (voire de confusion) entre programme informatique et biologique réside dans les typologies contemporaines des « intelligences artificielles », à savoir celles du deep learning[26] (« apprentissage profond »). Ces dernières incarnent un changement de paradigme, où les règles ne sont plus écrites à l’avance, mais résultent de la comparaison de jeux de données « étiquetées » et « brutes » par des suites d’essais/erreurs. Dans cette logique, l’intervention humaine consiste à mettre en place les conditions de génération du programme. Il en résulte une impossibilité d’expliquer son fonctionnement – la seule chose qui compte (et qui est mesurable) étant son efficacité dans une situation donnée. Ces programmes informatiques d’un nouveau type peuvent, en un sens, être compris comme des entités vivantes dont on ne pourrait étudier que les corrélations entre les entrées (inputs) et les sorties (outputs). Les technologies du deep learning sont d’ailleurs désormais utilisées pour classer le génome ou les maladies[27]. On pourrait aussi mentionner le développement des biopuces, dans les années 1990, capables de transformer une réaction biologique en signal électronique[28]

Ces quelques éléments montrent qu’il faut envisager la notion de programme dans un sens élargi et comme condition existentielle. Si la distinction entre informatique et biologie n’opère plus, c’est que la mise en programme du monde révèle des convergences entre disciplines scientifiques : le bit informatique rencontre le gène biologique. Cette réalité est tout autant présente dans les pratiques que dans le langage. François Jacob se demandait en 1970, quels modèles langagiers régiraient la science de demain. Le programme donne vie à des grandes métaphores, telles que le gène dans l’histoire de la biologie[29], ou le code dans celui de l’informatique.  Si les frontières qui séparaient les programmes biologiques et numériques tendent à disparaître, des études systémiques et écologiques se méfient de ces métaphores qu’elles jugent réductionnistes. Celles-ci construisent ouvrent autant de possibles qu’elles ne réduisent l’organisme à une suite alphanumérique. La « convergence » entre design, informatique et biologie n’est d’ailleurs pas un fait anodin ; l’idée d’une unification des sciences revient souvent dans le discours des technosciences comme un moyen d’augmenter les performances humaines[30]

Vilém Flusser : le programme comme jeu absurde des permutations

Afin de comprendre en quoi le programme engage une dimension plus large que la résolution de problèmes via une suite d’actions ou que l’adaptation d’un être vivant à un milieu pour favoriser sa reproduction, il est utile d’examiner des textes rédigés en français par le théoricien des médias Vilém Flusser à partir du milieu des années 1970[31]. Son essai Post-histoire[32] (1982) s’ouvre sur l’évènement « incomparable » d’Auschwitz, que Flusser comprend, à la suite des philosophes Hannah Arendt et Günther Anders, comme l’aboutissement de la modernité : « Le camp d’extermination est occidental parce qu’il pousse directement des racines mêmes de l’Occident, de ses concepts et de ses valeurs. Auschwitz est implicitement contenu dans le projet initial de notre culture. Dans son < programme >[33] ». Pour Flusser, celui-ci fait de nous des « fonctionnaires » : il nous déresponsabilise de de nos actes et enlève le sens du travail pour faire de nous les rouages d’une machine plus vaste. L’entrée « Programme » de Post-histoire précise cette pensée. Selon Flusser, cette notion se substitue aux anciennes conceptions du monde, à savoir à la pensée finaliste (de la religion) et à la pensée causale (de la science). Plus précisément, Flusser redéfinit la notion de programme depuis la biologie moléculaire[34] : « Pour l’anthropologie programmatique l’homme est une permutation parmi d’autres permutations, de l’information génétique, commune à tout être vivant, et qui s’est réalisée par le jeu accidentel des gènes[35] » ; « Pour l’éthique programmatique le comportement humain est le déroulement de manifestations accidentelles des virtualités latentes dans l’homme et dans son milieu[36] » ; « [La pensée programmatique] applique à l’anthropologie le modèle de biologie moléculaire, selon lequel la structure de certain acides nucléaires contient toutes les formes possibles des organismes[37] ». Là où le programme de l’hérédité suppose l’existence d’un code favorisant la reproduction via l’adaptation à un milieu, Flusser l’examine du point de vue humain pour en faire non pas seulement une question de vie (de persistance dans le monde), mais d’existence (de sens et de non sens) : « Un programme c’est un système où toute virtualité inhérente se réalise par hasard, mais nécessairement. Il est un jeu[38] » – une telle formule peut se rapprocher des théories du biologiste Jacques Monod décrite dans l’ouvrage Le Hasard et la nécessité[39]

Flusser souligne la condition contemporaine régie par les programmes sous l’égide de l’’absurdité. C’est précisément cette tension entre hasard et nécessité qui intéresse Flusser, à savoir le caractère absurde d’une existence qui ne connaît pas les règles qui régissent son jeu. Il est vain de chercher à se libérer ou à s’émanciper des programmes car ces verbes perdent leur sens dans une pensée non finaliste : lire ou « démythifier », les programmes font de nous des fonctionnaires. Selon Flusser, ceux qui écrivent les instructions des programmes (les programmeurs) n’y échappent pas, d’une part car ils sont eux-mêmes programmés et, d’autre part car les appareils tendent à devenir « intelligents » et produisent des programmes sans intervention humaine (cette intuition se réalisera dans le développement des technologies de machine learning). Par conséquent, nous n’avons d’autre choix que de jouer avec les programmes. Il nous faut accepter cette absurdité pour éviter de devenir les pions d’un jeu gigantesque ; « programmer ou être programmé[40] ». Dans ce contexte, les artistes et designers peuvent détourner les programmes de leur fatalité. L’artiste Grégory Chatonsky, dans ses recherches sur « l’imagination artificielle », questionne par exemple la part créative des intelligences artificielles. Dans la vidéo I’m only memory and I love only you (2019), l’artiste détourne une base de données d’images prise sur les réseaux sociaux et donne à voir une métamorphose à la fois belle et monstrueuse de mémoires et d’histoires de vie numériques.

Grégory Chatonsky, I’m only memory and I love only you, vidéo générative, 2019, 43’,  http://chatonsky.net/memory-love

Jouer avec les programmes : trois scénarios non binaires pour une écologie du numérique

Alors que Flusser ouvrait Post-histoire par le cas d’Auschwitz, et que Günther Anders voyait dans la « condition atomique » la fin de l’histoire universelle[41], le programme occidental menace à présent non seulement les êtres humains, mais l’ensemble du vivant – qu’on pense par exemple au rapport Meadows (1972), à la « 6e extinction » ou aux théories de l’effondrement[42], soit donc un déséquilibre complet des milieux de vie. S’il faut apprendre à « vivre dans les programmes[43] », ces derniers doivent donc s’ancrer dans des conditions laissant les être vivants (et pas seulement humains), « vivre ». D’autre part, la « condition programmatique » invite à dépasser la situation de subsistance (la vie limitée à la reproduction de l’espèce) pour accéder à l’existence[44], c’est-à-dire la capacité à dépasser une situation initiale : de transformer le programme. 

Dans cette visée, l’assimilation du design à un plan, selon sa définition habituelle évoquée en introduction, est inopérante pour opérer de tels renversements. Aussi, nous proposons à l’inverse de comprendre le design comme ce qui permet d’affronter l’absurdité des programmes. Autrement dit, le design est moins ce qui façonne le monde depuis une suite d’instructions que ce qui permet de jouer, et donc d’exister, c’est-à-dire d’affronter l’entropie et la réalisation de chaque futur possible (il n’est pas souhaitable que chaque virtualité advienne au monde). Nous proposons, en guise d’ouverture, trois pistes pour des scénarios « non binaires », soit trois façons de jouer avec les programmes. 

1 – Dépasser la distinction naturel/artificiel 

Les conséquences néfastes d’un déploiement toujours plus important du « programme occidental » ne pourront être évitées qu’à condition de sortir du dualisme humain/nature et de déployer de nouveaux critères de lecture du monde, ce à quoi nous invite la chercheuse Donna Haraway (à la même époque que Flusser) avec ses recherches associant biologie et féminisme. En 1985, dans son Manifeste Cyborg, Haraway note qu’« avec les machines de la fin du XXe siècle, les distinctions entre naturel et artificiel, corps et esprit, autodéveloppement et création externe, et tant d’autres qui permettaient d’opposer les organismes aux machines, sont devenues très vagues. Nos machines sont étrangement vivantes, et nous, nous sommes épouvantablement inertes[45] ». 

Dans un texte intitulé « La nature de l’artificiel » (1990), le designer Ezio Manzini fait également remarquer que la distinction entre le naturel (non créé par l’humain) et l’artificiel n’a jamais été aussi floue : « Très longtemps, l’opération technique s’est limitée à transformer (au sens propre de « changer la forme ») quelque chose qui existait déjà ; aujourd’hui, nous ne sommes pas loin de la « création » ex nihilo : on « crée » de la matière inanimée (par la conception de nouveaux matériaux), de la matière vivante (grâce au génie génétique), et même des formes d’intelligence (avec la réalisation de « systèmes experts »)[46] ». Ce texte montre que le design, dans ses ramifications avec la biologie, engage une mutation de la notion de création faisant du designer un potentiel « démiurge ». Mais, souligne Manzini, cette nouvelle condition entraîne une situation d’instabilité potentielle à plus grande échelle, et pose donc un problème écologique. Si l’on entend sous le nom d’écologie une science des milieux humains et non humains, l’idée même d’une « création » ex nihilo interroge ce que l’on pourrait attendre du design : moins une science du projet qu’un art de l’équilibre. 

Si l’écologie s’offre à nous tout autant comme une science et un art du soin[47], le design s’exerce aussi dans les imaginaires et l’art du récit. Dans l’édition en ligne The New Weatherman’s Cookbook[48] (2014), le chercheur en design David Benqué propose une série d’objets fictionnels de bio-hacking. Un « pirate pollen club » se propose ainsi de jouer de l’ambivalence entre le naturel et l’artificiel. Au sein de terrains de golfs utilisant des herbes modifiées génétiquement pour paraître plus verdoyantes, fortes et « naturelles », un tunnel de dispersion de graines est utilisé pour disséminer des espèces de graminées plus résistantes et résilientes que l’herbe (OGM) du golf, permettant à terme la suppression des gènes protégés par un brevet propriétaire. Cette fiction visuelle met en lumière l’industrie de gazon OGM à résistance sélective, où le design peut venir troubler le programme d’une résistance prédéfinie aux herbicides pour devenir un terrain accidenté et troublé.

David Benqué, The New Weatherman’s cookbook, visuels imprimés, 2014, https://davidbenque.com/projects/the-new-weathermans-cookbook

2 – Troubler les programmes

Dans la préface de l’ouvrage Génétiquement indéterminé. Le vivant auto-organisé[49], la philosophe des sciences Isabelle Stengers montre que « la distinction entre génotype et phénotype ne permet pas de poser la question de ce que nous appelons hérédité, mais prolonge […] en biologie des oppositions qui fascinent et bloquent la pensée, telles que l’inné et l’acquis, la liberté et le déterminisme[50] ». Le problème que pose le programme est bien celui de la liberté. Quelle liberté existe-t-il dans une vie dictée par un programme héréditaire, dans un programme culturel, dans un programme de mort ? Cette idée ressurgit aujourd’hui sous la forme d’un trouble : « Rester dans le trouble est le prix à payer si l’on essaie de ne plus penser les problèmes en termes de solutions indicatrices[51] », nous dit Stengers à la suite de Haraway. Jouer avec ce trouble, mettre du trouble dans les programmes, c’est ce que propose Haraway avec la figure du cyborg[52], à savoir un dépassement des notions de race, de genre ou de sexualité[53]. Haraway extirpe le cyborg des imaginaires militaires, pour lui donner une force hybride, contre-nature, et féministe : l’établissement d’une zone de trouble entre différents champs délimite un faisceau de sens inattendu, non prévu (une nouvelle information) qui s’oppose à la contingence de l’absurde. Ici, pas de méchants contre les gentils, pas de solutions face à des problèmes, pas de science et de vérités mais uniquement des savoirs et des histoires « situées ». Le cyborg recode la relation organisme/machine, genre/sexualité dans un nouvel ordre émancipateur et féministe. Il y aurait dès lors un paradoxe intéressant à penser un « design du trouble », c’est-à-dire non pas la volonté d’ordonner du désordre (selon un plan), mais proposer un nouvel agencement du réel où du jeu peut avoir lieu. 

La chercheuse en design Marie Louise Juul Søndergaard explore cette position avec les technologies traitant des menstruations féminines. Dans sa thèse de doctorat intitulée Staying with the Trouble through Design: Critical-feminist Design of Intimate Technology[54] (2018), elle transpose la pensée de Donna Haraway pour voir le design comme une façon de provoquer le trouble. Sa vidéo Your smart toilet assistant[55] met en scène une jeune femme ayant l’âge et la situation de devenir mère. Elle demande à ses toilettes, dotées d’un assistant connecté et de capteurs biologiques, si elle devrait utiliser une protection pour ses prochains rapports sexuels en fonction de sa période d’ovulation. L’assistant, n’explicite pas la réponse, mais lui dit qu’il n’y a pas de risque qu’elle tombe enceinte. Quand il lui révèle, quelques semaines plus tard, qu’elle est enceinte, le scénario d’une erreur par l’assistant n’était pas prévu. Juul Søndergaard se demande comment concevoir des relations bilatérales avec les programmes numériques pour partager des situations de troubles, plutôt que de prétendre de leur efficacité à chaque instant. Un manifeste féministe accompagne cette thèse, et stipule que le design doit susciter et répondre au trouble, sans prétendre trouver des solutions à des problématiques tout autant sociales, culturelles, qu’éthiques. Dans cette vision féministe et critique du design c’est le fonctionnalisme du design qui est remis en question. Les situations ne fonctionnent pas, elles arrivent et s’entremêlent les unes aux autres, créant rencontres, contingences et hybridations de sens.

Marie Louise Juul Søndergaard, Lone Koefoed Hansen, « Your smart toilet assistant », 2018, https://mljuul.com/U, dans : Staying with the Trouble through Design: Critical-feminist Design of Intimate Technology, thèse de doctorat codirigée par Lone Koefoed Hansen et Geoff Cox, School of Communication and Culture Aarhus University, Institut for Kommunikation og Kultur, 2018.

3 – Coder sans fonctionner

Le chercheur Thierry Bardini a étudié le malentendu consistant à penser que la cybernétique aurait directement influencé la biologie moléculaire. Dans son article « Variation sur l’insignifiant génétique » (2004), il commence par souligner les oppositions que revêt la notion d’information pour les deux disciplines mais en vient ensuite à réévaluer le rôle de la métaphore dans les contextes scientifiques. L’opposition entre cybernétique et biologie moléculaire, et par extension la compréhension du code génétique qu’elle entraîne, « a [selon lui] le désavantage de fermer le mode de référence de la métaphore du code génétique sur sa référence première : en assimilant métaphoriquement l’ADN au médium de l’hérédité, elle en arrive à considérer que l’ADN ne peut être que cela[56] ». En mettant en évidence l’existence de parties non codantes (non fonctionnelles) du code génétique[57], le « junk DNA », Bardini montre qu’il n’existe pas de pure adéquation de l’ADN au principe de l’hérédité[58] et que l’ADN supposément non codant, l’ADN « déchet », a certainement un grand rôle à jouer dans notre compréhension de ce code génétique. La conclusion de l’article de Bardini plaide pour une « hybridation […] entre des savoirs hyper spécialisés (biologie moléculaire, informatique, linguistique, physique quantique, etc.) qui sont autant de quêtes à jamais inachevées[59] ». La notion de « junk DNA » met en évidence les limites d’une compréhension du vivant comme pure entité fonctionnelle et déterminée, et montre que de l’imprévu peut surgir des programmes : les prescriptions ne peuvent jamais être pures, le code ne peut jamais être que du code. Dans cette optique, il serait fallacieux d’envisager une « fabrique du vivant » (et de design du vivant) de manière fonctionnelle et déterminée, puisque le vivant, au sens fort, est précisément ce qui résiste aux idées de déterminisme et de contrôle : tout projet comporterait un point aveugle, une dimension inconsciente, inutile, pouvant s’apparenter à du déchet[60]. Ces pratiques relèveraient plutôt d’une négociation avec les vivants avec qui il faudrait apprendre à communiquer pour trouver un terrain d’entente et de co-création. Bardini a lui-même mis à l’épreuve de telles idées à l’occasion d’une installation interactive (2015) intitulée Your Synthetic Future (at the speed of light)[61] : « Un dispositif ironique en forme de machine oraculaire [qui] permet de comprendre que la véritable originalité de la biologie synthétique réside dans sa capacité à produire de nouvelles formes de présence à travers la frontière, jadis infranchissable, qui sépare les modalités analogiques et numériques de l’existence[62] ». Plus précisément, cette machine bio-informatique « répond » à des questions via des bactéries procaryotes connectées à un écran, éliminant ainsi la source humaine des erreurs, les idéologies, le conservatisme et la résistance au changement. 

Thierry Bardini, Laura Beloff, Erich Berger, Cecilia Jonsson, Antti Tenetz, Your Synthetic Future (at the speed of light), installation interactive, Helsinki, galerie Lasipalatsi, 22–31 mai 2015, https://www.semi-livingmeadowmachines.ca/home/ironic-biomantic-machine

Conclusion : s’orienter dans le brouillard informationnel

Ces trois pistes pour des scénarios non binaires (dépasser la distinction naturel/artificiel ; troubler les programmes ; coder sans fonctionner), issues du croisement entre programmes informatiques et programmes génétiques, nous ont amenés à remettre en question le présupposé d’un design comme comme plan et à le redéfinir comme art de l’équilibre et du réagencement, zone de trouble, et variation d’insignifiant. Pour reprendre le titre d’un ouvrage de Flusser, le design consisterait moins à créer des objets qu’à articuler des « choses et non choses[63] », c’est-à-dire des entités matérielles (hardware) et des informations (software) : « En examinant le nouvel environnement, on peut mettre entre parenthèses les derniers restes de choséité qui adhèrent encore aux non-choses. L’environnement devient de plus en plus mou, nébuleux, sinistre ; et celui qui veut s’y orienter doit prendre pour point de départ ce caractère spectral[64] ». Flusser se demande ainsi « de quelle sorte sera donc cet homme qui, au lieu de se consacrer aux choses, se consacrera à des informations, à des symboles, à des codes, à des systèmes, à des modèles[65] ». Pourrait-on y voir une possible redéfinition du rôle du designer ? Selon nous cette habileté à combiner des symboles doit moins être comprise comme une augmentation du programme occidental que comme une façon de le « troubler », de contrer l’entropie qui fait qu’une chose équivaut à toute autre, de montrer que du possible peut échapper au non sens de ses variations infinies. Mais ces configurations, et c’est ce que montre la biologie, ne peuvent pas et ne doivent pas être stabilisées, elles doivent toujours permettre du jeu, des métamorphoses, des reconfigurations. Dans ce brouillard informationnel, « spectral », des voix peuvent émerger pour donner sens à des variations plutôt qu’à d’autres. Le monde n’est pas un projet, une entité hors sol que le design peut se donner comme but de programmer : le détour par la biologie, objet de cet article, montre que la délimitation de faisceaux de variations et l’adaptation au milieu s’opposent à la dimension existentielle, démiurgique, cosmologique du programme. Réciter le programme, mettre en paroles ses instructions, est déjà une façon de le jouer et le déjouer, c’est prouver qu’il est possible de contrecarrer sa dimension absurde. 

Le graphisme face à l’alerte socio-écologique – Matérialité et impacts
Roxane JUBERT

Résumé

Face aux enjeux planétaires de la crise écologique mondiale, le design a pris ses responsabilité depuis plusieurs décennies à travers la pensée et les projets de grandes figures historiques. Mais le graphisme quant à lui manque encore d’une dynamique et d’un support apte à fédérer des initiatives éparses pour former un mouvement et même une culture du sustainable graphic design. L’engagement du graphisme sur sujet a eu lieu dans les années 1990 et début 2000, aux États-Unis, elle peine à s’imposer en Europe et surtout en France. Le principal problème est la prise de conscience de l’impact écologique du design graphique dans ses réalisations et son évaluation précise dans sa forme imprimée comme dans sa forme en ligne. Nous disposons pourtant de toutes les données nécessaires pour changer les pratiques en développant une écoconception en design graphique. C’est d’ailleurs une véritable opportunité pour la création plutôt qu’ensemble de contraintes qui en restreignent les possibilités. Mais il faut plus qu’une transformation par réglages pour répondre aux défis actuels, il faut une transformation majeure.

Texte écrit en 2021 pour compléter les actes du colloque « Les écologies du numérique » organisé par l’Ésad Orléans (ÉCOLAB) en 2017 et 2018.

Mots clé 

Design, graphisme, écologie, impact, livre, écran

Biographie

Roxane JUBERT

Roxane Jubert est enseignante-chercheuse, graphiste et typographe. Elle enseigne à l’ENSAD, et intervient ponctuellement à l’Université Paris-Sorbonne. Ses publications sont consacrées à l’histoire et à la culture du graphisme et de la typographie, dans une perspective trans historique et contemporaine, traversée par de grands axes tels que leur inscription dans les arts visuels, les avant-gardes, ou les enjeux relevant des défis écologiques. Son principal ouvrage est publié en 2009 aux éditions Flammarion sous le titre Graphisme Typographie Histoire (Typography and Graphic Design, From Antiquity to the Présent).

Elle a coécrit, avec des collègues de l’ENSAD, le Manifeste pour une pratique soutenable de la création (Manifesto for Sustainable Practices in Creative Activities), mis en ligne en 2021 : www.manifeste.ensad.fr.

Liste des publications : https://www.ensadlab.fr/wp-content/uploads/2015/09/Publications_Roxane_Jubert_07_17.pdf


Des enjeux hors norme et prédominants

Le contexte socio-écologique global actuel implore une transformation drastique des façons de penser, de vivre, de voir, de se comporter, de produire, de consommer et de partager. Au-delà d’un objectif, la soutenabilité procède d’un faisceau d’impératifs. Par-delà un (r)éveil des consciences, la situation en appelle à un ressaisissement et à un sursaut agissants. Certains secteurs de la création et du design ont pris les devants, parfois de longue date[1]. Que ce soit le designer Victor Papanek à travers la seconde moitié du vingtième siècle, ou l’architecte Philippe Madec[2] depuis plusieurs décennies, certains créateurs ont délibérément œuvré dans le sens de la durabilité et de la frugalité, montrant le chemin d’une approche véritablement critique, et sans craindre de remettre en question les cadres établis. « Une partie de notre travail doit être consacrée à protéger l’avenir[3] » : ainsi se termine l’appel d’un collectif soutenant les jeunes et la mobilisation mondiale pour le climat – un texte de septembre 2019, signé par des personnalités de nombreux pays (dont Valérie Cabanes, Noam Chomsky, Naomi Klein, Bruno Latour et Vandana Shiva). Un autre appel, publié en mai 2020 et signé de « 200 artistes et scientifiques », synthétise la situation : « le consumérisme nous a conduits à nier la vie en elle-même […]. La pollution, le réchauffement et la destruction des espaces naturels mènent le monde à un point de rupture. […] La transformation radicale qui s’impose – à tous les niveaux – […] n’aura pas lieu sans un engagement massif et déterminé[4] ».

Autant d’appels exhortant à rejoindre l’action. Aborder avec lucidité et responsabilité ces immenses enjeux de notre époque constitue une source extraordinaire de réflexion aussi bien que de stimulation et de motivation. Une telle orientation ne peut qu’apporter du sens à nos parcours, en ces temps de disruption où se font face surabondance matérielle et destructions planétaires, opulence et désastres. Dans ce contexte si gravement inégalitaire, l’essentiel de ce qui relève de la création, de la conception ou de la production de formes et d’objets (du timbre-poste à l’architecture, et bien sûr l’art), ainsi que de services, se trouve diversement concerné par la matérialité et les problématiques qui en découlent. Nombre de champs d’activité se sont préoccupés de cette dimension fondamentale, parfois depuis plusieurs décennies, dans la foulée du déploiement de la conscience écologique accrue dans les années 1970. L’architecture, l’urbanisme, le design d’objet, le textile ou encore le vêtement œuvrent en ce sens, à divers degrés. Le design graphique, englobé dans le grand ensemble de la communication visuelle, bénéficie tout à la fois d’initiatives éparses, de publications pour partie en langue anglaise, d’avancées et de mesures tangibles sur le plan de la production, ainsi que de questionnements de plus en plus nombreux et pressants formulés par les étudiants comme jamais auparavant[5]. Pour autant, cette discipline reste en attente d’une dynamique et d’un support aptes à fédérer ces énergies et à les étoffer jusqu’à constituer un mouvement et une culture du sustainable graphic design [graphisme soutenable, à défaut de terme ad hoc].

Un engagement prioritaire et persuasif

Pour le demi-siècle écoulé, Victor Papanek compte parmi les précurseurs qui ont vigoureusement réclamé un design tout à la fois écologique et social. En atteste le titre de son ouvrage Design for the Real World. Human Ecology and Social Change [Design pour un monde réel. Écologie humaine et changement social], originellement publié en suédois en 1970. Soulignant l’extrême importance de la prise en compte des équilibres écologiques, de la limitation des ressources, des matériaux (dont les métaux) et de l’extractivisme minier[6], il affirme que « nous commençons à comprendre que le principal défi pour notre société ne réside plus dans la production de biens[7] ». Selon lui, ces considérations devraient conduire « les designers [à] refuser toute participation à un projet qui soit destructeur biologiquement ou socialement (que cela [cet impact] soit direct ou pas n’a aucune importance)[8] ». Fort de ses convictions, Papanek délivre un message clair, exigeant, fondé et argumenté tout au long de l’ouvrage. Si le champ du graphisme ne semble pas avoir bénéficié d’auteur comparable, tout au moins pour l’époque ou pour ce que l’on en sait, il n’empêche qu’une telle optique (pour peu que l’on en partage la teneur, ne serait-ce que partiellement) peut aisément s’appliquer à la communication visuelle. Le défi n’a fait que croître depuis lors – aussi bien avec l’expansion de la surproduction et celle, corrélative, de la communication, qu’avec l’arrivée et le déploiement des technologies numériques.

De fait, ces préoccupations deviennent tangibles dans les écrits consacrés au graphic design à partir de la fin des années 1990, souvent par le truchement du terme « environnement ». Une version revue et augmentée du vibrant manifeste britannique First Things First (dédié au graphisme et à la communication visuelle, initialement publié en 1964) précise ainsi que « des crises environnementales, sociales et culturelles sans précédent requièrent toute notre attention » (republié en 1999, entre autres en couverture de la célèbre revue Emigre). Cela n’a pu échapper à une partie de la profession, d’autant que cette version augmentée a paru dans au moins sept revues (Allemagne, Canada, États-Unis, Grande-Bretagne et Pays-Bas), et qu’elle se trouve alors signée d’une bonne trentaine de noms du graphisme occidental, dont beaucoup de personnalités (parmi lesquelles Irma Boom, Sheila Levrant de Bretteville, Gert Dumbar, Ken Garland, Milton Glaser, Steven Heller, Zuzana Licko, Ellen Lupton, Katherine McCoy, Rick Poynor, Erik Spiekermann ou encore Rudy VanderLans). Différentes publications étasuniennes montrent qu’il y a eu, à l’approche du millénaire, une percée de ces sujets (parfois seulement évoqués) concernant la communication graphique. Ainsi de l’article « Ecological Design: A New Critique » de Pauline Madge – publié en 1997 dans un numéro de la revue Design Issues intitulé « A Critical Condition: Design and Its Criticism » [Une situation critique : le design et sa critique] –, explicitant d’emblée la situation : « cela fait maintenant environ une décennie que la première vague du design vert [green design] est apparue comme un nouveau facteur important dans le design produit et le design graphique. […] il existe désormais un large consensus sur le fait que les problématiques environnementales ne peuvent plus être ignorées des designers et des critiques[9] ».

Le temps presse, comme l’illustre bien le logotype en forme de sablier cerclé, ultra-schématisé, du récent mouvement international Extinction Rebellion. Au vu de la situation planétaire et de l’étendue des connaissances relatives à l’écologie, à l’environnement, à l’anthropocène, à l’effondrement, au climat, à l’extractivisme, aux ressources ou encore à la biodiversité (journalisme d’investigation, recherche, rapports, etc. – grâce à un engagement partagé par de nombreux champs de compétences), il ne s’agit plus, en France, de savoir si la question écologique concerne ou non le graphisme, mais de comprendre, sinon rejoindre, la démarche de celles et ceux qui se demandent que faire (donc que ne pas faire, que ne plus faire, que pouvoir faire, que devoir faire, etc.), et qui y espèrent, y cherchent ou y apportent des réponses. Certaines personnes ou organismes œuvrent en ce sens pour ce qui relève de la communication visuelle et graphique : professionnels, étudiants, enseignants, chercheurs, organismes, collectifs, etc. Leurs contributions et actions sont d’autant plus méritantes qu’elles retiennent peu l’attention, quand bien même elles incarnent une approche essentielle. Un effort d’agrégation de ces volontés, ces idées, ces savoirs, ces expériences et ces pratiques reste une priorité forte, en vue de leur partage et de leur diffusion. Il y aurait lieu de faire un point sur la contribution française en ces matières, spécifiquement du point de vue du graphisme, afin d’en avoir une meilleure visibilité. Rappelons au passage que, jusqu’aux alentours de 2000, l’histoire du design graphique (et plus encore typographique) était peu explorée et représentée en France – un état de fait à prendre en compte pour ce qui est des grands équilibres et articulations entre, d’une part, la conscience des enjeux contemporains les plus aigus et la projection dans l’avenir, et d’autre part la vision transhistorique et la compréhension du temps long.

La réalité des impacts : une question difficile

Si une minorité œuvre à un graphisme soutenable, une telle quête ne va pas de soi et, à vrai dire, suscite encore beaucoup d’incompréhension, tant cette vision se situe loin des normes (formes, matériels, codes, repères, etc.). La question écologique n’est en effet pas inscrite comme telle dans la culture (dont l’histoire) établie et partagée du design graphique occidental. La situation ne manquant pas de paradoxe, l’histoire du livre imprimé en Occident se trouve, dès ses débuts, traversée par la recherche d’économie d’espace – donc de matière, de matériel, de temps, d’énergie, etc. –, un objectif qui concernera fortement la presse papier, ce qui se répercute, entre autres, sur le dessin de caractère (par ailleurs, l’introduction du dessin de l’italique, au sortir de la période des incunables, fait déjà preuve d’une économie spatiale du fait de sa faible chasse). Tout cela rend ces problématiques plus intéressantes et plus importantes encore. Il y a assurément mille manières d’entrer dans ces sujets ou de les travailler. Elles peuvent aussi bien concerner les implications matérielles du graphisme que sa faculté inhérente à mettre en forme contenus et messages, qui lui confère un précieux potentiel d’expression. Se pose aussi, inévitablement, la question de l’inscription du graphisme dans un environnement souvent saturé de communication visuelle, imposant une sursollicitation abusive – ce qui renvoie directement à la matérialité.

La compréhension des déséquilibres et dérèglements actuels passe par un certain nombre de notions essentielles, telles que l’impact environnemental, le cycle de vie ou l’empreinte écologique. La matérialité des objets, y compris graphiques, mène à s’interroger sur leurs impacts et sur tout ce qui sous-tend leur production. Qui se penche sur ces questions mesure qu’il y a là une thématique majeure, bien que d’arrière-plan. Documentés, instructifs et incontournables, les travaux, investigations et émissions sur ces sujets ne manquent pas, allant jusqu’à employer les termes « face cachée » et « pollution cachée », parfois dès leurs titres[10], ou bien encore « coût caché environnemental et social[11] » – ce qui met en lumière une certaine opacité. Bien qu’étudiés depuis un certain temps, ces problèmes ne sortent que progressivement de l’ombre, mettant au jour de lointains processus d’extraction, de transformation, d’exploitation, de pollution, de déplacement, de dégradation, de délocalisation, etc.

Qu’il donne lieu à une production graphique matérialisée ou à un affichage passager sur écran (relevant d’une autre chaîne matérielle), le graphisme ne saurait être un segment indépendant dans le cycle de vie des objets, qui serait disjoint de l’avant et de l’après : il s’inscrit dans des processus, des systèmes, des chaînes matérielles, des ensembles et des milieux, ainsi que dans des champs perceptifs. Si le design présente une avance certaine dans la prise en compte de ces réalités, l’application de telles préoccupations au design graphique se montre plus affirmée au fil du temps, venant surtout de l’étranger. Dans son ouvrage Green Graphic Design (2008), Brian Dougherty soutient, en conclusion, que « les designers graphiques ont un rôle essentiel à jouer dans la transformation plus vaste vers des économies soutenables[12] ». Malgré la rareté de livres en langue française traitant des implications environnementales associées au graphisme, nous disposons d’un nombre croissant et consistant de publications intéressant fortement cette pratique, que ce soit de façon directe ou indirecte – depuis les rapports détaillés consacrés aux impacts de l’édition jusqu’aux études, de plus en plus nombreuses, fouillant ces questions sur l’immense terrain du numérique et des technologies de l’information et de la communication (les TIC), découvrant leur réalité parfois terrible[13].

Cet ensemble disponible d’informations, d’analyses, de recherches et d’investigations apporte à la communication visuelle un angle de vue irremplaçable, aussi bien sur des sujets en prise directe avec le graphisme que sur des aspects généraux concernant de nombreux secteurs d’activité. Ainsi pouvons-nous lire sous la plume de l’ingénieur Philippe Bihouix, dans un numéro de 2017 de la revue Esprit, qu’« il n’y a pas de solution technique permettant de maintenir – et encore moins de faire croître – la consommation globale d’énergie et de ressources. […] nous nous heurterons tôt ou tard aux limites planétaires, régulation climatique en tête. C’est donc – aussi – vers l’économie de matières qu’il faut orienter l’innovation. Avant tout par la sobriété […][14] ». L’une des difficultés de ces problèmes est qu’ils se prêtent mal à la demi-mesure ou aux approches superficielles : ils nécessitent des remises en question profondes et radicales. Toujours en 2017, le BASIC (Bureau d’analyse sociétale pour une information citoyenne) produit une étude approfondie intitulée Un Livre français. Évolutions et impacts de l’édition en France, donc concernant aussi la production graphique. Ce document signale que « dans sa configuration actuelle, la filière du livre génère des impacts importants sur les plans socioéconomique et environnemental[15] », prenant en compte la part supportée par les pays étrangers. Il précise que l’« un des points marquants de l’étude est l’ignorance, de la part des professionnels comme des citoyens, des impacts liés à la consommation de livres, en partie en raison de l’absence de traçabilité de la matière première[16] ». Cela donne un aperçu de l’exigence et de la complexité de ces approches. La compréhension des mécanismes et processus à l’œuvre n’en apparaît que plus importante, y compris pour irriguer les contextes pédagogiques[17].

Abondance matérielle versus dévastation

Pour le graphisme, prendre en compte les conséquences des grands flux matériels représente un chantier d’ampleur, qui nécessite un engagement particulier et une forte humilité. Plutôt qu’un simple choix, il s’agit de se résoudre à l’intérêt supérieur d’une nécessité. Accepter de nous astreindre en nous assignant des limites ne va pas de soi : cela suppose de nouveaux regards, concernant tout à la fois le présent, le futur et le passé. Jusqu’à l’arrivée de l’informatique dans la profession, à partir du milieu des années 1980, malgré les évolutions techniques, la création graphique comportait encore une très forte part manuelle et artisanale. Elle se constituait de la succession de nombreux savoir-faire, depuis les esquisses et tracés à main levée, ainsi que les facultés de conception qui y sont liées, jusqu’à la réalisation et la fabrication de maquettes – le tout nécessitant toutes sortes de matériels et de techniques des beaux-arts et des arts appliqués : instruments et outils d’écriture, de dessin, de calligraphie, de traçage et d’affûtage (dont tire-ligne, calames, stylos de précision de l’ordre du dixième de millimètre), papiers de toutes sortes et cartons, plioirs, calques et rhodoïds, tout ce qui relève de la couleur (supports, surfaces, encres, crayons, feutres, peinture, aquarelle et pigments), stylets, planches à découper, pinceaux et brosses, compas, règles, équerres, rapporteurs, perroquets, normographes, lettres-transfert, carte à gratter, aérographe, etc. – sans oublier la photographie argentique et son développement, le banc de reproduction, la table lumineuse, les grands cartons à dessin pour le format raisin, et bien d’autres matériels, outils ou micro-outils, objets, instruments, appareils et machines qui composaient le quotidien du graphiste. L’essentiel de tout cela a disparu, engloutissant au passage une partie des savoir-faire et des méthodes de conception qui y étaient associées – le tout largement remplacé par les écrans, les interfaces graphiques, les icônes, les logiciels, les claviers, la photographie numérique, les imprimantes, les supports de stockage, etc. La pratique a ainsi considérablement changé, tout en se poursuivant dans l’association des supports papier et numérique. Outre ces deux grands hémisphères, la communication graphique peut aussi – selon les projets, et toujours du point de vue de sa matérialité – se trouver concernée par d’autres types de supports (pour la signalétique [panneaux, marquages au sol et autres], les enseignes ou les emballages), ainsi que tout ce qui relève des différentes techniques d’impression et de leur choix.

Pour en revenir aux impacts de façon concrète, nous disposons de suffisamment de sources pour savoir de quoi il retourne. Le document Un Livre français. Évolutions et impacts de l’édition en France analyse les étapes de la filière du livre, depuis l’exploitation forestière jusqu’au pilonnage et au recyclage. Les différents « impacts associés » y sont répertoriés : « destruction d’emplois » (dans différentes filières), « précarisation des conditions de travail », surproduction (impliquant gaspillage, déchets et pilonnage), « exposition aux encres et aux résines […] potentiellement dangereuse pour la santé des travailleurs », « émissions polluantes et toxiques dans l’air et dans l’eau », « rejets de substances cancérigènes », « consommation d’eau et d’énergie », « pertes de terres agricoles », « risque d’insécurité alimentaire », « érosion des sols », « émissions de gaz à effet de serre », « production de déchets[18] », etc. (ce rapport indique aussi les efforts et améliorations déjà effectifs sur certains points).

Intéressons-nous maintenant à l’ouvrage pionnier Impacts écologiques des technologies de l’information et de la communication. Les Faces cachées de l’immatérialité – un livre collectif qui remonte déjà à 2012, coordonné par Françoise Berthoud, et issu pour l’essentiel des travaux de recherche du groupe ÉcoInfo du CNRS[19]. Le premier chapitre, consacré aux impacts, étudie en détail l’« épuisement des ressources naturelles » (métaux, minerais, énergies fossiles, forêts, eau), ensuite les « pollutions de l’air, […] des sols, […] des eaux », la « transformation des écosystèmes » (climat, océans, couche d’ozone, eutrophisation, désertification), puis les « impacts connus actuellement sur le monde du vivant » (forêt, biodiversité, santé humaine) – le tout alimenté de sous-rubriques faisant ressortir la (dé)mesure vertigineuse de cette rafale d’impacts. Force est de constater les nombreuses résonances entre ce chapitre et l’étude consacrée au livre mentionnée supra[20]. De telles connaissances et recherches, qui se sont largement développées dans les années 2010, ont de quoi nous interroger et nous alerter. Elles concernent de nombreux acteurs et secteurs d’activité, dont la communication visuelle fait clairement partie. De quoi se demander pourquoi le lien entre graphisme et écologie reste si peu traité, et comment il est possible qu’il reste inabordé en maints endroits de la culture et de l’apprentissage de ce champ professionnel. À sa décharge, le design graphique doit faire face à la pollution que représente la surcharge d’information (« brouillard de données », « infobesité », etc.) qui, hors des espaces préservés ou des niches, ne peut que le noyer dans la masse[21]. Notons aussi qu’il a tenu à se démarquer de longue date du matraquage publicitaire (en lien avec l’estompement de la grande tradition des affichistes et de ce que l’on appelait la réclame). S’il ne peut qu’être brièvement évoqué ici, l’état de saturation visuelle constitue une dimension importante du sujet (et mériterait une étude très fouillée, depuis les aspects matériels jusqu’aux conséquences d’une telle intrusion psychologique) : pour faire court, ne parle-t-on pas aussi de « pilonnage[22] » ainsi que du « nombre d’impacts » pour désigner la « pression publicitaire » qui s’exerce sur nous au quotidien, entravant si souvent le repos et le bien-être de l’espace mental ?

En pratique

La création graphique peut considérer l’ensemble de cette situation comme une chance à saisir pour conjuguer ses importants acquis avec les vérités du monde contemporain. Un certain nombre de pistes, d’orientations, d’exemples ou de repères existent (à défaut de solutions toutes faites, et à accueillir, le cas échéant, avec discernement). Ainsi du réseau Biocoop, dont la campagne de communication multisupports de 2015 a été conçue dans une « démarche d’éco-responsabilité » et sur le principe d’une très forte « réduction de l’empreinte écologique » : « il a fallu oublier les processus de création et de production classiques […] faire appel à des techniques alternatives parfois oubliées. […] Les transports les moins polluants ont été utilisés […]. Un vélo a été transformé à la main pour générer de l’électricité […]. Les photos ont été réalisées avec un Sténopé de 40 par 50 cm construit à partir de vieilles caisses en bois [… et] ont été développées sur place avec des produits recyclés et réutilisables. Le film, lui, a été tourné avec 2 caméras manuelles […] des années 50 et 70 […]. Le montage a été produit directement sur pellicule, pour ne pas numériser de séquences inutiles. […] Les accroches et logos ont été directement calligraphiés à la peinture biologique sur du papier recyclé à l’encre végétale. Un site web ultra léger, sans image, a été entièrement réalisé en typographies, et codé sur un ordinateur recréé dans une cagette de marché avec d’anciens composants informatiques[23] ». Opérant des choix à contre-courant des tendances dominantes, le site consistait en une longue page à défilement vertical, et comportait des « images » en code ASCII, mais ni vidéos ni photographies pour des raisons de poids[24]. Cette même année 2015 voit paraître la réédition de l’ouvrage Éco-conception web, de Frédéric Bordage, estimant que « le poids moyen d’une page web a été multiplié par 115 en 20 ans, passant de 14 Ko en 1995 à plus de 1 600 Ko en 2015[25] ». L’expansion des données numériques fait écho au phénomène de saturation visuelle, dans le sens où il s’agit tout à la fois de surenchère quantitative, de surabondance matérielle, et de stimuli dont les excès posent problème. Pour ce qui est de cette question du débordement dans l’espace public urbain, mentionnons ici le projet Delete ! [effacer], imaginé par un collectif de créateurs autrichiens, ayant consisté à recouvrir d’aplats jaunes l’ensemble des signes commerciaux d’une rue de Vienne en 2005 – une intervention forte et « simple », chargée de signification, invitant à réfléchir sur notre expérience visuelle quotidienne, et qui a le mérite de ne pas en rajouter.

Tout devrait être fait pour aller dans le sens des véritables démarches d’écoconception, du fait qu’elles intègrent les impacts environnementaux. Face à la complexité des enjeux – et compte tenu des débats, des incertitudes et des inconnus –, il semble essentiel de s’intéresser aux réflexions et recherches qui plaident pour les basses technologies (low-tech)[26] et pour la « sobriété numérique[27] ». La récente étude Empreinte environnementale du numérique mondial plaide pour « une écoconception radicale des services numériques », considérant qu’« il est possible de diviser par un facteur 2 à 100 la quantité de ressources nécessaires[28] ». En restant dans l’idée d’une création plus écologique (sachant qu’une approche qui irait au-delà de faire mieux s’attacherait à l’autolimitation dans une reconfiguration de fond), outre l’option low-tech, un bon nombre de leviers se présentent à la conception graphique, pouvant relever du choix des matériaux, de leur surface, de la couleur, de l’encre, du travail sur les images, des équilibres entre papier et numérique, du grammage, des normes, labels ou certifications (ne bénéficiant pas tous de la même réputation), et de l’imprimeur. Il est significatif de constater à quel point reste répandue l’idée selon laquelle abandonner le papier au profit du numérique équivaudrait automatiquement à préserver l’environnement, comme si ce basculement relevait ipso facto d’un acte écologique, et comme si ce sujet n’avait pas une complexité inhérente. Face à la puissante hégémonie des technologies, aux objectifs « zéro papier » et autres, nous sommes dans une phase où le papier se trouve remis en avant en tant que matériau recyclable et issu de ressources renouvelables[29]. Parmi les pistes et projets déjà à l’œuvre se trouvent différents travaux et réflexions autour de la récupération des chutes, des marges, des supports, etc. – par exemple l’édition de Perruque, « une revue de 1 × 90 cm qui publie des spécimens typographiques non standards imprimés dans les marges d’impressions [offset] courantes ».

Pour l’heure, probablement moins considérée que les questions d’espace et de surface, la couleur a également son importance, et ce sur des plans très différents. Par exemple, pour des sites low-tech, le nombre de couleurs des images et leur traitement jouent sur leur poids. Pour ce qui est des encres, l’ouvrage Green Graphic Design fait état du lien entre certaines couleurs et leur teneur en « métaux potentiellement dangereux ». La couleur des fonds, bien que d’arrière-plan, joue aussi un grand rôle. Nous nous trouvons extrêmement souvent face à des fonds blancs, aussi bien face au papier que face aux écrans. Or le blanchiment du papier relève d’un traitement artificiel – la matière première n’étant pas blanche (l’étude Un Livre français recommande, pour des raisons d’impact, un recours plus important au « papier grisé [recyclé] »). Par ailleurs, l’usage du papier blanc pour l’édition s’est trouvé vivement critiqué par le grand typographe et auteur Jan Tschichold, qui le considérait inadapté et y voyait surtout un problème sanitaire majeur. Il se serait sans doute insurgé et alerté s’il avait su que nos yeux allaient être soumis à la lumière des écrans blancs sur de longues durées (ce dont beaucoup souffrent, à juste titre). De fait, qu’il s’agisse des sites web, des fenêtres des logiciels ou des courriels, le problème s’est déplacé, et se trouve accru lorsque la source d’affichage est lumineuse (rétroéclairage). De plus, en pareil cas, le choix de la couleur a une incidence sur la consommation énergétique (laquelle diffère selon les technologies d’affichage et leur évolution). Entre le blanc éblouissant des écrans et le récent développement du « mode sombre » (applications, moteurs de recherche, interfaces de système d’exploitation, etc.), tout un travail, extrêmement subtil, serait à faire pour dépasser le simple passage du positif au négatif, afin de conjuguer au mieux les questions d’impact avec le confort de la lecture (auquel répondent partiellement les niveaux de gris des liseuses). Ici encore, les questions sanitaires et environnementales se relient.

Mobiliser les énergies

Nous ne pouvons plus ignorer les effets dévastateurs de notre civilisation matérielle que tant de travaux de désopacification continuent de mettre au jour. Il y va de la viabilité du monde et de ses écosystèmes (ou plutôt de ce qu’ils sont devenus du fait de l’anthropisation). Si les conséquences de la matérialité, dans toutes ses dimensions, engagent à repenser et à resituer le graphisme, ce dernier se trouve en capacité de jouer un rôle en ce qui concerne les imaginaires et les représentations, si souvent invoqués dans les objectifs d’émancipation à visée écologique ou socio-écologique. Dans ce vaste contexte, bien des aspects peuvent être travaillés par le graphisme et sa culture, jusqu’à être vus comme de véritables tremplins pour la création et la réflexion : prendre en compte les impacts (donc les connaître), confronter la pollution visuelle et la surenchère, déjouer les tendances au lissage, activer ses potentiels d’expression (capacité, en tant que langage visuel, à mettre en forme contenus, signes, messages, etc. – donc à réinjecter du sens et du sensible) ; mieux comprendre son histoire pour mieux s’inscrire dans le présent et le futur, élaborer des fondamentaux appropriés, s’interroger sur les critères de pertinence des sujets, des supports et des contenus, instaurer un débat et une critique en adéquation avec ces enjeux contemporains, développer une pratique et un esprit inclusifs, créer des espaces d’expériences collectives à toutes ces fins, bref œuvrer à une culture partagée répondant à ces problématiques, etc.

Les défis actuels – comme pour tant d’autres secteurs – n’en appellent pas à de petits changements de réglage. Ils requièrent une transformation majeure, nécessitant une vision d’ensemble et une compréhension de fond. Pour prendre le recul nécessaire, laissons les derniers mots à Bernard Stiegler : «il n’y a pas d’autre issue que de « changer de cap »», « il faut être fou pour continuer à vivre comme si de rien n’était ». « Et nous savons que, face à ces défis, il n’y a pas d’autre issue possible que la formation et la culture d’une nouvelle conscience humaine[30] ». « Nous ne pourrons sauver le monde de l’effondrement disruptif et entropique que par […] une économie de la reconstruction au service d’une nouvelle ère noétique – cultivant de nouveaux savoirs à la fois comme savoir-vivre, savoir-faire et savoir concevoir et spiritualiser[31] ».

Annonciation d’une seconde nature – Retour sur l’œuvre de Thomas Cheneseau
Jean-Jacques GAY

Résumé

Cet article propose une analyse de l’oeuvre émergente de l’artiste Thomas Cheneseau qui sculpte et capture les outils d’un réseau comme une « seconde nature » pour proposer une « redéfinition du paysage et de l’identité même dans la condition post-numérique ». Cette démonstration nécessite d’expliciter quelques postulats de départ : elle observe une suite de pièces artistiques in et off line que nous décrirons comme les différentes faces d’une œuvre qui observe depuis ses débuts une hybridation identitaire et créatrice au sein d’une écologie du virtuel, et qui aujourd’hui tourne un regard contemplatif vers le paysage factuel. Et si Thomas Cheneseau regardait le numérique comme un unique paysage qui faute de photo-synthèse produirait sans cesse la photo d’un monde en totale réorganisation ? Regard sur un monde organique qui à chaque instant produit son image à l’image de notre regard dans le plus parfait mimétisme. De la même manière avec laquelle il surfe sur les outils soft ou hard des internets pour en détourner les flux, avec ses NaturalGlitch, Thomas Cheneseau capture cette nature qu’il aime tant arpenter pour en révéler les aberrations à travers la seule chose que la machine ne puisse copier : l’erreur qui fait de cette nature un écosystème terrestre.

Texte écrit en 2020 pour compléter les actes du colloque « Les écologies du numérique » organisé par l’Ésad Orléans (ÉCOLAB) en 2017 et 2018.

Mots clé 

Internet, nature, hacking, collaboration, Cheneseau

Biographie

Jean-Jacques GAY

Membre de l’équipe CITU-Paragraphe de l’Université de Paris8, enseignant-chercheur, Ph. D, Jean-Jacques Gay développe des projets de résidences comme de recherche en tant qu’enseignant-chercheur avec des laboratoires universitaires, des écoles supérieures d’art et de design et des centres d’art. Critique d’art et journaliste (de Libération aux Lettres Françaises en passant par FranceTV ou Optical Sound), il collabore au comité de rédaction d’Artension (www.magazine-artension.fr), ainsi qu’à différents CA interprofessionnels et pédagogiques (Haknum, RAN, ESAD-P) et dirige l’association accès)s( cultures électroniques (www.acces-s.org). Consultant art/science et nouveaux médias au Fresnoy (Studio des Arts Contemporains), chargé de mission sur les bourses Ekphrasis et studio critique auprès du bureau de l’AICA France (www.aicafrance.org), membre fondateur du collectif SPAMM (www.spamm.fr) et aux origines de synesthésie.com, Jean-Jacques Gay revendique une pratique de réalisateur d’expositions. Après Melting Point, il prépare les curations de La Chose Mentale et de Value of Values (Maurice Benayoun), avec une première hexagonale lors de la 21e édition du festival accès)s(.


Si Internet est devenu la plus grande camera-obscura jamais conçue pour capturer le monde et ses émotions, le jeune artiste Thomas Cheneseau est devenu un des opérateurs (au sens photographique et/ou cinématographique) incontournable de la profanation même de ce dispositif cyber-industriel. Au fil d’une œuvre émergente qui observe, sculpte et capture les outils d’un réseau comme une « seconde nature », Cheneseau va engager une réflexivité artistique autour d’une « redéfinition du paysage et de l’identité même dans la condition post-numérique ». 

Cette démonstration nécessite d’expliciter quelques postulats de départ : elle observe une suite de pièces artistiques in et off line que nous décrirons comme les différentes faces d’une œuvre qui observe depuis ses débuts une hybridation identitaire et créatrice au sein d’une écologie du virtuel, et qui aujourd’hui tourne un regard contemplatif vers le paysage factuel. Et si Thomas Cheneseau regardait le numérique comme un unique paysage qui faute de photo-synthèse produirait sans cesse la photo d’un monde en totale réorganisation ? Regard sur un monde organique qui à chaque instant produit son image à l’image de notre regard dans le plus parfait mimétisme. On se retrouve alors dans Predator[1], ce film à effets spéciaux des années quatre-vingt où Arnold Schwarzenegger doit faire face à une hybridation extraterrestre qui entre en parfaite osmose mimétique avec la jungle guatémaltèque pour détruire toute humanité. Seule l’erreur peut alors démasquer la machine caméléon. 

De la même manière avec laquelle il surfe sur les outils soft ou hard des internets pour en détourner les flux, avec ses NaturalGlitch, Thomas Cheneseau capture cette nature qu’il aime tant arpenter pour en révéler les aberrations à travers la seule chose que la machine ne puisse copier : l’erreur qui fait de cette nature un écosystème terrestre.

Les internets

Aucun inventeur de la reproduction du réel aurait pu imaginer la fabuleuse machine construite par une société capitalo-carcérale (Damasio[2]) en marche. Car, lorsque l’on dit « internet », il faut penser « les internets » comme un dispositif global. Une mécanique qui met en perspective le réseau, une suite d’applications et d’outils personnels smartphones ou/et sociaux au service d’une gouvernance cyber-industrielle… et même de gestes humains, gestes UX déposés par Apple comme propriété industrielle. 

Or, c’est de ce dispositif que (se) joue le jeune artiste Thomas Cheneseau en capturant la réalité nouvelle d’une société dont la sur-nature, née du digital, « affronte » une nature en devenir, celle du réseau. Co-fondateur de Spamm.fr, Thomas Cheneseau est né dans les années quatre-vingt dans le sud-ouest de la France. Jeune artiste du monde des réseaux, étudiant en école d’art, Cheneseau poursuit un travail de partage à travers une communauté artistique internationale (Rosa Menkman, Ronen Shai, Aram Bartholl ou Kim Asendorf…). Échanges qui préfigurent le SuPer Art Modern Museum (2012) qui collaborera l’année suivante avec la chaîne franco-allemande sur spamm.arte.tv.

Et si avec le Super Art Modern Museum (SPAMM), Cheneseau entame un travail d’exposition-œuvres à travers lesquelles il se démarque d’un marché de l’art frileux face à cet « art (dit) numérique[3] » on line (NetArt), c’est d’abord par son travail de détournement artistique du réseau social Facebook, via son propre profil, que Thomas Cheneseau cultive un vraie production artistique à partir de l’outil réseau-social.

Avec Facebook Feedback il produit des séries de screenshots photos et vidéos ainsi que des activités performatives en ligne. Facebook devient alors à la fois son médium et sa toile avec un profil personnel qui (de son propre aveu) « est à considérer comme une œuvre en soi ». Il observe ainsi les limites des Réseaux Sociaux, et en particulier de Facebook, comme les limites d’un tableau… si bien qu’arrivé à certaines extrémités de ce détournement du médium, il avoue avoir dépassé les bords du tableau Facebook, et même travailler sur la tranche[4]. Sa dénonciation des GAFAMN[5] est ainsi revendiquée par autant de pièces pouvant être assimilées aux selfies d’une société dont les internets seraient l’unique objectif de prise de vue. 

Hekkah-Hacker

C’est dans cette écologie des réseaux que Cheneseau se fait remarquer en créant, et surtout en commercialisant, Le Profil Facebook de Marcel Duchamp (2011). Facebook devient alors un objet, un ready made, une œuvre d’art et un vecteur d’art comme d’autres plasticiens vont le démontrer : l’ingénieure-artiste Albertine Meunier le prouve en 2014 en hackant la firme de Montain View et activant le qualificatif « Net-art » dans les notices Google des œuvres de Marcel Duchamp, reliant ainsi l’art des Avant-gardes artistiques à un art du réseau, L.H.O[6] établit un trait d’union centenaire entre les profanateurs de dispositifs d’une esthétique à l’autre. Et comme le dit Albertine Meunier : « c’est Google qui le dit ! ».

Dans cette optique, à l’orée des années 2010, Cheneseau va développer plusieurs œuvres observant cette mécanique d’échange de flux. Nourries de Facebook et/ou Twitter, et, pourquoi pas, des œuvres de ses confrères artistes des technologies, ce jeune artiste qui a collaboré avec différents artiste-enseignant-chercheurs comme Jean-Louis Boissier (lors de son post-diplôme à l’ENSAD), Thierry Fournier (en pré-doctorat à l’ENSADLab) ou Maurice Benayoun (à travers l’expérience #1 de in/out organisée par le laboratoire CITU/Paragraphe[7]) va poursuivre une carrière de collaborations artistiques. Collaborations qui vont débuter de manière très factuelle en 2008 avec l’œuvre Cartels Numériques.

Cartels Numériques, est une pièce P2P qui se nourrit d’échanges de datas informatiques, picturaux et sonores d’œuvres d’une même exposition, œuvres connectées entre elles et auxquelles chaque Cartel Numérique propose une augmentation personnalisée, exactement comme le ferait un cartel d’œuvre d’exposition. Là déjà, Cheneseau se projette dans une écologie, celle de l’espace d’exposition, à travers une virtualité qu’il mettra en pratique dans ses futures curations virtuelles et IRL à venir.

Dans son travail avec les Flux et les datas des réseaux sociaux, Cheneseau développe aussi un travail collaboratif à travers différentes œuvres, curations et dispositifs. Un projet original naît alors en 2011 par une collaboration entre Isdant/Cheneseau/Jesperen au sein du collectif AWR (Art Without Reality) intitulé : Hekkah. Œuvre in progress Hekkah va se poursuivre en 2012/2013, puis sera réadaptée aux évolutions technologiques tout au long de ses monstrations (comme lors de Unlike en 2016). Hekkah est constituée d’un profil et d’une application. Ces deux espaces sont connectés dynamiquement et dialoguent dans un processus rétroactif. 

Hekkah, 2011

Hekkah devient une entité numérique omnisciente et curieuse qui habite les réseaux sociaux du web dans le but de se nourrir de nos vies quotidiennes. Issue des flux qu’elle incarne, les contours de sa forme (humanoïde) ne sont visibles qu’à travers l’activité et les publications de ses contacts sur les réseaux. Hekkah n’apparaît alors que face à ses spectateurs dont elle capte le reflet et mappe les flux. Le réseau est sa sève. Il lui permet ainsi d’exister à notre vision et de persister dans nos mémoires. Si le réseau social meurt, elle viendrait à disparaître à son tour. En devenant l’ami d’Hekkah à travers son profil Facebook, le spectateur accepte d’alimenter une sculpture visible dans un espace d’exposition (écran en miroir). 

Hekkah est une interface entre l’art et le monde du réseau, une sculpture informationnelle. Mais c’est surtout une Pythie[8] qui n’existe que par ses spectateurs et les (leurs) flux du (au sein du) web, invitant chacun à un regard sur une nouvelle identité sociale et collective tel le reflet dynamique des consommations de nos communautés. Processus rétroactif projetant chaque spectateur dans une écologie de vies et de datas, telle une sur-nature qui se cacherait dans les data et ne révélait son vrai visage que dans le reflet du spectateur. Comme un Predator fascinant camouflé dans les données que chacun sème dans les réseaux, Hekkah naît de notre vie sociale.

L’exposition œuvre

C’est à partir d’Hekkah que Cheneseau va entamer une série d’œuvres collaboratives avec différents artistes, curateurs et critiques d’art, comme une série de parties de ping pong créatif. Hekkah sera monté avec Raphaël Isdant, Spamm (2011) avec Systaime et GalerieOnline (2012) avec Ronen Shai. 

GalerieOnLine est une exposition-œuvre qui de 2012 à 2017 comptera plus de 6400 followers. Cette web-galerie qui utilise le réseau social Facebook comme environnement de réalité autonome invite des artistes pour une exposition le temps d’une période donnée où le statut d’administrateur de la page leur est accordé pour habiter l’espace de la galerie comme ils le souhaitent. Cette plateforme permet à la fois une émission de performances live avec des flux d’articles, d’images, de sons, de statuts publiés en temps réel, ainsi qu’une interaction avec le public de followers, créant ainsi un écosystème créatif artistique total le temps des 26 actions artistiques. Dans cette perspective et après l’expérience menée avec Systaime dans le spamm.fr, c’est sur le terrain des médias et de l’éditorialisation que Cheneseau va travailler avec le critique d’art Jean Jacques Gay, sur La vanité du Monde, la première exposition de Spamm.arte.tv, puis sur la seconde : Data Drape. Cette dernière exposition virtuelle sera uniquement rendue sous la forme d’une performance en collaboration avec le Sliders_lab[9], organisée par Dominique Moulon lors de son ShowOff digital[10] de 2013 à Paris.

Spamm, 2012

Lors de ses différentes pièces-actions, Thomas Cheneseau va chaque fois sculpter un nouvel espace : celui de l’exposition, et travailler un volume hybride, à la fois écran du créateur et écran du récepteur de l’exposition. Il faut se souvenir que, Digital Native, Cheneseau se définit comme peintre. Que depuis ses études en école d’art, il pense que travailler sur ces médias numériques engage une vraie pratique du tableau, mais d’un tableau écran qui est l’espace d’exposition. Un écran qui est un mur, une cimaise qu’il sculpte « comme du land art ». Dans de nombreux interviews Cheneseau se revendique même « comme un sculpteur frontal ![11] ».

Souvent, lorsque l’on parle du travail des net-artistes on évoque plus un Street art virtuel, que ce Land art auquel Cheneseau reste attaché à travers des œuvres éphémères nées des éléments de leurs environnements réticulaires et vouées à disparaître par obsolescence ou par nature. Ici ses pièces sont technologiques et virtuelles et elles s’implantent dans une nature qui est celle des réseaux sociaux au sein d’expositions virtuelles d’un art né de la technologie électo-numérique. C’est ainsi que Cheneseau cultive des œuvre-expositions tel que Spamm ou GalerieOnLine, mais on peut aussi citer la lafiac.com, Speed Show Brussels, No Name Net de Cuernavaca au Mexique ou le Pavillon Internet de la Biennale de Venise en 2011.

Performance d’une esthétique augmentée

Sur le web comme sur les réseaux sociaux, avec sa tablette, son laptop ou son smartphone, Thomas Cheneseau poursuit aussi un travail performatif associé à d’autres collaborations techniques avec des développeurs rencontrés sur les réseaux. En plein air, et avec des applications spécifiques sous iOS, il travaille la vision glitch d’une réalité qu’il modèle par le truchement de son objectif 2.0 personnel, dispositif d’applications qui va lui permettre de scruter une réalité numérique augmentée de tous les instants.

Homme-Caméra, Cheneseau porte ainsi le regard de son smartphone à travers des esthétiques mixtes de son quotidien. Son téléphone intelligent devenant le KinoPravda, cinéma vérité, de sa vision artistique, faisant écho aux allégories esthétiques que Lev Manovich développe en 2012 dans son ouvrage : Le Langage des nouveaux médias[12], à travers un parallèle entre le cinéma vérité et militant de Dziga Vertov[13] et l’Art des Nouveaux médias. 

Car Cheneseau surfe sur une imagerie proto-numérique de la fin des années quatre-vingt (l’image de synthèse de Predator) aujourd’hui devenue totalement organique grâce aux flux, aux applications et aux Intelligences Artificielles. La fragmentation visuelle que cet artiste met en place en association avec Dan Monaghan, qui a développé l’application Flotogram, utilise le principe de photogrammétrie[14] sur Instagram dès 2018 à partir (entre autre) des œuvres du sculpteur américain Daniel Turner (1300 followers + 800k de vues en seulement 2 mois) apparaît comme une photographie vérité d’un paysage post-numérique. 

De la même manière, lorsqu’il entame avec ses étudiants de Poitiers un travail en Réalité Augmentée (Banalité augmentée, 2019-2020) il engage au déplacement du spectateur/photographe à travers un environnement factuel et définit alors une performance vérité d’une photographe 2.0 face à une réalité tangente d’un paysage. Une performance dont l’interface reste la machine-smartphone façonnée par les applications avec lesquelles l’artiste « prépare » son instrument. 

Banalité Augmentée, 2019

Car, tel un véritable producteur musical de l’image – L’image électro-digitale ne sort-elle pas aussi des laboratoires du « père de la musique concrète » Pierre Schaeffer – Thomas Cheneseau, sur les pas de John Cage ou même de Robert Rauschenberg, « prépare » avec toutes sortes d’astuces applicatives l’outil emblématique de la puissance crypto-industrielle de ce début de XXIe siècle : le Smartphone.

Il fait de ce Smartphone une fenêtre ouvrant sur une seconde nature, sur cette sur-nature omnisciente qui nous environne sans bruit, tel un prédateur mimétique, et qui entend nous donner à voir le reflet de nos désirs alors que… la vérité est ailleurs.

Sur-nature à sculpter

Les dispositifs performatifs de pratiqueur[15] que met en œuvre Thomas Cheneseau rejoignent l’œuvre photographique in progress qu’il poursuit depuis 2015 : NaturalGlitch. Cette série de captures photographiques emmène l’artiste à travailler, pour la première fois peut-être, « en plein air[16] » pour parcourir la ville, mais surtout la campagne et une montagne qui des Alpes aux Pyrénées est devenue son terrain de jeu.

NaturalGlich est une proposition photographique qui donne à voir le pourcentage humain de toute mécanique face à la reproduction de la réalité quant à sa marge d’erreur (celle de la machine). Car le degré d’incertitude, le pépin (le Glitch), le grain de sable insufflé dans les paysages urbains et ou sauvages de Cheneseau matérialise un instantané de l’omniprésence des flux numériques de notre société. Là encore, le prédateur technologique, tapis dans la reproduction de la réalité numérique, est mis à jour.

Natural Glitch, 2015

Thomas Cheneseau devient alors le découvreur d’une sur-nature puissante, mécanique et biologique, qui ne craint à aucun moment qu’un digital intelligent ou artificiel lui usurpe son autonomie rhizomique. Car le pari est là, l’IA arrivera-t-elle à copier une erreur humaine qui n’est que naturellement humaine ? 

C’est pour répondre à cette question qu’en 2019 Christophe Bruno a expérimenté, avec L’être, la Machine, le Néant (2019)[17] l’idée de faire peindre la machine en lui « injectant du Bug dans la matrice ». C’est pour répondre à cette question que Thomas Cheneseau injecte du Glitch à son dispositif de hard et de soft pour révéler la sur-nature de ses paysages.

Cheneseau, plasticien, dont l’espace d’exposition est depuis presque vingt ans un écran-cimaise travaillé comme du land art au sein d’un habitat technophile est à n’en pas douter le digne descendant des cybernéticiens. Architecte de dispositifs, il sculpte aujourd’hui cette apparition photographique comme le corps digital d’un délit invisible. Car ses images sont autant d’apparitions (numériques) invisibles à l’œil nu similaires aux clichés monomaniaques d’un David Bailey du troisième type. Blow up[18] de sur-natures, œuvres éphémères de la machine, images vouées à se dissoudre à notre regard sans compter l’intervention photographique de Cheneseau qui immortalise le phénomène comme preuve de son existence.

Car la photographie 2.0 de Cheneseau fige aujourd’hui le geste conceptuel qui habite tout son parcours. Elle révèle une seconde nature en formation à travers une nouvelle écologie de la machine. Car si à ses début Cheneseau travaille les technologies numériques à travers un Art Conceptuel qui pourrait s’apparenter au Spatiodynamisme théorisé par Nicolas Schöffer, il en révèle aujourd’hui un nouvel élan, car sa recherche tente elle aussi de s’affranchir de l’objet, pour aller de l’idée à l’effet, par le code. Ce « code », cet algorithme, qui, selon Cheneseau, reste l’ultime mise en spatialité artistique contemporaine. «Vendre des codes c’est vendre l’espace d’accrochage et l’œuvre, c’est une façon de d’uploader ! Et upload est le geste déterminant, car tout ne se passe plus que dans les codes de connexion ». Dès 2011, cette intuition annonçait NaturalGlitch et les application-filtres que Cheneseau engage aujourd’hui comme la palette de sa machine photographique pour faire naître à l’image cette sur-nature prédatrice blottie au cœur des paysages que scanne son objectif. Thomas Cheneseau est certainement l’opérateur idéal de la grande machine disruptive des internets. Sculpteur et architecte d’un paysage en devenir, au plus près d’une réalité et comme en friction avec les Orogenèses, photographies algorithmiques, de Joan Fontcuberta[19]. Les NaturalGlitch sont comme autant de selfies d’une condition post-numérique révélée au sein d’une organogenèse en marche vers une pensée biologique qui propose une « théorie des organismes » complémentaire à notre théorie de l’évolution (Ana Soto[20]). Face à cette prothétisation artistique, l’art de Cheneseau est comme l’annonciation de cette seconde nature furtive, nature cachée fascinante et baroque, fruit d’un écosystème techno-biologique en formation, bien loin d’un simple effet d’hallucinations contemporaines définies par la technologie[21].

Ecologie(s) de la sous-veillance – Paolo Cirio contre les « machines de vision »
Jean-Paul FOURMENTRAUX

Résumé

Dans le contexte du « capitalisme de surveillance » (Zuboff) constitué par la récolte des données de navigation, par l’observation de toutes nos connexions et requêtes sur le web, par la prescription de nouveaux actes (« liker », cliquer, commenter, souscrire, etc.), les créations de Paolo Cirio, artiste italien vivant à New York, hackeret activiste, éclairent les paradoxes aussi bien que les risques et dérives du contrôle et de la manipulation sociale de l’information et de la communication à des fins économiques. Pour ce faire, elles s’attachent à parasiter les outils, les interfaces et applications de la surveillance numérique : notamment les opérations de captation, de collecte et de traitement de nos données personnelles sensibles. L’artiste explore une multiplicité de supports – photographies, installations, vidéos, interfaces et algorithmes numériques – dans une démarche technocritique des modèles sociaux, économiques, politiques et légaux de l’industrie du web. Se réappropriant les données en libre accès sur Internet, il questionne notamment l’exploitation des informations et des images collectées en regard du droit privé et du droit d’auteur. Alors même que la transparence est érigée en nouveau principe éthique par nos sociétés contemporaines, ses œuvres proposent des contre-dispositifs panoptiques et invitent à une réflexion sur les notions d’anonymat, de vie privée et de démocratie. À travers l’analyse des oeuvres de Paolo Cirio, cet article tente de montrer comment l’art peut créer une pratique d' »autodéfense numérique ».

Texte écrit en 2021 pour les actes du colloque « Les écologies du numérique » organisé par l’Ésad Orléans (ÉCOLAB) en 2017 et 2018.

Mots clé 

Ecologie, capitalisme, surveillance, machine de vision, censure, autodéfense numérique, Cirio

Biographie

Jean-Paul FOURMENTRAUX

Socio-anthropologue (PhD), Jean-Paul Fourmentraux est Professeur d’Histoire et de Philosophie des arts et médias à l’Université Aix-Marseille. Il dirige des recherches (HDR Sorbonne) à l’Ecole des Hautes Etudes en Sciences Sociales (EHESS), membre du Centre Norbert Elias (UMR-CNRS 8562) et initiateur du programme Art-Science-Société de l’Institut Méditerranéen d’Etudes Avancées (IMéRA, RFIEA). Il est également membre de l’association Internationale des Critiques d’art (AICA). Ses travaux interdisciplinaires portent sur les enjeux politiques et anthropologiques des arts et des technologies contemporaines.

Il est l’auteur des ouvrages Art et internet (CNRS, 2005, rééd. 2010), Artistes de laboratoire (Hermann, 2011), L’œuvre commune (Presses du réel, 2012), L’Œuvre virale. Net art et culture Hacker  (La Lettre Volée, 2013) et a dirigé les ouvrages L’Ere Post-media (Hermann, 2012), Art et Science (CNRS, 2012), Identités numériques (CNRS, 2015), Digital Stories (Hermann, 2016), Images Interactives (La Lettre Volée, 2017).

 Academia / Research Gate / Cairn


L’ère numérique aurait fait basculer le capitalisme industriel dans un nouveau régime. C’est l’hypothèse du « capitalisme de plateforme » proposé par le philosophe Nick Srnicek[1] ou du « capitalisme de surveillance » que formulait il y a peu la sociologue et économiste Shoshana Zuboff[2] et qui rejoignait ainsi une longue tradition critique de la surveillance médiatique. Depuis l’apparition d’Internet, de nombreux auteurs et activistes en ont fait leur terrain d’investigation. Pensons notamment aux défenseurs des libertés numériques, tels qu’en France l’autorité administrative indépendante CNIL ou l’association La Quadrature du Net[3], par exemple, mais aussi aux chercheurs universitaires nouvellement engagés dans le domaine des « surveillance studies[4] ». La surveillance est en effet devenue un véritable marché pour les multinationales du web qui désirent capter et mieux orienter ou prescrire nos comportements et nos vies numériques. Par la récolte des données de navigation, par l’observation de toutes nos connexions et requêtes sur le web, par la prescription de « nouveaux » actes – « liker », commenter, cliquer, souscrire, préférer, etc. –, les entreprises de la Silicon Valley ont fait de nos données numériques des produits monnayables sur le marché des prévisions comportementales[5]

Peut-on se satisfaire de ce que disent de nous les réseaux neuronaux : ce que l’on aime, ce que l’on est, ce que l’on souhaite(rait) être, faire, avoir, goûter, etc ? Comment détourner ces « machines à (nous) gouverner » qui nous aliènent autant qu’elles nous sont devenues désirables, auxquelles nous adhérons le plus souvent avec une confiance aveugle ?

Le web social, l’intelligence artificielle, les réseaux neuronaux sont en effet devenus le creuset d’une traçabilité sans précédent des comportements, de l’expression des goûts ou des dégouts, et par extension, de l’ensemble des communications et relations inter-humaines médiées[6]. Cette exploitation subreptice mais continue de l’ensemble des « données personnelles » extraites de nos échanges publics aussi bien que privés affecte considérablement la vie démocratique et le libre arbitre des individus. Tous les domaines de notre vie numérique sont désormais concernés : loisir, travail, économie, politique, sociabilité, sexualité, etc. Sur l’ensemble de ces terrains, le contrôle et la prescription à distance des comportements est susceptible d’altérer l’autonomie des individus : jusqu’à influencer et modifier leurs pratiques à des fins simultanément économiques et politiques. Car la finalité de cette surveillance n’est pas uniquement financière : elle vise autant à contrôler qu’à « fabriquer » de nouveaux comportements[7]. De grands pans de l’expérience humaine se trouvent ainsi modélisés et instrumentalisés par toute une série d’applications ubiquitaires qui ordonnancent le quotidien des individus et des collectivités. C’est là le plus grand paradoxe de cette nouvelle ère numérique : susciter le désir pour des applications qui confisquent le libre arbitre et aliènent les individus en leur offrant simultanément de nouveaux outils d’expression et de sociabilité.

Dans ce contexte, les créations de Paolo Cirio, artiste italien vivant à New York, hacker[8] et activiste, éclairent les paradoxes aussi bien que les risques et dérives du contrôle et de la manipulation sociale de l’information et de la communication. Pour ce faire, elles s’attachent à parasiter les outils, les interfaces et applications de la surveillance numérique : notamment les opérations de captation, de collecte et de traitement de nos données personnelles sensibles. L’artiste explore une multiplicité de supports – photographies, installations, vidéos, interfaces et algorithmes numériques – dans une démarche technocritique[9] des modèles sociaux, économiques, politiques et légaux de l’industrie du web. Se réappropriant les données en libre accès sur Internet, il questionne notamment l’exploitation des informations et des images collectées en regard du droit privé et du droit d’auteur. Alors même que la transparence est érigée en nouveau principe éthique par nos sociétés contemporaines, ses œuvres proposent des contre-dispositifs panoptiques et invitent à une réflexion sur les notions d’anonymat, de vie privée et de démocratie.

Face to Facebook : renverser les technologies de manipulation sociale

L’œuvre Face to Facebook (2011), réalisée en collaboration avec l’artiste programmeur Alessandro Ludovico, procède du vol d’un million de profils d’utilisateurs Facebook et de leur traitement par des algorithmes de reconnaissance faciale (bots, agents logiciels automatiques ou semi-automatiques). A partir du piratage de la base de données, les deux artistes vont procéder à l’implémentation d’une sélection de 250 000 profils au cœur d’un site de rencontre en ligne fictif, inventé de toute pièce, nommé Lovely-face.com. Publiés à leur insu sur ce site de rencontre, les profils privés se voient ainsi exposés et mis en relation suivant certaines caractéristiques d’expression du visage définies de façon inhabituelle – sympathique, arriviste, sournois[10]. Une intelligence artificielle se charge en effet de l’analyse des expressions faciales afin d’estimer le « taux de compatibilité » des utilisateurs et ainsi mieux provoquer leur rencontre potentielle. L’œuvre singe et parodie le pouvoir de Facebook et les dangers d’une véritable mainmise sur nos données : révélant l’insécurité de celles-ci et exposant littéralement les coulisses de leur exploitation technique via des logiciels de reconnaissance vocale, faciale et typographique. Devant l’omniprésence des médias sociaux, en réinjectant des « data privées » dans une farce drôle et néanmoins inquiétante et visible de tous, ce détournement de données se veut une mise en garde à grande échelle face aux risques du partage d’informations personnelles sensibles. Face to Facebook prend en effet le contrepied des réseaux sociaux pour mieux révéler les effets collatéraux de la confiscation des données : fuites, vols d’identités, cyber-attaques. Il va sans dire que l’entreprise artistique n’est qu’un pâle et ironique reflet des risques réels encourus par les internautes soumis aux logiques propriétaires et capitalistes des GAFA. De nombreuses affaires en ont témoigné, relayées par les médias d’actualité qui ont pointé les cas malheureusement récurrents de fuites et d’exploitations abusives des données personnelles et sensibles au détriment de toute protection de la liberté et de l’intimité des internautes.

En 2012, par exemple, effet collatéral d’un changement des paramètres de confidentialité de l’application FaceBook, sans doute trop discret et à l’insu des usagers, des conversations classées jusque-là par leur caractère privé se sont vues affichées sur les murs des utilisateurs, à leur plus grande stupéfaction. Suite aux plaintes récurrentes de ces utilisateurs, si l’enquête de la Commission nationale de l’information et des libertés (CNIL) souligna l’absence de stratégie volontaire ou de Bug du système, elle pointa néanmoins un manque d’information claire, côté FaceBook, associé à un relatif manque de précaution, côté usagers. Il n’en demeure pas moins que la confiance des utilisateurs en a été quelque peu émoussée. Car ces fuites, qui se sont malheureusement démultipliées, sont parfois pleinement délibérées, comme suite aux trop nombreuses demandes émanant d’une autorité : la police dans le cadre d’une poursuite, les fournisseurs d’accès pouvant communiquer une année de vie numérique dans le détail, sans oublier l’installation de mouchards sur les machines des utilisateurs, à distance et sous le contrôle d’un juge.

Ces  cas révèlent l’impact des technologies numériques et le rôle des GAFA sur le terrain de la culture et des médias, mais également leur pouvoir décisif sur le terrain de la politique et de la démocratie. L’affaire Cambridge Analytica, révélant la compromission de Facebook dans l’élection de Donald Trump, en atteste funestement. L’artiste lui-même indiquait en 2015 que l’œuvre Face to Facebook avait depuis son lancement comptabilisé plus de mille couvertures médiatiques dans le monde entier, onze menaces de procès, cinq menaces de mort et quelques lettres d’avocats du réseau social. Mais la crainte d’une trop grande résonance médiatique avait aussi limité pour partie les velléités de réels procès.

Street Ghost : contrer les tyrannies de la visibilité

Depuis 2012, l’œuvre Street Ghosts prend pour cible l’application Google Street View et ses 9 caméras intrusives – Nine Eyes – qui scannent visuellement et cartographies numériquement toute l’étendue du globe[11]. Paolo Cirio propose de détourner ces « portraits panoptiques » eux-mêmes souvent illégaux : même lorsqu’ils sont floutés par l’application afin de palier aux nombreuses plaintes émises par des particuliers à l’encontre de l’entreprise[12]. En témoignent certains instantanés saisis fortuitement par la Google Car et qui se sont par la suite avérés indiscrets et potentiellement compromettants : ouvriers de chantiers en pose, mari se rendant chez sa maîtresse, ou entrant dans un sexshop, par exemple.

Ces compagnies sont les pouvoirs totalitaires d’aujourd’hui, et leur pouvoir est hors de contrôle. C’est pourquoi il faut toujours les garder sous la surveillance du public. (…) Google n’a pas demandé l’autorisation pour s’approprier les images des villes et villages du monde, il n’a rien payé pour le faire. Il vend des publicités à côté de ces contenus et revend l’information collectée aux mêmes annonceurs, récoltant des milliards qui ne sont même pas taxés. C’est une sorte d’exploitation par un parasite social géant qui nous revend ce qui a été collectivement créé par l’activité des gens.

L’artiste va alors choisir d’afficher dans l’espace public de nos centres urbains, sur le lieu précis où elles ont été photographiées à leur insu, les silhouettes des personnes capturées par les caméras de Google Street View. Ces « portraits » de personnes saisies au hasard dans la rue par la Google Car – sans leur autorisation – sont en effet imprimés et affichés grandeur nature à l’endroit même où les prises de vues ont été réalisées. Différentes techniques sont utilisées afin d’accentuer l’impact de l’œuvre et pour mieux  révéler l’illusion d’anonymat et l’atteinte à la vie privée que sous-tendent les pratiques de Google : le détourage, l’agrandissement à l’échelle 1/1, le collage mural. L’agrandissement des images renforce les aspects floutés de ces silhouettes et accentuent leur qualité spectrale. Il en résulte des spectres numériques qui viennent littéralement hanter l’espace public, à l’interface du monde réel dont elles proviennent et du monde virtuel qui les exploite.

Les Street Ghosts incarnent donc les « victimes algorithmiques » de nos sociétés de l’information – un dommage collatéral de la guerre que se livrent les multinationales du numériques, les gouvernements et les algorithmes. Exfiltrées du réseau, placardées sur les murs de nos villes, leurs silhouettes de papier en basse définition agissent comme des signaux d’alarmes. Glissant d’une existence numérique à une présence réelle dans l’espace public, elles peuvent être reprises en main par les internautes eux-mêmes[13]

Entre Net et Street art, à la frontière de l’espace public et de la vie privée, le public citoyen urbain autant que les internautes s’engagent ainsi eux-mêmes activement contre la violation de la propriété intellectuelle engendrée par l’utilisation abusive des données privées par les GAFA. 

Être sur Google Street View est bien pire que d’être sur un poster dans la rue, qui n’est pas permanent et peut toujours être retiré. Alors que nos fantômes vont hanter pour toujours les serveurs de Facebook, Google ou Twitter, toute l’information que nous laissons sur le Net est stockée et commercialisée dans l’ombre de l’enfer numérique. (…) Mon projet est devenu populaire et provocant, non parce que j’ai mis ces images dans les rues, où on les remarque à peine, mais parce que les images des interventions publiques ont été repostées online. 

Depuis son lancement en 2007, l’application de Google est régulièrement dénoncée comme empiétant sur l’intimité. Aujourd’hui, en regard du Code pénal français, cette pratique pose désormais problème : toute intrusion dans la vie privée et le non respect de l’intimité violent le « secret des correspondances », incluant désormais les échanges électroniques, et portent atteinte à l’intimité de « paroles prononcées à titre privé ». Certains pays comme l’Allemagne où la Suisse ont retardé le lancement de l’application sur leur territoire. Suite à l’afflux de 240 000 demandes de suppression par des citoyens de toute image de leur domicile, les pouvoirs publics se sont en effet saisis de l’affaire, conduisant Google à suspendre l’installation de Google Street View. Sur le territoire français il est possible de contrer partiellement ces pratiques en réclamant qu’une photo de son visage, de sa maison ou de sa voiture soit floutée : pour cela, il suffit sous dix jours de cliquer sur le lien mentionnant au bas à droite des images « Signaler un problème » en motivant la demande par une justification. Mais encore faut-il avoir connaissance de l’existence de cette image. Par ailleurs, le floutage ne palie qu’imparfaitement l’identification des sujets et des contextes de prise de vues. 

L’image joue ici un rôle prépondérant et témoigne de l’hégémonie du visible à l’intérieur d’un dispositif capitaliste occidental dominant. A ce titre, les travaux menés depuis de nombreuses années par la philosophe Marie-Josée Mondzain[14] nous éclairent et rappellent combien le pouvoir dominant peut être attribué non seulement à la finance et aux armes, mais aussi aux moyens de communication et de médiation par les visibilités. Cette funeste articulation semble se confirmer et être encore accentuée à l’ère d’Internet. En contrepoint des discours officiels qui vantent les vertus de la transparence et de la mise en réseau des internautes, les multinationales du divertissement et du renseignement cohabitent. La superposition entre réel et virtuel ne manque pas en effet de brouiller les pistes et fait émerger de nouveaux problèmes souvent non questionnés. 

En ce sens, la mise à disposition des flux d’images et de données à caractère sensible, leur réorganisation et remise en forme matérielle et plastique, invitent à une nouvelle répartition des pouvoirs de l’information. Au-delà de la posture délibérément drôle et provocatrice de ces interventions, il s’agit d’adopter un mode opératoire qui ne se contente pas de dépeindre la réalité, mais qui vient directement transformer l’environnement social pour promouvoir la réflexion et les actions citoyennes. Le détournement de données numérisées concentrées par des institutions puissantes s’opère en effet sur un mode participatif. Les œuvres de Paolo Cirio agissent et font agir : à l’instar des ateliers organisés par l’artiste avec les habitants de différentes villes invités à naviguer dans l’espace virtuel des cartographies de Google avant d’intervenir à leur tour dans les rues de leurs villes ou villages.

Overexposed & Loophole4All.com : surveillance, censure et anonymat numérique

Ce retournement de la tyrannie de la visibilité, s’est vue accentué à l’occasion d’un projet plus récent de l’artiste Paolo Cirio intitulé malicieusement Overexposed (2014-2015). Suite aux révélations d’Edward Snowden en 2013, neuf clichés photographiques s’étaient vus diffusés et partagés sur les réseaux sociaux. Des portraits de hauts représentants américains de la NSA, la CIA, la NI et le FBI, images prises à l’insu des protagonistes, dans des contextes variables, des scènes domestiques ou familiales privées, quand il ne s’agit pas d’images prises à la volée par des citoyen lors de rares apparitions des protagonistes et mises en ligne la plupart du temps de manière confidentielle. Paolo Cirio va choisir après s’être emparé de ces images dénichées sur Internet et Facebook, de détourer les portraits et de les agrandir pour en faire des affiches reproductibles en une multitude d’exemplaires à exposer dans l’espace public. Cette série de portraits pixélisés de responsables des services secrets américains, va ainsi se trouver placardées sur les murs. Adoptant ironiquement la tactique de l’arroseur arrosé, l’œuvre de Paolo Cirio expose au grand jour le visage de ces hommes de l’ombre qui collectent nos données dans le plus grand secret[15].

Ce fait est particulièrement prégnant dans un projet ultérieur de l’artiste nommé Loophole for all (que l’on peut traduire par « Niche fiscale pour tous » ou « Des paradis fiscaux pour tous ») dans lequel, suite au hack d’un site gouvernemental des îles Caïmans, l’artiste dévoile les ressorts de l’évasion fiscale pratiquée par de nombreuses grandes entreprises. Déjouant la croyance en l’anonymat ou en la protection des données, Loophole for all expose les certificats de constitution et d’incorporation de 200 000 entreprises basées sur les îles Caïmans – en prenant soin de révéler l’identité des sociétés anonymement domiciliées sur ces îles. Suite au hack de leurs numéros d’identification fiscale, l’artiste établit et propose de mettre en vente une série de contrefaçons des certificats de ces compagnies et encourage les citoyens lambdas à en faire l’acquisition. Au delà de l’effet de dénonciation, le projet aspire, au moins ironiquement, à « démocratiser l’évasion fiscale » afin de retourner ou contrecarrer ces privilèges abusifs. Pour la modique somme de 99 cents, les internautes étaient ainsi invités à usurper l’identité d’une de ces compagnies afin de pratiquer librement – et même légalement – l’évasion fiscale. Une fois le certificat acquis, la démarche s’avère selon Paolo Cirio d’une simplicité confondante :

« Vous le joignez à d’autres paperasses quand vous remplissez votre déclaration d’impôts ou lorsque vous facturez votre travail. Vous déclarez que votre business est enregistré aux Caïmans et que, par conséquent, vous n’avez pas d’impôts à payer à votre pays d’origine. C’est aussi simple que ça, grâce à nos lois. Etant donné que les propriétaires de compagnies aux Caïmans sont anonymes et secrets, tout un chacun peut prétendre en être le boss. Il est impossible pour les autorités financières de savoir si vous trichez ou non. Le projet transforme le principal avantage des centres offshore en vulnérabilité[16]. »

La garantie du secret et de l’anonymat rendant difficile sinon impossible toute détection, les usagers pouvaient eux aussi échapper à la vigilance des autorités financières. L’achat des vrais-faux certificats d’incorporation s’opère à partir d’un montant très peu élevé, qui permet de lutter symboliquement sur le même terrain que celui des îles offshores : les affaires. L’enjeu vise à partir d’une faille dans ce système à susciter en la décalant sensiblement la participation du public, dont l’action sur la base d’un concept artistique est susceptible de constituer une véritable menace. Cette action n’a pas été sans provoquer l’indignation des médias internationaux, des grands cabinets d’expertise comptable et autres organismes de la finance dématérialisée tels que PayPal[17] qui a suspendu le compte associé à l’œuvre trois semaines après son lancement. 

« PayPal a supprimé le compte trois semaines après le lancement du projet, et j’ai perdu les 700 dollars [530 euros, ndlr] qu’ont rapporté les ventes sur une très courte période. Dans la lettre de PayPal, il était écrit :  » PayPal ne peut être utilisé pour vendre ou recevoir des paiements d’items qui encouragent, font la promotion ou forment d’autres à s’engager dans une activité illégale » [18] ».

Mais simultanément, cela n’a pas empêché l’artiste d’obtenir la reconnaissance du milieu de l’art et de se voir décerner le désormais prestigieux Golden Nica, prix du jury du Festival Ars Electronica de Linz (Autriche). L’œuvre s’est vue ensuite de nombreuses fois exposée et ouverte à la participation du public, par exemple au ZKM à Karlsruhe et au CCC Strozzina à Florence (2013), dans le cadre de l’exposition CyberArts lors de l’Ars Electronica de Linz (2014).

On peut lire aujourd’hui, à travers la mise à disposition de ces contrefaçons, une manière rusée et détournée de démocratiser les privilèges abusifs de trop nombreuses multinationales qui délocalisent leur fortune pour échapper à l’impôt. Dans les coulisses de l’économie mondiale, la ruée vers l’or des données numériques (Big data) ne s’embarrasse pas des lois et des valeurs de la démocratie : les abus de pouvoir, la surveillance, le non respect des personnes, y sont monnaie courante. Ainsi qu’on pu le révéler les lanceurs d’alertes[19] ainsi que le mouvement Occupy, les flous juridiques et légaux en matière de gouvernance de l’internet et l’absence de réglementation des centres offshores profitent encore largement aux multinationales des réseaux que sont les GAFA. Cette action résonne avec un projet plus ancien de l’artiste Paolo Cirio (2006) qui avait piraté l’entreprise Amazon.com afin de (re)distribuer gratuitement sur un réseau peer-to-peer un nombre relativement important de livres numériques distribués par la multinationale. La défense du libre accès à la connaissance y était déjà une préoccupation majeure de l’artiste.

Conclusion : un art de l’autodéfense numérique

Les œuvres de Paolo Cirio participent ainsi d’une critique de l’utilisation des nouvelles technologies lorsque celles-ci constituent un pouvoir hors de tout contrôle. Au-delà de l’approche critique, elles procèdent du détournement volontiers ironique des applications et données du capitalisme de surveillance numérique pour les transposer simultanément dans le monde de l’art et dans l’espace public de la cité. A la croisée du Net et du street art, de l’installation et de la performance, l’artiste combine approche documentaire et recherche plastique (photographie, diagrammes, objets, vidéos, algorithmes, design numérique) pour inciter les citoyens à expérimenter eux-mêmes les coulisses des machines qu’ils utilisent sans toujours en percevoir les logiques et déterminismes. Une philosophie de la libre circulation et du partage des ressources numériques émaille l’ensemble des projets. La redistribution de l’information va de pair avec la réouverture des boîtes noires et de leur traitement algorithmique, afin que les savoir-faire du programmeur et du hacker soient ensuite mis à disposition des citoyens et deviennent des armes de résistance. Les œuvres de Paolo Cirio s’incarnent en effet dans des objets et représentations tangibles, mis en scène pour inviter à la participation active du public. 

À ce titre, l’art de Paolo Cirio déploie une écologie de sous-veillance[20] visant à détourner les instruments de la surveillance panoptique exercée par les détenteurs du pouvoir – la police, le gouvernement, le renseignement, les GAFA, etc. Le paradoxe étant que ces institutions, tout en revendiquant des lois de gouvernance et d’information transparente, veillent à masquer ou dissimuler leurs propres instruments de surveillance ainsi que l’étendue et la nature du traitement des données qu’ils collectent. Plus prosaïquement, sous-veiller revient ici à mener une contre-observation : surveiller les surveillants, traquer les traqueurs, rendre public les systèmes de surveillance et l’identité des autorités qui les contrôlent pour se protéger de leurs excès coercitifs et liberticides[21]. Pour ce faire, Paolo Cirio emprunte et prolonge le mode opératoire des « médias tactiques » (tactical media[22]) : l’artiste agit en parasite, hackant, détournant, redistribuant les ressources invisibles de la culture numérique[23]. A l’image des watchdogs ou des lanceurs d’alertes, Paolo Cirio et ses complices investissent par conséquent le domaine public et tous ses canaux d’expression médiatiques (imprimés, installations, vidéos et performance médiatique et in situ). Leurs œuvres interrogent plus largement la reconfiguration du pouvoir de l’information à l’ère numérique et l’affrontement des intérêts publics et privés : propriété intellectuelle, protection de la vie privée, démocratie, finance. Elles débordent ainsi du seul cadre des interrogations esthétiques pour aborder les enjeux publics, juridiques, économiques et culturels de nos sociétés de l’information.

L’art peut constituer ici un contrepoint de l’innovation technique, non pas au sens d’une critique unilatérale du développement des machines, mais davantage de la mise en perspective réflexive et active de la portée de leurs usages, et au-delà, de leurs effets et impacts sociaux. Car ce sont ces derniers qui, la plupart du temps, restent non questionnés, de même que les rouages et fonctionnalités techniques des machines demeurent cryptés. L’enjeu est bien de reprendre le contrôle, pratique aussi bien que symbolique, sur les machines dont on fait l’usage afin de mieux en maîtriser les effets. Sans exagérer toutefois la puissance de ces machines, dont les systèmes et le fonctionnement plus ou moins déterministes ne présentent pas en tant que tel de mystères. L’enjeu étant au contraire de dépasser toutes les mythologies promues aujourd’hui par les G.A.F.A pour redonner une réalité pratique et tangible à des systèmes qui équipent désormais un très large pan de nos vies individuelles et collectives.

Que faire face à la croissance digitale ?
Fabrice FLIPO

Résumé

Qu’est-ce que la « croissance numérique » ? Quelles sont ses implications sociales et écologiques ? Dans cet article, nous revenons successivement sur chacun de ces termes, avant d’esquisser quelques pistes pour l’avenir. Dans la première partie, il s’agit d’expliciter ce qu’il faut entendre par « digital growth » ou « croissance digitale » sur le plan matériel et informationnel selon un bref panorama historique. La deuxième partie s’intéresse aux enjeux sociaux en adoptant un point de vue économique critique. La troisième partie s’attache quant à elle a remettre en question l’immatérialité supposée d’Internet et du numérique en général pour en montrer les conditions matérielles et énergétique ainsi que les implications écologiques potentiellement catastrophiques. L’idée enfin de renforcer les réseaux low tech, locaux et alternatifs, d’empêcher certains usages et développements, de refuser certaines fausses solutions ou compromis, est désormais incontournable.

Texte écrit en 2021 pour compléter les actes du colloque « Les écologies du numérique » organisé par l’Ésad Orléans (ÉCOLAB) en 2017 et 2018.

Mots clé 

croissance, digital, énergie, social, réseau

Biographie

Fabrice FLIPO

Philosophe des sciences et des techniques, spécialiste des grandes idées politiques, Fabrice FLIPO est professeur à Institut Mines-Télécom Business School et membre du Laboratoire de Changement Social et Politique à l’Université de Paris. Auteur de plus de quinze livres, ses recherches portent sur l’anthropologie de la modernité et de la globalisation, le développement durable, la décroissance et l’écologie des infrastructures numériques. Il a récemment publié L’impératif de la sobriété numérique (Éditions Matériologiques, 2020) et Le numérique, une catastrophe écologique (Éditions L’Echappée, 2021).

https://www.cairn.info/publications-de-Fabrice-Flipo–4637.htm


Qu’est-ce que la « digital growth » ?

Le « digital » désigne les machines numériques, qui présentent deux caractéristiques : utiliser le langage binaire, le plus élémentaire qui soit (tout est décomposé en 0 et en 1), et la commande électronique. Chacun des deux pris séparément ne sont pas forcément très nouveaux : le binaire est proposé par Leibniz au XVIIe siècle et les propriétés de l’électronique sont utilisées depuis le début du XXe siècle notamment pour produire des télévisions électromécaniques (l’Angleterre compte un parc de 20 à 25 000 postes à cette époque) mais aussi pour compter[1]. La nouveauté vient de la machine dite « universelle », « de Von Neumann », qui permet de traiter une diversité de programmes[2]. L’informatique commence à se diffuser sous la forme de grosses machines dans les années 1950, qui voient leur taille se réduire avec la miniaturisation des composants, jusqu’à arriver à la microinformatique dans les années 1970. Des systèmes sont mis au point pour communiquer par le réseau cuivré qui est disponible. Arpanet est de petite taille, tissé entre universités dans un contexte de commandes militaires[3]. Les universités vont créer d’autres réseaux, aux États-Unis, ainsi que les informaticiens entre eux. Le premier grand réseau de terminaux est le Minitel, lancé en 1984 ; c’est un joli succès puisqu’en 1990, la France compte 6 millions d’abonnés. Le téléphone est alors filaire, souvent à cadran. La commutation des réseaux est électromécanique. Le téléphone mobile existe déjà, mais il est cher et encombrant, réservé à quelques usages précis ; le système Radiocom 2000 compte toutefois jusqu’à 60 000 abonnés, à la fin des années 1980[4]. L’arrivée des « autoroutes de l’information[5] » marque un tournant : celui d’une mise en réseau numérique des centaines de petits réseaux, d’abord aux États-Unis, puis dans le monde. En 1990, Tim Berners-Lee du CERN met à disposition son système de navigation. En 1993, Netscape Navigator[6] ouvre les portes d’un monde nouveau, offert par les possibles numériques. Le réseau ne compte encore que 130 sites web, contre près de 25 000 services Minitel ; mais quatre ans plus tard ce sont plus d’un million de sites qui sont recensés. Les PC arrivent dans les maisons au cours des années 1980, alors qu’ils sont déjà présents dans les bureaux[7]. Ils sont autour de 200 fabricants dans ces années-là, ce qui rappelle beaucoup les premières années de l’automobile, en France au tournant des XIXe et XXe siècle. Chacun assemble les composants à sa manière, cherche des usagers. La circulation des disquettes pour CDROM sont des internets lents et saccadés, mais qui préfigurent déjà les réseaux. Les systèmes analogiques radio sont remplacés par le GSM (1 ou 2 ko/s) au début des années 1990, abaissant les coûts. La 3G arrive en 2000 avec un débit 100 fois plus important, en conditions optimales (250 ko/s), ce qui suppose également de déployer un nouveau réseau d’antennes – comme ce sera de nouveau le cas avec la 4G, puis la 5G à venir.

Ces rythmes de calcul et ces débits permettent la production et la circulation d’images, textes, un défilement écran fluide : autant d’opportunités pour développer des services qui se rapprochent de ce que propose l’audiovisuel sur d’autres canaux (cinéma, télévision), ou d’autres activités, telles que les visites virtuelles (musées, conception de bâtiments etc.), les jeux ou le shopping. La fusion AOL-Time Warner illustre cette idée : le nain AOL, 15 ans d’existence et 29 millions d’abonnés sur Internet, mais valorisé en bourse à des montants extravagants, fusionne avec la vénérable entreprise de production de contenus (cinéma, télévision, presse écrite), beaucoup plus importante, et qui touche déjà des milliards d’individus. Mais l’idée n’est pas si bonne. Les canaux prolifèrent, TimeWarner reprend sa route et AOL ferme définitivement en 2018. L’idée de concilier « les » contenus existants avec « le » canal « disruptif » de diffusion, simple « nouveau support », était trop simpliste. En effet, le numérique n’est pas simplement un canal ouvrant sur le flux de conscience du consommateur : c’est l’ensemble des médiations qui se trouve changé. Comme le suggère McLuhan, le message réel est celui que diffuse l’ensemble des déformations structurelles produites dans un médium[8]. Cette déstabilisation des circulations permet à de nouveaux acteurs de trouver de nouveaux publics (Mediapart, NetFlix etc.), et de nouvelles médiations (le smartphone, la tablette). C’est aussi ce que montre Piketty, à sa manière : les périodes de croissance qui sont des moments d’ouverture sont aussi ceux au cours desquels les individus situés au bas de l’échelle ont le plus de chances de monter[9].

La circulation des biens et des services se trouve reconfigurée à tous les niveaux (inter-entreprises et dans le service au consommateur final) et dans tous les secteurs (médias mais aussi transport, construction, architecture, etc.), de manière forte ou faible suivant les cas, ce qui explique à la fois le succès mais aussi les limites des plate-formes universelles telles qu’Amazon. On se souvient qu’Internet prend modèle sur la logistique, et non l’inverse : Leonard Kleinrock, en 1961, quand il invente la commutation par paquets, part du problème de la congestion[10]. L’Internet est une machine à faire circuler. Nulle surprise que le commerce y trouve un avantage. Toutes les mises en relation sont impactées, même celui du béton, à l’image du BIM. Une plateforme, c’est avant tout de la mise en relation, du réseau, des gains sur les coûts de transaction. Uber est souvent le symbole de cette nouvelle situation ; ainsi les véhicules avec chauffeur, les chambres louées par les particuliers (AirBnB), le covoiturage (Blablacar), etc. Nathalie Sonnac suggère ainsi de considérer les médias comme des « plates-formes » d’échange[11]. À chaque fois, un « marché biface » c’est-à-dire une infrastructure de marché[12]. L’effort de R&D pour diffuser le numérique et le rendre pratique est extrêmement puissant : c’est la clé pour s’insérer de manière insensible dans les usages, créer les marchés, et attirer les revenus. L’écran devient léger, plat, mobile et constamment connecté. Il est extensible, de la montre connectée de 1,5 pouce à l’écran de Times Square de 2300 m2[13]. La petite fenêtre fixe du Minitel, à côté de la télévision, des journaux et du cinéma, n’est pas remplacée par une seule fenêtre « multimédia », comme le pensaient AOL et TimeWarner, mais par toute une gamme d’écrans, fixes ou mobiles, offrant toutes sortes de mises en relation. La loi de Moore prend fin, dans la mesure où la taille de la gravure des transistors atteint un palier ; mais le nombre de transistors prend le relais, ouvrant sur un monde numérique dont la qualité visuelle finit par être proche de celle du monde saisi sans la médiation d’un écran (Oled 4K). 

Le rapport Théry de 1994 sur les « autoroutes de l’information[14] » voit très bien arriver la fusion de l’information, des télécommunications et de l’audiovisuel, mais il n’anticipe ni l’émergence des réseaux sociaux, qui permettent la création de contre-espaces publics tels que ceux que l’on voit encore avec les Gilets Jaunes, ni la pluralisation industrielle du monde de l’attention[15], ni la dimension logistique de l’Internet, qui propose aujourd’hui 182 000 sites marchands, rien que pour la France. Le numérique n’est pas seulement une technique ou industrie de l’esprit, individuel ou collectif. C’est aussi une manière de transformer le monde, et pas seulement de l’interpréter. Le numérique est un système matériel de commande : le programme exécute des ordres, qui commandent des machines. La machine-outil à commande numérique arrive dans les années 1980, précédée de la machine à bande magnétique, elle-même précédée de la machine à cartes perforées. En 2000 la France comptait 380 000 machines de ce type[16]. Placés dans des boucles de rétroaction, les programmes peuvent « apprendre », ou du moins évoluer dans leur structure en fonction des événements qu’ils détectent, jusqu’à ne plus pouvoir être entièrement prévisibles, singeant ainsi la liberté. L’intelligence artificielle n’en est que le prolongement sophistiqué. L’ensemble de l’organisation du travail évolue avec la présence grandissante des algorithmes, qui ne sont rien d’autres que des programmes numériques. On parle d’« Internet physique », de coordination de l’ensemble des mouvements physiques d’une entreprise à partir d’un seul réseau interconnecté[17]. Le conteneur modulaire est le pendant matériel du bit, dans la circulation économique. Ce n’est pas entièrement nouveau : le monde industriel est celui des machines, du feu[18], celui qui a choisi de « motoriser le monde », au point de penser parfois remplacer celui qu’Aristote appelait le Premier Moteur : Dieu lui-même. C’est le rêve transhumaniste.

Enjeux sociaux

Qu’est-ce que le social ? À l’époque de la modernité, ce concept renvoie d’abord à la répartition de la valeur ajoutée, et plus largement au contrôle collectif de notre destin. Le Capital met en scène l’opposition entre le capitaliste et le travailleur, dans une lutte dialectique[19], à la suite du Maître et de l’esclave de Hegel[20]. Le capitaliste cherche à valoriser son capital, à le reproduire de manière élargie. Dans ce but, il dispose de deux leviers principaux : l’allongement de la journée de travail, ou plus-value absolue, et l’évolution technologique, ou plus-value relative. Au XIXe siècle, la journée de travail est longue et pénible, mais les luttes des ouvriers, bientôt structurés en syndicats (légalisés par la loi Waldeck-Rousseau de 1884), permettent de la réduire, de manière tendancielle, jusqu’à la semaine dite « de 35 heures », en France à la fin des années 1990 ; la durée moyenne effective de travail se situe plutôt autour de 40 heures, mais avec 5 semaines de congés payés, ce qui conduit à 1400 heures par an, contre 2100 en 1960[21]. De même que « l’économie » renvoie généralement à l’action des entrepreneurs, dans la bouche des libéraux[22], « le social » renvoie le plus souvent au mouvement social organisé, du côté des socialistes. Ce sont deux descriptions hétérogènes et antagoniques de l’ordre social, relatives à deux positions différentes de l’ordre productif. Pour le libéralisme la société s’auto-organise, via l’intérêt marchand, il suffit d’assurer l’égalité et l’état de droit. Le socialisme estime que l’échange n’est pas libre et que les travailleurs courent des risques disproportionnés ; le mouvement ouvrier met peu à peu en place ce filet de sécurité connu sous le nom de sécurité sociale et qui couvre la vieillesse, la maladie et le chômage. 

Source : Federal Reserve Bank of Dallas 1993 Report, p. 25.

Avec les travaux de Thomas Piketty[23], la courbe en éléphant[24] illustre bien ce qui s’est produit ces dernières années : forte croissance du 1 % le plus riche, tassement voire réduction du niveau de vie de la classe moyenne dans les pays développés, croissance de la classe moyenne des pays en développement, et relative stabilité des plus bas revenus à l’échelle globale. La troisième révolution industrielle que représente le numérique n’est pas neutre dans cette évolution : il est souvent l’outil privilégié, avec la baisse des droits de douane (libéralisation) et la généralisation du transport par conteneur ; il suffit pour cela de comparer les salaires très élevés de ce secteur (Google etc.) et ceux très bas des « travailleurs du clic[25] », même si c’est réducteur, dans la mesure où bien d’autres métiers sont occultés. Le numérique « disrupte » les marchés classiques mais facilite aussi la délocalisation des entreprises et la restructuration  « en réseau » des firmes, voire des villes[26]. Les grandes fortunes récentes sont largement issues du numérique ou de transformations économiques facilitées par le numérique, telles que la « fast fashion » du groupe Inditex, qui impose un temps très court entre la conception du produit et sa mise en vente[27]. Les nouvelles chaînes de valeur qui se mettent en place ne sont pas avantageuses pour tous. Le numérique devient tyrannique : après la joie d’être connecté, et de commander la machine, liée aux gains en autonomie, la bataille pour le droit à la déconnexion, et la lutte contre le rythme imposé par la machine[28]. Le salariat tend à régresser, au profit de contrats de sous-traitance mal encadrés par le droit existant, et coupés de la protection sociale. Dans d’autres cas cependant, la plate-forme ouvre de vraies opportunités de collaboration[29] , voire organise un travail qui jusque-là était assuré principalement par des indépendants (par exemple, les taxis). Certaines analyses s’alarment d’un effondrement possible de l’emploi, oubliant que les machines n’inventent pas le sens seules, et ne « remplacent » donc jamais à proprement parler l’être humain dans l’aventure humaine ; de plus dans l’approche marxiste l’origine de l’activité est dans le travail et non dans les machines, celui-ci ne peut donc que se redéployer ailleurs, ce qu’avait également perçu Schumpeter. De là l’ambiguïté des plates-formes : nouvelles formes socialistes de coopérer ou retour du tâcheronnage ? Elles sont les deux, suivant les cas. Les États savent aussi en tirer profit puisque la dynamique économique renforce leur puissance[30] . Nouvelle abondance, se livrant à qui saura s’en saisir, le numérique est présenté comme la solution universelle, notre Destin. « Croissance, emplois et services sont les avantages les plus importants qu’apportent les investissements dans le numérique. […] les technologies numériques aident les entreprises à devenir plus productives ; les populations à trouver des emplois et élargir leurs possibilités, et les pouvoirs publics à fournir des services de meilleure qualité à tous[31] ». Pourtant il y a loin de la coupe à la bouche : derrière les promesses, la « fracture numérique », et la réalité des algorithmes stupides, qui multiplient les obstacles, plutôt que de simplifier la vie – que l’on pense aux automates téléphoniques des grandes sociétés. Dans le même temps l’accès au réseau devient indispensable, car les alternatives sont progressivement supprimées : 65 % des Français pense qu’Internet est important ou très important pour se sentir intégré dans notre société[32] ; 39 % sont inquiets face aux démarches administratives en ligne[33]

Enjeux écologiques

Le numérique est accompagné dans un premier temps d’une image de légèreté et d’immatérialité. Dominique Wolton, à la fin des années 1990, décrivait ainsi le numérique comme transparent, léger, immatériel, soft, instantané, propre et sans nuisances, de là peut-être, disait-il, un lien avec l’écologie[34] . Au niveau législatif rien n’est entrepris avant les années 2000 pour traiter ses déchets, par exemple. L’information est de la néguentropie, arguait-on déjà dans les années 1970 ; elle permet d’aller contre les funestes avertissements de Nicholas Georgescu-Roegen[35] et du Club de Rome[36]. Les technologies de l’information et de la communication (TIC) ne produisent rien d’autre, à première vue, que de la mise en relation. Or c’est justement ce qui manque, semble-t-il : davantage de mise en relation ne pourrait conduire qu’à une société mieux (auto)contrôlée, donc contrôlant mieux sa trajectoire dans la biosphère. Les TIC apporteraient donc « la maîtrise de la maîtrise » cherchée par Michel Serres dans son Contrat naturel[37] : « Le salut de la planète, la cohésion sociale et la reprise de la croissance sous une nouvelle forme semblent passer par la réussite et la vitesse de cette révolution[38] ». Mais en 2007, Gartner, le cabinet d’étude de référence dans le secteur du numérique, révèle que le secteur des TIC est à l’origine d’une quantité de gaz à effet de serre comparable à celle produite par l’aviation : 2 % des émissions globales. Le chiffre émeut le secteur. Déstabilisé, il contre-attaque : se concentrer sur les 2 %, c’est oublier les 98 % restants, argue-t-il, pour la réduction desquels le numérique est la solution. À l’échelle mondiale, le potentiel de réduction des émissions de gaz à effet de serre serait de 15 à 30 %, d’ici 2020[39]. Ces chiffres sont largement repris par les autorités publiques, et même par certaines ONG[40]

Qu’est-ce que « l’enjeu écologique » ? L’écologie désigne une science, née vers la fin du XIXe siècle ; le mot apparaît sous la plume d’Ernst Haeckel en 1866[41]. C’est une science de la nature entendue comme biosphère, lieu où la vie a lieu en permanence[42]. Pour aller au fait, l’enjeu écologique est l’Anthropocène, à savoir une modification potentiellement catastrophique de la biosphère, de la part d’une seule espèce, l’humanité, et cela suivant des responsabilités différenciées. 

L’espoir est-il fondé ? Les données 2019, à la veille de 2020, indiquent que le résultat espéré est totalement absent : le numérique a été massivement diffusé mais les GES mondiaux n’ont pas été réduits ; au contraire, ils ont augmenté, et la part du numérique a augmenté plus vite que celle de l’aviation, dépassant les pires scénarios. Entrons dans le détail. Le débat se structure en trois parties distinctes, souvent renvoyées à l’article de Berkhout et Hertin[43] : l’impact du numérique en tant que tel, de manière brute et physique ; les effets du déploiement du numérique sur les styles de vie, tels que les transports, la communication, l’information ; et les transformations plus larges, sur les genres de vie.

Le premier point exige de mettre quelques chiffres en avant de manière à éclairer les enjeux. Ces chiffres ressortent de trois grandes catégories, gérées de manière distinctes par les réglementations : la consommation d’énergie, la matière et les toxiques[44]. La première est indubitablement tirée par l’appel en puissance de calcul, et en second la production des équipements, à base de métaux rares et donc coûteux en énergie. Le poids de la vidéo est souvent mis en avant : elle représente certes 51 % du trafic mondial, mais l’énergie consommée vient de ce que les fichiers vidéo sont des programmes, qui programment du calcul, qui déterminent l’allumage ou l’extinction de pixels. Plus les pixels sont nombreux (4K, 8K, rafraîchissement rapide, etc.), plus la vidéo consomme. Le jeu pèse donc facilement très lourd : il passe de 1 % du trafic mondial en 2016 à 3 % en 2020. Un jeu comme Grand Theft Auto pesait 360 Mo en 1996 ; en 2020 : 200 Go. Cette augmentation rapide est compensée par l’efficacité énergétique, jusqu’ici, à tel point que la consommation du numérique en France a stagné voire légèrement baissé sur les dix dernières années, malgré les hausses indiquées ; nous restons entre 10 et 15 % de la consommation électrique nationale, depuis 2008, soit quand même 8 réacteurs nucléaires[45]. Si Internet était un pays, il serait le 3e plus gros consommateur d’électricité au monde avec 1500 tWh par an (100 réacteurs nucléaires), derrière la Chine et les États-Unis[46]. Google consomme 5 GW, soit 5 réacteurs nucléaires ; Amazon 700 MW, Facebook 400[47]. Au total, le numérique consomme 10 à 15 % de l’électricité mondiale. Et cette consommation double tous les 4 ans, car la situation française n’est pas représentative de la croissance mondiale. Et en 2015 l’industrie des semi-conducteurs indiquait l’existence d’une borne physique ultime : la « limite de Landauer », quantité d’énergie dépensée en-deçà de laquelle aucune différence ne peut plus être produite entre un 0 et un 1 ; au rythme de croissance de la demande de calcul, cette limite physique théorique conduirait à ce que la totalité de l’énergie mondiale actuelle soit consacrée à la puissance de calcul, autour de 2070[48]

Un second volet des impacts directs est la matière. De l’époque du Minitel à celle de l’Iphone X, la quantité de matière consommée a fortement augmenté, en quantité comme en qualité. Le téléphone à cadran contenait 12 éléments minéraux distincts, parmi lesquels aucun n’était « critique ». Un smartphone contient 55 éléments, dont 22 critiques[49]. Le numérique consomme 95 % du gallium mondial, 66 % du ruthénium, 34 % du tantale, 15% du palladium, 12,5 % du cuivre, pour n’en citer que quelques-uns[50]. La collecte des déchets est déficiente : la France est incapable de savoir ce que devient 40 % d’entre eux[51]. Des continents entiers sont dénués de système de traitement ; il est vrai que ce sont ceux qui consomment le moins de numérique[52]. Au niveau européen, la directive DEEE a maladroitement tenté de favoriser une concurrence vertueuse, vers des produits plus écologiques, mais s’en est tenue à organiser des filières de recyclage matériel, sans réemploi ni lutte contre l’obsolescence accélérée[53]. La directive ROHS par contre a fait baisser le taux de toxiques dans les produits neufs, il ne reste que les bromures utilisés dans un usage anti-incendie, mais les plastiques posent le même problème que partout ailleurs.

La numérisation n’a pas réduit l’empreinte écologique des modes de vie. D’après l’OCDE, les politiques actuelles amèneraient le monde à consommer deux fois plus de matériaux en 2060 qu’aujourd’hui, passant de 89 Gt en 2011 à 167[54]. Elle avait déjà augmenté de 27 Gt en 1970 à 89 en 2017. Ce scénario « tendanciel » suppose que les politiques restent inchangées et qu’il n’y aura pas d’effets perturbateurs tels que le changement climatique ou des conflits, autant dire que sa réalisation semble peu probable[55]. Il sert plutôt d’indicateur, pour mesurer l’ampleur des changements à effectuer. Le rapport du PNUE fait état de prélèvements plus importants encore : 183 Gt en 2050[56]. Un rapport de l’OCDE sur les transports indique clairement le problème : tant que les politiques ne seront pas changées, le numérique sera mis au service de la croissance des kilomètres parcourus, par les marchandises comme par les êtres vivants (humains ou animaux), conduisant à la croissance très forte des GES, en l’absence de changement miraculeux du système technique[57]. C’est la leçon du scénario « sobriété » du Shift project : même en limitant certains usages, d’autres croissent, et en croissant, finissent par rattraper l’efficacité énergétique, par le simple fait qu’ils croissent et ne décroissent jamais, alors que rien, en physique, ne peut être « plus efficace » à l’infini. Le numérique a produit cette fausse idée d’infini, de « copier-coller à coût zéro », que nous critiquions dans nos premiers travaux sur le sujet comme étant profondément trompeuse[58]

Que faire ?

Qu’est-ce qu’un réseau ? C’est une organisation des circulations. Il existe des réseaux écologiques, énergétiques, machiniques ; des réseaux occultes, de connivence, d’entraide et même d’information. Hier encore nous n’avions pas de réseaux numériques, et nous vivions très bien ; aujourd’hui le numérique est si présent qu’il devient inimaginable de s’en passer, dès lors tout ce qui précède paraît n’avoir été qu’illusion. Libéraux, productivistes et « accélérationnistes[59]  » ont largement dû se rendre à l’évidence : nous sommes dans l’Anthropocène, qui désigne une manipulation non-maîtrisée de la nature, à une échelle potentiellement catastrophique. Il n’y a pas de « ruse de l’histoire ». Que faire ? Renforcer les réseaux low-tech, locaux, alternatifs, leur accorder notre attention, se déconnecter des autoroutes mortifères, circuler autrement. Ne pas faire la 5G, limiter la consommation d’énergie des IA, ne pas faire la voiture autonome, alléger les sites web. Se méfier de la compensation carbone, dans la mesure où elle peut aussi servir à renforcer les pratiques destructrices. Arrêter de se poser la question en termes purement individuels, ou purement étatiques : toujours se dire que nous sommes en réseau, et que ce qui compte, c’est les circulations que nous encourageons, et celles que nous empêchons d’émerger, directement ou indirectement.

Trois points de vue sur Internet
Andrew FEENBERG

Résumé

Le présent article puise dans la théorie de l’acteur-réseau, le premier concept de monde chez Heidegger, et les concepts d’individuation et de concrétisation de Simondon, pour analyser l’objet complexe qu’est « Internet », en montrant leur pertinence et leurs limites ainsi que leur complémentarité. À la théorie de l’acteur-réseau il manque la notion de « signification de monde » qui rend justice à ce qui est construit par les communautés en ligne indépendamment des usages informationnels ; à la théorie du monde herméneutique, il manque le notion de développement technologique, pourtant décisive dans un contexte d’innovation rapide ; à cette dernière théorie, c’est sans doute la dimension politique qui n’est pas suffisamment prise en compte face à une nouvelle forme de propagande, de manipulation et de conditionnement.

Texte écrit en anglais et traduit en français en 2021 pour compléter les actes du colloque « Les écologies du numérique » organisé par l’Ésad Orléans (ÉCOLAB) en 2017 et 2018.

Mots clé 

 Internet, acteur-réseau, monde, signification, Heidegger, Simondon, individuation, concrétisation, exaptation, politique

Biographie

Andrew FEENBERG

Philosophe, il a dirigé la Chaire de Recherche Canadienne de Philosophie de la technique à l’école de Communication de l’Université Simon Fraser, et a été directeur de Programme au Collège International de Philosophie. Auteur de nombreux ouvrages, il a notamment publié [Re]Penser la Technique, La Découverte, 2004 ; Pour une théorie critique de la technique, Lux Editeur, 2014 ;  Philosophie de la praxis: Marx, Lukács et l’Ecole de Francfort, Lux Editeur, 2016. Son livre le plus récent est Technosystem: The Social Life of Reason, Harvard University Press, 2017. Il fut l’un des pionniers de la recherche dans le domaine de la communication en ligne. Il a participé à la création du premier programme d’éducation en ligne au Western Behavioral Sciences Institute de La Jolla en 1982.


Introduction

L’éloge qui est fait d’Internet en tant qu’alternative à la hiérarchie est contrebalancée par la condamnation de son mercantilisme. Dès ses débuts, le web a suscité des espoirs de reconstruction d’une sphère publique ravagée par la télévision[1]. La communication de masse avait perdu le pouvoir d’imposer un consensus culturel et politique, tandis que les interactions réciproques permises par la toile favorisaient la diversité des opinions. Telle était la promesse d’internet.

Cette promesse a-t-elle été tenue ? Voilà qui est très incertain. La centralisation du web autour de quelques grandes entreprises ressemble à s’y méprendre à la concentration du pouvoir médiatique à l’ère de la radiodiffusion. C’est le capitalisme, et non la démocratie, que l’on considère comme le principal bénéficiaire de ce nouveau système[2]. L’extension de la surveillance dont dépendent les géants de l’Internet s’oppose à la démocratie.

En réalité, Internet n’est ni un média social, ni un média commercial, il est les deux à la fois. C’est un palimpseste de strates de fonctionnalités imbriquées. Il nécessite donc une explication stratifiée.

Le présent article puise dans la théorie de l’acteur-réseau, le premier concept de monde chez Heidegger, et les concepts d’individuation et de concrétisation de Simondon. Je m’approprierai très librement ces théories, les abordant comme les couches d’une explication qui va au-delà de n’importe laquelle d’entre elles prise séparément. Je ne me soucierai pas de l’interprétation de ces théories mais de leur application à un objet unique.

Réseaux et systèmes

Commençons par la théorie de l’acteur-réseau (ANT, pour Actor Network Theory). L’ANT est une méthodologie descriptive qui permet d’étudier les réseaux sociotechniques. Les réseaux de l’ANT sont composés d’acteurs à la fois humains et non-humains. Ces acteurs sont liés de différentes façons car ils s’inscrivent dans un réseau. Selon l’ANT, ils ont une puissance d’agir (agency) dans le sens où leurs activités ont un impact sur le réseau. Notez que selon cette définition opérationnelle, les humains et les non-humains jouissent tous deux d’une puissance d’agir. C’est ce que l’ANT nomme la « symétrie des humains et des non-humains ».

Ce principe est censé guider les chercheurs vers l’appréciation du rôle des « hybrides » composés de personnes et de choses. Une personne au volant d’une voiture ou avec une arme à feu à la main forme une entité distincte dont on ne peut réduire les propriétés à sa seule composante humaine ou mécanique. Bien qu’il y ait clairement du vrai dans cette notion, l’application que fait l’ANT de ce principe a des conséquences étranges.

Dans un article célèbre, Michel Callon décrit une expérience cherchant à améliorer la récolte de coquilles Saint-Jacques. Les scientifiques bâtissent un réseau en « recrutant » les mollusques et les pêcheurs dans leur projet. La réussite de celui-ci dépend de la « coopération » des deux acteurs. Callon attribue une « puissance d’agir » aux deux, bien que les coquilles Saint-Jacques aient été influencées par les causes, et les pêcheurs par le sens[3]. Comme le montre cet exemple, les réseaux de l’ANT englobent tous les éléments se retrouvant significativement associés, soit causalement, soit symboliquement. Se référer aux deux en tant « qu’acteurs » (agents) gomme la différence entre les modes d’action des humains et des choses. Ce processus nivelle les distinctions généralement opérées entre les actions intentionnelles et la causalité, car toutes deux sont évaluées opérationnellement selon leurs effets.

L’ANT introduit également la notion de programme, qui se réfère aux principes de la sélection à travers laquelle un réseau est constitué par les ressources présentes dans son environnement. Les programmes simplifient les objets et les inscrivent dans un réseau afin d’accomplir ou de « traduire » les intentions de l’acteur ayant créé le programme.

Les limites des réseaux ne sont pas toujours définies par un programme unique. Ces simplifications peuvent partiellement échouer, ou bien la mise en place du programme peut avoir des conséquences inattendues. C’est ce qu’il se produit dans le cas de la pollution environnementale. Par exemple, le programme mis en œuvre par les directeurs d’une usine peut générer des effets dépassant leurs intentions. Le ruisseau voisin peut être contaminé par des déchets, ce qui élargit le réseau afin qu’il inclut les habitants de la communauté voisine. Ces derniers pourront à leur tour imaginer un programme pour protéger le ruisseau, par le moyen d’un procès, par exemple. Ainsi, les réseaux peuvent contenir plusieurs programmes qui se chevauchent. J’utiliserai le terme de « système » pour différencier entre le sous-ensemble du réseau sélectionné par un programme donné et le réseau dans son ensemble.

Les nombreux systèmes qui coexistent sur Internet sont des assemblages de caractéristiques, de fonctions et d’usages. On peut les regrouper selon trois modèles principaux qui partagent des caractéristiques sociales et techniques semblables. Chacun de ces modèles représente un futur possible, où l’un d’entre eux aurait acquis une position suffisamment dominante pour lui permettre de conclure, c’est-à-dire le pouvoir d’imposer un modèle qui marginaliserait les autres. Malgré les récriminations exprimées par les critiques d’Internet, qui le rejettent comme un simple centre commercial électronique, cette conclusion n’a pas encore eu lieu.

Voici une brève description des trois modèles principaux, constitués de systèmes qui se complètent et qui s’opposent de différentes façons.

Le premier est un modèle de consommation distribuant les produits de divertissement et facilitant le commerce. Ce modèle dépend en grande partie de la surveillance et de l’extraction de données, qui permettent de prédire les préférences des utilisateurs et de cibler la publicité. Il centralise l’activité en ligne autour de quelques sites privilégiés.

Il existe également un modèle de communauté coexistant qui rassemble des fonctions servant à la vie sociale. Ce modèle est remarquable en ce qu’il a des conséquences significatives dans la sphère publique, au sein de laquelle il joue un rôle dans le soutien au débat démocratique et à la mobilisation. La communication en ligne permet aussi ce que l’on appelle « l’économie de partage » à travers des services tels que Airbnb et Uber.

Enfin, on trouve ce que j’ai baptisé le modèle cyber-politique, imposé par des acteurs étatiques ou quasi-étatiques afin de répandre leur propagande et de déstabiliser leurs adversaires via des trolls, des bots et des malwares. Je distingue ce modèle de celui de la politique conventionnelle sur Internet par sa source : des professionnels de l’informatique qui suivent un programme secret usant de manipulation et de mensonges pour le compte d’acteurs clandestins. Ce modèle menace la viabilité des deux autres.

Ces trois modèles sont caractérisés par des particularités et des fonctions qui se croisent. Je n’en donnerai que deux exemples : la fonction de stockage du web et son anonymat, qui sont employés de façons très différentes par les modèles de la consommation, de la communauté et de la cyber-politique. 

Dans le modèle de la consommation, la fonction de stockage sert à distribuer les produits de divertissement et les biens. L’anonymat est important dans les situations où la vie privée est mise en avant, ou dans le cadre d’activités stigmatisées, telles que la distribution de pornographie. Les communautés en ligne stockent leurs historiques pour qu’ils puissent être consultés à l’avenir. En l’absence de séparation spatiale, l’anonymat joue un rôle important en ce qu’il permet aux individus de participer à différentes communautés et activités connectées via des identités distinctes appropriées. La cyber-politique exploite les mêmes bases de données produites par le versant commercial, ainsi que des données collectées par l’espionnage. Les informations sont traitées afin d’identifier de potentiels soutiens ou adversaires. Elles peuvent être utilisées pour repérer des tendances qui seront amplifiées par des interventions anonymes au bénéfice ou au détriment des factions politiques ou des pays ciblés. 

Ces trois modèles collaborent et s’affrontent sur Internet. Les gigantesques entreprises telles que Facebook ou Google exploitent les systèmes dominants mais elles rencontrent une certaine opposition. D’autres systèmes sont créés par des acteurs subordonnés. Certains de ces systèmes correspondent à ce que l’ANT nomme un « anti-programme », c’est-à-dire un programme qui est en conflit avec la mise en œuvre d’un second. Le phishing, par exemple, est l’anti-programme de la sécurité. Il existe de nombreux anti-programmes de ce type sur internet, pourtant, ce que l’on pourrait appeler des alter-programmes, qui ne se bloquent pas mutuellement ou n’interfèrent pas les uns avec les autres et coexistent simplement, sont bien plus nombreux. Certains de ces alter-programmes deviennent involontairement des anti-programmes au-delà d’un certain seuil. Le passage d’un état à un autre est illustré par la publicité sur les réseaux sociaux. Elle est tolérée jusqu’à un certain point, mais il y a une concentration d’intrusions qui devient contre-productive et qui décourage la participation ou conduit à l’installation d’un bloqueur de publicité.

Comme je l’ai déjà noté, ces trois modèles partagent aujourd’hui certaines fonctions, mais elles ont des besoins techniques différents. Le commerce requiert la vitesse et la sécurité, la protection de la propriété intellectuelle et le placement de produit. Mais elle viole la sphère privée pour proposer des publicités. Ces besoins techniques peuvent entrer en conflit avec les applications du modèle communautaire. C’est le cas avec la fin de la neutralité des réseaux défendue par certains intérêts commerciaux tels que ATT et Comcast. Ils peuvent désormais accélérer les contenus payants tels que Netflix au détriment de la libre communication. La neutralité des réseaux est donc nécessaire pour protéger les communautés en ligne, afin qu’elles ne soient pas évincées par la hausse des prix. La centralisation des ressources du réseau par Google et Facebook représente également un danger pour le modèle communautaire, où les interventions biaisées de toutes sortes minent la confiance dans la transparence du média. La cyber-politique menace ces deux programmes en saturant le réseau de ses activités perturbatrices. Son prérequis technique principal est simplement l’absence de régulation et de contrôle. Chaque modèle impose ses conditions pour la collaboration ou la résistance aux autres. Au-delà d’un certain seuil, la coexistence deviendra impossible, mais pour l’instant, ce seuil n’a pas encore été atteint. 

On peut employer la même méthode pour étudier à la fois les programmes et les anti-programmes. Il faut résister à la tendance erronée qui consiste à se focaliser sur les acteurs « officiels » et à accepter que leurs programmes soient normatifs aux dépens de ceux qui jouissent de moins de prestige, de pouvoir ou de richesse. Le fait qu’un programme soit bien financé ou légitimé par la loi n’est pas pertinent dans le cadre de son analyse, si ce n’est en tant que facteur de pouvoir. J’ai nommé ce principe méthodologique « la troisième symétrie », en référence aux deux premières symétries proposées par les chercheurs STS, c’est-à-dire la symétrie constructiviste des gagnants et des perdants dans les controverses scientifiques, et la symétrie entre humains et non-humains dans l’ANT.

La troisième symétrie des programmes et des anti-programmes rend compte des cas où de nombreux groupes sont en compétition pour obtenir le pouvoir. Le pouvoir commercial de Facebook et sa position légale ne lui confèrent aucun privilège par rapport au programme communicationnel de ses utilisateurs, y compris dans leurs activités qui violent ou qui défient les conditions de service de Facebook. La symétrie entre les programmes nécessite que chacun d’entre eux soit traité selon ses propres termes et non pas être réduit à une simple fonction de l’autre. Le fait que Facebook profite des communications de ses utilisateurs ne diminue pas la fonction sociale remplie par ces communications. Les interférences directes, comme la censure du contenu sexuel sur les plateformes, révèlent les rapports de pouvoir qui se jouent dans les coulisses, mais il n’y a que peu de preuves d’une tentative systématique de contrôle de l’opinion par les plateformes majeures en occident[4]. C’est plutôt la structure du système, approfondie dans la troisième partie de cet article, qui rend possible la manipulation de l’opinion par un genre d’utilisateurs spécifique – sociétés, agences gouvernementales et groupes suspects tels que le lobby anti-vaccin.

Cette première approche, librement basée sur la théorie de l’acteur-réseau, désagrège Internet sans perdre les liens entre les parties. Mais elle passe à côté de quelque chose de tout aussi important qui anime les discours populaires sur Internet. La symétrie des humains et des non-humains nécessite des contorsions rhétoriques qui entravent l’appréciation de la manière dont Internet est éprouvé et vécu. L’élément manquant est la signification des mondes que les communautés construisent en ligne. Ces mondes doivent être différentiés des usages purement informationnels d’Internet, que l’ANT explique de façon adéquate. Mais là où les individus se réunissent pour mettre en œuvre un projet ou pour sociabiliser, une approche différente est nécessaire.

Les mondes de la signification

La seconde approche pour l’analyse d’Internet est fondée sur le concept phénoménologique de « monde ». Selon Heidegger, les mondes consistent en des références fonctionnelles qui lient ensemble les objets utiles constituant l’environnement immédiat du Dasein[5]. En se liant à ces significations, le Dasein se saisit de chacun de ses objets « en tant que » quelque chose. Ce morceau de bois est saisi « en tant que » planche, ce morceau de métal « en tant que » marteau, et ainsi de suite. Cette « saisie » est comprise comme se jouant dans la pratique plutôt que comme procédé mental ou comme image. Les significations sont fondamentalement vécues plutôt que conçues, bien qu’elles puissent aussi être conçues dans certaines circonstances. 

Le monde constitué par des relations fonctionnelles ne peut être réduit à ces fonctions. Le monde est un espace libre pour l’action et un objet d’investissements imaginatifs. Heidegger illustre cette thèse par l’exemple de l’atelier du charpentier. Chaque outil dans l’atelier est relié aux autres outils, et, en définitive, au charpentier lui-même ; mais le charpentier, lui, rencontre l’atelier et non pas les outils un par un. Nous vivons parmi les objets mais ces objets forment un tout qui transcende les usages particuliers. Nous sommes en lien, par exemple, avec l’université en tant que monde où nous pouvons agir de nombreuses façons différentes et parmi lesquelles nous pouvons choisir. Mais nous comprenons tacitement et explicitement ce « qu’est » une université au-delà de chacune de ces actions spécifiques.

Les systèmes créés par des communautés en ligne sont des touts significatifs, et en cela ils ressemblent aux mondes. Ces mondes sont bien plus que de simples assemblages de fonctions, car ces dernières sont en réalité plus que des simples fonctions. Comme je l’ai dit plus haut, la fonctionnalité de stockage d’Internet permet à des communautés en ligne de consulter leur passé. Mais que signifie consulter son passé ? Il ne s’agit pas simplement de récupérations de données. Le concept de personnalité dépend de la mémoire, et le stockage sert de mémoire collective. En tant que tel, il institue une temporalité et une identité, tout en garantissant à la communauté une existence continue. Les membres de la communauté font partie d’un monde qui inclut leur propre histoire et qui est significative pour leurs relations aux autres et pour leurs actions futures. Le stockage ne saurait être réduit à l’usage qui en est fait, c’est-à-dire à son simple rôle fonctionnel. Il représente une ouverture vers un certain mode d’être qui caractérise les communautés humaines et les situe dans un monde partagé.

Cette affirmation est souvent comprise comme signifiant que les mondes virtuels d’internet sont séparés de la « vie réelle ». Mais les mondes d’internet ne sont pas séparés de l’interaction en personne et des objets matériels, ils transportent au contraire ces « réalités » dans un espace de discussion virtuel. Un forum ou une page Facebook gérée par des patients atteints d’une maladie spécifique traite du sort de ses membres dans leurs relations avec l’institution médicale, par exemple. Ces relations fonctionnelles dans les « vrais » mondes des participants sont « citées » dans le monde virtuel. Il ne s’agit pas d’une « seconde vie » repliée sur elle-même, mais d’un monde imbriqué dans la « première vie » dans laquelle nous existons tous.

On pourrait comparer cette relation étrange entre les individus et leurs mondes virtuels avec les monades de Leibniz. Les monades ont chacune leur propre monde que les autres ne peuvent pas voir, et pourtant, tous ces mondes séparés sont coordonnés par Dieu dans une « harmonie préétablie ». Dans le cas présent, l’harmonie préétablie résulte de l’imposition d’agencements techniques semblables dans toutes les institutions d’un univers mondialisé. « L’hypothèse » d’une divinité, comme l’aurait dit Laplace, n’est plus nécessaire, car sous le règne des disciplines techniques, l’ordre des choses se gère lui-même.

La théorie des mondes suggère une écologie inhabituelle d’Internet. Nous avons vu que la consommation, la communauté et la cyber-politique y coexistent. Chacun d’entre eux sert d’environnement aux deux autres, tout comme les espèces servent d’environnement les unes aux autres dans l’ordre naturel.

Prenons l’exemple de la sphère privée. Les utilisateurs interagissent sur des systèmes régis par des entreprises telles que Facebook. Ils réclament une certaine confidentialité pour se protéger des personnes extérieures, mais ils s’ouvrent en revanche aux membres de leur communauté proche, leurs « amis ». Ces communautés sont des espaces d’interaction sur la base d’une identité partagée renforcée au fur et à mesure que leurs membres révèlent des informations sur eux-mêmes.

Mais pour les participants, l’objectif de ces rencontres n’est pas informatif, mais « personnel », dans le sens où elles constituent une expérience dans toute sa complexité. Chaque communauté est un lieu d’expérience pour ses membres. Dans leur monde partagé, ils ressentent la fierté et la honte, cherchent le réconfort, le soutien et même l’amour ; grandissent et se développent en tant que personnes ou se perdent au contraire dans des relations et des comportements destructeurs[6].

Le monde virtuel est exposé à l’exploitation commerciale par sa médiation électronique. Les opérateurs gérant cette médiation collectent les données révélées par les utilisateurs, les extraient et les vendent à des publicitaires. Leur monde, le monde interne de Facebook par exemple, est organisé autour d’objectifs économiques pour lesquels la communication en ligne, c’est-à-dire l’ensemble des expériences riches vécues par les utilisateurs, est un simple matériau brut à traiter et à vendre. Ils doivent vider les mondes créés par les communautés en ligne de leur teneur de monde (« de-world the worlds ») afin de les transformer en données pures, et, sur cette base, en modèles comportementaux. Les utilisateurs dépendent des exploitants du système pour qu’ils leur fournissent un lieu de rencontre, et ces exploitants dépendent des utilisateurs pour qu’ils leur fournissent des données. Ces deux mondes sont imbriqués de la même manière que le sont les organismes symbiotiques dans le domaine biologique.

Les exploitants s’imaginent sans doute qu’ils offrent aux utilisateurs un accès facile aux biens de consommation dont ils ont besoin. Dans la mesure où c’est le cas, le monde des utilisateurs en est enrichi. Les modèles de consommation et de communauté sont donc complémentaires. Mais c’est seulement vrai dans une certaine mesure. Il existe aussi des interférences entre les mondes, où les violations de la sphère privée sont ressenties comme des manipulations qui éclipsent le service proposé. C’est particulièrement le cas lors des intrusions de la cyber-politique. La surveillance gouvernementale ou politique est invariablement perçue comme malveillante, ce qui sape la confiance en la médiation qui fait que les communautés en ligne sont possibles. 

C’est le gouvernement chinois qui a exploité les possibilités de la cyber-politique le plus efficacement, au sein d’une culture depuis longtemps accoutumée à la censure, et dans un environnement en réseau protégé contre les intrusions étrangères. La réaction à ce genre d’activités dans les démocraties occidentales doit encore être mesurée, car la confidentialité et la liberté d’expression y sont fortement valorisées et il n’y a pour le moment aucune protection contre la propagande russe. Les priorités contradictoires doivent être résolues, d’une manière ou d’une autre.

La cyber-politique a d’ores et déjà eu des conséquences catastrophiques, car les bots, les trolls et l’abus des big datas dans la politique électorale ont commencé à significativement déformer le fonctionnement des communautés virtuelles et de la sphère publique. Cet espace, autrefois perçu comme fiable, est de plus en plus souvent appréhendé comme terrain de manipulation. Un seuil a été atteint dans la coexistence des mondes. La speciété[7]d’Internet risque de s’écrouler, provoquant l’indignation publique et impulsant de nouvelles recherches autour du cryptage, des blockchains, et des nouvelles architectures peer-to-peer qui protègent les communautés virtuelles des excès commis par les modèles commercial d’une part et cyber-politique de l’autre. 

Cette deuxième approche enrichit les résultats de la première en introduisant le concept de monde herméneutique, qui n’est cependant pas accompagnée par une notion associée de développement technologique. Dans le cas d’une technologie au développement rapide comme Internet, ce manque représente un problème. Comment analyser cette cible mouvante ? Pour répondre à cette question, je me tourne à présent vers une troisième approche, basée sur le travail de Gilbert Simondon.

La co-construction : individuation et concrétisation

Les concepts d’individuation et de concrétisation de Simondon sont utiles pour l’analyse d’Internet[8]. L’auteur soutient que les choses ne sont pas indépendantes les unes des autres mais qu’elles existent au contraire toujours au sein de et à travers des relations. Il explique par exemple l’individuation personnelle comme une fonction du processus à travers lequel le groupe social de l’individu est lui aussi formé. Les individus ne préexistent pas aux groupes qu’ils créent par association ; et les groupes ne sont pas déterminants pour les individus qui les composent.

Le fondement de cette conception relationnelle est une théorie de l’ontogénèse selon laquelle les choses émergent d’un environnement « métastable » et « pré-individuel » sous-jacent, au sein duquel elles coexistent comme potentiels corrélés en attente de réalisation. Simondon illustre cette notion par l’exemple de la cristallisation d’une solution sursaturée. Il aborde la solution en tant que pré-individu au sein duquel a cours un processus d’individuation. Une légère interférence, un grain de poussière par exemple, peut déclencher un processus qui divise la solution en deux entités distinctes, les cristaux précipités d’un côté, et l’eau-mère de l’autre. 

Dans le cas des êtres humains en société, le pré-individu ne peut pas être une chose existante comme une solution dans un verre d’eau. Les processus d’individuation et de formation des groupes puisent plutôt dans une « nature » pré-individuelle portée par tous les membres de l’espèce humaine. Cette théorie fait sens en termes de langage, ce potentiel du cerveau humain, c’est-à-dire de la nature, qui ne peut être actualisé qu’en communauté. On ne peut élaborer le langage du point de vue d’un individu ou de la communauté pris isolément. C’est le produit d’un processus d’individuation au sein duquel les deux éléments se co-construisent.

La théorie de l’individuation de Simondon est plus complexe et spéculative que ce que nécessite cette analyse d’Internet, mais elle suggère néanmoins une stratégie analytique permettant d’expliquer la co-construction mutuelle des utilisateurs et des technologies. Sur Internet, les rôles des utilisateurs et les fonctionnalités du système au service de ces rôles émergent ensemble. Par exemple, l’acheteur en ligne et le logiciel qui gère cet achat sont corrélés et n’existent qu’en relation l’un avec l’autre. Ils émergent à partir du potentiel que suppose la commutation de paquets.

Le cadre proposé par Simondon suggère qu’une analyse développementale doit dépendre d’un second concept, qu’il nomme : « concrétisation », c’est-à-dire un genre particulier d’avancée technique qui permet à une seule structure de remplir plusieurs fonctions. Il donne l’exemple d’un moteur refroidi par air. Plutôt que d’être constitué d’un radiateur séparé pour refroidir le moteur, et d’un carter pour contenir les pistons, le moteur refroidi par air associe les deux fonctions dans un seul carter prévu pour contenir non seulement les pistons, mais aussi pour diffuser la chaleur qu’ils génèrent. Cette concrétisation assemble plusieurs fonctions disparates en une seule structure élégante.

L’évolution d’Internet donne à voir de multiples individuations et concrétisations imbriquées. La concrétisation est exemplifiée par des multifonctionnalités telles que le stockage et l’anonymat, employés à la fois par les entreprises et les communautés. Une seule structure de logiciel servant à sauvegarder et à récupérer des dossiers peut être utilisée pour des fonctions très différentes, par exemple, la distribution de films sur Netflix, ou bien de textes pour un cours en ligne. Les cassettes, les DVD, les photocopies et la table ronde du séminaire sont tous dissous dans l’acide de la multifonction. Comme nous l’avons vu, les utilisateurs de ces fonctions ont chacun un rôle unique. C’est la constitution relationnelle de l’individualité qui agit dans ce type de concrétisations.

Parmi les nombreuses concrétisations caractérisant l’Internet contemporain, c’est celle qui a rendu les communautés virtuelles possibles qui a eu le plus grand impact sur la direction prise actuellement[9]. L’innovation en question semble étonnamment modeste ; d’ailleurs son importance fut d’abord négligée par la plupart des experts techniques. C’est la comparaison avec d’autres médiations électroniques qui révèle sa portée.

Jusqu’à récemment, la médiation électronique ne nourrissait que deux formes sociales : le téléphone rapprochait les membres d’un duo, tandis que la radio et la télévision permettaient la diffusion à sens unique à destination d’une masse de personnes. Toutes les activités de groupe – telles que le travail, les jeux, la politique, les rassemblements familiaux, les groupes amicaux, les cours, les réunions professionnelles, les discussions réunissant des amateurs ou des patients médicaux – nécessitaient un contact en personne. Internet a transcendé cette limitation.

Afin de comprendre comment, prenez le système de communication d’un groupe ordinaire se retrouvant en personne. Ce système implique la communication interne entre ses membres se réunissant, et la communication externe de personnes qui ne sont pas membres du groupe et qui ne se réunissent pas avec lui. Plusieurs « technologies » servent d’intermédiaire entre ces communications : une salle et une table de réunion pour les communications internes, et différents moyens de recevoir des communications externes et de les rendre disponibles pour les autres membres, comme le courrier postal ou les messages téléphoniques relayés par un rapport et archivés par les membres afin d’être consultés plus tard. Notons que les communications externes doivent avoir un relais local sans quoi elles ne concernent pas le groupe.

Dans les groupes virtuels, cette configuration est inversée. Toutes les communications proviennent d’un contexte extérieur à la réunion en personne entre les membres. Toutes les communications sont donc « externes », dans le sens où elles sont transmises électroniquement. Mais aucun relais local n’est nécessaire pour qu’elles participent aux processus de groupe. La médiation les rend disponibles à tous les membres du groupe via un dossier distant. Les messages ne sont pas distribués directement aux membres mais à un dossier auquel tous les membres ont accès. Cette inversion, qui n’est simple qu’en apparence, rend les communautés virtuelles possibles. Les deux fonctions techniques qui sont « concrétisées » sont le courrier et l’archivage, le courrier pour les messages, et l’archivage pour l’accès du groupe. Tout comme le moteur refroidi par air élimine le radiateur, la communauté virtuelle élimine la salle et la table de réunion. Leurs fonctions sont à présent combinées avec la réception de communications externes.

Cette innovation a traversé plusieurs phases. Au départ, les communautés virtuelles se sont essentiellement constituées autour de projets. Étant donné le coût et la difficulté impliqués dans les premiers temps, il fallait qu’il y ait de bonnes raisons de se retrouver. Les membres participaient à des activités telles que des réunions professionnelles, des discussions entre amateurs ou des cours universitaires. L’engagement dans ces communautés virtuelles est important pour les participants, et comme bon nombre de rencontres significatives, celles-ci ont le pouvoir de les faire changer de différentes manières plus ou moins prononcées. Défis relevés, amitiés créées et réussites accomplies – tous ces aspects du développement personnel ont lieu dans les communications en ligne dès que s’y joue une véritable collaboration. Un processus d’individuation est mis en place tandis qu’un nouveau monde s’associe à un nouveau sujet.

De ces communautés en ligne découle également une nouvelle forme de public citoyen, incarné aux États-Unis par MoveOn et les nombreux autres mouvements sociaux qui utilisent Internet comme outil de discussion et de mobilisation. Pour la première fois, des individus sont actifs plutôt que passifs sur un réseau. Internet est une « anti-télévision » qui matérialise l’idée, et, dans une certaine mesure, la réalité de la communication horizontale dans un espace public ouvert[10]. Ce modèle représente un réel progrès pour la démocratie en comparaison de celui de la radiodiffusion, mais il est à présent en danger.

La menace a surgi d’une source inattendue. Au cours de la période où les communautés virtuelles prospéraient, de nombreuses personnes créèrent également des « pages d’accueil », des pages statiques dédiées à l’auto-présentation. Elles n’offraient aucune possibilité de discussion, mais ce détail n’était pas perçu comme une insuffisance. Les blogs finirent par introduire un minimum d’interaction. Cette évolution culmina avec les réseaux sociaux, ce que l’on a appelé le Net 2.0. Ces sites associaient de manière concrète les communautés en ligne et les pages d’accueil en une seule structure, un profil interactif organisé autour de l’identité personnelle. Les communautés virtuelles devinrent extrêmement populaires sous cette forme, et elles finirent par atteindre des milliards d’utilisateurs d’Internet. Les réseaux sociaux sont toujours disponibles pour les projets, mais le plus souvent, ils servent de pages d’accueil mutuellement interactives pour un groupe limité « d’amis ».

La mutation des communautés fondées sur des projets vers des communautés basées sur la personnalité marqua un certain déclin dans les impacts positifs d’Internet. Yuk Hui et Harry Halpin affirment qu’il s’agit de la conséquence de suppositions implicites au sujet de l’individualité humaine manifestées par le design. L’interaction n’est pas organisée autour d’un projet mais d’une personnalité. Les individus apparaissent sous la forme de profils réifiés qui préexistent à leurs relations. Les « amis » sont de simples accidents de leur être substantiel. Cette construction des relations humaines découle logiquement d’une conception des réseaux en tant qu’assemblage de nœuds atomiques, les fameux « graphiques ». Le résultat est un espace social occupé par des trivialités et des postures narcissiques grâce auxquelles la surveillance profite aux plateformes. Il s’agit de « l’industrialisation des relations sociales », auxquelles Hui et Halpin opposent le projet centré autour du groupe virtuel « qui produit une co-individuation des groupes et des individus[11] ».

Quelle que soit leur forme spécifique, la généralisation des communautés virtuelles a provoqué de nombreux changements sociaux. La sphère publique s’est ouverte à des voix indépendantes, entraînant des conséquences politiques significatives. Les limites entre le travail, le monde public, et le monde privé s’affaiblissent. Lorsque le travail est effectué en ligne, la distinction entre le travail et le loisir se brouille ; les membres deviennent disponibles en dehors des heures de bureau. Le réseau sous-tend également la projection de fantasmes sur l’espace public à travers les jeux vidéo et la pornographie. De même, les interactions virtuelles privées préoccupent les individus au sein de véritables espaces publics. Nous en observons les effets quotidiens quand, dans la rue, nous devons éviter des jeunes qui déambulent les yeux rivés sur leurs écrans de téléphones.

Le pouvoir de coordination d’Internet est le plus visible dans « l’économie de partage ». Initialement fondée sur l’échange volontaire entre pairs, elle a reçu un formidable apport de savoir-faire et de capital, donnant ainsi naissance à de gigantesques systèmes tels que Airbnb. Les projets open source comme Wikipedia perpétuent le modèle non-commercial précédent. Il faut aussi prendre en compte les puissants effets modernisateurs de l’éducation en ligne dans les pays pauvres qui comptent peu de professeurs et dont les populations sont dispersées. L’insertion d’un monde virtuel relativement riche dans des environnements aussi appauvris a un effet transformateur. 

Mais l’histoire ne s’arrête pas là. Les nouvelles individuations affectent la structure d’internet tout comme celle de la société. Les communautés virtuelles, au même titre que les e-mails, ont révélé un potentiel inattendu au sein de l’environnement métastable du réseau. Une cascade d’innovations et de bouleversements sociaux en résulte. On peut comparer l’invention des communautés virtuelles au grain de poussière qui précipite la solution sursaturée. 

L’individuation du domaine technologique correspond aux « cascades d’innovations » décrites par David Lane et ses collaborateurs. Ce concept renvoie à l’émergence d’une séquence de développement de nouveaux artefacts et de changements organisationnels stimulés par une innovation originale. Le point central est l’imprévisibilité de la séquence, sa qualité émergente, tandis qu’elle se déplace entre ses différents stades. Lane a baptisé ce processus un « tremplin exaptatif, […], une dynamique de feedback positif qui peut provoquer des cascades de changements dans l’espace d’attribution [fonctionnel] agent-artefact. Une chose en amène une autre[12] ».

L’exaptation est un terme issu de la théorie évolutionnaire qui se réfère à l’adaptation d’un trait en particulier à une nouvelle fonction[13]. Un exemple classique de ce phénomène est représenté par les plumes, qui proviennent du besoin de contrôle de la température corporelle des dinosaures, mais qui finirent par être exaptées pour le vol chez les oiseaux. Ce type d’exaptation diffère de la simple adaptation à de nouveaux besoins car le créneau dans lequel elles opèrent ne leur préexiste pas. Au lieu de cela, elles créent ce créneau tout en s’y adaptant, ou, pour le dire autrement : l’innovation, la fonction qu’elles remplissent, et l’organisation au sein de laquelle elles agissent émergent simultanément.

Lane a « exapté » la théorie de Gould vers l’étude d’un type particulier d’innovation technologique en lien avec Internet. Examinons la différence entre l’adaptation des nouvelles technologies LED à l’éclairage des maisons et l’invention des ordinateurs personnels. Dans le premier de ces deux cas, le créneau technique et fonctionnel préexistait à l’adaptation de cette technologie. Dans le second, ni la fonction que remplirait cette technologie, ni le contexte social dans lequel elle s’inscrirait n’étaient évidents, et elle fut exaptée vers différents créneaux, qu’ils soient anciens ou nouvellement créés, avec l’invention des jeux vidéo, du traitement de texte, et ainsi de suite. Ce deuxième exemple ressemble à l’évolution des réseaux sociaux en ligne.

La communication sur Internet donne lieu à un « effet de réseaux ». L’une des mesures importantes de la valeur de l’environnement communicationnel est le nombre de liens que l’on peut établir en son sein. Les e-mails et les communautés virtuelles sont des portes d’entrée vers la valeur augmentée des rencontres multiples et des rapports aléatoires. Une fois que le réseau dominant a atteint un nombre critique d’utilisateurs, il devient l’inévitable lieu de rencontre pour tous. Les utilisateurs se réunissent sur un seul système, Facebook, justement parce que les utilisateurs se réunissent sur ce système. Le résultat remarquable est la concentration simultanée de capital social dans les communautés en ligne et de capital économique dans les comptes en banque de Facebook et de Twitter.

Le modèle de la consommation est basé sur l’effet de réseau et sur une deuxième innovation technique fondamentale, exaptée de la cascade provoquée par la communauté virtuelle. L’extraction de données au sein des produits de la surveillance sur les réseaux sociaux rend possible ce qu’Antoinette Rouvroy et Thomas Berns nomment la « gouvernementalité algorithmique », c’est-à-dire une nouvelle façon d’assujettir les populations via la manipulation comportementale fondée sur le profilage des attitudes et des préférences des utilisateurs. Les données sont des traces laissées par les sujets communicants, qui peuvent être corrélées afin de construire des instruments de prédiction tels que des cartes électorales et des publicités ciblées employées lors d’élections récentes.

Les considérations liées à l’intention et au sens sont éclipsées par une attention presque exclusivement portée sur les données. L’objectivité des données et leur traitement algorithmique les vident des normes conventionnelles et privilégient la normativité irréfléchie des préjugés et des comportements dominants. Chaque groupe identifiable est renforcé dans son identité par une propagande adaptée à ses spécificités. La manipulation préventive de l’environnement rend possible le contrôle des individus au sein d’une certaine marge déterminée par leur identité. À travers de telles manipulations, « la gouvernance algorithmique […] cherche non pas à gouverner la réalité, mais à gouverner le fondement de la réalité[14] ». Chaque monde est créé pour favoriser certains types d’action. En comparant ce développement avec la théorie de Foucault sur la société disciplinaire, Erich Hörl le nomme « l’environnementalisation du pouvoir », « qui produit […] une forme différente, plus intégrée et plus intense, de subjectivisation et d’individuation[15] ».

L’extraction de données fait partie d’un processus qui mène à un profond changement technique sous la forme du réseau. Bien qu’une grande partie de la technologie la sous-tendant reste la même, l’organisation originale et hautement décentralisée par rapport à l’expérience du réseau, déterminée par le protocole TCP/IP, s’est érodée, maintenant que seuls quelques géants de l’Internet reçoivent la plupart des connexions. Tandis qu’au début, tous les nœuds étaient nominalement égaux, le fait que les opérateurs commerciaux aient réagi à l’effet des réseaux et aux lois du marché a fait que l’attention s’est cristallisée sur quelques sites privilégiés. Le système distribué d’échanges mutuels a été transformé en un nouveau genre de réseau de télédistribution segmenté ou personnalisé. Que vous recherchiez des pneus neige, des estampes ukiyo-e, ou des vêtements pour bébés, vous recevrez des publicités pour ces objets au même titre que les milliers d’autres personnes ayant effectué des recherches similaires.

Une fois cette mutation bien établie, les conséquences en cascade des communautés virtuelles ont précipité des processus d’individualisation supplémentaires. La diffusion segmentée a été employée pour des raisons politiques par des acteurs politiques et étatiques. L’efficacité de la cyber-politique a été testée lors de l’élection de Donald Trump. La fin de la neutralité du réseau a le potentiel d’accentuer cette caractéristique jusqu’à ce qu’Internet tel que nous le connaissons n’existe plus. Notre Internet contemporain garde une place pour la communication humaine normale aux côtés de la manipulation et du divertissement. On peut s’attendre à ce que cet espace rétrécisse si rien n’est fait pour défendre la liberté de se rassembler en ligne loin du mercantilisme et de la contamination par la cyber-politique.

Conclusion

Pendant une brève période d’une vingtaine d’années, Internet a constitué un monde virtuel relativement épargné par la propagande. Mais à présent, les vieux acteurs politiques ont compris comment utiliser ce système pour répandre leur propagande encore plus efficacement qu’ils ne le pouvaient via la télévision. L’association de l’extraction de données et de la mobilisation des trolls, des bots et du malware produit un tissu de mensonges persuasif, car la source adopte un déguisement jugé fiable. La propagande télévisée a une source reconnue que l’on peut tenir responsable de son contenu. Elle doit se conformer à certaines normes communautaires, en évitant par exemple un racisme ouvert ou des mensonges aléatoires, du moins pas ceux propagés par les autorités. Mais un troll russe peut devenir votre voisin sur Internet, où comme l’a formulé une célèbre caricature : « personne ne sait que vous êtes un chien » (No one knows you’re a dog).

Encouragés par des bots et des trolls vicieux, l’utilisateur anonyme émerge en tant que personnalité jalouse des privilèges des autres et prompte à rejeter la faute sur les membres les plus vulnérables de la société. Voilà qui a toujours été une conséquence potentielle de l’anonymat, qui permet la dissidence, mais aussi le harcèlement et autres expressions socialement inacceptables du préjugé et de la haine, devenues aujourd’hui une force politique. Ce n’est pas Internet qui a créé la vague de populisme qui menace actuellement la démocratie, mais elle y a assurément contribué, en offrant un « safe space » (un espace protégé) au racisme et en abolissant la frontière entre ce qui pouvait être dit en privé et le discours public.

Malgré ces évolutions, Internet demeure un phénomène complexe et contradictoire. Il est certain que les grandes entreprises d’Internet ont accumulé beaucoup de pouvoir et de richesses. Et en effet, la propagande et la surveillance menacent la démocratie. Mais le réseau fonctionne toujours comme un support commun à des communautés en ligne de toutes sortes. Des milliards de personnes communiquent plus ou moins librement sur le réseau.

La technification et l’administration généralisées ont conduit à une perte générale de savoir-faire et à la passivité. Les problèmes et les violences techniques provoquent de nouvelles formes de résistance qui s’expriment sur Internet. Les conflits arrivent actuellement à un point critique. Internet deviendra-t-il un centre commercial virtuel, une télévision personnalisée, un dispositif de propagande politique ou continuera-t-il à être largement utilisé comme espace public ? J’ai tenté dans cet article de proposer une analyse équilibrée de la complexité de la toile. Ainsi, il est encore prématuré de faire une croix sur le futur d’Internet. En effet, un tel choix serait non seulement une erreur d’analyse mais aussi un désarmement de la résistance face à l’assaut contre la libre communication.

De l’innovation narrative à la navigation web contributive
Julien FALGAS

Résumé

Cet article présente la méthode et les résultats d’une recherche sur l’innovation narrative dans la bande-dessinée numérique à travers une étude des auteurs et des lecteurs plutôt que des récits. À partir de la problématique suivante : « Considérant l’environnement numérique qui se caractérise par la convergence des modes et des formes discursifs, à quels cadres les auteurs et les lecteurs héritiers de la bande dessinée se réfèrent-ils et de quelle manière s’y réfèrent-ils ? », il est question tout d’abord de revenir sur l’émergence de la notion d’innovation narrative (selon les quatre étapes de la fabrication es représentation de Becker), ce qui amène au constat de la production de nombreux biais de conditionnement et de restriction de l’innovation par la domination de Google et Facebook (liens hypertexte instrumentalisés économiquement) ; il est question ensuite d’analyser les enjeux de la navigation web contributive à travers l’exemple de Needle selon une perspective de « maillage » plutôt que de « réseau » (Ingold) en vue d’une réinvention du web.

Texte écrit en 2021 pour les actes du colloque « Les écologies du numérique » organisé par l’Ésad Orléans (ÉCOLAB) en 2017 et 2018.

Mots clé 

 narration, web contributif, indexicalité, innovation, maillage, bande-dessinée

Biographie

Julien FALGAS

Maître de conférences en sciences de l’information et de la communication, CREM Université de Lorraine. Les travaux de Julien Falgas portent à l’origine sur les pratiques innovantes des auteurs et des publics de contenus narratifs à l’ère numérique. Il s’est intéressé à la bande dessinée, puis à la rencontre des mondes universitaires et journalistiques autour de The Conversation France, avant d’imaginer le concept de navigation web contributive mis en œuvre dans le cadre du projet needle.

http://julien.falgas.fr


Je suis devenu internaute alors que j’entrais dans l’âge adulte et me passionnais pour la bande dessinée. Dans le contexte du web de la fin des années 1990 où les opérateurs mettaient en avant cette possibilité et fournissaient les outils et les conseils pour la saisir, j’ai eu tôt fait de créer ma première page personnelle et d’y publier – en amateur – mes planches de bande dessinée. À cette période, nous dépendions principalement de divers annuaires pour trouver de nouvelles pages web sur lesquelles surfer. En 2000, avec l’aide de Thomas Clément, créateur de l’annuaire de la bande dessinée[1], je mettais en ligne la première version de l’annuaire de la BD en ligne[2]. Les multiples versions de ce portail ont accompagné ma formation d’autodidacte des technologies web[3]. Après des études d’arts plastiques, j’ai finalement fait du web mon métier en 2005. Deux ans plus tard avec Pierre Matterne et Julien Portalier, nous mettions en ligne le portail d’hébergement de BD numérique Webcomics.fr[4]. En 2009, mon blog était cité par Franck Guigue dans la revue Hermès comme une « excellente » source de veille pour suivre l’évolution de la bande dessinée numérique[5]. J’ai par la suite été sollicité afin d’intervenir lors de tables rondes consacrées à la bande dessinée numérique par le groupement BD du Syndicat National des Auteurs Compositeurs (juin 2010) et par l’ENSSIB (mai 2011). Mais en 2011, ces créations tardaient toujours à se professionnaliser. Conjuguée au désir d’un nouveau départ professionnel, la thèse de doctorat constituait à mes yeux l’occasion de mettre à plat les questions qui me taraudaient et pour lesquelles je commençais à être reconnu.

Retour sur l’émergence de la notion d’innovation narrative

La recherche doctorale a consisté à chercher à comprendre comment de nouvelles formes narratives émergent et trouvent leur public. C’est ainsi qu’il s’est agi d’étudier non pas les récits, mais leurs auteurs et leurs lecteurs, afin de comprendre comment s’instauraient (ou non) pour eux de nouveaux usages narratifs, compte tenu de l’accès à de nouveaux dispositifs de publication. En somme, qu’est-ce que « raconter » à l’ère numérique ? Problématique qui s’est finalement traduite en ces termes : 

« Considérant l’environnement numérique qui se caractérise par la convergence des modes et des formes discursifs, à quels cadres les auteurs et les lecteurs héritiers de la bande dessinée se réfèrent-ils et de quelle manière s’y réfèrent-ils ?

Il s’agit de comprendre comment des auteurs confrontés à de nouveaux dispositifs de publication produisent le sens commun nécessaire à la création de récits numériques dont les lecteurs parviennent à partager les standards de transcription, tirent des routines d’usage pour leur interprétation, et jugent attrayantes la sélection et la mise en forme des événements racontés[6] ».

Cette approche est marquée par l’influence du sociologue Howard S. Becker :

« La concentration sur l’objet détourne notre attention sur les possibilités formelles ou techniques d’un médium (…). En se concentrant, au contraire, sur l’activité organisée, on s’aperçoit que ce qu’un medium peut produire est toujours fonction des contraintes organisationnelles qui affectent son usage[7] ».

C’est ainsi que l’analyse s’est structurée selon les quatre étapes de la « fabrique des représentations[8] ». Becker décrit le processus de représentation à l’œuvre derrière la production de toute représentation artefactuelle (cartes routières, peintures, littératures, films ou bandes dessinées, photographies). Il inscrit cette approche dans la lignée de l’étude des « mondes de l’art » (1988), ces organisations sans lesquelles des objets tels que les bandes dessinées n’auraient pas la forme que nous leur connaissons. En l’occurrence, les quatre étapes de la chaîne de fabrique des représentations peuvent être rapportées au lexique propre à l’acte narratif : d’abord la « sélection » des événements qui composent l’histoire, puis leur « transcription » selon les codes du medium choisi et leur « mise en forme » par la narration, enfin la « communication » que représente le récit lui-même.

Pour comprendre la production de sens à l’œuvre dans le processus d’innovation narrative, une notion importante de l’ethnométhodologie s’est imposée : l’indexicalité. Cité par Karl E. Weick, Leiter la définit en ces termes en 1980 :

« En dehors d’un contexte donné, objets et événements ont des significations équivoques et multiples. La propriété indexicale de la parole est le fait routinier pour les gens de ne pas établir verbalement le sens qu’ils donnent aux expressions qu’ils utilisent[9]. »

Ce que nous disons n’a de sens que dans le contexte dans lequel nous le disons, parce que ce contexte nous offre des cadres de référence sur lesquels nous appuyer. Dès lors, l’indexicalité est ce qui marque l’existence de ces cadres de référence. Les témoignages d’auteurs et de lecteurs de bandes dessinées dites « numériques » sont chargés d’une indexicalité qui est autant déterminée par les cadres de référence des enquêtés que par ceux du chercheur. L’analyse de ces témoignages visait à repérer ces marques d’indexicalités et à élucider les cadres de référence sur lesquels nous nous étions appuyés pour nous comprendre.

Prenons l’exemple de la série Les Autres gens[10]. Plébiscitée par la presse spécialisée comme par la presse généraliste, elle est devenue le fer de lance de la création originale de bande dessinée numérique. Bon nombre des auteurs impliqués dans le projet avaient déjà à leur actif plusieurs albums de bande dessinée. Les Autres Gens (LAG) est aussi la première bande dessinée numérique francophone à être diffusée sous la forme d’un abonnement, dans une ambition professionnelle, et l’une des rares à ce jour à avoir s’être révélée économiquement viable. Cette série quotidienne publiée entre mars 2010 et juin 2012 est l’œuvre d’un scénariste, Thomas Cadène, et de plus d’une centaine de collaborateurs (dessinateurs et co-scénaristes).

Trois cadres de référence se sont révélés nourrir LAG. Parmi lesquels, bien sûr, celui de la bande dessinée. Mais celui-ci éclaire moins la forme narrative que la forme de la collaboration entre les auteurs[11]. Le cadre de la bande dessinée détermine l’identité des auteurs de la série. Cette identité implique que chaque collaborateur conserve son identité artistique, plutôt que de se fondre dans une production en studio. Chaque épisode est abordé comme une production de bande dessinée traditionnelle, à travers le dialogue et un partage des tâches clair entre scénariste(s) et dessinateur. Le lecteur se trouve confronté à une variété graphique inhabituelle. Cela a été un facteur d’adhésion pour bien des lecteurs qui ont trouvé dans la série un catalogue d’auteurs à découvrir. En revanche, les passionnés de bande dessinée semblent avoir rencontré des difficultés, tel que ce lecteur entretenu le 27 avril 2012 : 

« il y a une nécessité peut-être à trouver une cohérence dans l’équipe, entre les différents auteurs, pour faciliter une familiarité de traitement entre tel et tel épisode. Parce que là on est un peu largué. » 

Le deuxième cadre de référence partagé entre le scénariste de LAG et ses collaborateurs est celui du feuilleton, en particulier du feuilleton télévisé. Pour le scénariste, au cours d’un entretien le 20 février 2012 : « sur ce genre d’expérience-là, j’ai peut-être plus de points communs avec des types qui font de la série en télé ». Ce genre dominant, porté par le succès des séries télévisées américaines de ces dernières années, n’a eu aucun mal à être partagé par les lecteurs. Il est si structurant que le facteur addictif de la lecture de la série pour ses fans repose principalement sur ce cadre de référence. 

Enfin, de manière plus inattendue, l’information en ligne est intervenue comme un cadre de référence majeur de la création de la série. Son scénariste a conçu l’idée d’une diffusion par abonnement parce qu’il consommait l’actualité de cette manière sur des sites dont il disait, lors du même entretien du 20 février 2012, « je voyais parallèlement @rrêt sur images et Mediapart et je me disais « mais c’est évident eux ils vont marcher«  ». Ce cadre de référence n’était pas partagé par le lectorat traditionnel des blogs BD, qui n’a pas compris que l’on puisse soumettre une lecture de bande dessinée quotidienne au paiement d’un abonnement. En revanche, le lectorat de LAG s’est constitué avec des lecteurs qui n’étaient pas en premier lieu lecteurs de blogs BD mais qui ont intégré la lecture de LAG dans leurs pratiques existantes de consommation d’information en ligne, fût-elle gratuite.

Le caractère innovant d’une série telle que LAG n’a en revanche pas été un cadre de référence pour ses auteurs ni ses lecteurs. Ce caractère a attiré la curiosité, notamment de la presse spécialisée et généraliste. Mais les lecteurs qui se sont intéressés à LAG pour cette seule raison s’en sont rapidement détournés. 

L’exemple de MediaEntity[12], quoique très différent dans sa forme comme dans sa fabrique, a démontré un processus similaire de production de sens à partir de cadres de référence existants et partagés entre auteurs et lecteurs. Cette « série transmédia » a débuté par une saison-pilote de quatre épisodes hebdomadaires fin 2012. Dans le premier album imprimé paru le 28 août 2013, elle se présentait comme « une fiction transmédia participative publiée sous licence Creative Commons. Les différents contenus peuvent être copiés, modifiés, redistribués. »

L’étude de ces deux cas a conduit à conclure :

« L’apparition et l’appropriation de récits aux formes innovantes s’appuient sur une importante activité de production de sens entre les acteurs concernés, autour des cadres de référence qui président à la forme comme au propos de ces récits.

L’invention de nouvelles formes narratives s’appuie sur l’assemblage original de cadres de références antérieurs, et ce à toutes les phases de la production narrative : de la sélection de l’information à l’interprétation du récit en passant par sa transcription selon des standards potentiellement nouveaux et sa mise en forme stylistique.[13] »

Il n’y a pas d’innovation sans sources d’inspiration partagées entre auteurs et publics. De l’étude de ces deux cas de récits innovants, découle ainsi une définition de l’innovation en tant que processus de production de sens. Les inventeurs assemblent des cadres de référence de manière originale. Si un public détenteur de ces mêmes cadres se reconnaît dans cet assemblage, alors l’invention est susceptible de s’installer dans les usages et d’accéder au rang d’innovation narrative.

Fig. 1 : Version ancienne d’intermodalité fer-route. Deutsches Museum Verkehrszentrum, Munich, Germany. 19e siècle. Source : Wikipedia (domaine public)

Ici par exemple, ceux qui ont lu Jacques Perriault (1989) comprennent que la Figure 1 fait référence à l’idée d’« effet diligence » pour les aider à produire du sens. Aux autres, rappelons la définition de Perriault : « le nouveau commence par mimer l’ancien. Les premiers wagons de chemin de fer avaient un profil de diligence. Les premiers incunables ont forme de manuscrits ; les premières photos, de tableaux ; les premiers films, de pièces de théâtre ; la première télé, de radio à image, etc.[14] » Le choix de la figure 1 devient alors limpide et illustre la nécessité de partager des cadres de référence communs afin de produire du sens et d’innover.

Le processus de négociation et de production de sens que nous venons d’illustrer caractérise l’innovation… à condition de bénéficier de conditions économiques favorables, c’est-à-dire d’un contexte qui offre une viabilité au maintien de l’activité des inventeurs. Trouver son public est une chose, mais monétiser cette audience en est une autre. C’est là qu’achoppe l’ambition de comprendre l’innovation narrative. En effet, les auteurs de LAG comme de MediaEntity partagent le sentiment d’avoir été débordés. S’ils se sont réalisés dans l’invention d’une forme narrative nouvelle et dans la rencontre avec un public attiré par cette invention, ils n’étaient pas en mesure d’assumer en parallèle les fonctions nécessaires à la commercialisation, à la monétisation. Bien que leur invention ait intégré la question de son modèle économique, il leur a manqué le temps, les compétences et les moyens de déployer ce modèle. À cette difficulté s’ajoute depuis quelques années celle de mettre en œuvre des récits sur des écrans de plus en plus multiples (smartphones, tablettes, ordinateurs, consoles de jeux), dans des interfaces aux audiences plus ou moins étanches, aux codes et aux formats de plus en plus spécifiques (multiplication des réseaux sociaux). Et ce, tout en faisant face à la concurrence des contenus produits par les industries de l’audiovisuel (séries télévisées, web-séries, cinéma) et du jeu vidéo. Quelle place reste-t-il à l’expression individuelle dans ce concert dominé par ceux qui disposent des moyens de réunir les compétences créatives, technologiques et commerciales pour de vastes projets transmédia ?

À ce stade, on peut dire que l’invention est constituée par l’assemblage original de cadres de référence détenus par l’inventeur. L’innovation relève quant à elle d’un processus de production de sens au travers de :

  1. la reconnaissance des cadres de l’inventeur par un public qui en est également détenteur ;
  2. l’intégration de l’invention aux usages de ce public ;
  3. l’existence ou de l’émergence de conditions économiques et sociales à même d’assurer la pérennité du dispositif novateur.

Soulignons que la condition humaine constitue un cadre de référence particulièrement performant dans la mesure où il est partagé par tous et est à même de contribuer fortement à l’adhésion à une invention. D’où sans doute, notre intérêt pour des objets d’étude marqués par une forte part d’auctorialité.

Par leur action, les GAFA asphyxient celles et ceux qui pollinisent nos imaginaires. Pour aller plus loin, il fallait élargir la focale et s’intéresser à d’autres modes narratifs contemporains. Si l’auteur de bande dessinée numérique est apparu comme une sorte d’homme-orchestre, le journaliste à l’ère numérique a pu être décrit comme un « journaliste shiva[15] », car il devrait à la fois écrire, photographier, filmer, enregistrer et publier. Plus globalement, il s’avère que la profession recrute de moins en moins et sur des statuts de plus en plus fragiles. Ne pouvant s’appuyer autant que d’autres secteurs éditoriaux sur l’exploitation de son fond, le secteur de la presse voit son chiffre d’affaire décliner année après année. 

De fait, quel que soit l’état de santé du secteur éditorial concerné, les auteurs qui sont à sa base se paupérisent, comme on peut le constater à la lecture des conclusions des Etats Généraux de la bande dessinée de 2016[16], de celle des rapports consacrés aux auteurs littéraires[17] ou à encore à l’écosystème de la presse[18]. Les Etats Généraux de la bande dessinée dressent un constat statistique : en 2016, 53% des auteurs répondants se définissent comme des « professionnels précaires », 53% ont un revenu inférieur au SMIC (67% pour les femmes), 36% sont sous le seuil de pauvreté (50% pour les femmes) et 66% pensent que leur situation est appelée à se dégrader dans les prochaines années. Les autres rapports mettent en relation l’évolution des situations professionnelles individuelles avec les dynamiques écosystémiques induites par l’ère numérique. Les termes choisis par le rapport Martel sur la condition d’écrivain à l’âge numérique sont ceux de « paupérisation », « menace d’extinction », « espèce en voie de disparition ».

Dès l’année 2015, trois principaux constats s’imposent de manière empirique :

  1. L’accès aux contenus en ligne est dominé par Google et Facebook dont le modèle économique désintermédie celui de la régie publicitaire grâce à la collecte massive de données. 
  2. Les éditeurs, producteurs de contenus d’auteurs, sont en crise du fait de la captation croissante (à mesure que les usages numériques se développent) des revenus publicitaires par ces plateformes qui organisent l’accès au contenu sans subvenir à sa production. 
  3. Désormais, les contenus sont conçus pour être vus plus que pour inspirer ceux qui les consultent. Les espaces de publication animés par d’autres ambitions sont contraints soit à la non lucrativité, soit à abandonner l’idéal d’accès libre aux contenus en ligne en réservant leur accès à une niche d’abonnés.

Ces constats ont depuis été corroborés par les publications de plusieurs chercheurs en sciences de l’information et de la communication[19]. La domination de Google et Facebook sur l’accès aux œuvres de l’esprit impose plus particulièrement un modèle économique (la publicité) et des usages (l’immédiateté) qui entraînent un certain nombre de biais :

L’information est biaisée, en concurrence directe avec rumeurs et « infox ». Les professionnels qui la produisent sont fragilisés au point de devoir sacrifier la rigueur et le travail d’enquête pour produire des contenus dupliqués et dépourvus de distance critique. Enfin le débat public, en plus de se fonder sur une information de mauvaise qualité, se déploie sur des espaces qui encouragent les échanges violents et égocentrés.

Au-delà de l’information et du débat démocratique, c’est notre capacité à trouver l’inspiration et à innover qui est atteinte[20]. Si l’on considère l’environnement numérique comme un environnement écologique[21], l’action des GAFA en bouleverse les écosystèmes au point de menacer l’action (sinon l’existence) de toute une diversité d’auteurs, créateurs et autres pollinisateurs de notre inspiration. En tant qu’acteur du monde de l’enseignement supérieur et de la recherche il y a matière à s’interroger sur nos responsabilités collectives vis-à-vis de cette situation, alors que l’histoire du numérique et du web en particulier tire ses racines des laboratoires de recherche et des universités[22]. Cette réflexion se cristallise autour de la notion d’empreinte telle que nous l’avons définie avec Violaine Appel[23] afin de dépasser le triptyque indice-inscription-trace tel que la mis en évidence Yves Jeanneret :

« c’est en effet la transformation de l’indice en inscription, puis de l’inscription en tracé – c’est-à-dire le passage graduel du monde de la causalité à celui de l’expression mais aussi, par la même, de la conséquence naturelle à la mémoire sociale – qui rend possible une lecture par les uns de ce que font les autres[24] ».

Comme nous l’avions tous deux défendu dès septembre 2016 à l’occasion d’une journée d’étude organisée en l’honneur du premier anniversaire du site d’information The Conversation France, considérer la trace et l’inscription, c’est s’adapter aux usages prescrits par d’autres, tandis que considérer son empreinte numérique, c’est prendre sa responsabilité dans l’usage ou le non-usage des services existants, mais aussi dans le développement et la préconisation de dispositifs nouveaux. 

La navigation web contributive : de l’idée de réseau à l’expérience du maillage

C’est sur ce terreau réflexif, taraudé par la prise de conscience écologique que le numérique constituait un environnement à défendre d’urgence, qu’a germé fin 2015 l’idée d’une navigation web contributive. En effet, comment répondre aux multiples urgences écologiques si nos idées et nos sources d’inspiration s’étiolent ? Le fait d’avoir arpenté le 10e arrondissement parisien le 13 novembre 2015 au matin aura certainement renforcé la volonté de concevoir un outil destiné à recoudre le tissu dont sont faites nos sociétés. Comme un pied de nez à Google par le retour à un besoin fondamental (need), needle était l’aiguille grâce à laquelle chaque internaute devait pouvoir recoudre les pages du web entre-elles afin de le rendre plus chaleureux et habitable. Rappelons que l’aiguille est l’une des inventions les plus anciennes de l’humanité, indispensable depuis le paléolithique à quiconque veut assembler de quoi se vêtir ou s’abriter. Puisque les liens hypertextes avaient été instrumentalisés à des fins économiques depuis que le principal moteur de recherche en avait fait la base de son algorithme de classement (le poids d’un résultat dépendant du nombre et du poids respectif de l’ensemble des pages web comportant un lien vers ce dernier), nous allions tisser un nouveau réseau « par les internautes, pour les internautes ». 

Dans les mois qui ont suivi, la métaphore du « fil de pensée » s’est imposée, et avec elle le concept innovateur de croisement. Il ne s’agirait pas de recoudre les pages du web entre elles, mais de se croiser les uns les autres au fil de nos sources d’inspiration. Chaque croisement serait l’occasion d’une rencontre avec la pensée d’autrui puisqu’il serait possible de parcourir l’ensemble des références indexées successivement par quiconque croiserait le fil de nos propres contributions. Déjà avec l’annuaire des bandes dessinées en ligne, la métaphore de l’auberge espagnole avait guidée une conception qui incitait l’internaute à la contribution[25]. Avec needle, il ne s’agissait plus seulement de récits graphiques, mais de toute ressource identifiable par une URL. Il ne s’agissait plus d’une contribution occasionnelle et altruiste, mais d’une contribution pour accéder à celles des autres. En effet, nul ne peut parcourir les fils des autres utilisateurs de needle à moins de constituer le sien propre et d’y indexer soi-même des références susceptibles de coïncider avec celles d’autrui. Si ces croisements peuvent apparaître entre des pensées similaires, ils peuvent également se révéler beaucoup plus orthogonaux et favoriser « l’exploration curieuse[26] », l’ouverture à d’autres perceptions du monde. En effet, chaque utilisateur entretient un seul et même fil le long duquel se mêlent les différentes sources d’influence sur lesquelles s’appuient sa pensée. Ce fil n’est pas un profil public et visible, il ne s’agit pas d’une vitrine et encore moins d’une compilation de données destinées au ciblage publicitaire. Ce fil constitue l’expression de ce qui inspire son auteur, dans la perspective d’une rencontre avec d’autres sources d’inspiration.

À compter de 2017, avec le soutien de l’Université de Lorraine, needle a pris la forme d’une extension de navigateur dont l’expérimentation se poursuit depuis 2018[27]. needle dote chaque utilisateur d’un « fil » pour relier ses trouvailles (Fig. 2). L’utilisateur dispose d’un bouton sur lequel cliquer pour référencer une page web le long de son fil (Fig. 3), en retour needle lui permet d’accéder aux fils des autres utilisateurs ayant référencé cette même page (Fig. 4). Grâce à sa contribution, l’utilisateur est également en mesure de découvrir tout fil qui viendrait à croiser le sien ultérieurement. Ainsi, l’utilisateur de needle est invité à indexer des pages qui l’inspirent, dans la mesure où il souhaite qu’elles le conduisent à de nouvelles sources d’inspiration : c’est la navigation web contributive. L’index co-construit de cette manière décrit un maillage de pages web entremêlées le long des fils de leurs visiteurs au lieu d’être connectées en réseau par des liens hypertextes saisis par leurs concepteurs ou extraites par d’opaques algorithmes.

C:\Users\falgas5\Desktop\Maturation - needle\documents ressource\Poster needle cl.3.png
Fig. 2 : l’utilisateur consulte son propre « fil ». Les références pour lesquelles il existe des croisements avec d’autres utilisateurs sont visualisées en orange. Des #mots-dièse permettent une navigation thématique.
C:\Users\falgas5\Desktop\Maturation - needle\documents ressource\Poster needle cl.1.png
Fig. 3 : d’un clic sur le bouton en forme d’aiguille, l’utilisateur dispose d’un panneau depuis lequel indexer lui-même la page courante le long de son « fil ». 
C:\Users\falgas5\Desktop\Maturation - needle\documents ressource\Poster needle cl.2.png
Fig. 4 : après avoir indexé une page web le long de son « fil », l’utilisateur accède immédiatement en retour aux « fils » des autres utilisateurs ayant indexé cette même page.

Cette réalisation entre en dialogue avec la réflexion contemporaine autour de la ré-invention du web[28] et dont son propre inventeur affirmait en 2018 qu’il serait menacé tant que nous n’aurons pas dépassé « le mythe que la publicité est le seul modèle commercial possible pour les entreprises en ligne, et le mythe selon lequel il est trop tard pour changer le mode de fonctionnement des plates-formes[29] ». En tant que recherche-action, needle constitue également une mise à l’épreuve par l’expérimentation des conclusions des travaux critiques envers les GAFA dans le champ des recherches en communication[30]. Enfin, et pour resituer le propos dans la perspective d’une écologie du numérique, needle souligne la définition donnée au maillage (meshwork) par l’anthropologue Tim Ingold, par opposition au réseau (network) :

« En tant que connecteurs reliant des points, les lignes du réseau existent préalablement à et indépendamment de tout mouvement de l’une vers l’autre. Elles n’ont par conséquent pas de durée : le réseau est une construction purement spatiale. Les lignes du maillage sont au contraire des lignes de mouvement ou de croissance, ou, pour reprendre une expression de Gilles Deleuze et de Félix Guattari, des « lignes de devenir » Tout être animé, à mesure qu’il se faufile entre et à travers les chemins de tous les autres, doit nécessairement improviser un passage, et ce faisant, tracer une autre ligne dans le maillage. Il peut bien entendu exister des lieux de divergence et de convergence. Mais là où le réseau contient des points nodaux, le maillage est composé de nœuds. Les nœuds ne sont pas des réservoirs ; ils n’ont ni dedans ni dehors. Leurs surfaces ne sont pas superficielles mais interstitielles. Les lignes du nœud ne sont donc ni à l’intérieur ni à l’extérieur ; c’est dans leur enroulement et déroulement que se forme le nœud. Dans le cas du réseau, les lignes sont connectées à leur extrémité, alors qu’avec le maillage elles sont nouées par le milieu ; ses extrémités, toujours libres, cherchent à s’attacher d’autres lignes. Qu’est-ce que la vie, en effet, sinon une prolifération de fils en suspens ![31] »

La prédominance de la terminologie de réseau contraint à y recourir par commodité pour décrire needle. Pourtant, la lecture de Tim Ingold incite très vivement à s’interroger sur la capacité des dispositifs numériques à outiller l’exercice du maillage. Faute de quoi, le numérique semble promis à rester un territoire aride et inhabitable à l’image d’une part croissante du globe terrestre du fait de l’activité de nos sociétés de réseau.

Quand la loi devient code : l’écologie orthographique à l’âge des correcteurs automatiques
Yves CITTON

Résumé

À partir de l’étude du livre extraordinaire d’Honorat Rambaud de 1578 proposant un nouveau système d’écriture phonétique de la langue française pour constituer un remède contre l’ignorance et assurer une diffusion internationale du français, il s’agit dans cet article de dégager quelques dimensions « écologiques » des problèmes orthographiques. Ces dimensions sont discutées dans le contexte de notre actualité numérique, où nos pratiques d’écriture se trouvent sur le point de connaître des bouleversements radicaux, dont nous sommes encore très loin de prendre la mesure. Le détour initial par le XVIe siècle sera donc l’occasion de prendre un peu de recul envers notre présent, de façon à gagner peut-être un peu de perspective (en passant notamment par les analyses pionnières de Flusser) face à ce que pourrait nous proposer l’avenir de l’écriture en milieu numérique. Le dépérissement du problème orthographique par la commande vocale, la correction automatique, l’auto-complétion, etc., en tant que symptôme d’une situation critique, appelle plus généralement un design écologique capable de renforcer la place des catalyseurs de réflexivité, des exhausteurs de causalité et des vecteurs d’égalité.

Texte écrit en 2022 pour compléter les actes du colloque « Les écologies du numérique » organisé par l’Ésad Orléans (ÉCOLAB) en 2017 et 2018.

Ce travail a bénéficié d’une aide de l’EUR ArTeC financée par l’ANR au titre du PIA ANR-17-EURE-0008.

Mots clé 

Écologie, code, orthographe, correcteur automatique, Flusser, Honorat Rambaud

Biographie

Yves CITTON

Professeur de littérature et media à l’université Paris 8, il a été jusqu’en 2021 directeur exécutif de l’EUR ArTeC (Arts, Technologies, numérique, médiations humaines et Création). Il codirige la revue Multitudes et a publié récemment Altermodernités des Lumières (Seuil, 2022), Faire avec. Conflits, coalitions, contagions (Les Liens qui Libèrent, 2021), Générations Collapsonautes. Naviguer en temps d’effondrements (avec Jacopo Rasmi, 2020), Contre-courants politiques (2018), Médiarchie (2017), Pour une écologie de l’attention (2014), Zazirocratie (2011). 

www.yvescitton.net


En 1578, un maître d’école marseillais du nom d’Honorat Rambaud fait paraître un livre proprement extraordinaire, sur lequel il a travaillé pendant les trois décennies précédentes en lien étroit avec son travail de pédagogue. Sous le titre de La declaration sur les abus que l’on commet en escrivant, et le moyen de les eviter, & representer nayvement les paroles : ce que jamais homme n’a faict, il dévoile au monde un nouveau système d’écriture de la langue française, strictement phonétique, qu’il illustre derechef en faisant imprimer son livre dans une version bilingue, graphie traditionnelle sur la page de gauche, graphie phonétique réformée sur la page de droite. 

Sa volonté de réformer l’écriture du français n’est nullement originale. De grands débats avaient eu lieu vers le milieu du siècle, autour de nombreuses initiatives venant d’auteurs et de philosophes plus ou moins proches de la Pléiade (Pelletier du Mans, Louis Meigret). Le manque de correspondance entre le français phonique et le français graphique suscitait des plaintes de natures multiples, allant de la difficulté d’apprentissage pour les enfants au manque de rationalité du système en vigueur, censé empêcher la langue française de s’imposer au niveau international comme alternative au latin.

Dans les pages qui suivent, je vais revenir brièvement sur l’intervention (tardive) d’Honorat Rambaud dans cet épisode de la longue querelle orthographique qui renaît en France à périodicité irrégulière, mais obstinée. Comprendre la façon – apparemment intuitive, mais en réalité assez étonnante – dont le maître d’école marseillais pose le problème nous aidera à repérer quelques dimensions « écologiques » des problèmes orthographiques. Ces dimensions seront ensuite discutées dans le contexte de notre actualité numérique, où nos pratiques d’écriture se trouvent sur le point de connaître des bouleversements radicaux, dont nous sommes encore très loin de prendre la mesure. Le détour initial par le XVIe siècle sera donc l’occasion de prendre un peu de recul envers notre présent, de façon à gagner peut-être un peu de perspective face à ce que pourrait nous proposer l’avenir de l’écriture en milieu numérique.

Pharmacologie graphique des bêtes et des herbes

Honorat Rambaud articule un argumentaire humaniste (devenu pour nous) très classique dans sa justification des bienfaits ainsi que de la nécessité de l’éducation par le moyen de l’écrit, à l’âge où l’imprimé commence à faire sentir sa puissance transformatrice. Nous sommes tou·tes né·es ignorant·es, et la chose la plus utile et la plus raisonnable que nous puissions faire les un·es pour les autres (ainsi que pour nous-mêmes) est de travailler à soigner cette maladie originelle qu’est l’ignorance : « devons estre plus diligents de cercher remedes pour soulager, instruire & enseigner les ignorans que pour guerir les pestiferés & febricitans : veu que ignorance seule fait plus de maux que toutes les autres maladies ensemble[1] ». Ce travail d’éducation peut s’accomplir par au moins trois voies : « pour avoir sciences & bons enseignemens, est necessaire voir beaucoup de païs, ouïr parler beaucoup d’hommes sages, discrets & savants, & lire plusieurs bons livres[2] ». Les voyages et la rencontre de personnages extraordinaires n’étant pas à la portée de tout un chacun, le recours à l’imprimé vient par bonheur au secours des moins favorisé·es : « car en lisant, l’homme peut voir tout le monde & ouïr parler les plus excellents hommes du monde, & non seulement ceux qui sont en vie, ains ceux qui ont vecu par le passé (chose tres admirable)[3] ».

Figure 1 : Honorat Rambaud, La Déclaration des abus que l’on commet en écrivant,
Lyon, 1578, p. 43-44.

Son problème de pédagogue et de philanthrope vient de ce que, tel qu’il est administré en cette fin de XVIe siècle, ce merveilleux remède à l’ignorance qu’est l’imprimé est rejeté par les pauvres patients, du fait de la terrible amertume que confèrent les difficultés orthographiques à cette potion magique :

« Si sommes bons medecins & apothicaires, & amis de la Nature, & si avons pitié des povres ignorans presents & advenir, comme devons avoir & comme Dieu nous commande, rendrons ladite medecine si douce (Dieu aidant) qu’il n’y aura malade si débile, qui ne la puisse bien prendre, & par consequent soulager sa maladie[4] ».

Ces citations mériteraient de longs commentaires, tant le contexte culturel dans lequel elles s’inscrivent est à la fois remarquablement proche et considérablement distant de ce que nous avons aujourd’hui en tête en discutant de réformes orthographiques[5]. Trois remarques rapides doivent toutefois être faites pour mesurer la radicalité du geste opéré par Honorat Rambaud.

Premièrement, alors que ses collègues réformateurs s’étaient – sagement – bornés à utiliser l’alphabet hérité du latin pour instaurer une conformité entre graphie et phonie (avec un recours occasionnel à quelques signes diacritiques déjà entrés dans les usages), le maître d’école marseillais sort de son chapeau un alphabet complètement nouveau, basé sur un découpage syllabique absolument original, plus rigoureux peut-être dans sa bi-univocité graphie <> phonie que les systèmes rivaux, mais parfaitement irréaliste du point de vue d’une implémentation effective. (Le miracle, bien digne d’admiration, est qu’il soit parvenu à convaincre un imprimeur de faire fondre les polices de caractères nécessaires à l’impression d’une version bilingue de son traité de 200 pages.)

Deuxièmement, la rareté du souci d’instaurer une correspondance bi-univoque entre graphèmes et phonème témoigne, chez ses concurrents réformistes, d’un primat de l’activité de lecture par rapport à l’activité d’écriture. Dans cette seconde moitié du XVIe siècle, si l’on veut réformer la graphie du français, c’est avant tout pour faciliter la tâche de celles et ceux qui souhaitent combattre la maladie de l’ignorance en lisant des textes imprimés. Très peu de théoriciens de l’époque se soucient de l’hésitation que peuvent avoir les scripteurs en se demandant s’il faut faire l’accord d’un participe passé ou mettre un ph au lieu d’un f dans un mot venu du grec ancien. La plupart des problèmes que nous discutons actuellement à chaque poussée de fièvre réformiste ne tient pas tant à la complexité de nos usages graphiques qu’à l’imposition d’une norme unique, dont le non-respect entraîne d’importants effets de stigmatisation. Les problèmes d’écriture ne sont devenus aigus, parce que socialement disqualifiants, que du moment où l’alphabétisation a commencé à se répandre dans la quasi-totalité de la population, au cours du XIXe siècle : les classes dominantes ont alors dû recourir à l’imposition d’une norme orthographique unique strictement sanctionnée pour affirmer et sanctionner leur distinction. En principe – mais il y a bien sûr très loin des principes aux faits – les « problèmes » de l’orthographe française pourraient se régler très facilement, sans même avoir besoin de réformer l’orthographe elle-même, en se contentant d’en libérer les usages, c’est-à-dire en acceptant que la même pluralité non-stigmatisée y règne que cela a été le cas jusqu’au XIXe siècle. On sait que Voltaire (ou son secrétaire) pouvait écrire filozofie sans que son statut de prince des philosophes ou des poètes n’en soit aucunement affecté. 

Troisièmement, la radicalité d’Honorat Rambaud perce à la surface de son texte par des notations qui n’ont pu que susciter la perplexité des plus rationalistes de ses lecteurs. Que trente ans d’efforts consacrés à réformer non seulement l’orthographe, mais l’alphabet utilisé pour transcrire le français oral soient attribués au travail d’un « ami de la Nature », comme le proclamait une citation précédente, n’a guère de quoi nous surprendre. Les réformateurs ont de tout temps prétendu qu’il était plus « naturel » que les graphies s’accordent aux phonies selon des règles simples à apprendre et à respecter. C’est pourtant à une conception exceptionnellement inclusive de « la Nature » et du « monde » que le pédagogue fait appel pour justifier l’importance de son innovation :

« voyant que l’imperfection de l’alphabet interessoit tous hommes, femmes & enfans, presents & advenir, & mesmes les bestes, les arbres, & herbes, comme entendent ceux qui ont bon jugement, ay laissé de remedier à moymesme & à ma maison, pour (moyennant l’aide de Dieu) remedier à l’imperfection de l’alphabet, veu & bien consideré le bien indicible qui s’en peut suyvir, si le monde s’en veut servir, comme je désire[6] ».

Si les enfants et les étrangers sont les cibles et les bénéficiaires habituels des volontés de réformes orthographiques du XVIe siècle, si les femmes leur sont parfois généreusement associées, il est aussi rare qu’étonnant de voir « les bêtes, les arbres & herbes » ajoutées à la liste. Seules nos oreilles dressées à l’éco-critique peuvent (peut-être) (re)commencer à comprendre ce qu’a pu vouloir dire Rambaud à travers une affirmation apparemment si loufoque. En quoi « la médecine » de l’écriture, et en particulier celle de l’imprimé, peut-elle intéresser le règne végétal et les animaux non-humains ? 

Michel de Certeau, dans son si beau texte sur le pouvoir scripturaire, relève à quel point ce que les humain·es commencent par écrire sur du papier en arrive vite à s’inscrire sur les corps, les villes et les paysages qui composent leur monde[7]. L’ordre d’un maréchal peut détruire une ville. Un texte de loi peut protéger ou ravager une forêt. Une formule chimique, d’abord gribouillée sur un bloc-note maculé de souillures, peut sanctionner la mort d’espèces complètes d’insectes. Un récit émouvant peut nous sensibiliser au silence des oiseaux au printemps, et nous pousser à interdire l’épandage d’herbicides ou de pesticides dans nos champs. Rambaud voyait juste : la plus ou moins grande perfection de nos alphabets est bel et bien l’affaire non seulement de tous hommes, femmes et enfants, présents et à venir, mais aussi des bêtes, des arbres et des herbes. 

Cette écologie alphabétique mérite d’être identifiée comme telle[8]. Ce qui s’imprime sur nos papiers ou sur nos écrans n’y reste que rarement cantonné. Sa vocation est de reconfigurer notre univers tridimensionnel à partir des figures tracées de façon linéaire sur des plans d’inscription. Nos interventions langagières sont cosmopoétiques. Les façons dont nos désirs, nos angoisses, nos pensées, nos communications « s’écrivent » sont certes conditionnées par les limitations du monde matériel dans lequel nous vivons. Mais ces façons ont en retour une importante puissance de reconditionnement de ce monde matériel. Les insuffisances des écologies alphabétiques issues des révolutions modernisatrices, qui étaient en train de fermenter dans l’Europe d’Honorat Rambaud, sont la cause directe des ravages de nos milieux de vie planétaires constatés avec horreur en ce début de XXIe siècle. « Pauvres ignorants » en termes d’écologie alphabétique, nous avons certes encore beaucoup à apprendre avant de devenir « bons médecins & apothicaires, & amis de la Nature ».

Vers un dépérissement computationnel du problème orthographique ?

Peu de penseurs nous aident autant à comprendre l’écologie du numérique que Vilém Flusser et Friedrich Kittler. Le second invite à renverser nos présupposés trop rassurants quant aux procédures d’écriture impliquant des machines de computation. Depuis que les micro-processeurs ont dépassé une certaine taille de miniaturisation, une certaine puissance de computation et un certain degré d’opacité verrouillé pour leur fonctionnement en « mode protégé », il est devenu largement illusoire de penser que nous programmons ce que font les machines, et beaucoup plus réaliste d’avouer que nos appareils ont déjà écrit par avance (« pro-grammé ») ce que nous écrivons à travers eux[9].  

Dans ses réflexions pionnières des années 1980, Vilém Flusser analyse les dynamiques qui, en quatre temps et en quatre couches, ont bâti et continuent à reconstruire quotidiennement nos environnements numériques. À une première strate de représentations subjectives iconiques de nos réalités environnementales, telles qu’elles se sont développées depuis la grotte Chauvet et la sculpture antique jusqu’aux peintres figuratifs, s’est superposée une deuxième strate d’écriture alphabétique, qui a réduit la multi-dimensionnalité du réel à la linéarité du signifiant linguistique et de l’explication causale. C’est de cette deuxième couche qu’Honorat Rambaud chantait les louanges comme remède à l’ignorance. Depuis le XIXe siècle, avec l’invention de l’appareil-photo, du gramophone, de la caméra de cinéma, puis de la vidéo, une troisième strate de représentations objectives analogiques a permis de communiquer dans l’espace et le temps des captures de donnés sensibles qui, à la différence des anciens tableaux, n’avaient pas été filtrés-configurés par une subjectivité humaine et qui, à la différence des textes, pouvaient prendre en charge la multi-dimensionnalité du donné sensoriel sans le réduire à la linéarité du signifiant linguistique. Enfin, depuis le milieu du XXe siècle, une quatrième couche caractérisée par la numérisation computationnelle est venue traduire, relayer et reconfigurer de l’intérieur les trois strates précédentes, grâce à son pouvoir inédit de les simuler toutes et d’en analyser les paramètres en unités élémentaires discrètes recombinables à l’envi[10]. C’est certainement à partir de l’entrejeu de ces quatre strates, ainsi qu’à partir du pré-conditionnement de nos écritures humaines par nos écritures machiniques, qu’il faut poser tout problème relevant de l’écologie du numérique.

Quel cadre cela nous fournit-il pour envisager les évolutions à venir des questions orthographiques ? Nous assistons actuellement à l’émulation de la deuxième strate (celle de l’écriture linéaire) par une articulation entre la troisième (celle de la capture analogique) et la quatrième (celle de l’analytique computationnelle numérique). Le petit nom familier de ce bouleversement est « commande vocale », qui implique comme présupposé une capacité de « reconnaissance vocale ». Nos appareils numériques sont devenus assez performants pour être désormais capables de transcrire, et donc d’orthographier (avec un minimum d’erreurs), ce que nous exprimons par la voix. Les progrès de l’apprentissage profond – et le travail de millions de tâcherons du clic sous-payés pour orienter, corriger et affiner la bêtise constitutive de l’Intelligence Artificielle[11] – ont rendu possible d’analyser et de distribuer de façon suffisamment riche et précise les corrélations effectuées entre les sons et les sens d’une langue parlée pour que des appareils de computation puissent désormais non seulement rédiger à l’écrit, mais traduire d’une langue à l’autre la plus grande partie de ce qui passe de nos bouches à nos oreilles et à nos cerveaux. Les conséquences de ces capacités absolument inédites nous échappent encore presque complètement.

Dans le cas particulier de l’orthographe de la langue française, ces innovations techniques ont pour effet de court-circuiter complètement le problème que s’ingéniait à résoudre Honorat Rambaud pour le compte du « pauvre ignorant » analphabète : « toutes les paroles des absents, soyent morts ou vifs, luy sont inutiles, & ne luy servent de rien, sinon que luy soyent maschees & mises dans l’oreille par la bouche d’un autre : tout ainsi que la nourrice masche le pain au petit enfant, & le luy met dans la bouche[12] ». Si les gramophones nous permettaient déjà d’entendre les paroles des absents, soit morts soit vifs, si les liseuses nous mettaient déjà les textes des livres dans l’oreille par leur bouche machinique, nous disposons désormais de logiciels capables de prémâcher nos paroles pour tenir la plume à la place de notre main.

De même que Marx envisageait un « dépérissement de l’État » en phase communiste, de même voyons-nous se profiler un dépérissement du problème orthographique au sein de l’écologie du numérique – et avec lui de l’exercice honni de la dictée ainsi que de la stigmatisation subie par les classes défavorisées, qui sont vouées à se prendre les pieds dans le tapis des règles byzantines de l’accord du participe passé. Dès lors que tout le monde peut dicter à son smartphone ce qu’il entend mettre par écrit, et passer le résultat à la moulinette d’un correcteur orthographique, le plus pauvre ignorant pourra non seulement entendre les morts lui transmettre leur sagesse, mais il pourra rédiger une lettre de motivation avec la même perfection orthographique que le plus huppé normalien de sa génération. Combien de centaines d’heures gagnées dans les programmes scolaires – où l’on pourra enfin se donner le temps de jouer avec l’écriture, plutôt qu’à devoir en subir l’orthographe ? Ce qu’il convient de réformer, en ce début de troisième millénaire, ce n’est plus l’orthographe française, comme on s’escrime en vain à le faire depuis quatre siècles, mais seulement sa pédagogie, court-circuitée de la façon la plus sommaire dès lors qu’il suffit de quelques heures pour maîtriser l’interface d’un logiciel de correction automatique. 

On peut imaginer le dépérissement du problème orthographique comme un cas particulier d’une évolution plus large, qui consistera peut-être en un dépérissement des claviers. Dès lors que je peux tout dicter (sans faute) à mes machines et à mes imprimantes, pourquoi perdre mon temps à apprendre et perfectionner la dactylographie ? Pourquoi passer par la lenteur et l’imperfection des doigts, dès lors que la voix devient texte par la vertu instantanée de la computation ? Peut-être nos enfants parleront-ils de notre époque comme ayant été celle des « machines sourdes » – de la même manière que nous évoquons les premières décennies du XXe siècle comme l’âge du « cinéma muet ».

Quand la loi devient code

Avouons qu’il est consternant qu’une telle abolition du pensum orthographique ne soit jamais sérieusement envisagée dans les discussions sur la réforme des programmes scolaires. L’écologie propre au numérique est porteuse de puissances qui dépassent encore dramatiquement les limites si étroites de nos imaginations politiques et pédagogiques. Tout l’enseignement du français est à ré-envisager sous une lumière nouvelle, rien ne justifie l’inertie de la bêtise héritée devant l’urgence des améliorations possibles. 

Reconnaissons toutefois dans le même souffle que les implications du solutionnisme technologique en matières orthographiques sont, bien entendu, infiniment plus intriquées, ambivalentes et retorses que ne le laisse entendre l’avenir radieux du dépérissement orthographique évoqué dans ce qui précède. Prenons le temps de déplier, même sommairement, quelques-uns des replis par lesquels les espoirs de Rambaud et les strates de Flusser s’enchevêtrent autour de ces questions. Ce sera l’occasion d’opérer quatre carottages ponctuels dans les complexités de l’écologie du numérique.

Relevons d’abord que ce qui est envisagé ici renverse la fameuse formule de Lawrence Lessig, code is law. Les programmeurs de correcteurs orthographiques s’efforcent d’élaborer sous forme de code ce qui relevait jusque-là de la norme d’usage, quelque peu rigidifiée sous forme de quasi-loi, en France, par cette inénarrable institution qu’est l’Académie française. Tirons-en comme premier enseignement que l’écologie du numérique ne saurait jamais être « naturelle », au sens où le propre de la « nature » est de faire naître et renaître des entités échappant sans cesse à ce qui aurait pu être leur définition programmatrice. Aucune « chose » ne peut advenir ou se trouver intégrée dans un environnement numérique par sa seule présence spontanée : n’existe en milieux numériques que ce qui a été préalablement institué et pré-paramétré comme un « objet ». Le message d’erreur Object reference not set to an instance of an object exprime emblématiquement ce trait fondamental de l’écologie du numérique : il faut que toute chose à laquelle il sera fait référence ait été préalablement définie comme une instance d’un « objet » pour pouvoir être prise en compte (« computée »). Aucun habitant de nos milieux vivants n’aurait survécu plus de quelques minutes, s’il avait été soumis à la même condition de fonctionnement. La vie tient précisément à la capacité d’intégrer (certains aspects de) ce qui en était préalablement exclu. La loi du numérique est que tout ait été préalablement encodé (ou, plus précisément, traduit en paramètres encodables), et cette loi est la négation de toute écologie vivable. 

L’inscription de la norme orthographique dans un programme de code, s’appliquant automatiquement pour aligner les graphies sur « le bon usage », transforme celui-ci en seul usage possible, et altère donc profondément sa nature (même si la notion d’orthographe et le titre du livre de Grevisse inclinent déjà fortement dans ce sens). Il serait trop facile de dire qu’on perd en liberté ce qu’on gagne en égalité. L’écologie du numérique semble à première vue devoir exclure la pluralité des usages qui caractérisait les graphies françaises jusqu’au XVIIIe siècle. Dès lors que les environnements numériques ne reconnaissent que les choses qui auront été préalablement traduites en « objets », le code a besoin de standardisation. Les variantes graphiques sont le cauchemar des recherches de mots, à l’image de cet érudit dix-huitiémiste qui, à la fin des années 1990, commentait doctement sa découverte de voir le nom de Spinoza n’apparaître que très exceptionnellement dans toute l’Encyclopédie de Diderot – avant qu’on ne lui suggère de vérifier les centaines d’occurrences de la graphie Spinosa

Outre que le numérique est bien assez souple pour tolérer certaines formes clairement circonscrites de variations (Spino*a), la pression standardisatrice peut devenir l’irritant d’une ingéniosité subversive jouant à cache-cache avec les logiciels de reconnaissance (et avec les assignations d’identité qui les motivent). La brillante nouvelle d’Alain Damasio, Les Hauts-Parleurs®, pourrait inspirer un mouvement de résistance pluralisatrice et libertaire à l’imposition d’une norme identificatrice (Spinochat)[13]. D’où un deuxième enseignement possible pour l’écologie du numérique : même si le standard homogénéisateur semble inhérent au fonctionnement des environnements pré-codés, des attitudes de résistances (collectives) peuvent toujours en déjouer les assignations grâce aux capacités de l’ingéniosité humaine à transgresser les frontières qui bornent tout univers numérisé. En l’occurrence, dans un monde où les correcteurs orthographiques auront remis à plat les discriminants sociaux d’accès à l’écriture, rien n’empêchera des bidouilleur·es de réintroduire des variantes graphiques, pour échapper à une surveillance intrusive grâce aux vertus de la créativité poétique. 

Dans son Ted Talk opposant un avenir « très-humain » à un avenir « trans-humain », le même Alain Damasio souligne à juste titre la perte de puissance fréquemment entraînée par une augmentation de pouvoir technologique[14]. En prenant l’habitude de me fier à mon GPS dans mes déplacements, j’arrive certes à bon port avec plus de précision, mais je perds mon sens de l’orientation, en focalisant mon regard sur l’écran de mon smartphone et en ne prêtant plus aucune attention à mon environnement physique. Le recours systématique aux correcteurs d’orthographe aura probablement les mêmes conséquences. Tout le monde écrira facilement sans « faute ». Mais personne ne saura plus écrire. Cela est à entendre littéralement : dès lors que tout pourra être transcrit par commande vocale, le geste même d’écriture va probablement s’atrophier (comme ce semble déjà être le cas de l’écriture manuscrite à l’heure actuelle).

Faut-il s’en offusquer et, si oui, au nom de quoi ? Une première raison, d’inspiration collapsologiste (tendance survivaliste), pourrait se revendiquer du besoin de cultiver les capacités autarciques de notre corps à accomplir ses tâches essentielles sans dépendre d’appareillages (électriques), susceptibles de tomber en panne ou de manquer d’alimentation en énergie. Dès lors que ma main sait tracer des lettres, elle trouvera toujours de quoi se tailler une chose à sa portée pour en faire un crayon, alors que l’alimentation d’un ordinateur en électricité échappe aux puissances propres de mon corps individuel. 

Le respect des normes orthographiques n’étant probablement pas une priorité absolue en cas d’effondrement de la civilisation thermo-industrielle, un autre niveau d’analyse sera plus pertinent ici. Comme ses partisans l’ont chanté sur tous les tons depuis des décennies, la maîtrise des subtilités de l’orthographe française n’est nullement un but en soi, mais le résultat d’une acquisition de familiarité avec la langue commune, familiarité qui augmente considérablement nos capacités expressives générales (et non seulement nos chances d’obtenir un bon emploi en évitant les « fautes » dans notre lettre de motivation). Être capable de s’orienter en général (par ses propres moyens) est plus précieux qu’arriver ponctuellement à la bonne adresse. Les y et les ph dissimulés dans les vocables français nous sensibilisent à des racines étymologiques dont la connaissance nous déniaise à la fois sur le sens des mots particuliers et sur l’évolution générale des langues. Les casse-têtes de l’accord du participe passé nous forcent à comprendre des structures profondes de la syntaxe, qui commandent notre pensée en régissant son expression. Il importe au plus haut point de cultiver notre connaissance réflexive de ces structures, pour devenir capables d’en jouer au lieu de devoir les subir. 

D’où un troisième enseignement relatif à l’écologie du numérique : l’augmentation exo-somatique collective de nos facultés intellectuelles – rendue possible par le numérique après que l’industrialisation ait entrepris l’augmentation exo-somatique de nos capacités physiques – se paie certes d’une fragilisation de notre puissance d’agir individuelle, fragilisation appelée à faire problème en situation d’effondrement des institutions collectives. Mais rien n’empêche a priori de compenser cette perte de puissance individuelle par un gain de réflexivité collective. Une fois libéré du stress de « la faute » socialement disqualifiante, notre rapport à la graphie pourrait se faire réinvestir par une curiosité à la fois ludique et bricoleuse, narcissique et poétique, intéressée et intéressante. Cette réflexivité renouvelée pourrait passer par un changement de garde disciplinaire : que la grammaire meure sous le travail de sape des correcteurs orthographiques, et que vive la pragmatique ! Les variations dans l’écriture deviendront alors des terrains d’observation et d’expérimentation sur les effets de l’écriture en milieux humains. Que se passe-t-elle lorsque vous rajoutez des marques d’écriture inclusive ? Lorsque vous les supprimez ? Lorsque vous choisissez d’écrire qu’un livre est hénaurme ou qu’un Énarque vous a tuer ? 

Plaidoyer pour les claviers

Le geste le plus spectaculaire d’Honorat Rambaud, en 1578, n’a pas simplement consisté à promouvoir une réforme de l’orthographe française, mais à faire fabriquer de nouvelles fontes pour imprimer de nouveaux caractères capables d’aligner strictement la graphie sur la prononciation. Son intervention s’est située précisément au niveau qui est aujourd’hui celui du « clavier », du keyboard, là où nous allons chercher les « clés », les « types », les « touches » dont les « combinaisons » informent l’intercommunication de nos pensées comme de nos inconscients. On sait que les premiers traducteurs du mot computer en français ont (hélas !) finalement retenu ordinateur, choisi pour ce qu’il apportait d’ordre subliminalement divin, contre combinateur, écarté pour les connotations mafieuses des combines qu’il charriait. Or, comme on l’a évoqué fugacement au passage, l’hypothèse du dépérissement de l’orthographe s’inscrit dans un dépérissement plus général, qui serait celui des claviers devenus obsolètes dans un monde pleinement restructuré autour des interfaces vocales. C’est sur cette hypothèse que j’aimerais conclure avec un quatrième sondage dans l’écologie orthographique du numérique.

Que perdrions-nous dans un monde sans claviers – hormis des fautes de frappes et des occasions de tendinites ? Au moins trois choses. D’abord, des catalyseurs de réflexivité. Le moment de l’écriture est celui où la parole en général, et la commande en particulier, s’articulent sous nos yeux en structures distinctes, dont les segmentations, les accords, les symétries et les contrastes s’affichent sous nos yeux dans la synchronicité durable d’un plan à deux dimensions. Hormis quelques personnes exceptionnelles, la plupart d’entre nous subissons les paroles orales qui s’échangent entre nous, pour la bonne raison qu’elles émanent de cet entre-nous en co-présence et en co-pression, bien davantage que de notre personne propre. C’est dans le rapport (isolé) à l’écrit et au clavier que nous pouvons essayer de comprendre (saisir-comme-un-tout) réflexivement ce qui nous entreprend dans nos communications orales avec autrui.

Ensuite, les claviers opèrent comme des exhausteurs de causalité. L’insistance de Vilém Flusser à associer écriture, linéarité et causalité relevait d’une profonde intuition, que l’écologie du numérique gagnera à mettre au cœur de sa conceptualisation. En « alignant » des événements sur une seule dimension où tout doit nécessairement se suivre dans un certain ordre, le travail d’écriture doit structurellement se demander quoi vient après quoi (post hoc), de même qu’elle tend non moins structurellement à faire imaginer que ce qui vient avant peut avoir non seulement précédé, mais causé ce qui s’en est suivi (propter hoc). Le travail au clavier est donc le lieu d’une réflexion et d’une expérimentation sur des hypothèses de causalité. Et dès lors qu’une succession d’événements est perçue comme relevant d’une « action » humaine dans la mesure où une hypothèse de causalité a contribué à déterminer cette succession particulière, c’est surtout (quoique non exclusivement, bien entendu) en agissant sur des claviers que les humain·es agissent désormais sur le monde.

Enfin, les claviers peuvent devenir des vecteurs d’égalité. Tout en sachant que les prophéties péremptoires ont souvent fini par mordre la poussière, on peut affirmer que les claviers ne seront jamais complètement remplacés par des commandes vocales. Et cela pour la bonne raison que toute une série d’écritures sont simplement imprononçable, sinon indicibles – à commencer par celles qui codent les machines destinées à court-circuiter le passage par l’écriture. Dès lors qu’il y aura toujours des claviers, aussi longtemps du moins qu’il y aura des programmeurs, la vraie question – que Vilém Flusser mettait déjà au cœur de sa réflexion – est de savoir qui parmi nous sera en position d’écrire (programmer, linéariser, causaliser) la vie des autres. Veiller à ce que, dans une société intensément informatisée, tout le monde ait l’occasion de travailler devant un (vrai) clavier pourrait donc constituer un principe important à garder en tête dans nos conceptualisations de l’écologie sociale du numérique. 

De ce point de vue, l’évolution qui a conduit de l’ordinateur personnel des années 1990 à la domination actuelle du smartphone a de quoi inquiéter, puisque l’écosystème dont celui-ci participe semble voué à exclure l’utilisateur·e de toute position d’écriture (autre que pour de brefs messages à poster dans des situations dialogales)[15]. Le destin des écologies futures du numérique se jouera en grande partie dans la façon dont les fonctions d’écriture (y compris d’interventions (re)programmatrices) seront inscrites dans les appareils de demain – et le design des claviers aura à la fois le rôle de symptôme et de facilitateur (ou d’inhibiteur) d’une souhaitable égalisation des rôles et des pouvoirs. Envisager l’écologie du numérique depuis le petit bout de la lorgnette orthographique entraîne bien entendu des effets de déformation. Les possibilités entrouvertes par le développement de la reconnaissance vocale font miroiter la possibilité d’un monde libéré des affres de l’orthographe, en particulier de ses effets de stigmatisation sociale. L’idée que nos pensées, une fois oralisées, puissent s’orthographier par délégation à un logiciel de correction automatique pose toutefois des questions plus générales sur notre puissance d’agir au sein des environnements numériques. Dans un monde informatique où tout est écrit, sinon là-haut, du moins là-dedans (à savoir dans le code de programmation), il importe de se rappeler que ce qui s’écrit tout seul ne s’écrit jamais tout seul : c’est simplement ce qui se trouve écrit par autrui. Même les bêtes et les herbes, comme l’entrevoyait Honorat Rambaud, se retrouvent aujourd’hui alphabétisées par les séquences de lettres codant leur ADN d’OGM. Aussi bien du point de vue du design que des politiques industrielles et des revendications sociales, le défi des prochaines années sera de renforcer la place des catalyseurs de réflexivité, des exhausteurs de causalité et des vecteurs d’égalité dans les écologies du numérique à venir.

Un monde de makers – Le design en partage
Camille BOSQUÉ

Résumé

Une activité de conception, de fabrication et de production « post-numérique » mobilise des modes nouveaux de représentation, de socialisation, d’organisation collective propres au numérique et rejoignent rapidement d’autres enjeux liés à l’environnement, à l’économie, à la politique, à l’organisation sociale. Les makers n’ont pas attendu les designers pour inventer de nouvelles façons de s’organiser hors des modèles économiques classiques. Ce texte s’appuie sur une étude du mouvement maker et des FabLabs : des ateliers équipés d’outils de conception et de fabrication numérique accessibles à tous, designers et amateurs.

Texte écrit en 2020 pour compléter les actes du colloque « Les écologies du numérique » organisé par l’Ésad Orléans (ÉCOLAB) en 2017 et 2018.

Mots clé 

 maker, FabLab, design ouvert, autonomie, démocratisation, partage, collaboration, open source

Biographie

Camille BOSQUÉ

Camille Bosqué est designer et docteure en esthétique et design, professeure agrégée en arts appliqués, enseignante à l’école Boulle à Paris. Ses recherches portent sur les pratiques liées à la diffusion des outils de conception et de fabrication numériques (comme l’impression 3D), au sein d’ateliers communs tels quel les FabLabs, hackerspaces ou makerspaces. Elle est notamment l’actrice de l’ouvrage Open Design. Fabrication numérique et mouvement maker, paru en août 2021 aux Éditions B42 dans la collection Esthétique des données.

www.camillebosque.com


Qu’elles soient en récession ou en pleine expansion, les sociétés actuelles cherchent de nouveaux modèles pour intégrer les changements apportés par le développement des technologies et des réseaux numériques. Ces changements pourraient reformuler le couple classique producteur/consommateur fondé sur des systèmes de distribution centralisés. Dans un contexte décrit comme étant post-industriel[1] ou hyperindustriel, la tâche est lourde et différentes solutions sont attendues, qui touchent à la protection des ressources naturelles et à la biodiversité, au recyclage, à la réparation et au réemploi, à la lutte contre le gaspillage et l’obsolescence programmée, etc. Dans cette perspective, une activité de conception, de fabrication et de production « post-numérique » mobilise des modes nouveaux de représentation, de socialisation, d’organisation collective propres au numérique et rejoignent rapidement d’autres enjeux liés à l’environnement, à l’économie, à la politique, à l’organisation sociale. 

Les makers n’ont pas attendu les designers pour inventer de nouvelles façons de travailler, produire, transmettre ou consommer hors des modèles économiques classiques. Le texte qui suit s’appuie sur une étude du mouvement maker[2] et des FabLabs (aussi appelés tiers-lieux de fabrication ou makerspaces en général) : des ateliers équipés d’outils de conception et de fabrication numérique accessibles à tous, designers et amateurs. Le récit « officiel » de l’émergence du concept de FabLab[3] et les histoires singulières des premiers lieux du réseau font émerger des visions liées à des enjeux locaux qui, au-delà des outils et au-delà de l’atelier, touchent à des dimensions écologiques, sociales et politiques. Ces pratiques révèlent des scénarios opérationnels situés, localisés, singuliers, qui échappent aux catégorisations classiques[4].

La quête d’autonomie est un idéal politique qui anime de nombreux acteurs du mouvement maker et du logiciel libre et qui se construit par l’action, le faire, la « preuve de concept[5] », au-delà du récit et de la mise en scène. Cela passe par une prise de distance avec les institutions établies et par la mise en place de dynamiques de collaboration, d’apprentissages collectifs, hors des normes et dans l’expérimentation. 

 « Démocratiser » l’accès aux machines et aux outils de création

Le réseau des FabLabs s’est développé ces dernières années depuis le MIT à Boston, puis dans nombreuses régions du monde urbaines ou rurales, dans des cadres institutionnels ou au cœur de communautés informelles. Ce réseau compte en 2019 près de 1500 FabLabs dans le monde. Selon l’expression de Neil Gershenfeld, qui est, avec son équipe, à l’initiative de ce mouvement, les FabLabs ont été conçus pour conduire les populations du monde « à devenir les protagonistes de la technologie, plutôt que ses spectateurs[6] ». L’une des raisons pour laquelle le récit de la naissance des premiers FabLabs est peu précise tient au fait que leurs existences, pour certains, précèdent l’intervention du MIT. En dehors du récit personnel de Neil Gershenfeld[7] , peu de textes permettent de connaître la genèse des premiers FabLabs. Le FabLab du Vigyan Ashram (2002), le MIT-FabLab Norway[8] (2004) et le South End Technology Center de Boston (2005) sont ainsi des FabLabs « pionniers » qui se trouvent au cœur de territoires géographiquement, économiquement ou politiquement marginaux. Par leur délocalisation, tous incarnent un décalage entre un projet initial centré sur la technologie et des appropriations locales davantage tournées vers des fins d’intervention sociale, culturelle ou environnementales qui bousculent, dès les premières années du mouvement, le cadre initialement fixé par le réseau normé des FabLabs.

Tout commence au Center for Bits and Atoms, au MIT, à Boston, à l’aube des années 2000. En 1998, le professeur Neil Gershenfeld propose aux étudiants du Massachusetts Institute of Technology (MIT) un cours d’un semestre intitulé « How To Make (Almost) Anything », « Comment fabriquer (presque) n’importe quoi ». Les laboratoires du Center for Bits and Atoms sont alors généreusement équipés en machines numériques et en microcontrôleurs de dernière génération. Pour développer ses recherches sur la fabrication numérique personnelle, Neil Gershenfeld décide d’ouvrir le laboratoire à quelques étudiants en fin de cycle. De cette expérimentation pédagogique naissent des dizaines de projets farfelus et un peu gadgets, qui ont comme point commun d’être des produits destinés à un marché d’une seule personne (l’étudiant qui en est l’inventeur) et qui ne répondent à aucune commande ni même aucune niche. Ils sont issus d’un désir personnel et non professionnel. Cette aventure universitaire apparaît dans l’histoire du mouvement comme une première pierre fondatrice. Le deuxième moment est celui de la diffusion hors les murs des fruits de cette expérimentation pédagogique et des logiques d’émancipation par les technologies numériques.

« Nous voulions explorer les implications et les applications de la fabrication personnelle pour toutes ces parties de la planète qui n’ont pas accès au MIT[9] », explique Neil Gershenfeld pour justifier ensuite l’implantation des premiers « FabLabs » en dehors de l’université. Les premiers élans de ce mouvement sont en grande partie redevables à la National Science Foundation (NSF), qui accorde au Center for Bits and Atoms un soutien financier pour ses recherches. La contrepartie de ce financement implique une valorisation des avancées de leurs travaux sur des terrains plus ordinaires, pour équiper d’autres populations du monde avec les machines testées dans la prestigieuse université. Dès 2002, une première vague de FabLabs voit donc le jour en Inde, au Costa Rica, au nord de la Norvège, dans la ville de Boston et au Ghana, pour un budget de 20 000 dollars en moyenne par atelier. Ces premiers FabLabs ne sont pas alors destinés à être autonomes économiquement, mais entièrement soutenus par le MIT, qui envoie des équipes composées d’étudiants et de chercheurs américains sur le terrain. L’idée qui motive ces équipes est que la « fracture numérique » ne pourra pas se résoudre en expédiant des ordinateurs ou des machines, mais en aménageant directement les conditions de leur fabrication sur place en tenant compte des réalités et des besoins locaux. Le développement des premiers FabLabs s’est ainsi grandement appuyé sur des community leaders, des personnalités déjà impliquées dans le développement et l’animation de communautés locales dans différentes régions du monde. Ces piliers du mouvement ont peu à peu été associés à la démarche. C’est le cas notamment de Kalbag à Pabal en Inde, d’Haakon Karlsen à Lyngen en Norvège ou de Mel King au SETC de Boston. 

Le FabLab du Vigyan Ashram (2002) est ainsi greffé à une école rurale, dans un environnement aride, pauvre et avec un accès à l’eau extrêmement réduit. L’école, devenue « FabLab » sur le tard, s’appuie sur les principes de l’apprentissage par la pratique : elle a été construite avec les étudiants, d’anciens enfants ayant abandonné les études dans le circuit classique. L’atelier est devenu peu à peu autonome grâce aux fonds complémentaires récoltés par de petites entreprises développées autour de l’école pour mesurer et localiser les points d’eau. Ils construisent et vendent également des tracteurs montés à partir de carcasses de Jeeps et ont développé des outils de mesure du réseau électrique local. L’instrumentation nécessaire à la gestion de l’eau, de l’électricité, du lait, du riz, des œufs et autres produits de première nécessité leur garantit à long terme une forme d’indépendance.

Le MIT-FabLab Norway (2004) est un autre exemple de FabLab pionnier dont le modèle de fonctionnement est le résultat d’une adaptation à un milieu et à un environnement singulier. Ce FabLab est installé au-dessus du cercle polaire arctique, au cœur d’un fjord, dans une région très peu peuplée. Cet espace, comme le FabLab indien, a été pour une très grande partie financé par le MIT. Les premiers projets qui y ont été développés sont alors pensés en concertation avec les bergers et fermiers locaux, pour résoudre des problèmes d’insémination et de fécondité dans les troupeaux et pour géolocaliser les bêtes lors des transhumances hivernales. Le projet Electronic Shepherd (berger électronique) est ainsi le résultat de l’exploration de différents capteurs, et l’aboutissement du prototypage de dispositifs électroniques parfaitement adaptés aux conditions locales. Autre élément marquant : ce FabLab norvégien, au-delà des activités liées à la fabrication numérique, se présente aujourd’hui comme un tiers-lieu, un community center qui accueille la population locale pour divers événements parfois bien éloignés des technologies numériques : mariages, banquets festifs, formations, réunions amicales…

Les premières ambitions de ces lieux pionniers sont bien caractérisées. Comme cela a été défini plus tôt, elles peuvent aller de la résolution de problèmes environnementaux fondamentaux jusqu’au rassemblement communautaire ou la formation au numérique. Le FabLab South End Technology Center (SETC) à Boston, par son histoire particulière, investit ainsi pleinement la question de la « démocratisation » et favorise des conduites techniques qui reposent sur la mise en commun de compétences, dans une dimension morale, éthique et politique forte. Le FabLab SETC est installé depuis les années 2000 au cœur d’un quartier de Boston essentiellement afro-américain et très populaire. L’engagement politique de Mel King (son fondateur) depuis les années 1970, est visible directement sur les murs du SETC : en lieu et place de la charte des FabLabs, la déclaration universelle des droits de l’homme est affichée en grand, accompagnée de divers posters sur l’égalité entre les races, la place de la femme dans la société, le respect des autres cultures ou religions et l’importance de la transmission entre les générations. Parmi les différents projets qui sont menés dans ce FabLab, le programme Learn to teach, Teach to learn (littéralement « apprendre à apprendre ») est en place depuis plusieurs années et rassemble des jeunes du quartier qui sont incités à valoriser leurs savoir-faire quels qu’ils soient pour proposer bénévolement des formations de tous types. Les projets proposés touchent autant à la musique qu’à l’informatique ou la poésie, en passant bien entendu par l’utilisation de l’imprimante 3D ou la machine à broder numérique.


La nécessité d’établir une charte globale est venue du développement rapide et spontané de nouveaux ateliers un peu partout dans le monde, avec ou sans aide du MIT. « FabLab » n’est pas une marque, mais un réseau d’ateliers qui partagent leurs projets et peuvent s’associer pour diffuser leurs réalisations en s’appuyant sur des équipements semblables : imprimante 3D, découpeuse laser, fraiseuse numérique, découpeuse vinyle, etc. Cela facilite la réplication et la circulation de plans, fichiers, algorithmes et modes d’emploi. Tous les lieux n’ont pas strictement les mêmes machines, mais la charte établit que tous doivent pouvoir partager leurs projets. 

Une enquête d’autonomie et de décroissance

En décembre 2015 se tient à Paris la Conférence Mondiale sur les Changements Climatiques, baptisée COP 21 (pour Conference of Parties). À cette occasion et en amont de ce rendez-vous international, une résidence internationale de makers est organisée au mois d’août 2015 au Château de Millemont, dans les Yvelines, à 54 kilomètres de Paris. 

Au cœur d’un domaine de 600 hectares, une imposante bâtisse accueille pendant cinq semaines une centaine de makers, designers, ingénieurs et bricoleurs avec pour objectif la finalisation de douze projets liés à la transition écologique et à la lutte contre le réchauffement climatique. Cette résidence est à l’initiative de deux associations, Ouishare, un think-tank qui développe des projets liés à l’économie collaborative, et OpenState, un collectif allemand de designers et de créateurs. Le nom de POC 21 est évidemment un pied de nez à la COP 21 et correspond à l’acronyme de « Proof of Concept », ou « preuve de faisabilité », une expression employée dans les milieux techniques et scientifiques pour qualifier l’étape qui suit l’élaboration d’un prototype. L’idée principale qui guide les acteurs de POC 21 est de prouver aux pouvoirs publics, lors d’une exposition installée à la suite de ce mois de prototypage, que des solutions concrètes peuvent « venir d’en bas ». 

Douze équipes ont été sélectionnées sur les deux cents qui ont répondu à un appel à projets lancé durant l’hiver 2014. Les projets sont variés : tracteur à pédales, système de récupération d’énergie solaire en open source, dispositifs pour filtrer l’eau, éoliennes, solutions pour favoriser l’autonomie alimentaire… Tous les participants sont convaincus, selon la formule énoncée dans le teaser de l’événement, que « le futur dont nous avons besoin est entre nos mains ».

Cette expérience originale synthétise de nombreuses questions liées à un moment charnière dans lequel les futurs de la production, des institutions politiques, de notre système de consommation doivent être réinventés. Le mouvement culturel à l’origine du développement de lieux comme les FabLabs (et autres makerspaces) ou comme la résidence POC 21, visent à transformer, par l’action et par la pratique, les scénarios habituels de fabrication, de consommation, d’apprentissage, en s’appuyant sur un principe de libre accès aux outils et aux savoirs. 

Le mouvement maker, dans une perspective « post-numérique », synthétise ainsi de nombreux enjeux, valeurs et promesses : autonomie, indépendance, autoproduction, production locale, décentralisation, démocratie réinventée, prise de conscience écologique, fin de l’obsolescence programmée, réemploi… Toutes ces annonces reposent sur l’idée déjà esquissée par André Gorz, théoricien de l’écologie politique et de l’écosocialisme, d’un collectif citoyen émancipé des grandes institutions politiques, donc en capacité de maîtriser des outils techniques pourtant complexes. Dans « La sortie du capitalisme a déjà commencé », il décrit déjà une société fondée sur des « ateliers communaux », dans laquelle les développements de la technique sont à la portée de citoyens pleinement impliqués dans la construction et la production de leurs environnements :

« Les outils high-tech existants ou en cours de développement, généralement comparables à des périphériques d’ordinateur, pointent vers un avenir où pratiquement tout le nécessaire et le désirable pourront être produits dans des ateliers coopératifs ou communaux ; où les activités de production pourront être combinées avec l’apprentissage et l’enseignement, avec l’expérimentation et la recherche, avec la création de nouveaux goûts, parfums et matériaux, avec l’invention de nouvelles formes et techniques d’agriculture, de construction, de médecine, etc. Les ateliers communaux d’autoproduction seront interconnectés à l’échelle du globe, pourront échanger ou mettre en commun leurs expériences, inventions, idées, découvertes. Le travail sera producteur de culture et l’autoproduction un mode d’épanouissement[10] ».

Différentes initiatives se sont développées depuis une dizaine d’années avec pour objectif de parvenir à une autonomie énergétique et alimentaire. Le projet Open Source Ecology[11] , qui précède de quelques années l’initiative de la communauté de POC 21, est un exemple éloquent de cet élan vers l’open hardware, qui recoupe aussi une quête d’autonomie et de décroissance.
Depuis 2009, l’Atelier Paysan[12] est un collectif à but non lucratif qui propose des cours et des plans pour permettre aux agriculteurs de construire eux-mêmes les outils dont ils ont besoin. Ce projet a une dimension politique, puisqu’il s’agit, pour les agriculteurs qui rejoignent le mouvement, de « ne plus dépendre des géants de l’industrie ». Une cinquantaine de plans sont disponibles en ligne sous des licences Creative Commons et une vingtaine de machines sont encore en cours d’élaboration. 

Les expériences d’ateliers autonomes, qu’on les appelle FabLabs, hackerspaces, makerspaces, ateliers collectifs ou communaux, qu’ils soient implantés physiquement et durablement dans une ville ou éphémères comme POC 21, révèlent une quête, ou une conquête d’autonomie. Les points communs de ces espaces, malgré leur diversité, tiennent à une volonté partagée de reprendre en main une activité de production ou de fabrication en dehors de toute hiérarchisation des tâches, sans spécialisation de compétences, dans un espace de liberté propice à l’expérimentation. L’attention accordée à une forme singulière d’apprentissage par la pratique et les promesses incarnées par les logiques d’organisation non hiérarchisées ouvrent également la voie à une nouvelle conception de la production. Celle-ci se construit en opposition à une production et à une consommation de masse et définit une autre relation au collectif. Un discours de rupture avec le monde industriel contemporain émerge donc depuis plusieurs années. 

Un design « en commun »

Le chercheur en droit Yochai Benkler, au tournant des années 2000, a été l’un des premiers à affirmer que nos modes de production ne sont plus cantonnés à cette séparation traditionnelle entre les entreprises et le marché[13] . Au lieu de cela, il estime qu’une nouvelle manière de faire qu’il appelle « commons-based production », c’est-à-dire une production fondée sur des communs, pourrait prendre de plus en plus de place dans le paysage économique actuel. Cela implique une coordination qui ne dépendrait ni de la demande, ni de l’offre, mais qui reposerait sur des contributions volontaires à des ressources communes. Ce mode de production, selon Yochai Benkler, repose sur la baisse des coûts de transaction rendue possible par le développement d’Internet. En se penchant sur les fonctionnements des systèmes de production entre pairs – comme le logiciel libre, Wikipedia ou d’autres projets – il conclut qu’Internet a non seulement facilité les collaborations mais qu’il a permis une forme de distribution du travail qui repose sur plusieurs niveaux, depuis le cercle réduit des contributeurs hyper actifs à la masse plus large de ceux qui renseignent occasionnellement certaines informations, jusqu’aux utilisateurs quotidiens de ce type de projet. Dans la lignée des travaux du juriste Lawrence Lessig et en accord avec ses recherches, Yochai Benkler affirme donc que dans de telles circonstances, la propriété intellectuelle (qui est l’un des fondements du capitalisme) fait de plus en plus obstacle à la force productive. L’open source hardware qui se développe dans le sillage du logiciel libre se traduit, selon lui, par la collaboration de milliers de bénévoles pour produire des « communs » conçus par la force de productions entre pairs, latérales et complexes. Selon Yochai Benkler, la production de pair à pair repose sur quatre critères qui découlent de l’économie du Web : le partage des plans et instructions de fabrication, la baisse des coûts de fabrication grâce à la production directe à la demande, la reconnaissance du « talent créatif » propre à chacun et l’échange d’informations[14] .

L’exigence de « documentation » est inscrite dans l’ADN du mouvement des FabLabs. C’est un impératif qui favorise le partage de savoirs, de dessins ou de plans de fabrication. Chaque FabLab est chargé de manière informelle de tenir à disposition de tous un site ou un Wiki en ligne sur lequel les données, plans, explications et détails de chaque étape de projet sont recensés, quelle que soit la nature de ces réalisations. Cette règle implique de manière plus ou moins implicite que l’accès libre ou à un coût réduit à l’ensemble des ressources du FabLab se paie en contrepartie par un partage des projets qui y sont menés afin qu’ils puissent être reproduits ou « forkés », c’est-à-dire prolongés et modifiés par d’autres. 

Dans un contexte de fermeture institutionnelle, les ateliers de fabrication collectifs et les pratiques d’un design « ouvert », mis en partage et potentiellement appropriable par tous ouvrent une espérance. L’énergie émancipatrice qui guide les designers, makers et ingénieux bricoleurs de la résidence POC 21 tient à une vision critique de la manière dont les questions environnementales sont prises en charge et administrées par l’État et les gouvernements. À l’heure où ce texte est écrit, des collectifs de makers se coordonnent à une grande échelle pour produire de manière locale et à la demande une grande quantité de masques de protection contre le Covid-19, pour équiper à la fois les particuliers, mais aussi les soignants et le personnel hospitalier, afin de contrer la pénurie nationale d’équipements techniques de ce type. 

En remettant entre les mains des personnes concernées les questions qui les concernent collectivement, ce type de pratiques suppose un espace public vivant, à un niveau global et local, pour repenser des intérêts communs (liés à la gestion de l’énergie, des ressources naturelles, de l’alimentation, des façons de produire et de consommer).

Vers un design « ouvert »

Ce type d’organisation et de lieux supposent que les citoyens accèdent à la connaissance d’outils et de techniques essentielles, nécessaires à leur survie, pour ne plus dépendre exclusivement des grandes puissances industrielles ou institutionnelles qui ont fondé nos milieux de vie. Une culture commune s’affirme peu à peu dans les ateliers collectifs de fabrication numérique comme les FabLabs, qui touche à des pratiques de conception que l’on pourrait souvent qualifier de vernaculaires, car issues de savoirs communs, populaires, partagés, dans une visée souvent subversive ou en tout cas alternative : fabriquer soi-même son masque de protection, inventer des outils agricoles à fabriquer soi-même, concevoir un système local d’irrigation et de stockage de l’eau (comme au Vigyan Ashram) mettre en place un dispositif pour géolocaliser les troupeaux de bêtes (comme au MIT-FabLab Norway) réparer un objet cassé, inventer soi-même sa propre imprimante 3D à partir de plans diffusés en open source, toutes ces démarches hétéroclites témoignent d’ « une forme d’attention – et d’intention – à ce qui est déjà là[15] ». Dans un contexte écologique et économique de plus en plus fragile, les pratiques amateurs qui sont encouragées par la diffusion des outils de conception et de fabrication numériques doivent s’associer à une forme de frugalité, d’économies de moyens, de travail à partir de l’existant[16] au lieu de produire des nouveautés et gadgets inutiles.

Des solutions high tech complexes sont développées et se multiplient pour tenter parfois de répondre à ces enjeux, mais elles sont souvent avides de ressources rares et non renouvelables, non résilientes car peu résistantes aux perturbations susceptibles de se produire (rupture d’approvisionnement en matières premières, pannes, besoins de maintenance, etc.). La question de l’économie des ressources et les incertitudes qui pèsent sur le système industriel actuel poussent les sociétés contemporaines à se réinventer. La diffusion des outils numériques et les pratiques locales et collectives qu’elle encourage indirectement sont un terrain fertile pour donner place à une conception « ouverte » du design. L’open source et plus généralement les valeurs du libre sont des piliers importants du développement des pratiques de fabrication numérique liées au mouvement maker, puisqu’ils définissent de nouveaux espaces pour la propriété intellectuelle et la création. À l’heure actuelle, différents projets, collectifs de designers ou groupes de recherche expriment le besoin de requalifier leurs pratiques en plaçant leur démarche sous la bannière de l’open design, du méta-design, du design participatif, du co-design[17] , du design durable, du design éco-responsable, du design social, de l’éco-design, voire du design écosocial[18] , etc. Ces différentes appellations ne sont que des symptômes tâtonnants d’une extension possible des pratiques déjà protéiformes de ce qui est traditionnellement appelé « design ». Ces tentatives de description pourraient en inclure d’autres encore : design vernaculaire, design libre[19] , design décentralisé, design low tech, design des communs, design convivial, design de la sobriété, design frugal, design distribué, design non standard… La piste d’un design « post-numérique », qui guide cet ouvrage et ce texte, ouvre encore une perspective de rediscussion des champs et modalités d’action du design, alors pensé comme un scénario original de conception, de fabrication, de production et de diffusion ; comme un outil, un moyen qui redéfinit de nouveaux rôles et de nouvelles situations de collaboration.

La crise sanitaire du Covid-19, qui a frappé le monde au printemps 2020, semble avoir favorisé et encouragé des solutions économiques qui n’étaient pas ou peu valorisées jusque-là. Les pratiques liées à l’impression 3D, à l’open source, au DIY et à la relocalisation de la production ont ainsi connu une activité très importante pour faire face à la pandémie. Les communautés de hackers, de makers, petites entreprises, couturiers ou chercheurs indépendants ont rapidement déployé différentes plateformes pour partager des plans de masques, de visières ou de ventilateurs, mais aussi des outils de visualisation de données ou de modélisation moléculaire. La carte interactive Covid-Initiatives[20] répertorie ainsi les différents sites de production citoyenne auto-organisée. En deux semaines, 100 000 visières ont été produites par impression 3D ou découpe laser, ainsi que des protections faciales, des connecteurs pour les dispositifs de ventilation, des pousse-seringues, des systèmes anti-contamination pour ouvrir des portes ou désinfecter, etc. 

À Pantin, le Club Sandwich Studio (un studio de design) lance ainsi en avril 2020 le M.U.R[21] , Minimal Universal Respirator, un dispositif de respiration artificielle d’urgence « peu onéreux et facilement reproductible », qui repose sur l’utilisation « de composants accessibles au plus grand nombre ». Différents tests ont été réalisés et le projet, décrit comme « une initiative humaniste et désintéressée », est entièrement documenté sur GitHub, sous licence libre. Ce contexte inédit d’urgence sanitaire immédiate bouscule également les logiques de brevets et de protection des innovations : Decathlon, pour suivre le mouvement et contribuer à l’élan de détournement de son modèle de masque de plongée Easybreath, a d’abord bloqué la vente pour le grand public pour donner la priorité au personnel soignant, mais aussi partagé les plans et les informations techniques.

Le vendredi 3 avril 2020, un parc de soixante imprimantes 3D est installé par l’AP-HP dans l’hôpital Cochin pour produire des pièces et modèles pour les masques et les respirateurs. Le réseau « Covid3D[22]  » va également dans le sens de cette démarche, en recensant les professionnels au contact du public et les bénévoles pour la création et la distribution de matériel de protection. Cette solution de « relocalisation » complète de la fabrication de ces éléments techniques permet de ne pas dépendre de chaînes d’approvisionnement étrangères et de contourner la pénurie pour ces équipements. Ce type de production pose évidemment des questions de certification et de labelisation mais est riche d’enseignements. 

Le chercheur, designer et pédagogue Victor Papanek, dans son ouvrage Design pour un monde réel. Écologie humaine et changement social[23] publié en 1974, fait la preuve d’une capacité d’anticipation étonnante quant aux missions du design dans un contexte environnemental, industriel, économique et social fragilisé. Dans la préface, il écrit :

« Au siècle de la production de masse, où tout doit être planifié et étudié, le design est devenu un outil à modeler des outils, qui permet à l’homme de transformer son environnement et, par extension, la société et sa propre personne. Cela exige de la part du designer un sens aigu des responsabilités morales et sociales, et une connaissance plus approfondie de l’homme ; le public, quant à lui, doit parvenir à une perception plus fine du processus de design[24] ».

Cet ouvrage, traduit dans une vingtaine de langues, met à jour une vision critique du métier des designers, qui se considèrent la plupart du temps « comme des maîtres stylistes [et] ne s’interrogent jamais sur l’aide qu’ils apportent à un système qui tend à exploiter et duper la population[25] ». À l’inverse, Victor Papanek défend la possibilité pour le design d’aborder des problèmes réels en acceptant de devenir un « outil entre les mains du peuple », avec pour mission d’« attirer l’attention des fabricants, des agents du gouvernement, etc., sur les besoins réels des gens[26] ». Il affirme, dans ce sens, que « les hommes sont tous des designers. La plupart de nos actes se rattachent au design, qui est la source de toute activité humaine[27] ». Dans les derniers moments de cet ouvrage, Victor Papanek propose ainsi de créer des centres d’expérimentation qui seraient des « organisation[s] à but non lucratif », qui réuniraient des équipes interdisciplinaires pour examiner des problèmes environnementaux, techniques et sociaux contemporains. Ces laboratoires seraient pensés autour de la notion de « partage communautaire[28] ». Ne peut-on pas penser que Victor Papanek esquisse ici les contours des ateliers collectifs en réseau que sont les FabLabs et autres tiers-lieux de fabrication ouverts à tous et « pour tout faire » ?

(Re)Penser les chaînes éditoriales : soutenabilité et émancipation
Julie BLANC & Antoine FAUCHIÉ

Résumé

À partir du constat d’une multiplication des logiciels, des formats et des systèmes de diffusion et de lecture dans le domaine de la publication, nous souhaitons montrer en quoi l’utilisation des technologies du web, dans l’ensemble de la chaîne éditoriale (écriture, édition, mise en forme et diffusion), nous semble plus adaptée au contexte actuel grâce à leur standardisation, leur modularité et leur interopérabilité. Nous proposons d’étudier les aspects écologiques et politiques induits par cette utilisation à travers trois pistes de réflexion : une écologie par le libre grâce à l’émancipation des logiques propriétaires induites par certains logiciels ; une écologie par la programmation grâce à l’utilisation et la production d’objets ouverts ; et une approche plus matérielle de l’écologie à propos notamment du poids des publications et des besoins énergétiques des systèmes de production. Nous verrons à travers ces approches qu’il est indispensable de penser ensemble le travail d’écriture, d’édition et de design graphique. L’étude de plusieurs exemples récents démontre que la mise en pratique et la réussite d’une telle transformation de la chaîne éditoriale est possible. Cinq concepts clé pour une approche décroissante de la chaîne éditoriale sont finalement proposés.

Ce texte est issu d’une communication effectuée en 2017 au colloque « Les écologies du numérique » à l’ÉSAD Orléans, écrit en 2018 et actualisé en 2019.

Mots clé 

 Design, édition, écologie, libre, chaîne éditoriale

Biographies

Julie BLANC

Julie Blanc est doctorante en design graphique et ergonomie (EUR ArTeC / Université Paris 8 – EA349 / EnsadLab). Dans sa pratique professionnelle, elle contribue au développement de Paged.js et conçoit différents projets éditoriaux multi-supports avec l’utilisation des technologies du web, notamment le langage CSS. Site web: julie-blanc.fr

https://julie-blanc.fr

Antoine FAUCHIÉ

Antoine Fauchié est doctorant au Département de littératures et de langues du monde de l’Université de Montréal. Son travail de recherche, dirigé par Marcello Vitali-Rosati et Michael Sinatra, porte sur les processus de publication et interroge les rapports entre édition et technologie, littérature et technique, et s’inscrit dans l’approche pluridisciplinaire des humanités numériques. Coordinateur de projets à la Chaire de recherche du Canada sur les écritures numériques, Antoine Fauchié met en pratique ses recherches et questionne les outils et les chaînes d’édition auxquelles il contribue. Son carnet de recherche est disponible en ligne : www.quaternum.net

www.quaternum.net


Dans le domaine de l’édition et de la publication, nous observons une multiplication des logiciels, des formats et des systèmes de diffusion et de lecture. Cette multiplication fait suite à l’apparition de supports électroniques (ordinateurs, tablettes, smartphones, liseuses) la création de réseaux comme Internet et le web dès la fin du XXe siècle. Ainsi, aujourd’hui, plusieurs formats et systèmes de diffusions numériques sont disponibles et coexistent : sites web et bases de données, applications, livres numériques au format EPUB, etc. Les situations de lecture se retrouvent alors elles aussi démultipliées à travers nos écrans. Nous lisons tous dans nos navigateurs web et disposons sur nos machines de lecteurs dédiés aux fichiers PDF. Le livre numérique est quant à lui consultable sur des logiciels et applications de lectures d’EPUB (iBooks, Readium, Lisa, Lithium, etc.)[1]. Même au niveau de l’imprimé, de nouvelles possibilités apparaissent en complément d’une diffusion imprimée classique[2], notamment grâce à l’impression à la demande (Print on Demand, POD) qui offre de nouveaux types de productions possibles[3]

En parallèle, les environnements de création et de production évoluent eux aussi dans l’ensemble de la chaîne éditoriale. Les auteurs, éditeurs et designers graphiques peuvent ainsi utiliser différents logiciels de traitement de texte, systèmes de gestion de contenus, langages d’écriture ou logiciels de publication assistée par ordinateur. Pour autant, ces logiciels sont souvent difficilement adaptés aux nouvelles pratiques de diffusion et de lecture, et particulièrement en ce qui concerne le travail de design graphique. 

Par ce texte, nous souhaitons montrer en quoi l’utilisation des technologies du web, dans l’ensemble de la chaîne éditoriale (écriture, édition, mise en forme et diffusion), nous semble plus adaptée au contexte actuel grâce à leur standardisation, leur modularité et leur interopérabilité. Il conviendra aussi d’étudier les aspects écologiques et politiques induits par cette utilisation. Nous proposons pour cela trois pistes de réflexion : 

Nous verrons à travers ces approches qu’il est indispensable de penser ensemble le travail d’écriture, d’édition et de design graphique. Enfin, nous finirons sur un exemple pertinent de transformation de chaîne éditoriale pour démontrer que la mise en pratique et la réussite d’une telle entreprise est possible. 

1. LES CHAÎNES ÉDITORIALES, HIER ET AUJOURD’HUI 

Dans sa définition la plus simple, une chaîne éditoriale est l’ensemble des activités, processus et outils permettant de publier ou d’éditer un livre ou une revue[4]. Une chaîne éditoriale a pour objectif de gérer des contenus depuis le manuscrit d’un auteur jusqu’à la publication imprimée ou numérique d’un ouvrage, en passant par les phases de relecture, de structuration et de mise en forme. Cette chaîne, ce workflow, est le noyau technique d’une maison d’édition lui permettant de manipuler des textes et de leur donner vie sous forme de livre ou de revue. Elle comprend des humains, des rôles, des relations, des logiciels, des méthodes, des savoir-faire, des formats, des processus de diffusion et de distribution, une partie de conception et de fabrication (design, composition, impression), etc. 

1.1. Des chaînes monolithiques 

Nous observons actuellement de plus en plus de logiciels et de formats disponibles dans les chaînes éditoriales : des logiciels de traitement de texte (Microsoft Word, LibreOffice Writer), des systèmes de gestions de contenus (CMS) généraux ou spécialisés, des formats de texte enrichis et leurs outils associés, des éditeurs de texte ou de code, des pads (éditeurs de texte en ligne et collaboratif) et des logiciels de publication assistés par ordinateur (PAO). Ces logiciels et ces formats sont utilisés pour l’écriture, l’édition, la correction, la composition et la mise en forme.

Ils structurent les chaînes éditoriales et dépendent des contraintes de ses acteurs. Parfois, ils peuvent être imposés par un éditeur afin que toutes les composantes puissent travailler ensemble sur un même format ou protocole. 

Malgré cette diversité de logiciels, dans la grande majorité des cas, la chaîne éditoriale se résume aujourd’hui à l’assemblage de deux logiciels hégémoniques : un traitement de texte et un logiciel de publication assistée par ordinateur. L’objectif final est souvent de fabriquer un format PDF destiné à l’impression, et un format EPUB pour le livre numérique. Du côté de l’écriture et de l’édition, les logiciels de traitement de texte les plus répandus sont Microsoft Word et LibreOffice Writer, que ce soit pour des publications numériques ou imprimées. Du côté de la composition et de la mise en forme, Adobe InDesign semble indétrônable dans les pratiques des professionnels du champ du design graphique et de la composition. Nous observons des pratiques en silo, où chaque métier utilise son propre logiciel avec une compatibilité souvent difficile, voir impossible. Ainsi, une fois le texte entré dans un logiciel de PAO, seul le designer graphique a accès au fichier source du livre. Les corrections deviennent plus fastidieuses et se basent le plus souvent sur des échanges à partir de PDF annotés. 

1.2. Quelques problématiques 

Nous postulons que la place prise par les logiciels est essentielle car ils sont les moyens de production de tous les acteurs de la chaîne éditoriale. Or ces logiciels portent des valeurs culturelles, sociales et politiques qui structurent les façons de travailler de par leurs contraintes : apprentissage, connexion internet, abonnement à un service, évolutions du logiciel, interconnexion avec d’autres logiciels, interopérabilité, pérennité des fonctionnalités, etc. 

Aussi, les logiciels de traitement de texte et de PAO enferment leurs utilsateurs dans une culture du What You See Is What You Get : « ce que vous voyez est ce que vous obtenez », c’est-à-dire qu’il y a une forme de dépendance liée à la maîtrise visuelle du résultat. Le travail de production du texte est continuellement perturbé par des mises en forme s’orientant vers une simple présentation plutôt qu’une réelle structuration de chaque élément[5]. Le sens du texte est rendu facultatif et passe par son simple rendu graphique sans structuration (sémantique et informatique). La manière dont le texte est produit n’est nullement adaptée à une diffusion multisupport, il n’a aucune plasticité et reste viscéralement dépendante d’une forme liée majoritairement à l’imprimé et à un format unique.

D’un point de vue écologique purement matériel, les systèmes et les logiciels informatiques utilisés sont globalement de plus en plus lourds et énergivores : les fonctionnalités non-essentielles s’accumulent, la dette technique engendrée s’accroît[6] et les ressources énergétiques et de calcul nécessaires à leur fonctionnement augmentent sans cesse. Word et InDesign ne sont pas des exceptions. L’accroissement de menus et de boutons aux fonctions toujours plus poussées ne suis pas l’accroissement d’utilisation de ces fonctionnalités[7]

Nous assistons à une uniformisation et à une immobilisation de la plupart des chaînes éditoriales. Pourtant, avec la multiplication des situations de lecture, les évolutions n’ont jamais autant été nécessaires. Heureusement, des initiatives ont émergé pour produire à partir d’une source commune plusieurs formes et formats – de la version web à l’objet imprimé en passant par différents formats numériques[8]. Le secteur doit continuer à interroger ses pratiques, ses méthodes et ses outils. Face à cet impératif, nous proposons de nous inspirer des méthodes du web et de ses technologies. 

2. « RE-DESIGNER » LA FAÇON DE CONCEVOIR ET PRODUIRE DES DOCUMENTS AVEC LES TECHNOLOGIES DU WEB 

Les technologies du web ont avant tout été mises en place pour créer, produire et diffuser des documents. Le web est donc, à l’origine, pensé comme un écosystème de documents. Son histoire est une histoire de publication : sites universitaires, sites personnels, blogs, carnets en ligne, plateformes de partage de documents, etc. Encore aujourd’hui, le web conserve cette logique, dans sa forme et ses usages, mais également dans la manière dont il est conçu et produit. Pour la publication académique notamment, il représente un enjeu de taille pour la diffusion la plus large possible des résultats de la recherche, y compris dans des formats comme le XML. Les revues académiques ont par ailleurs été parmi les premiers types de publications à être mis en ligne. Le format de l’article se prêtait tout particulièrement aux caractéristiques de l’hypertexte, l’une des spécificités du texte numérique et du World Wide Web[9]

Les technologies sur lesquelles le web repose sont puissantes, elles s’appuient sur des standards ouverts : protocole HTTP pour la communication, HTML pour la structuration logique et sémantique avec des liens hypertextes liant les documents entre eux[10], CSS pour la mise en forme[11], et JavaScript[12] pour, entre autre, l’interactivité. Ces standards sont portés par des consortiums et possèdent de solides communautés de professionnels. 

Aujourd’hui, outre la publication de contenus sur des sites web, les possibilités du web évoluent vers la publication hors ligne – c’est-à-dire sans nécessité de connexion –, en particulier par le format ouvert standardisé EPUB (pour le livre numérique) et par un nouveau type d’application, les Progressive Web Applications (PWA)[13] – utilisées notamment pour des livres web ou de la publication web to print pour créer des objets imprimés depuis un navigateur. 

Le web est donc, peut-être pour la première fois dans l’histoire des médias, autant un environnement de production que de publication. Il est à la fois un vecteur de diffusion majeur, mais les technologies qui en sont issues peuvent aussi être utilisées pour la conception et la production de nombreux objets éditoriaux. À partir de là, nous souhaitons explorer comment ces technologies du Web ouvrent la voie à de nouvelles pistes pour la conception de chaîne éditoriales. 

Distinguons pour cela trois niveaux dans les chaînes éditoriales où peuvent intervenir les technologies du web : l’un concerne la modularité des briques logicielles utilisés pour la production et la conception d’objets éditoriaux (autant pour l’écriture, l’édition ou la mise en forme), l’autre la conception d’interface de lecture en vue de leur diffusion et enfin le dernier, la production de fichiers imprimés. 

2.1 Environnements de productions modulaires 

De plus en plus d’outils sont aujourd’hui basés sur les technologies du web[14] (Blanc et Haute, 2018). Ceux-ci peuvent être des logiciels ou des applications embarquant des web views, des services disponibles directement en ligne ou encore des librairies JavaScript proposant d’augmenter les possibilités des navigateurs. Du fait de leur construction à partir de langages standards, ces différents outils sont interpolables entre eux. Ils peuvent alors être considérés comme des briques logicielles permettant de construire des environnements modulaires via l’interfaçage de solutions déjà existantes ou inédites. 

Nous pouvons ainsi envisager la construction d’une chaîne éditoriale spécifique à une demande via l’assemblage de plusieurs programmes interdépendants (tous basés sur les technologies du web ou en lien avec elles). Par exemple, il peut être possible de coupler un éditeur de contenu avec interface graphique à un système de versionnage basé sur Git pour ensuite produire un livre web à partir d’un générateur de site statique. Une porosité devient possible entre les différentes phases d’édition – de l’écriture à la diffusion: tout changement depuis l’éditeur entrainera automatiquement un changement dans le livre web produit. De plus, les fichiers sources étant branchés à un système de versionnage, cela permet à tous les acteurs de la chaîne d’accéder instantanément à tous les changements. De nouvelles opportunités pour mettre en place des pratiques de production collaboratives apparaissent[15].

2.2. Interfaces de lecture 

Pour mettre en forme un site web, un document HTML doit être couplé au langage CSS (Cascading Style Sheets). Les évolutions récentes de CSS permettent des mises en forme de plus en plus poussées appuyant la lisibilité et la compréhension des contenus. Déjà, depuis près d’une décennie, de nouvelles logiques de mises en forme sont apparues basées sur des principes de liquidité ou d’adaptabilité responsive en anglais[16]. La mise en page du contenu peut ainsi être adaptée de manière automatique et dynamique en fonction du type de support d’affichage – la dimension de l’écran par exemple – mais aussi en fonction du contexte de lecture, de l’utilisateur, ou d’autres paramètres. 

Ainsi, les technologies du web permettent de publier des contenus éditoriaux interactifs, multimédias, multisupports et multi formats adaptés aux différents supports électroniques aujourd’hui disponibles pour la lecture. Il nous semble par ailleurs indispensable que les designers graphiques maîtrisent ces technologies s’ils veulent concevoir des objets éditoriaux numériques pertinents tout en reconsidérant leur part sensible de manière spécifique. 

2.3. Production de fichiers imprimables 

La conception d’objets éditoriaux avec les technologies du web peut être aujourd’hui envisagée jusque dans leur version imprimée. Le W3C, organisme chargé de la standardisation des langages du web, a ainsi imaginé un ensemble de règles et propriétés CSS permettant de créer des feuilles de style spécifiquement destinées à la mise en page imprimée de documents HTML[17]. Il est donc possible de concevoir des objets imprimés sans passer par des logiciels spécialisés de PAO et ce, sans non plus délaisser leurs qualités graphiques.

Ainsi, un même format HTML peut être mis en forme indifféremment pour un support numérique ou imprimé grâce à des feuilles de styles CSS distinctes – l’une pour un site web affiché dans un navigateur, et une autre pour produire un fichier PDF qui sera imprimé. Les possibilités de convergences éditoriales entre le papier et l’écran sont favorisées par l’utilisation des mêmes outils et méthodologies pour les deux supports et l’ensemble du travail graphique et interactif s’en trouve transformé. 

Ces trois niveaux nous montrent qu’il est possible de travailler avec les mêmes technologies à chaque étape de la chaîne éditoriale (production, mise en forme, diffusion). De même qu’une interface avec des champs de saisie ou un logiciel d’écriture peuvent modifier l’écriture d’un texte[18], les choix quant à la structuration d’un texte en vue de sa mise en forme puis de sa publication ont une forte influence sur les objets finaux produits. Nous voyons là l’importance de penser ensemble la forme des interfaces d’écriture et de lecture, la structuration des données et les fonctions logiques des codes source informatiques. Seule l’utilisation des technologies du web nous semble pouvoir répondre à cet enjeu. Ainsi, les formats et les artefacts peuvent être produits dans un même geste éditorial, jusqu’au travail de design graphique et interactif. 

Nous arrivons ici au cœur de notre proposition. À partir de cette utilisation des technologies du web, une approche écologique des chaînes éditoriales peut être déployée à différents niveaux : une écologie par l’utilisation de logiciels et formats libres, une écologie par la programmation grâce à l’utilisation et la production d’objets ouverts, et enfin une approche plus matérielle de l’écologie basée sur le poids des publications et les besoins énergétiques de l’ensemble de la chaîne éditoriale. 

3. UNE ÉCOLOGIE PAR LE LIBRE : S’ÉMANCIPER DES LOGIQUES PROPRIÉTAIRES 

Comme nous l’avons déjà vu, les chaînes éditoriales sont globalement dominées par des logiciels de traitement de texte et des logiciels de publication assistée par ordinateur propriétaires (Microsoft Word, la suite Adobe, etc.). Suite à l’apparition de la publication numérique (EPUB, application dédiée, site web, etc.) de nombreux acteurs se sont emparés du marché pour proposer davantage de logiciels facilitant la création graphique et interactive. Or, les logiciels propriétaires posent de nombreux problèmes liés à l’interopérabilité des données et à leur pérennité – voire même quant à la pérennité des logiciels eux-mêmes. Ces problèmes sont non seulement techniques mais aussi politiques. 

3.1. Des enjeux politiques et économiques 

Les logiciels propriétaires sont le plus souvent vendus, édités et mis à jour par de grandes entreprises multinationales ayant leurs propres logiques politiques et économiques. Les utilisateurs doivent alors se plier aux règles d’utilisation et aux évolutions que ces structures économiques leur imposent. Ainsi, les systèmes par abonnements de plus en plus nombreux et les offres basées sur le cloud posent non seulement la question de la prolétarisation de leurs utilisateurs (qui louent littéralement leurs outils de travail[19]), mais aussi celle de la sécurité et de la pérennité des données. Les exemples ne manquent pas. 

Fin 2017, des journalistes et éditeurs français et américains ont signalé ne plus avoir accès à leurs documents stockés et gérés via Google Docs, service en ligne de traitement de texte collaboratif[20]. Il semblerait que Google s’est permis un droit de regard sur les documents des comptes utilisateurs et ait supprimé certains contenus selon une mystérieuse violation des conditions d’utilisation du service. Ici, les documents étaient en processus d’édition, mais nous observons que même une publication ne garantit pas leur accès et leur pérennité. En 2012, l’édition Single d’Adobe Digital Publishing Suite (DPS) est proposée dans le cadre d’un abonnement Creative Cloud. Le logiciel permet de créer des publications numériques pour iPhone et iPad « de manière totalement intuitive, sans avoir à écrire la moindre ligne de code »[21] et de les diffuser via le magasin d’applications d’Apple (App Store). Éditeurs et designers s’en emparent pour proposer des livres numériques interactifs. Deux ans après son lancement, le logiciel est soudainement retiré par Adobe suite à des problèmes répétés de mises à jour du logiciel lui-même[22]. Or, les applications publiées doivent elles aussi être mises à jour afin de suivre les évolutions des systèmes d’exploitation d’Apple et rester disponibles sur l’App Store. Sans le logiciel, le format devient inutilisable et les applications ne sont aujourd’hui plus maintenues et donc plus disponibles. 

Cet exemple montre que les designers graphiques doivent prêter attention à leurs outils s’ils ne veulent pas soudainement se retrouver en défaut. De même, l’utilisation unilatérale d’Adobe InDesign pour les publications imprimées ne se retrouve pas exempte de disparition malgré sa dominance économique sans faille. Une coupure d’accès décidée par l’entreprise pourrait soudainement mettre au chômage technique l’ensemble d’une profession. En octobre 2019, Adobe retire ses services au Venezuela et coupe tout accès à ses comptes suite à un décret américain interdisant à ces entreprises de faire des affaires dans le pays[23]. Quelques semaines plus tard, les abonnements seront rétablis suite à quelques négociations, mais le mal est fait. 

Concernant l’interopérabilité et la pérennité des données elles-mêmes, généralement les formats produits par les logiciels propriétaires sont eux aussi propriétaires et ne sont modifiables et/ou lisibles que dans le logiciel même où ils ont été créés[24]. Or, les différents métiers présents dans les chaînes éditoriales n’utilisent pas les mêmes logiciels et le transfert de données d’un logiciel à un autre peut se faire avec une perte importante. Le problème a longtemps perduré avec Microsoft Word et son format binaire propriétaire « .doc », tous les deux utilisés par les auteurs et les éditeurs. Sa place hégémonique dans le domaine de la bureautique l’a toutefois obligé à mettre en place une compatibilité (et non une interopérabilité). Il est ainsi possible d’ouvrir un fichier Microsoft Word avec le logiciel libre LibreOffice, avec toutefois un risque de perte de données. 

3.2. Culture du libre et résilience 

Ces quelques exemples montrent qu’aborder la question des outils libres et des formats ouverts dans les chaînes de publication est essentielle, et ce particulièrement dans les logiciels utilisés par les éditeurs et les designers. Depuis plus de quatre décennies, des communautés d’informaticiens et d’utilisateurs proposent des logiciels libres et open source permettant de s’émanciper de ces logiques propriétaires. Ils forment ensemble la culture du libre, basée sur quatre libertés fondamentales. Ces libertés sont l’utilisation, la copie, l’étude et la modification des logiciels ainsi que la redistribution des versions modifiées. Elles se basent donc sur deux caractéristiques essentielles : la distribution du code source d’un logiciel et la possibilité de modifier ce code. 

Ainsi, un logiciel libre est plus résiliant qu’un logiciel propriétaire. Sa copie n’est pas restreinte et son ouverture permet de l’adapter à différents besoins. La coopération entre ses utilisateurs est d’ailleurs encouragée et sa maintenance est assurée par une grande communauté. Les formats produits par un tel logiciel sont encore plus intéressants car ils sont ouverts et standardisés. L’interopérabilité entre les logiciels est donc possible, et cette interopérabilité est la condition d’une modularité dans tout système informatique.

Dans le cas du design graphique les initiatives en faveur du logiciel libre existent, bien qu’elles restent encore marginales. Le collectif Open Source Publishing (OSP) a par exemple développé depuis ses débuts une intense réflexion sur la façon de concevoir, fabriquer et produire des supports imprimés et numériques, en utilisant uniquement des ressources et des logiciels libres. Ils s’engagent dans une culture du libre plus large où ils pointent la nécessité de « constituer un milieu écologique de pratiques qui rompent avec l’idée de la création ex nihilo et solitaire afin de favoriser l’échange et la réappropriation des œuvres[25] ». Cette position se répand dans le monde du design graphique comme en atteste le collectif Luuse ou l’initiative PrePostPrint. Leurs productions montrent que ces approches constituent des résultats opérationnels, maîtrisés et pertinents pour les commanditaires avec qui ils travaillent. Il est possible de produire des objets complexes et réussi comme le démontre l’ouvrage The Riddle mis en page par OSP à partir d’un logiciel libre qu’ils ont conçu (HTML2Print). 

Utiliser des logiciels libres est un premier pas vers des chaînes éditoriales modulaires. Cet enthousiasmant panorama ne doit cependant pas en faire oublier certaines contraintes. Même si leur code source est documenté, il faut souvent une très grande habilité dans la programmation de langage complexes de bas niveaux pour modifier ces logiciels. Dans la plupart des cas, l’utilisation de ces logiciels reste donc semblable à leurs équivalents propriétaires. Les mêmes paradigmes sont reproduits, avec parfois beaucoup moins d’efficacité. 

Pour envisager de nouveaux pradigmes dans les pratiques éditoriales et que ceux-ci puissent être saisis par différents acteurs, il faut donc se tourner vers des langages de plus haut niveau. C’est ce que nous proposons par l’utilisation des technologies du web, plus facilement accessibles que d’autres langages. Nous allons donc maintenant voir comment ces technologies sont une opportunité pour penser un nouvel environnement, et non dupliquer un modèle. 

4. UNE ÉCOLOGIE PAR LA PROGRAMMATION : UTILISER ET PRODUIRE DES OBJETS OUVERTS 

L’approche programmatique a pour but de s’extraire des contraintes imposées par le logiciel propriétaire, et de contourner les limites induites par le logiciel libre – en tant qu’il reproduit le modèle du logiciel propriétaire, l’interopérabilité en plus.

Il s’agit de prendre toute la mesure de cette programmation, à plusieurs niveaux : la structuration des contenus, l’ouverture des formats et des outils, et enfin la question de la production des artefacts numériques et imprimés. 

4.1 Structurer un contenu, what you see is what you mean 

Pour structurer un contenu de manière sémantique et non de manière simplement formelle, il faut dépasser l’utilisation de logiciels de type WYSIWYG (What You See Is What You Get) pour nous tourner vers des solutions de type WYSIWYM (What You See Is What You Mean). De nombreuses alternatives existent, parfois depuis plus longtemps que les traitements de texte et les logiciels de PAO utilisés aujourd’hui massivement. 

Pour éclairer notre position et illustrer la distinction entre WYSIWYG et WYSIWYM, nous devons faire appel à la distinction faite par Gilbert Simondon entre objet technique abstrait et objet technique concret[26]. Nous pouvons constater qu’un traitement de texte – tel que Word – n’est qu’un objet technique abstrait, un ustensile : son fonctionnement linéaire ne fait que répondre à un besoin précis, il n’est pas en mesure d’évoluer au-delà de ses fonctions – inscrire, structurer et mettre en forme des contenus sur le modèle de la page imprimée. Des workflows comme LaTeX[27] ou AsciiDoc[28] présentent des potentialités plus grandes, dont la gestion aisée et puissante de formats numériques, parce qu’ils reposent sur des standards établis et partagés. LaTeX ou AsciiDoc peuvent être des solutions évolutives, par le biais d’autres composants qui viennent combler certains besoins. 

Ce que nous souhaitons souligner ici c’est la nécessité de dépasser les solutions monolithiques et isolées des les traitements de texte classiques. LaTeX et AsciiDoc répondent à des besoins précis et constituent une piste pour penser une chaîne éditoriale modulaire, par exemple en étendant leurs fonctions grâce à une approche liée au développement web. Une fois un contenu écrit, édité et structuré, il est prêt à être mis en forme. Nous pouvons ainsi envisager des solutions techniques qui peuvent s’adapter et être malléables. 

4.2 Programmer la forme, au delà de l’esthétique 

Par définition, le code source d’un logiciel propriétaire est fermé, ce qui le transforme en une véritable « boîte noire » où les utilisateurs n’ont aucune idée de son fonctionnement qui se retrouve invisibilisé. Or les dispositifs numériques utilisés pour la conception et la production construisent et imposent des gestes en ajoutant leurs propres médiations à l’objet produit. Pour l’historienne Annick Lantenois, ces logiciels « sont de la pensée qui dicte – impose – les formes, les syntaxes, les structures et, globalement, l’environnement sensible de lecture et d’écriture. Ce sont des « objets de culture » desquels dépendent la singularité ou le formatage des expériences esthétiques indispensables au processus d’autonomie de tout individu[29] ».

Dans des logiciels comme Microsoft Word ou Adobe InDesign, le savoir-faire est encodé dans un usage normalisé, rationalisé et déterminé à l’avance, il n’est plus qu’une suite de « sélections » d’actions à partir de menus prédéfinis, comme l’exprime Lev Manovich dans Le langage des nouveaux médias[30]. Ce processus a tendance à uniformiser la production graphique à travers une normalisation des pratiques, mais a aussi introduit une grande confusion réduisant une partie du design à une simple pratique esthétique. Qui plus est, lorsqu’il s’agit de publication numérique, la production de l’objet final est la plupart du temps confiée à d’autres acteurs exécutants (développeurs, ingénieurs) après sa conception graphique. La séparation de la conception et de la production entraîne des difficultés quant à la production de différentes formes et formats dans un même geste. En se privant d’un dialogue avec l’exécution, le designer graphique prend le risque de ne pas comprendre pleinement les potentialités graphiques, structurantes et interactives des différents supports avec lesquels il travaille. 

Dans son travail de mise en forme, le designer graphique associe les formes graphiques à un certain genre textuel s’insérant dans la culture d’une époque. Or, ces formes, en étant intégrées sur de nouveaux supports, sont complètement transformées. Comme le dit le chercheur en communication Yves Jeanneret, concevoir des objets suppose « à la fois l’invention de nouveaux codes (adaptés à un nouveau support), la reprise de formes anciennes (susceptibles de permettre une reconnaissance) et la création globale d’une forme textuelle capable d’organiser ces matériaux divers[31] ». Les formes signifiantes sont donc développées dans une double relation, « une relation technique aux propriétés de traitement de la machine et une relation culturelle aux moyens d’interprétation des hommes et aux codes partagés[32] ». La production numérique par le biais de la programmation réinterroge certains choix esthétiques et règles graphiques de l’édition en l’influençant par ses possibles : facilité de transmission et de partage, structuration logique, soumission au calcul, etc., et pour le design : paramétrique, adaptatif, aléatoire, etc.

Au-delà de considérations politiques et économiques liées à l’utilisation des logiciels libres, il apparaît donc que seul l’usage direct de la programmation avec les technologies du web permettrait un véritable design des publications imprimées et numériques. Le fait de travailler sur un flux commun qui génère autant les versions imprimées que numériques permet d’autant plus de croiser les contraintes : la liquidité du numérique aura une influence sur les productions imprimées, et le souci et la maîtrise typographique de l’imprimé auront une influence sur les objets numériques. 

4.3. Déployer des objets techniques ouverts 

Les technologies du web, introduisant la possibilité de construire des systèmes modulaires, permettent d’envisager une évolution des chaînes de publication beaucoup plus vaste. Elles ouvrent la perspective d’un objet technique concret dont les fonctionnalités sont imbriquées, et une individualisation permettant une évolution au-delà des fonctions primaires. Prenons un exemple pour illustrer cette hypothèse : l’utilisation des technologies du web pour concevoir et fabriquer conjointement un site web et un livre numérique, puis pour fabriquer des livres imprimés, puis pour fabriquer des applications web. À chaque nouvelle production d’artefact un composant peut être ajouté, en synergie avec ceux déjà présents. 

Se tourner vers un usage de la programmation, notamment en utilisant les standards du web, et s’affranchir des structures de contrôle imposées par un logiciel permettrait la construction d’une culture technique du design éditorial, adaptée à l’ère de l’informatique, à travers un rapport sensible et créatif aux techniques. Il suffirait alors de développer des pratiques réflexives et éclairées du code, envisagées comme un outil de création. 

Face à des systèmes ouverts, l’utilisateur, le designer ou l’éditeur reprennent leur rôle de chef d’orchestre comme l’a exprimé Gilbert Simondon dans Du mode d’existence des objets techniques[33]. L’homme n’est plus au-dessus ou en-dessous de la machine ou du programme, il est parmi la machine ou le programme. Nous pouvons compléter cette perspective avec la distinction établie par Anthony Masure : le fait de créer notre propre « appareillage » en se dotant de technologies favorisant des pratiques non dirigées d’avance nous permet de passer de facultés « employées » à des facultés « exercées[34] ».

La conception « d’objets techniques ouverts[35] » déploie un potentiel évolutif et perceptif car ils peuvent engager une participation qui dépasse celle envisagée par le constructeur. Non seulement ils permettent à chacun de créer ses propres conduites en s’inspirant de celles des autres, mais ils offrent aussi la possibilité de constater en eux la trace de l’invention. Comme le soulignent les designers Alexandre Leray et Stéphanie Vilayphiou d’Open Source Publishing : « Simplement par son usage, le logiciel libre a tendance à s’exposer, à afficher sa matérialité, à rendre visible sa construction[36] ». 

5. UNE APPROCHE MATÉRIELLE DE L’ÉCOLOGIE : POIDS ET RESSOURCES ÉNERGÉTIQUES 

En 1995, le poids moyen d’une page web était de 14 Ko. En 2015, il atteint 1600 Ko, quintuplant en seulement 20 ans. Aujourd’hui il n’est pas rare d’observer des pages web dépassant allègrement les 3 Mo. À l’échelle individuelle, ce surplus numérique n’est pas bien lourd, mais, cumulé, cela représente une empreinte environnementale colossale. En 2014, les internautes téléchargeaient 1400 millions de Go inutiles sur des sites mal conçus. Ces pages trop lourdes cumulent 311 millions d’heures d’attentes et accélèrent l’obsolescence programmée des appareils n’ayant plus la puissance nécessaire[37]

Comment pouvons-nous alors agir sur l’impact écologique de la publication numérique en nous concentrant sur les pratiques d’édition ? L’objectif ici est d’optimiser leur conception et leur production à travers une phase durable et générale de décroissance : consommer moins de ressources et d’énergie, consommer mieux, adapter les fonctionnalités des outils aux pratiques réelles. Cette approche peut être développée sous plusieurs formes dont voici 5 exemples : 

1. Standards et mode collectif : il s’agit de disposer d’outils ouverts afin de permettre communication entre différents programmes – l’interopérabilité –, ainsi que la pérennité des contenus. Cela garantit implicitement un accès équitable aux moyens éditoriaux. Il est alors possible de construire et de maintenir une culture de l’écrit numérique luttant de ce fait contre l’obsolescence programmée des formats – et indirectement des objets électroniques. 

2. Gain d’énergie : structurer et mettre en forme des contenus, pour le numérique et le papier, à partir de formats standardisés, augmente le gain d’énergie et d’effort pour les individus qui participent au système de publication. Cela peut paraître évident, mais une grande partie des documents disponibles en ligne ne sont pas des pages HTML (le standard du web) mais notamment des fichiers au format PDF, et les systèmes d’écriture actuels reposant sur des logiciels ou formats propriétaires sont particulièrement instables, changeant régulièrement. 

3. Optimisation et légèreté : il est essentiel d’adopter une approche combinant optimisation et légèreté dans la conception des systèmes de publication. Certains logiciels cherchent à résoudre un maximum de problèmes dans des situations ou domaines très différents : cette surconception engendre plus de problèmes que de solutions, elle rend l’appareillage lourd et demande beaucoup de ressources informatiques. Rester simple, sélectionner uniquement les fonctionnalités pertinentes, limiter les ressources nécessaires : cela doit faire partie des paramètres de décision des dépendances et autres frameworks. Par cette pratique de l’efficience, le but est de consommer le moins possible de ressources physiques pour atteindre un objectif. Ces efforts doivent se faire dans toutes les étapes de la conception : expression du besoin, conception fonctionnelle et technique, maquettage, conception graphique, développement, maintenance évolutive et corrective, etc. 

4. Hors connexion : nous devons aussi nous rapprocher autant que possible de moyens de conception ne nécessitant pas une connexion permanente. À ce titre nous pouvons prendre l’exemple de Git. Git est un système de contrôle de versions qui permet de travailler à plusieurs sur tout type de fichier texte, et qui fonctionne de façon asynchrone. Git repose sur plusieurs étapes et rôles qui rappellent celles d’une chaîne d’édition. 

5. Statique : contrairement à des systèmes de gestion de contenu classiques, les générateurs de site statique génèrent un site web sous forme de fichiers (HTML, CSS et JavaScript), sans bases de données ou langage dynamique. La plupart des sites web ne nécessitent pas des fonctionnements aussi complexes induits par des CMS comme WordPress ou Drupal où chaque page est produite à chaque consultation, reposant en plus sur des bases de données consommatrices de ressources. Un générateur de site statique distingue les étapes de publication (écriture, production, diffusion), ce qui est idéal pour le domaine de l’édition, et peut être utilisé aussi pour produire des formats comme le PDF ou l’EPUB.

CONCLUSION : LÉGÈRETÉ, SOUTENABILITÉ, RÉSILIENCE, PÉRENNITÉ ET CONVIVIALITÉ 

Pour conclure, nous souhaitons illustrer les propositions développées dans notre texte par un exemple concret: la mise en place d’une chaîne modulaire par Getty Publications, la maison d’édition du musée The Getty à Los Angeles. Constatant les difficultés imposées par un CMS complexe conçu pour la production de publications numériques, l’équipe du département numérique a imaginé un système basé sur des briques logicielles en partie libres. La chaîne de publication numérique et modulaire produite, appelée Quire, repose sur différents composants: un générateur de site statique, un langage de balisage léger, un format de description de données et un processeur HTML/PDF. Elle permet de produire une version web et une version imprimée, aux côtés d’autres artefacts comme les formats EPUB ou MOBI. Eric Gardner, développeur et designer au sein de l’équipe d’édition numérique de The Getty, a bien compris les enjeux d’un tel développement: « Des sociétés comme Adobe ou Apple ont créé des outils très bien faits, mais qui possède vraiment vos contenus à la fin de la journée ? Si un produit cesse d’être maintenu, vous ne pouvez pas faire grand chose en tant qu’éditeur – vos travaux seront perdus[38] ». Ainsi, développer leur propre workflow leur permet de maîtriser l’ensemble de leur production, – jusqu’à sa diffusion. 

Notons qu’une initiative similaire s’inspirant de Getty Publications a été réalisée par les auteurs du présent article. Le catalogue Les sculptures de la villa romaine de Chiragan publié par le Musée Saint-Raymond de Toulouse[39] a été édité grâce à une chaîne d’édition modulaire dont les composants sont différents de Quire, même si les fonctionnalités sont très proches. Nous avons donc ici deux exemples probants des hypothèses avancées. 

La mise en place de tels workflow assure la cohérence entre le fond et la forme d’un projet éditorial multisupport ou multimodal, dans une perspective de design global qui ne se limite pas à ce qui est immédiatement visible. C’est ce que défend le designer Victor Papanek dans son célèbre ouvrage Design pour un monde réel: « le design est devenu « un outil à modeler les outils » qui permet à l’homme de transformer son environnement et, par extension, la société et sa propre personne […]. Le designer doit comprendre clairement l’arrière-plan politique, économique et social de ses actes[40] ».

Au-delà des possibilités offertes par les technologies du web en termes de modularité, interfaces de lecture et production, nous pouvons en conclusion présenter cinq concepts clés basés sur l’expérience de Quire : 

Légèreté : la chaîne éditoriale, considérée comme système, est facilement installable ou déplaçable, elle ne dépend pas de logiciel particulier. Les fichiers sont tous écrits dans des formats ouverts et bien souvent lisibles par des humains – et non uniquement par des machines ou des programmes. 

Soutenabilité : le maintien d’un tel système est possible et ne dépend pas d’entreprises tierces, mais plutôt de communautés constituées autour de programmes informatiques ouverts et libres. Chaque brique logicielle correspond à une fonction précise – la fonction prime sur l’outil qui remplit la fonction. 

Pérennité : les fichiers sources utilisés dans la chaîne seront toujours lisibles et exploitables, indépendamment des logiciels ou programmes utilisés, comme par exemple le format Markdown[41]

Résilience : en cas de problème – briques logicielles qu’il faut supprimer ou remplacer – la chaîne peut se réadapter au nouvel environnement et évoluer.

Convivialité : les mêmes fichiers étant utilisés depuis la première phase (écriture) jusqu’à la dernière (génération des formats comme le PDF ou l’EPUB), tous les intervenants des projets éditoriaux peuvent se retrouver et travailler ensemble. Par ailleurs, cette ouverture des formats et des systèmes accroît le niveau d’engagement des acteurs du projet, puisque chacun peut s’approprier ces outils – nous retrouvons ici les 4 conditions du libre énoncées par Richard Stallman : utiliser, connaître, modifier, partager.

Quelle(s) écologie(s) pour le graphisme ?
Yann AUCOMPTE

Résumé

La question posée ici est simple tout en étant redoutable : comment définir un design graphique proprement écologique? La question est simple car elle concerne toutes les disciplines du design depuis longtemps déjà. Elle est redoutable car elle n’est pas universellement partagée dans le monde du graphisme et elle nécessite de s’interroger sur la nature et l’histoire du graphisme indépendamment du design. Le rôle de la « graphie » dans l’entreprise d’arraisonnement et de contrôle du monde par la société occidentale est considérable et particulièrement depuis l’avènement du numérique. Pour en comprendre les enjeux spécifiques, l’analyse présentée s’attache à un exemple historique, celui de la typographie du Romain du Roi conçue pour Louis XIV. Cette analyse est proposée à travers le spectre l’écosophie de Guattari pour considérer l’ensemble des dimensions du problème et déterminer ce qui caractérise une compétence de graphisme en écologie à la fois territorialisée et mineure.

Mots clé 

Écologie, design, graphisme, écosophie, signe, pouvoir

Biographie

Yann AUCOMPTE

Designer graphique et chercheur, il est Professeur Agrégé en section supérieure de design graphique. Il enseigne en DNMADe “graphisme”, sur les parcours « Supports didactique et de médiation” et “Design de livre et d’édition” au Lycée Jean-Pierre-Vernant de Sèvres, France. Il est par ailleurs doctorant à l’EDESTA, sous la direction de Roberto Barbanti, Université Paris-8, TEAMeD-AIAC (EA 4010), Saint-Denis, France. Il est membre du collectif de recherche transdisciplinaire « Arts, Écologies, Transitions ».

http://www.graphismeartimplique.design


Dans un contexte de vif réveil de la conscience écologique, le design graphique accueille pourtant assez diversement ces préoccupations. Pour ceux qui se sentent impliqués en tant que citoyen, il reste que les formes de design graphique susceptibles d’intégrer les questions écologiques sont encore très peu partagées, pour ne pas dire absentes. Si le design dans son ensemble a pris conscience de ces questions et a offert des solutions de longue date (Papanek (1923-1998), Paepcke (1896-1960), Buckminster Fuller (1895-1983)) le graphisme a quant à lui adopté cette problématique de façon encore trop timide. 

Alors comment définir une activité de graphisme qui serait proprement écologique ? La question porte en fait sur la nature même de l’activité de graphisme. Il faut sortir d’une tendance à catégoriser cette activité sous le haut patronage du design et réfléchir à ce qui la caractérise en propre, une tentation pourrait nous inciter à partir du processus de design : elle consisterait à définir le design graphique comme quelque chose qui serait du graphisme en design, ou du graphisme porté par les enjeux de design. Or, le graphisme précède l’invention du design et son ère, l’essor de l’industrie. Un autre biais, courant, pourrait nous pousser à imaginer un graphisme qui ne soit pas anthropocentré, un graphisme qui serait écologique ou écosophique, en nous référant à sa nature fondamentale – en l’essentialisant. Ce que nous appelons graphisme a une histoire longue. Lorsque nous parlons de graphisme il faut envisager d’emblée les questions de signes et d’écritures. Le problème qui se pose à nous est que, une fois défini en ces termes, le graphisme est le moteur d’une organisation sociétale dont l’objet même est la domestication de la Nature. Il modèle nos représentations et influence nos perceptions de l’environnement. En tant que gestes, il reflète une certaine tentation humaine de mettre à distance le monde en l’enregistrant, puis en le contrôlant — ce qui engage la nécessité politique de maîtriser ces traces et ces formes. Elles sont des moyens d’exercer un pouvoir, et portent en elles les problèmes que nous souhaitons résoudre. L’indifférence du milieu du graphisme à l’endroit de ces problématiques n’est en rien un hasard au regard de son histoire. 

Des travaux de théoriciens (sociologue, philosophe, historien, etc.) décrivent déjà le rôle que joue le graphisme, ou ce que nous appellerons la graphie (écritures et signes), dans l’entreprise d’arraisonnement et de contrôle du monde par la société occidentale. Il s’agit de partir du postulat que le numérique procède de cette logique d’organisation et de prévision scripturale, et qu’il en réalise le projet. L’analyse propose donc ici une mise entre parenthèses des questions spécifiquement médiologiques du numérique qui intéressent ce recueil. Paradoxalement, il s’agit cependant d’étendre la question à certaines qualités pleinement réalisées par le numérique, mais qui sont en fait héritées de tendances de fond apportées par l’écriture. Pour comprendre comment la rationalité et l’arraisonnement sont à l’œuvre dans les projets de graphie, nous partons d’un exemple historique : Le Romain du Roi, un caractère typographique conçu pour Louis XIV. L’objet graphique est ici emblématique d’un projet de design graphique par sa quotidienneté : c’est un objet de détail qui pourrait paraître superflu. Son mode de conception est pourtant sans précédent, il introduit une rupture décisive dans les formes et le rapport de production. Une analyse réalisée au spectre des théories écologiques de Félix Guattari démontre comment s’y applique un certain esprit, et comment son esthétique relève de formes de relations sociales, de considérations sur la Nature et l’environnement, sur le pouvoir et le symbolique. Nous sommes aidés pour cela par une histoire de la pensée qui s’est construite autour de philosophes comme Descartes et Bacon[1] et des pratiques politiques, techniques, artistiques et discursives qui ont fondé la matrice esthétique et pratique des moyens de destruction réels de la Nature – à tout le moins les ont rendus désirables[2]. L’enjeu est de comprendre ce qui participe du graphisme dans la crise environnementale. 

Il y a avec notre entreprise comme un impossible dépassement des défauts de notre propre discipline, un dialogisme (au sens de Morin[3]). Pour reconfigurer notre approche d’un graphisme qui serait écologique, la philosophie de Félix Guattari sur ces enjeux apporte un éclairage intéressant. Aussi en traitant la question sous l’angle de l’écosophie guattarienne[4], nous ne pouvons plus isoler la Nature de l’environnement, de l’économie, du symbolique, de la psychologie et du social. Si nous prenons ce chemin, la pratique du graphisme doit traduire quelque chose comme la pluralité des voies et des voix de tous les êtres du monde, prendre en compte leurs diverses manières d’être et d’apparaître, mais surtout adopter une forme de prudence dans la pratique du design graphique. Qu’est-ce qu’un graphisme écosophique aujourd’hui pourrait vouloir poursuivre ? Comment pourrait-il s’insérer dans un projet de pluralisation et de traduction des différents modes d’existence qui constituent la réalité ?

Il est vrai que depuis le design la question écologique pourrait paraître circonscrite aux processus de fabrication et d’impression : un papier recyclé, une encre végétale, une économie des matériaux et le refus des encres en ton direct. La discipline a intégré de fait les transformations du système productif de l’imprimerie, qui obéit maintenant à des normes écologiques sur les papiers (certification FSC), les encres (hydrocarbures remplacés par des additifs végétaux) et les rejets toxiques (ISO 14001, label Imprim’vert). Mais que faire d’un produit d’un système consumériste imprimé avec ces normes — la plaquette Total sur papier recyclé, le sachet de frites McDonald’s imprimé avec des encres végétales ou une réduction notable de l’encre sur les bouteilles de Coca-Cola ? Ce serait encore renvoyer l’impact du signe à ses simples constituants matériels. En effet, si nous persistons à définir le design de façon moderniste, la question reste avant tout matérielle lorsque l’on parle de production. Très vite la rationalité productive prend le dessus et domine la recherche en « toute chose du moyen le plus efficace[5] ». Les designs d’objet, de mode ou d’espace entretiennent avec les propriétés matérielles de leurs productions un lien prioritaire auquel échappe en grande partie le design graphique.

Le graphisme, une activité de design particulière liée aux signes et à la culture humaniste

L’angle que nous adoptons ici est sensiblement différent : il s’agit de traiter ce qui caractérise une compétence de graphisme en écologie : comment le graphisme, par ses caractéristiques propres et son histoire disciplinaire, peut offrir une éthique environnementale satisfaisante. Non pas « comment peut-il adapter à ses modalités propres les avancées écologiques qu’ont accomplies le design objet ou le design textile ? », mais « qu’est-ce qui, de ses propriétés mêmes, pourrait infléchir le cours dévastateur de notre influence sur la Nature » ? Comment pourrait-il nous aider à passer le cap de ce que nous nommons dorénavant l’ère de l’Anthropocène ? 

Comme son appellation et son histoire le laissent présager, le graphisme est affaire de signes plus que d’images, de marquages plus que de manipulations, et de sens plus que de fonctions. Ses objets sont l’écriture, les symboles, les signes, les signaux, les schémas, les photographies et toutes formes d’images qui se révèlent comme des agencements de signes[6]. Les plus élégantes solutions de graphisme en écologie sont souvent des approches de design d’objet qui intègrent du graphisme, mais ne sont pas « du graphisme ». 

C’est un fait notable de l’histoire du design, les signes y sont soumis à un traitement qui ne semble pas intégrer les problématiques propres à leurs usages. Prenons ce qui est souvent considéré comme le point départ du design : le Bauhaus. Un de ses enseignants, Herbert Bayer —  il dirige un temps l’atelier d’imprimerie et de publicité de l’école —, a développé des travaux sur le caractère typographique universel. Conformément à ses principes, perdurant dans l’esprit du design aujourd’hui, il a traité de typographie dans une rupture avec les savoir-faire des métiers traditionnels (ici de l’imprimerie[7]). Il a appliqué une vision (ontologie) mystique matérialiste moderne aux formes des lettres, en fonctionnant comme avec les objets[8] et les espaces[9]. En effet, pour l’esprit moderniste du Bauhaus, la production obéit à l’éthique vitaliste de la simplification des formes et à l’exaltation des forces intrinsèques des matériaux[10]. Dans une croyance philosophique dérivée de Kant, les formes abstraites y sont les conteneurs les plus proches de la perception humaine[11], par cette proximité le designer rend plus lisible les propriétés des matériaux dans des « matières formelles[12] ». Or, pour le métier, la typographie ne peut se penser dans ce vitalisme synthétique[13] : la lettre, comme n’importe quel signe, ne se résume pas à l’encre qui l’imprime[14]. La purification des formes afin de libérer les forces de l’encre, comme celles des formes d’une chaise avec la force de ses matériaux, ne rendra pas la lettre plus efficiente. En effet, Bayer, comme coincé par cette double injonction, ne peut manier une matérialité potentielle de la typographie, mais au contraire déréalise dans des formes idéelles les signes graphiques, hérités de la Renaissance (notamment les formes du romain de Jenson). Il les réduit à des formes a priori de la sensibilité (espace et temps[15]). Pour les typographes de métier la simplification radicale des formes n’appelle en rien « aux facultés de perception “immédiate” et naturelle[16] » de l’être humain. La tradition de la typographie, qui est celle de l’écriture occidentale, est fondamentalement liée aux effets d’apparence et aux corrections optiques : elle joue formellement des défauts de perception et ne cherche pas son essence dans un matérialisme. Elle est liée à la perception humaine et ses limites, historiquement construites. 

Signes et pouvoir : donner une autorité, déléguer le charisme aux formes

Comment amener une discipline si fondamentalement anthropocentrée (aux sens de Descola[17]), même logocentrée[18] voire sémiocentrée[19], à s’intéresser à la Nature ? Anthropocentrée, car elle voit tout depuis l’esprit humain ; logocentrée, car elle perçoit tout sous le modèle du sens véhiculé ; sémiocentrée, car elle fait de tout objet une composition de signes. Dans cette perspective, l’environnement naturel est presque impossible à penser, et donc à prendre en compte. L’affaire de la graphie est celle du sens construit, de l’imagination, de la conscience, des formes de transmission — la Nature et son existence ne sont pour elle que des sujets. Dans une certaine vision historique, il pourrait même être possible de dire qu’elle invente la Nature comme un sujet extérieur aux activités humaines[20]. C’est que le graphisme pré-existe aux moments fondateurs du design, avant son « invention » avec le Bauhaus, loin même au-delà du métier de graphiste, dont le terme est adopté[21] au XXe siècle. En premier lieu, du fait que graphisme et écriture se confondent historiquement, les scribes, les graveurs-sculpteurs de lettres, les maîtres-écrivains, les calligraphes, les moines-copistes, les écrivains publics, les notaires, les imprimeurs, les secrétaires (garants du secret) dans les mystères des ministères, sont tous les graphistes de leur époque. Là où l’on reproduit textes, signes et images, un « équivalent graphiste en compétence » pense et prépare les éléments pour leur production et donne une autorité aux formes, participant ainsi à légitimer le message. Depuis les esclaves recopiant les journaux romains à la main jusqu’à la presse quotidienne, en passant par la méthode de la pecia des copistes médiévaux, les techniques graphiques visent à reproduire rapidement un vecteur de sens faisant autorité. Avec la minuscule caroline, Charlemagne œuvre graphiquement et politiquement en commandant un travail de conception graphique sur les qualités communicationnelles de l’écriture[22]. Sous son ordre, les « scribes » ont adopté cette écriture conçue dans l’abbaye de Corbie. Dans et par ce rôle, les graphistes ont participé à la diffusion de l’information et du sens, en ont modelé les cadres de réception et structuré l’esthétique. Les formes graphiques s’inscrivent dans leur époque et participent à en construire l’esprit, la politique et l’imaginaire. Mais pourquoi cette incroyable omniprésence nous empêche en vérité de subvertir le graphisme pour qu’il obéisse à une éthique écosophique ? Peut-on, de façon efficiente, parler d’une discipline écosophique qui se construirait à partir de la nature du graphisme, de l’écriture et du signe ? 

La graphie : représenter, compter, contrôler

À cette dernière question, il faut d’emblée répondre « non », sans autre démonstration préalable. La graphie (signes et écritures) est ce qui, chez l’humain, caractérise le mieux sa tendance au contrôle, à l’organisation du chaos et à la volonté d’ordonner le monde dans un sens maîtrisable[23]. Le graphisme est une discipline très ancienne, dont la trajectoire anthropologique est même très claire : il apparaît avec l’humain[24], et ils se développent ensemble. Très tôt, la graphie manifeste un désir d’organiser le monde, d’arrêter son agitation et les changements incessants qu’il semble affecter : à titre d’exemple, le calendrier luni-solaire paléolithique de Sergeac[25] est une production graphique préhistorique dont l’objectif est certainement assez proche de cela : elle note (arrête) les phases de la Lune et du soleil. Par extension, cet incroyable pouvoir de notation visuel permet de prévoir et de mettre à distance les événements de la Nature (saison, récolte, semis, etc.). L’aspect visuel des signes est déterminant, car, en tant que sens de la distance, la vue permet de se préserver des événements dangereux bien plus que le son, le goût ou le toucher, qui sont quant à eux dans un rapport de contact ou de proximité[26]. C’est la résultante d’un fait physique notable : l’humain est un prédateur, son système de vision est situé sur la face de son crâne, contrairement aux proies qui possèdent majoritairement un système de vision latéral. De ce simple fait évolutif, la vision acquiert un rôle central dans la prise de pouvoir des humains sur leur environnement[27], car elle permet de voir arriver au loin et d’anticiper. Le graphisme vient ainsi comme un supplément à la vision frontale, son rapport au réel est un rapport de réduction : il transpose des référents des objets du réel sur une surface à partir de laquelle ceux-ci sont équivalents, comparables, séparés et manipulables entre eux[28]

La forme la plus emblématique de cette tendance « commerçante[29] » est certainement l’écriture mésopotamienne, mère des écritures. À l’origine, elle sert à dresser des comptes et des inventaires : on y liste des têtes de bétail, des contenus d’amphore, etc. L’écrit graphique rabat le multiple et le différent sous une même esthétique d’incision dans de l’argile[30]. Le système occidental d’écriture phonétique et les signes de calcul en constituent l’aboutissement contemporain. La particularité du système scripturaire occidental est qu’il est phonétique : il est donc plus à même de traduire tous les sons, et par conséquent de s’appliquer à d’autres langues que le Latin qui l’a vu naître[31].

De ce fait, le graphisme va devenir central dans l’organisation politique de l’Occident. Le XVIe siècle développe cette écriture sous la forme des caractères mobiles métalliques introduits par Gutenberg. Cette invention graphique et scripturaire accentue encore les propriétés rétiniennes de la graphie : répétabilité, équivalence, séparation, et codification du monde. L’écriture typographique réduit le monde des phonèmes en signes systématiques qui, pour la première fois, permettent de quantifier les opérations artisanales nécessaires[32] à la production. Par des représentations, le graphisme réduit les choses à des signes et des symboles. La typographie pousse encore plus loin cette organisation, elle constitue par son principe technique une grille d’éléments mesurés et mesurables[33]. L’humanisme va se constituer autour de cette technique. Dans son prolongement, la culture protestante, en même temps qu’elle libère l’interprétation des discours religieux, favorise une forme de mode de vie en commun axée sur le commerce et l’accumulation d’argent, interdits par le christianisme médiéval. Dans cette nouvelle approche du monde et de la Nature, l’humain est amené sur Terre pour réaliser la besogne que le Dieu protestant lui a assignée[34]. Obéir à ses Commandements, c’est transformer la Nature pour en tirer des richesses. Les formes graphiques y jouent un rôle déterminant, en particulier la comptabilité à double entrée et l’écriture (les lettres de change) par laquelle les marchands protestants font circuler de l’argent partout en Europe. Simple hasard de l’histoire : le moine italien Luca Pacioli, qui a mis au point cette technique de comptabilité, propose également la première tentative de géométrisation de la forme des lettres de l’alphabet latin. Le commerce a trait à des questions graphiques, depuis longtemps, sur les pièces de monnaie, le graphisme est frappé par les institutions qui en garantissent la valeur faciale. Il assure le prix, marque et atteste de la qualité fiduciaire. 

Pour ces raisons, il est possible de dire que l’Occident constitue alors une graphosphère[35]. L’écriture et le signe sont les deux paradigmes visuels (rétiniens) qui influencent les activités d’un grand nombre de champs, dans un sens de plus en plus strictement organisateur et comptable à mesure que l’histoire occidentale avance. Les Lumières se développent également sur cette graphosphère et, avec elles, une certaine manière de concevoir la Nature. Les scientifiques éditent des livres dans lesquels ils décrivent des expériences et en dessinent les dispositifs afin qu’ils soient reproduits par d’autres, qui pourraient infirmer ou confirmer les observations[36]. Il n’y a pas de science moderne sans la publication et la diffusion des résultats d’expérience[37] à une communauté de scientifiques, sans la synthèse des données de l’expérience dans une série d’éléments réducteurs du réel[38] : chiffres, cadres d’expérience, descriptions propres à la discipline, etc. Par ces opérations, l’humanisme, en même temps qu’il construit la figure humaine rationnelle invente la Nature[39], extérieure et docile à l’humanité, qui en est « comme maître et possesseur[e][40] ». La graphie est donc un outil politique d’organisation du monde, qu’elle ne sert pas seulement à décrire. Cependant, cette trajectoire d’arraisonnement n’est jamais totalement réalisée et va trouver à s’organiser dans un nouveau rapport d’interaction entre science, droit, commerce, art et pouvoir. Sa forme graphique la plus exemplaire va nous servir d’entrée : le Romain du Roi. Pour révéler les différents enjeux écosophiques qu’il sous-tend, adoptons l’analyse en trois écologies[41] pour introduire toutes les parties prenantes à la formation des signes et quitter une définition formaliste et esthétique de l’activité de graphisme.

Voir les différentes écologies dans les signes : une mise à l’épreuve historique de l’analyse écosophique le Romain du Roi 

La conception du Romain du Roi est en rupture totale avec les modalités de la production typographique qui l’ont précédée. En effet, elle n’est pas encadrée par des gens du métier, et sa logique graphique est en rupture avec les méthodes artisanales. Ce mode d’organisation de la production émane directement d’une forme d’idéologie colbertiste, qui reflète une inclination intellectuelle rationnelle et comptable. Il est en fait l’organe d’une entreprise généralisée de prise de contrôle sur tout ce qui ne relève pas d’une production des abstractions de la pensée. Le graphisme y est perçu comme un art mécanique, manuel et donc servile. Il n’est pas question de partir du savoir de l’ouvrier, comme dans la peinture par exemple, avec Lebrun[42]. Et ce n’est là que le moindre des effets qui caractérisent sa production, en tant qu’il est le symptôme apparent d’un milieu et qu’il reflète l’esprit des puissants de cette époque. Le caractère fait partie d’un projet d’édition initié en 1694[43]. Colbert réunit des académiciens avec l’ambition d’éditer une encyclopédie. Le premier volume doit être consacré à l’imprimerie. C’est une commission, dirigée par l’abbé Bignon, qui aura en responsabilité le développement du caractère. 

Adoptons une méthode écosophique et commençons par en analyser l’écologie symbolique. Le Romain du Roi est un caractère typographique qui rompt formellement avec ses prédécesseurs par sa méthode de dessin purement géométrique et rationnelle[44]. Les formes en sont extrapolées de mesures opérées sur des caractères de titrage existants ou des modèles calligraphiques signés d’un maître-écrivain, Nicolas Jarry. C’est donc une transformation dans l’imaginaire symbolique de ce qu’est l’écrit typographique, dont les formes sont normalement sculptées autour des vides de la lettre et non dessinée par le contour[45] : le signe d’écriture  est gravé en relief sur un poinçon, puis frappé en creux dans une matrice qui accueille l’alliage en fusion. À l’époque, chaque taille de caractère faisait l’objet d’une gravure différente puisque les rapports de proportion des lettres sont adaptés lorsque l’on change d’échelle (un effet d’optique). Prendre des caractères de titrages pour du texte courant est déjà une forme de méconnaissance de ces phénomènes optiques. 

À partir d’ici nous pouvons déplacer notre analyse vers l’écologie sociale de cet objet. À ce titre, la classe sociale dont sont issus les académiciens est déterminante. La commission Bignon est constituée de membres d’une catégorie sociale relativement nouvelle, la noblesse de robe, autrement qualifiée de « robins », de « milice non-armée[46] » ou de « lobby-Colbert[47] » retrospectivement. Il est donc ici question de lutte de classes. Cette démarche peut être considérée comme la tentative constante d’éloigner la noblesse des positions de pouvoir tout en affaiblissant le pouvoir corporatiste artisan de la petite bourgeoisie. Louis XIV organise autour de lui une cour de conseillers sélectionnés chez les robins. Cette classe profite d’une stratégie politique absolutiste qui tend à éloigner la noblesse des positions de pouvoir. Le monarque absolu craint de voir se reproduire les événements de la Fronde (1648-1653) qui visaient l’autorité de sa fonction et qui ont vu des nobles se soulever contre lui. Le roi ouvre sa porte à la noblesse de robe, qui tente de s’arracher à sa condition petite-bourgeoise ou de petite noblesse par des talents d’universitaires (juridiques et scientifiques) : les figures emblématiques sont Colbert ou encore Séguier. Tout en admirant les prouesses du travail artisanal[48], ils ont en horreur les habitus mutiques artisans. Habitus perçus comme du mimétisme[49] sans capacité rhétorique à décrire ce qu’il fait. Les savoir-faire sont pour eux des gestes répétés et non-motivés par la connaissance vraie[50]. En bref, la bourgeoisie amène ses équipements collectifs de la pensée au sommet du pouvoir[51]. La démarche sous-tendue par cette recherche de mécanisation met en œuvre des savoirs mathématiques. Dans cette forme très déterministe, l’ingénieur réduit le savoir-faire et l’amène à des points d’abstraction qui ne rendent pas grâce aux métiers. Les modalités d’action qui accompagnent cette attitude bourgeoise sont de trois ordres : imposer la culture rationnelle bourgeoise commerçante, déposséder les artisans de leurs rôles politiques, spolier les savoirs artisans[52]. Il se traduit exemplairement dans les rapports de production des manufactures (Aubusson, Gobelins, etc.), entreprises de « droit public[53] » qui concentrent et organisent les fonctionnements anciennement libres entre artisans. On y sépare ce qui est libéral de ce qui est «manufacturable[54] ». On enlève toute souveraineté aux artisans, on les prolétarise (au sens de Marx) enfin ou simultanément on instaure le rapport salarial. L’artisan perd tout pouvoir sur les rapports de production. L’art devient alors la « dimension perdue du travail[55] » , l’espace d’un travail libre est limité à un petit nombre, et devient la justification pratique qu’il existe quelque chose comme une liberté d’action[56], cependant réservée aux gens doués et bien nés.

Cette classe de savants est particulièrement intéressée par les automates. Elle tend à considérer la machine comme l’exemple opératoire spectaculaire d’une démonstration efficiente des théories scientifiques[57] —  la science académique devient la clef qui force le secret du coffre dans lequel les artisans avaient placé leurs savoir-faire « ésotériques ». Dans ce cadre, la théorie est destinée « à ceux qui commandent[58] ». Le calcul et la géométrie commandent aux forces de la Nature et par là donnent un contrôle total sur les choses. Par exemple : la « machine à marcher sur l’eau » en 1675[59], dont la référence biblique ne laisse aucun doute sur la modestie de l’entreprise. Dans cet esprit, la machine n’est qu’un des moyens de spoliation scientifique qui verra la capture institutionnelle des savoirs artisans dans les domaines de l’architecture (Antoine Desgodets), de la conception de navires (Colbert), dans l’imprimerie, etc. Une fois extraits les savoirs de leur milieu par les scientifiques, ils les automatisent dans des procédures et des machines. Mais dans l’opération ce n’est pas tant l’activité physique du travail et du savoir-faire qui disparaît, qu’une certaine autorité légale (coutumière) à dire ce qu’est le bon et le mauvais résultat du travail. Dans l’architecture les maçons étaient les seuls à pouvoir établir un constat de malfaçon. Après cette académisation, ils perdent la compétence juridique d’en juger. En des termes marxistes, les artisans sont ramenés à une simple force de travail. Dans ce nouveau cadre politique les charpentiers des chantiers navals devront obéir aux plans des commanditaires, les maçons perdent toute autorité, les typographes se plient aux ordres des scientifiques perçus comme « absurdes ». Les gens de métier voient cette rationalisation comme une menace et une erreur méthodologique prétentieuse : « Pour la seule taille des calibres […] on divise la ligne en deux cents quatre parties. Ces règles renvoient à l’idée des infiniment petits, où l’imagination seule peut atteindre ; ce qui fait que pour les rendre sensibles par des exemples, on a été obligé de dessiner les lettres trois ou quatre cent fois plus grandes que le même objet ne doit être représenté sur le poinçon pour les caractères le plus en usage. […] Le génie ne connaît ni règle ni compas […]. Cela prouve que des personnes qui ne connaissent pas un art, quelque habiles qu’elles soient d’ailleurs, comme l’étaient Messieurs Jaugeon, des Billettes et le Père Sébastien, ne sont pas en état d’en donner des principes. Ces messieurs auraient pu s’en tenir à une règle qu’ils établissent, qui est de consulter principalement les yeux, juges souverains mais les ayant trouvés un peu incertains dans leurs décisions, ils ont proposé d’autres règles[60] ». L’artisan cultive avec sa pratique une prudence et une tendance à « tempérer l’obsession[61] ». Cette recherche géométrique de la perfection abstraite est perçue comme une « lubie de classe ». Dans tous les domaines, la vision scientiste réduit les savoir-faire à des points d’abstraction qui visent l’efficacité. Mais, à chaque fois, la théorie opératoire échoue en simplifiant les savoir-faire complexes de l’artisan. Les commissions procèdent toujours de la même manière, par mesures chiffrées de la production exemplaire. Dans la typographie, on mesure des caractères de titrage et on applique ces mesures au caractère de texte, en refusant notamment d’écouter les graveurs de poinçons sur les corrections optiques à apporter à la typographie[62]. Dans l’architecture navale, le roi organise des concours du meilleur navire en se basant sur des modèles réduits naviguant dans les bassins de Versailles, et on calcule les trajectoires en géométrisant les bateaux [63].

Le « goût » bourgeois est à l’ordre, à l’énonciation de lois, de formules et de mesures quantitatives : « Aussi bien les principes cartésiens auront-ils sur l’évolution de la pensée une influence parallèle à celle du droit romain sur les institutions ; on posera des principes, des théories et des définitions auxquels il s’agira par la suite de ramener le donné de l’expérience, les faits et les hommes[64] » — ce goût est moral, juridique, esthétique et de l’ordre du savoir. Dans cette philosophie, le droit est affaire de catalogage éthique des relations ; pour l’imposer, la noblesse de robe s’appuie sur le droit romain et la notion de propriété. À l’origine, le droit de propriété est une part mineure du droit romain qui servait à légiférer entre étrangers[65]. Posséder et compter, énumérer et trouver des équivalences quantifiables : « Le bourgeois par ses origines commerçantes, manifestait une confiance qui deviendra du reste exclusive avec le temps, pour des valeurs de quantité, pour tout ce qui se chiffre, se dresse en colonnes, s’énonce en formules. Assimiler la vérité à l’évidence, décomposer chaque problème d’ensemble en une multitude de problèmes de détail, imposer à la pensée un ordre rigoureusement logique afin d’éviter les erreurs – c’était là, par excellence, le langage qu’il pouvait entendre[66] ». Dans la volonté de tout rationaliser se cache la recherche d’un dévoilement des mécaniques de la Nature. La culture bourgeoise trouve ici un accord avec la logique aristocratique et religieuse, c’est bien d’un Dieu que l’on parle et du pouvoir qu’il confère au roi. Par conséquent, les découvertes théoriques sont autant de nouveaux leviers rationnels que le roi va pouvoir manœuvrer pour exercer son contrôle sur la Nature, sur le Monde et sur ses sujets. 

Ainsi, par la typographie, la géométrisation agit comme une prise de contrôle sur la raison et le discours. Pour cette époque, l’écriture est le supplément de la parole [67], elle-même perçue comme le reflet de l’âme. Dans un mouvement similaire, la grammaire et l’orthographe s’imposent à la même époque  « […] à l’âge classique, connaître et parler s’enchevêtrent dans la même trame [68] ». Organiser la forme des discours, c’est en un sens les contrôler et avec elles le discours des sujets parlants. Cette mécanisation cartésienne est une représentation du vivant comme machine qui s’applique également au plan de la Nature. Nous pouvons ici appliquer une analyse écologique environnementale. Les jardins de Le Nôtre traduisent cette volonté de pouvoir, en organisant la Nature dans une forme pure et géométrique. Pour accomplir ce prodige, il faut irriguer le jardin avec la machine de Marly, énorme pompe alimentant également les fontaines de Versailles. Un système de fermes d’élevage alimente le « gibier sauvage[69] » et des chemins forestiers percent la forêt de part en part en de longues lignes droites qui facilitent la pratique de la chasse à courre. Cette machinerie, articulée symboliquement et techniquement – perspective des jardins, nourrissage de la faune et pompes mécaniques –, pourrait apparaître comme une métaphore du Romain du Roi. C’est un autre discours sur la Nature qui se tient dans ce projet, celui des artisans qui sont comme primitifs, paresseux et sans initiative[70]. Replions nos observations symboliques, sociales et environnementales les unes sur les autres pour maintenant déduire comme une praxis (idées manifestées dans les pratiques). De fait, alors, les jardins ne sont pas une métaphore, mais un aspect du rapport de production nouveau qui considère la Nature comme un magasin manipulable par la rationalité, les ouvriers à « l’état sauvage » comme naturalisés et toutes les formes comme le produit d’une nature matérielle et machinique. D’un côté la Nature, le savoir-faire empirique du graveur de poinçon ou du maître d’écriture, de l’autre la machinerie d’asservissement, les calculs des académiciens. 

Depuis Gutenberg la typographie copie les manuscrits[71], en ce sens la typographie est l’art du contrefacteur. Brutalement, dans les travaux de la commission Bignon, le geste artisanal est subordonné au chiffre de la rationalité[72]. Les gestes derrière la typographie, et les corps derrière l’écriture, ont leurs raisons naturelles : l’axialité des membres supérieurs humains rend le geste droit difficile, la plume provoque des pleins et déliés, l’encre s’épuise rapidement dans le réservoir de la plume et force à découper le ductus du dessin des lettres en étapes, elles-mêmes dépendantes des limites des positions du corps, etc. Pourquoi garder dans une optique de rationalisation autant de traits saillants de l’écriture ? Pourquoi ne pas aboutir aux formes géométriques les plus sèches et pures ? De manière explicite, maintenant, il s’agit d’entretenir un lien d’appartenance avec la « naturalité du geste artisanal », autrement dit d’asservir les corps artisans au pouvoir du Roi. 

Faire un projet écosophique en design graphique : traduire la diversité

L’écriture est d’abord fétiche de réduction magique, puis séparation rationnelle des obstacles en d’« infinis problèmes de détails[73] » comptabilisables, hiérarchisables et classables. Les systèmes graphico-politiques sont solidaires d’une forme économique de gestion de l’environnement, du système agro-pastoral mésopotamien au colbertisme en passant par la libéralisation commerçante protestante. Il y a donc un lien écologique patent entre la graphie et la gestion de l’environnement. L’humaniste, en particulier, se pense en contrôle de la graphie, dans une « mentalité magico-religieuse[74] » où il commande aux choses par les signes et les mots. Pour nuancer, cependant, la graphie n’a pas dans son essence le contrôle et l’ordre, mais de par ses trajectoires[75], « il est arrivé[76] » qu’elle adopte cette fonction[77] dans l’organisation techno-scientifique du monde anthropocentré dominé par l’Occident. Elle s’est co-développée avec les activités humaines et s’est construite en ce sens. Il est donc totalement exclu de penser qu’elle est surdéterminante sur les conduites humaines. De fait, la graphie a une agentivité[78], elle exerce comme une influence sur nous, faisant de nos organisations mutuelles des actions humains-graphiques — nous formons des individus hybrides avec nos outils graphiques. C’est peut-être cela une définition de quelque chose comme la graphie[79] — le mélange d’une agentivité du signe, du support, des environnements, des réseaux de diffusion, des imaginaires et des lecteurs. Nous ne sommes pas en situation de contrôle mais de co-évolution. Pour le dire vite — à nouveau —, la graphie cause les problèmes que nous souhaiterions résoudre avec elle. C’est ici qu’il faut sortir du fatalisme humaniste et de son graphocentrisme qui semble dire : « Quand presque toute l’Europe [du Xe siècle] était illettrée, morcelée et sous-alimentée, il n’échappait à personne qu’écrire c’est prescrire ; instruire, conduire ; et transmettre, soumettre […]. Il faut à l’intelligence un mur […] la culture (ou l’histoire) est d’abord affaire de clôture […] Seul un enclos permet d’emmagasiner : bétail, outils, céréales, archives, femmes, braises. [Sans cela] Mouvement veut dire danger : attaque ou fuite. […] En d’autres termes, l’économie domaniale d’autosubsistance fait du lettré , du clerc ou du légiste [graphie] des luxes inutiles[80] ».

Avec ce constat historique en tête, comment le graphisme pourrait-il participer à résoudre les problèmes écologiques qui sont les nôtres ? Les supports numériques sont aujourd’hui les héritiers de cette tradition de recherche de contrôle et de maîtrise du différent et du divers[81]. À cet endroit, peu d’options se proposent à nous. Le signe en lui-même ne nous permet pas d’échapper aux aspirations profondes d’ordre et de docilité qui nous animent. Comme l’expliquait Derrida à propos de l’écriture, la graphie est pharmacologique, en même temps poison et remède[82]. Son design, au sens moderniste, ne révélera au mieux que sa nature structurante, ordonnatrice et thésaurisante. Pour subvertir ces dispositifs de graphie, notre champ d’intervention ne peut plus se borner uniquement à un travail auctorial de surface et de définition essentialisant de la discipline. C’est le rapport de production lui-même qui doit nous intéresser. L’ensemble du rapport d’engendrement[83] des signes doit nous préoccuper en priorité. 

Nous l’avons vu le Romain du Roi ne commence à nous apparaître écologiquement que par un exercice de description de ses trois écologies[84]. Pour suivre Guattari et son écosophie, il nous faut trouver dans le graphisme contemporain des exemples de chacune de ces trois écologies : symbolique, sociale, environnementale. Bien que cette méthode récuse une définition du graphiste comme un spécialiste en forme, il n’en demeure pas moins le collaborateur d’êtres[85] sur le plan symbolique. Il est vrai que là où le graphisme perturbe le plus souvent les approches rétiniennes, c’est quand il est désorganisant, lorsqu’il change les cadres de décision et nuit à la lisibilité. C’est là son écologie symbolique[86]. Par ses approches auctoriales, le graphisme propose des compositions de signes qui mettent le « lecteur au travail » de façon hétérogénétique par des « processus continu[s] de re-singularisation [dans lesquels] […] les individus doivent devenir à la fois solidaires et de plus en plus différents[87] ». Cet héritage il le doit à son tournant (1980-1990) déconstructiviste[88]. Dans le graphisme contemporain, salué par l’institution (CNAP, Biennale de Chaumont, ENSAD), les affiches « disent mal » ce qu’elles prétendent nous communiquer. Les choix d’images, d’écritures, de caractères typographiques créent comme une tension. Le spectateur doit alors exercer son attention, suspendue par cette étrange traduction visuelle, autant que sa capacité d’interprétation pour refonder cette brève suspension symbolique. Les signes, en effet, ne font pas qu’émettre des idées, ils ont un rôle de lien. L’étymologie de « symbolique », sumbolon (objet divisé en deux), rappelle cette fonction. Dans l’Antiquité le sumbolon était une pièce d’argile divisée en deux qui scellait un contrat moral : une fois réunis, les morceaux attestaient d’une proximité entre les détenteurs. Par métaphore, ici c’est le lecteur qui doit reconstituer ces pièces éparses, et faire l’effort de produire un sens qu’on ne peut lui imposer. Cette situation de communication non-autoritaire renvoie le lecteur à cette construction active et commune du sens. Il ne peut y avoir de sens a priori : celui-ci se produit toujours dans la négociation collective et l’échange entre interprétations divergentes. Si bien qu’a contrario d’une définition commune de l’approche auctoriale, ce n’est pas tant l’auteur qui s’individue dans une approche graphique originale que le lecteur qui exerce par là un droit à l’interprétation[89] : il s’agit donc de cultiver ce que Bernard Stiegler appelle L’Attente de l’inattendu[90]. Mais donner ce privilège auctorial à quelques-uns ne fait pas de cette activité une pratique conforme à l’écosophie guattarienne. Ce serait encore être trop anthropocentré : « Je pars de l’idée que la subjectivité est toujours le résultat d’agencements collectifs, qui impliquent non seulement une multiplicité d’individus, mais aussi une multiplicité de facteurs technologiques, machiniques, économiques, une multiplicité de facteurs de sensations disons pré-personnels. […] Je récuse par avance l’espèce de réductionnisme qui consiste à penser la communication et la culture comme résultant d’une interaction entre les individus. […] Il y a constitution de la subjectivité à une échelle d’emblée transindividuelle[91] ». La question est de l’ordre des rapports d’engendrement, des interactions entre différents types d’êtres (techniques, conceptuels, animaux, minéraux, politiques, etc.). Là où le graphisme d’auteur échoue c’est en se focalisant uniquement sur l’expression personnelle d’un auteur humain.  

En manifestant sa présence, le graphisme chamboule les évidences des organisations scripturaires occidentales[92], il défait les évidences du travail en commun et de la répartition habituelle des valeurs : c’est une forme d’écologie sociale et économique. Lorsqu’un client investit dans une commande de graphisme, il le fait sur le paradigme des théories de la communication. Il attend des signes qu’ils attirent le regard, disent avec efficacité le message et donnent une force de conviction à son image. De nombreuses « méthodes » mercatiques permettent aujourd’hui d’évaluer l’impact d’une communication — essentiellement, du reste, à partir de leur capacité à capter l’attention ou à engendrer des modifications de comportement d’achat —, et toujours selon des indicateurs chiffrés. Le designer graphique vient souvent interroger ce cadre présupposé des performances communicationnelles. Ces propositions ne sont pas toujours reçues avec bienveillance, et c’est la moins ambitieuse qui se trouve souvent choisie pour sa modération. Pour comprendre comment l’écologie sociale s’exerce ici, il faut absolument s’empêcher de naturaliser cette subordination à l’autorité du commanditaire. Cette relation évidente, renvoyée à un dispositif de promotion d’un contenu donné, dans le cadre d’un contrat moral de subordination, ne permet pas au design graphique d’exercer sa pleine responsabilité et sa prudence médiologique à l’endroit des techniques de graphie. C’est le cadre du travail lui-même qui doit se trouver ouvert et changé. Le graphisme social a tendance, par exemple, à intégrer le lecteur à la production des signes, comme ce peut être le cas dans les projets participatifs. Le praticien se fait alors le facilitateur de la construction du message et lui donne une autorité, et emprunte en un sens à son illustre ancêtre : l’écrivain public. Le graphiste Jean-Marc Bretegnier (Fabrication-Maison) parle alors « d’imagier public en résidence ».  

C’est l’autre point essentiel de la pensée écosophique : le graphiste doit renouer avec une approche locale et située — territorialisée et mineure dans le vocabulaire deleuzo-guattarien. Le graphiste travaille alors à la saisie (« grasping ») existentielle[93] de petites choses — avec les habitants d’un territoire par exemple. Dans ces petites choses s’effondre une part de l’ambition universaliste du graphiste moderniste qui, en résolvant un problème à un endroit, ambitionnait d’être celui qui en résout d’autres avec la même méthode, partout, tout le temps, d’être celui qui crée des modèles pratiques, des praxis exemplaires saluées et reconnues. Mais plus que de bâtir des stratégies de reconnaissance, il faut s’immerger dans le faire avec les acteurs du terrain et, par là, affirmer le statut d’une discipline qui n’est pas a priori[94] de son objet, mais l’écoute et s’y adapte. En même temps que l’on fait, il faut chercher à tirer un savoir de cette rencontre par laquelle naîtra un sens partagé. Le graphiste n’est plus un auteur identifié dans le monde autonome du graphisme, il est plutôt un pharmacien du signe (ès grammatologie, médiologie et déconstruction) dont la petite échoppe donne sur la place du village ou du quartier, agora politique et nouveau parlement local. Étrange pharmacie à la vitrine de laquelle on peut voir des livres, des signes et des affiches qui nous racontent des histoires locales et exotiques, des géographies mythologiques attrayantes. La graphie crée du lien entre les choses et fait de nouvelles traductions en les soumettant à notre attention. Guattari dirait qu’elle produit des processus de singularisation ; or, le singulier est mineur, il n’est pas du côté de l’Universel. Par ce processus se crée du désir, c’est-à-dire « le fait que là où le monde était fermé, surgit un processus secrétant d’autres systèmes de référence, qui autorisent — mais rien n’est jamais garanti — l’ouverture de nouveaux degrés de liberté[95] ». La boutique est une métaphore, car ce principe pourrait tout aussi bien subvertir le monde en silo des entreprises et mettre le commanditaire sur la place publique avec les habitants, les élus et les associations pour tous les soumettre à la question : « pourquoi faudrait-il adopter vos produits ? » ou plutôt se dire ensemble « maintenant produisons nos objets » — un type d’activité que la résidence Les Chaudronneries, à Montreuil (93), conduit avec une étonnante fluidité. Si la graphie déménage de son « Mont Universalis » et atterrit (cf. Latour), elle ménage déjà ainsi deux écologies : social/économique et symbolique/psychologique. 

Pour être écosophique, Guattari préconisait cependant de prendre également en compte l’écologie environnementale et naturelle. Nous l’avons vu, la graphie est anthropocentrée par structure. Pour nous sortir de cette lubie, ici, nos alliés et mentors sont les diplomates[96] de la Nature pour lesquels nous serons les traducteurs : les scientifiques, paysans, permaculteurs, naturalistes, qui donnent la parole aux êtres de nature selon leurs façons de voir le monde (régimes d’énonciation). Tout l’objet est alors de donner la parole aux nombreux êtres qui n’ont pas de voix dans la culture humaniste : minéraux, animaux, végétaux, mycètes, sols, etc. Exercice de traduction pour lequel le graphiste excelle, très habitué à côtoyer les non-humains que sont les techniques, les concepts, les idées et objets de fiction. Mais cette fois, comme il est trop pris dans son sémiocentrisme, c’est le parlement des choses[97] — dont les élus sont les diplomates — qui lui confie des dossiers, des commandes et des données. Pour cela, la graphie prend souvent la forme d’une enquête, collectionne les documents, les restitue de manière à donner à voir et à lire la complexité — c’est de cette façon qu’elle prend commande. Elle rend compte par là des devenirs minoritaires et locaux, fait des liens entre des êtres peu représentés. À ce titre, des travaux d’enquêtes comme ceux du duo Structure-Bâtons relèvent d’une telle compétence : plutôt que de venir imposer sa vision, et celle de son collectif, le graphiste se met à disposition des territoires. Son champ d’expertise n’est plus tant l’image que l’écoute d’un paysage. C’est par cette tâche politique complexe, d’une réorganisation des cadres de la profession et de ses liens locaux, que le graphiste peut espérer être en écologie au sens de l’écosophie guattarienne. En ce sens, peut-être, il s’agit de faire « un design écologique » et non moderniste (positiviste), du graphisme en remettant les organisations du travail (rapports d’engendrement) au cœur de ses préoccupations.

Remerciements
Lucile Bataille, Roberto Barbanti, Sébastien Biniek, Stéphane Darricau, Damien Laverdunt, Matthieu Marchal, Céline Vinel, pour toutes leurs relectures exigeantes.

James STEVENS

Une philosophie du design

Le vernaculaire numérique (Digital Vernacular) est un concept qui associe les principes du design vernaculaire du passé et les technologies numériques du présent avec des objectifs d’accessibilité et des innovations appropriées, dans le contexte du design contemporain mondial. Le vernaculaire numérique est également un terme décrivant une manière particulière de penser et de faire de l’architecture qui englobe l’origine des choses, la raison pour laquelle nous les faisons, et comment nous les faisons au sein d’un processus. C’est une réponse à un mode d’architecture particulier qui englobe les caractéristiques pratiques, poétiques et éthiques de la conception de bâtiments vernaculaires, et les lie aux qualités des outils numériques vernaculaires de communication, de représentation et de fabrication.

Un projet : Digital Barn

Le projet Digital Barn explore de nouvelles méthodes de construction économiquement viables appliquées à une typologie de construction simple. L’objectif pratique de la Digital Barn était de concevoir, de développer, d’itérer et de bâtir une structure architecturale construite seulement à partir de planches de contreplaqué, essentiellement fabriquées numériquement grâce à un outil à commande numérique construit par des étudiants, puis finalisées et assemblées avec des outils manuels. Ces conditions avaient été posées afin de comprendre comment les principes vernaculaires peuvent influencer les nouvelles activités numériques et démontrer comment un résultat est influencé par le choix et l’utilisation des outils.

Aucune utilisation programmée n’a été définie pour la grange numérique ; sa structure a plutôt été conçue pour accueillir une gamme de fonctions possibles, comme la plupart des bâtiments vernaculaires (Figure 01). La largeur transversale de la grange a initialement été définie en relation aux limites structurelles estimées de la portée de la construction en contreplaqué, et par rapport aux limites de taille établies pour les modules de construction, qui devaient pouvoir être déplacés ou soulevés par deux ou trois personnes (Figure 02). Les facteurs de poids et de taille ont guidé les limites des profils des éléments et des composantes. Ces limites sont le résultat d’une série de modules en contreplaqué préassemblés et mis en place pour former l’espace architectural (Figure 03).

Le projet Digital Barn est ancré dans un profond respect pour l’architecture vernaculaire et pour les principes ayant guidé le vernaculaire dans la longue évolution du design, toujours en cours actuellement. Le projet s’inspirait de l’architecture vernaculaire afin de proposer un guide significatif et utile pour la création d’une nouvelle architecture, et un antidote aux expérimentations abstraites et formelles qui gouvernent une bonne partie de l’architecture contemporaine, sans égards pour le passé, le présent ou les valeurs collectives. Ce qui importe peut-être le plus, c’est qu’il démontre que le vernaculaire offre aux architectes à la fois des bases stables et des idées accessibles, qui peuvent ensuite transformer ces idées par la puissance de leur intelligence et de leur créativité.

Figure 01 : Digital Barn with two modules, Photo Natalie Haddad
Figure 02 : Module lifting, Photo Natalie Haddad
Figure 03 : Module assembly drawings by Ergys Hoxha
Bérénice SERRA

Le travail de Bérénice Serra propose de repenser les modes de conception, de production et d’échange des formes culturelles à l’ère du numérique. Passeuse d’images générées par les utilisateurs, de livres hybrides participatifs ou d’expositions sauvages, Bérénice Serra s’intéresse surtout au problème de la publication, c’est-à-dire, de la mise en circulation de contenus dans l’espace public. En considérant les appareils et infrastructures techniques du numérique (smartphones, serveurs, plateformes, etc.) comme moyens de publication et d’édition réticulaires, donnant aux individus des nouvelles armes, les œuvres de Bérénice Serra soulèvent les enjeux esthétiques et socio-politiques de l’expérience contemporaine de l’espace public.

http://bereniceserra.com/


Galerie, exposition infiltrée et site internet, 2016.
http://berenice-serra.com/galerie/
En octobre 2016, le projet Galerie a donné lieu à une exposition collective détournant les écrans des smartphones en exposition dans un espace commercial. Interrogeant à la fois les modalités d’exposition et de circulation des œuvres d’art à l’ère numérique, Galerie révèle avant tout un espace virtuel de publication de contenus, en porte-à-faux entre espace public et espace privé. Les œuvres, conçues pour l’occasion par Selma Lepart, Guillaume Viaud, Éric Watier, Michaël Sellam, Benoit Pype et Julien Nédélec, ont été transmises aux téléphones, grâce à une fonction standard des smartphones : le transfert de données via la norme Bluetooth.


Public, collection d’images, site internet et journal gratuit, 2016-2019.
Dans les magasins d’électronique partout dans le monde se trouvent des smartphones placés en exposition, à disposition de potentiels acheteurs. Fixés au mobilier, ces objets inclinés et alignés ne sont plus vraiment « mobiles », ni même « personnels ». Pourtant, toutes les fonctionnalités premières intégrées aux smartphones sont opérationnelles : prise de note, agenda, contacts, appareil photo, horloge, etc. Certains visiteurs activent alors la caméra – par défaut, celle qui se trouve à l’avant de l’appareil. Une fois la prise de vue décidée, l’image se retrouve stockée automatiquement (et sans intervention) dans la galerie d’images du téléphone. Depuis 2016, le projet PUBLIC consiste à collecter les portraits abandonnés sur ces téléphones. L’enjeu premier de cette collection est de repenser la mise en circulation de ces images produites par des utilisateurs, ainsi que leur mode de diffusion. La distribution, dans des lieux ouverts au public, du journal gratuit PUBLIC réactive certains enjeux plastiques liés à l’histoire du portrait à l’heure des bases de données entraînant les algorithmes de reconnaissance faciale.


Résidence, protocole d’exposition, vues 360, site internet, édition imprimée à la demande, 2018.
berenice-serra.com/residence
Partant du constat qu’en saisissant l’espace public, le service Google Street View capture avec lui les œuvres installées dans cet espace (street art, jardins de sculptures, 1%, etc.), le projet Résidence propose de mettre à l’épreuve le potentiel d’exposition d’œuvres numériques originales à l’intérieur de cette même plateforme. Le protocole de Résidence, permet alors à quiconque de télécharger, modifier puis charger à nouveau des vues 360 à l’intérieur de la plateforme Google Street View. Il repose sur l’outil de publication ouverte contenu dans l’application Street View, pour smartphone, qui autorise tout utilisateur à augmenter la cartographie visuelle en ligne. Cet outil, initialement mis en place afin de dégager la responsabilité de l’entreprise américaine vis-à-vis des contenus publiés – par l’application du droit d’auteur sur les images prises par les utilisateurs -, ouvre une brèche créative dans son utilisation. Les images ne sont soumises à aucune modération de la part de Google et ne seront retirées qu’en cas de signalement d’un « contenu indésirable ». Embrassant les occasions de détournement données par le fonctionnement même de l’outil de publication, ce projet compte aujourd’hui les participations de Marion Balac, Raphaël Fabre, Arzhel Prioul, Seitoung, Bérénice Serra, Julien Toulze et Mathieu Tremblin. Les œuvres sont visibles en ligne, par l’ensemble des utilisateurs de Google Street View. Le site internet du projet rassemble les contributions, le protocole, une édition imprimable à la demande ainsi qu’un texte théorique.

Élise GAY et Kévin DONNOT

Élise Gay et Kévin Donnot sont associés au sein d’un atelier de design graphique spécialisé dans les projets éditoriaux sur papier ou à l’écran. Ils envisagent la diversité des supports de façon perméable et intègrent au besoin des processus algorithmiques (génératifs, itératifs, aléatoires ou issus de jeux de données) à leurs productions imprimées. Ils sont cofondateurs de Back Office, une revue de recherche entre design graphique et pratiques numériques (Éditions B42). Kévin Donnot est également professeur d’enseignement artistique à l’EESAB – site de Rennes.

Alors que la chaîne graphique est aujourd’hui constituée d’applications monolithiques généralistes provenant toutes du même éditeur, leur démarche s’inscrit dans la recherche d’un rapport critique aux logiciels dits « de création ». Ils défendent une approche décloisonnée et mobilisent, au besoin, des langages de programmation et technologies variés (HTML, CSS, JavaScript, PHP, Processing, ExtendScript, SQL, Bash, Arduino, etc.). Chaque projet constitue alors l’occasion d’expérimenter de nouvelles « façons de faire » numériques en développant ou en associant des parties de programmes pour produire des formes singulières et dédiées à un contenu donné. 

Mutations/Créations est un cycle de cinq expositions prospectives présentées au Centre Georges Pompidou depuis 2017 pour lequel Élise Gay et Kévin Donnot assurent la conception graphique des catalogues (Éditions HYX). Imprimer le monde (2017) explore la diversité des formes typographiques qui découlent du déplacement d’un outil virtuel suivant un même ductus (ExtendScript). Coder le monde (2018), intégralement généré à partir de langages Web, propose une lecture hypertextuelle et questionne la notion de code, à la fois comme programme vecteur d’instructions et comme encodage de données sémantiques (XML, PHP, CSS, JavaScript). La Fabrique du vivant (2019) donne à voir l’émergence de structures complexes à partir d’une simulation de comportements organiques simples (Processing) tandis que Neurones, les intelligences simulées (2020) mobilise des algorithmes de machine learning et d’analyse sémantique pour la synthèse automatique d’écritures manuscrites et d’annotation parallèles au contenu de l’ouvrage (C++, Bash).

Benjamin GAULON

Benjamin Gaulon aka Recyclism est artiste, enseignant et producteur culturel. Dans chacune de ces activités, il s’attache à développer une approche créative et critique autour de la technologie, des médias et des modes de consommation qu’ils génèrent. 

Ses recherches portent sur les limites et les échecs des technologies de l’information et de la communication tels que : l’obsolescence programmée, le consumérisme et la société à usage unique, la propriété et la vie privée. Pour ce faire, il utilise le détournement, le piratage et le « recyclage ». Ses projets peuvent être des logiciels, des installations, du matériel informatique, des projets basés sur le Web, des œuvres interactives, ou des interventions dans les arts de la rue.

Depuis 2005, il donne des conférences et anime des ateliers en Europe et aux Etats-Unis sur les déchets électroniques et le piratage informatique/recyclage. Dans les « e-waste workshop » qu’il organise, le public s’initie au circuit bending, au hardware hacking, ainsi qu’aux problématiques liées à l’obsolescence programmée : on y détourne du matériel en apparence obsolète pour recomposer ainsi de nouveaux objets électroniques. L’expérimentation pédagogique, envisagée comme mode de recherche, vient compléter l’arsenal des tactiques de cet artiste.

Depuis 2018 il est directeur de NØ SCHOOL NEVERS un symposium international qui explore l’impact social et environnemental des technologies de l’information et de la communication. Cette formation est assurée par des NØ TEACHERS venus du monde entier. Il est également le co-fondateur du « The Internet of Dead Things Institute » (IoDT), avec Jérôme Saint-Clair (aka 01010101):

Dans un contexte de nécessaire décroissance, amplifié par la crise sanitaire actuelle et ses répercussions sur l’économie mondiale, IoDT se saisit des codes de communication des startups pour mieux en prendre le contrepied. Sur fond de détournement et de transformation de technologies désuètes, IoDT offre un regard incontestablement décalé sur les discours prédominants du tout technologique, de l’innovation à tout prix et de l’entreprenariat roi. 

Le but de cette stratégie est d’initier une prise de conscience auprès du grand public et un changement des mentalités afin d’introduire des réflexes en terme de recyclage et de détournement de matériel électronique, tout en inspirant d’autres initiatives.

www.recyclism.com

www.noschoolnevers.com

www.iodt.re

Un projet : ReFunct Media Modular (Benjamin Gaulon Karl Klomp, Tom Verbruggen, Gijs Gieskes)


Titre: ReFunct Media Modular

Date: Depuis 2015

Taille: Module 12 x 20 cm (longueur variable)

Matériaux: Obsolète Media

“La Raison technicienne croit savoir comment organiser au mieux les choses et les gens, assignant à chacun une place, un rôle, des produits à consommer. Mais l’homme ordinaire se soustrait en silence à cette conformation. Il invente le quotidien grâce aux arts de faire, ruses subtiles, tactiques de résistance par lesquelles il détourne les objets et les codes, se réapproprie l’espace et l’usage à sa façon. Tours et traverses, manières de faire des coups, astuces de chasseurs, mobilités, mises en récit et trouvailles de mots, mille pratiques inventives prouvent, à qui sait les voir, que la foule sans qualité n’est pas obéissante et passive, mais pratique l’écart dans l’usage des produits imposés, dans une liberté buissonnière par laquelle chacun tâche de vivre au mieux l’ordre social et la violence des choses.”

Refunct Media Modular est la prolongation de l’installation Refunct Media, avec cette fois, un focus tout particulier sur les débuts de la miniaturisation de l’électronique et les premiers appareils portables grand public, le tout, sur des supports : modules, conçus par Benjamin Gaulon, permettant de partager électricité et signaux analogiques.

Cette installation se présente comme une chaîne d’appareils électroniques portables «obsolètes » connectés les uns aux autres. Ces connexions sont ici envisagées comme des relations de types parasitisme, symbiotisme, mutualisme et commensalisme, aussi appelées circuit bending. Ainsi chaque élément de la chaîne affecte l’ensemble des appareils du dispositif. Chaque itération du projet consiste à créer une nouvelle boucle audio-visuelle, principe que l’artiste qualifie de hardware sampling.  

Enfin ce projet vise à explorer les possibilités offertes par l’obsolescence programmée (ou communs négatifs) et de questionner notre relation avec ces technologies et leur modes de consommation. 

Laureline GALLIOT

Influencée par sa pratique intuitive, compulsive, tactile de la peinture sur Ipad, Laureline Galliot explore les nouvelles formes de picturalités offertes par les logiciels de peinture et de sculpture virtuelles découverts notamment lors d’une expérience au Disney Research Lab (Pittsburgh, USA) en 2012. Combinés à une imprimante 3D, ces outils numériques lui permettent de produire des objets directement peints en trois dimensions donnant naissance à une nouvelle forme de « chalkware » (artisanat du plâtre). Son travail de designer est ainsi une exploration sensible et expérimentale des potentialités de la conception numérique directe, unifiant couleurs, structure et usage dans un même geste. 

http://www.laurelinegalliot.com/

Un Projet : Digital crafts – painterly products (2012-2020)

D’abord concernée par l’absence de couleurs dans les formes produites en design industriel, Laureline Galliot s’est ensuite intéressée à l’impact des outils de sculpture numérique sur la créativité des designers. La génétique des formes qui nous entourent, constituée principalement d’objets produits en masse, éduque notre regard à une esthétique standardisée. Les objets issus de l’industrie sont comme calibrés, souvent passés au filtre de règles géométriques afin d’être reproduits plus vite pour la production de masse. De ce fait, ils dessinent un visage de ce qu’on associe à la performance technique : la qualité, le progrès.

Remettre au centre la couleur dans le domaine du design est d’abord un moyen de se reconnecter au geste, à l’organique, à la singularité. À l’image des peintres fauvistes, dont on lit la chorégraphie de touches sur la toile, Laureline Galliot se sert des couleurs pour distinguer chacun de ses gestes sculptant la lumière à même l‘écran. Un dispositif de réalité virtuelle (casque et joystick) lui permet une interaction plus riche, son corps étant comme projeté dans l’espace virtuel. La couleur y est un matériau à part entière qu’elle dépose en 3 dimensions ; le corps de l’objet et son décor ne font plus qu’un, puisqu’ils sont générés simultanément tordant le cou au paradigme « la couleur comme finition » si présent dans le design. 

Violaine TOTH – Le bestiaire à six pattes. Projet pour les pollinisateurs urbains.

« Mon voyage en Finlande m’a montré une autre approche de la vie urbaine et de la relation entre l’homme et la nature qui l’entoure. Pendant mon séjour, j’en ai moi-même adopté les codes et les manières appelés là-bas « slow-living » ou « downshifting » qui signifient « vivre lentement », « ralentir » et amènent chacun à observer et à s’immerger dans la nature environnante. Les habitants sont attentifs aux cycles naturels, respectueux de leur paysage et y sont même encouragés par des lois comme le droit universel à la cueillette, au camping sauvage, à la pêche,… Le citadin finlandais est à la fois cueilleur, marcheur, navigateur,.. Il se confronte tous les jours à l’environnement naturel urbain et péri-urbain et sait tirer parti de cette proximité sans en abuser, avec respect et patience.

Dans les villes françaises, on construit, on détruit, on pousse les limites, on écrase, on s’installe. La nature subit ces interventions humaines et se trouve, en effet, repoussée de plus en plus loin des espaces anthropisés. Pourtant, elle rythme la vie des citadins en les sortant d’une monotonie certaine. L’organique est en mouvement perpétuel tandis que le minéral reste immobile. La nature change et s’exprime au fil des saisons. Elle façonne le paysage urbain et accompagne lentement le tumulte de la ville.
La nature s’exprime de façon différente selon la place que nous lui laissons. Elle façonne l’environnement urbain et imaginaire de ceux qui vivent en ville et empêche aux individus de devenir des habitants standardisés. Elle est un vecteur d’enrichissement, de développement, de socialisation et d’inspiration. Je me suis demandé comment cette dimension poétique et vecteur de confort se manifestait dans la ville, quelle était la place du designer dans ce schéma urbain, comment pouvait-il rendre perceptible la poésie des rythmes et des sens introduit par la nature et que pouvait-il entreprendre pour réunir les protagonistes de ce roman binaire homme / nature.

Après une étude attentive des différentes métamorphoses de la nature en ville et ce qu’elle nous apportait en terme biologique, social et lyrique et une recherche approfondie sur les pollinisateurs urbains, notamment l’abeille, j’ai pu comprendre que la compréhension de la nature urbaine était une étape importante dans la conquête du vivre ensemble. Le citadin, pour être en phase avec ses semblables et son milieu de vie, doit entamer un changement d’attitude passant par une écoute plus attentive de ce qui l’entoure et de ceux qui l’entourent.

Aborder la nature urbaine par une approche poétique semble être une solution pour préserver l’environnement et faire de la ville un endroit de vie confortable. Cette relation ne pourra se faire sans la prise en considération des rythmes organiques (les saisons, les besoins en trames vertes et bleues,…) et des dynamiques humaines (le parcours dans la ville, les transports, les limites entre voiries et bâti,…), de l’approche sensible du promeneur et de la présence d’une certaine biodiversité dans la ville. Selon les scénarios urbains qui lui font face, le designer devra donc prendre en compte la sensibilité de chacun et s’adapter aux contraintes culturelles, spatiales et naturelles en se plaçant en réel médiateur. L’étude des pollinisateurs urbains comme les abeilles apparaît ici comme un outil dont le designer peut se servir pour rééquilibrer la relation entre les habitants et la trame verte de leur ville. »

Violaine TOTH (DNSEP 2017).

++ www.tothviolaine.com

Adrien JACQUEMET – L’immersion dans le paysage. Atlas analytique de l’identité graphique territoriale

« Mon objectif est de proposer une alternative aux conceptions marketings des identités visuelles de territoires. Le logotype est souvent présenté comme la pierre angulaire d’une identité visuelle, mais celui-ci est en fait trop restrictif et se contente souvent d’illustrer qu’une particularité du territoire.

En marchant et photographiant, je me suis immergé dans le paysage Orléanais afin de capter l’identité de la ville et de proposer une identité visuelle plus cohérente. Je n’ai cependant pas trouvé de réelle identité territoriale, ni de lien entre le territoire et l’habitant.

On constate comme dans beaucoup d’autres villes un phénomène de métropolisation qui tend à uniformiser le bâti et les modes de vies. L’identité territoriale issue de l’interaction de l’habitant avec son territoire disparaît.

Le projet graphique est un système typographique qui permet de communiquer sur le territoire en s’adaptant à ses communs afin de montrer l’impact du geste quotidien du citoyen. Le concept graphique est basé sur le principe de l’ouverture, les mots se coupent et se mettent en mouvement à chaque usage de l’objet. Le parti pris graphique est radical car il doit trancher avec le surplus de signes dans lequel s’insère la politique de communication de la ville ».

Adrien JACQUEMET (DNSEP 2019)

++ https://adrienjacquemet.com

Martin FOUCAUT – Espaces médiatiques

Espaces médiatiques porte sur la question de la représentation à travers les différents médias, supports et espaces de représentation. Martin FOUCAUT (DNSEP 2019) réfléchit en premier lieu au statut de l’écriture et de la lecture en réseau, en programmant son mémoire sous la forme d’un site Web consultable en ligne.

Par la suite, il a souhaité interroger les effets du processus de transposition du Web vers le print, en imprimant cette publication sur différents supports physiques, depuis le site espacesmediatiques.martinfoucaut.com (actuellement hors-ligne).

Il s’agit enfin de concevoir une scénographie souhaitant mettre en espace ce texte et ces images issus du Web. Elle s’incarne alors sous la forme d’une interface d’exposition directement inspirée du réseau de pages Web que constitue sa publication en ligne.

Nous y retrouvons une série d’installations interactives souhaitant donner à voir, à lire, mais aussi à faire une expérience physique des nouveaux médias.

++ https://martinfoucaut.com/About-1

Manon HOUILLE – SHORT MESSAGE SITUATIONS : la correspondance à l’ère du numérique

En quoi l’évolution de ces formes de correspondance, de la lettre au SMS, conditionne de nouvelles formes plastiques de l‘écriture ?

Le projet SHORT MESSAGE SITUATIONS de Manon HOUILLE (DNSEP 2019) dont l’objet principal est un roman graphique, propose une mise en scène des situations auxquelles deux correspondants peuvent être confrontés en communiquant exclusivement par SMS.

À la fois un travail sur les mots, leur sens et les signes, ce projet tente d’interroger le public sur la manière dont il communique avec l’autre et tente de ralentir l’usage effréné des télécommunications, afin de donner une certaine forme de pérennité à un mode de correspondance immatériel et standardisé.

++ @m.h.graphicdesign

Alexandre ESTEVES – Collapsolab’, Imminence d’un effondrement annoncé

Alexandre ESTEVES (DNSEP 2019) s’est intéressé à la question de l’effondrement de notre civilisation thermo-industrielle, c’est-à-dire celle qui est basée sur les énergies fossiles, et à l’émergence de la collapsologie qui étudie ce phénomène. Il a pour cela cherché à mettre en avant des solutions déjà existantes et accessibles en orientant son travail autour de la question de l’eau.

À partir d’objets/déchets qui nous permettent d’avoir une vie confortable mais qui, en cas d’effondrement, viendraient à manquer rapidement (eau courante, eau chaude, électricité et gaz), il a récupéré des ballons d’eau chaude et des bouteilles de gaz. Ces derniers lui ont permis d’imaginer une gamme formelle et de réaliser une série d’objets fonctionnels réunissant un récupérateur d’eau de pluie, un filtre bio-sable, un bac qui accueille des plantes mellifères, trois contenants accueillant des oyas, ainsi qu’un frigo du désert, un séchoir solaire et, enfin, un lombricomposteur.

++ www.alexandreesteves.com

Fanny EHL – Permis de biodaliser

Le biodalisme est une initiative engagée et nommée ainsi par la compilation des mots « biodiversité » et « vandalisme ». Projeté en 2177 à partir d’un design de fiction, ce concept forgé par Fanny EHL (DNSEP 2018) vise à réinvestir l’espace urbain par de micro-interventions incluant le végétal en vue d’interroger le déclin annoncé de la biodiversité et l’urbanisation croissante par la notion de « révolte douce ». 

Inscrite dans une démarche de design critique, cette approche propose un retour à la terre nue par une déconstruction formelle de la ville ainsi qu’une réappropriation des milieux et espaces de vie par la réintégration du vivant. En réponse au permis de végétaliser mis en place par de nombreuses municipalités, le kit à biodaliser* permet aux citadins-jardiniers d’investir librement le centre des villes tout en incitant les commerçants et riverains à entretenir les jardins urbains. 

* Le kit à biodaliser est constitué d’un arrosoir laissé dans l’espace public, de pochoirs ainsi que d’une bombe de craie temporaire, un mode d’emploi, une presse à pavé, un casque, un gilet jaune ainsi que des barrières balisant le jardin urbain. 

++ Sur le Biodalisme par Fanny Ehl

Antoine BLOUIN – Scrolling CO2

« À travers le dispositif en cire de synthèse Scrolling CO2, je cherche à sensibiliser autour d’une question doublement  écologique, d’une part attentionnelle liée à la question du bien être et d’autre part, environnementale, liée à la question des émissions de CO2 dans l’atmosphère dues à nos pratiques des écrans de smartphones. J’ai donc amorcé un travail de réflexion autour du questionnement suivant :  comment sensibiliser autour d’un phénomène peu, voir non visible, mais qui s’éprouve.

Cette réflexion m’a conduit à penser un dispositif qui se propage dans l’espace par une logique combinatoire et organisée, invasive et multi directionnelle, formellement inspirée de la molécule de carbone. Cette composition modulaire exprime la masse volumique de notre consommation. Une minute de temps d’écran produit en moyenne 57 grammes de C02 dans l’atmosphère, un français en  passe 600 minutes, soit 10h par semaine. J’ai imaginé ce dispositif en cire de synthèse pour qu’il n’y ait aucune perte de matière grâce aux propriétés techniques que le matériau permet.

J’envisage cette recherche comme une exploration pédagogique visant à critiquer d’une certaine manière notre  façon de consommer le numérique. En effet, on ne se rend pas nécessairement compte, que lorsque  nous « swipons », nous « scrollons » sur les réseaux sociaux, tout cela nécessite en amont une quantité importante d’énergie pour alimenter les serveurs, les datas centers. Ce dispositif se matérialise avec l’objectif de mettre en pratique une écologie de notre temps d’attention. Une attention qui se veut rare et précieuse.

Ce projet cherche ainsi à ouvrir un questionnement sur nos réels besoins et envies, mais aussi pour interroger des pratiques sociales futures qui utiliseraient moins de puissance. Notre captation et l’addiction qui en découle nous empêche de voir  le monde qui nous entoure. C’est en accommodant nos regards sur ce qui se passe derrière les pixels de nos écrans que les politiques à venir pourront faire converger l’écologie de l’attention en une réelle attention à l’écologie ».

Antoine BLOUIN (DNSEP 2019).

++ https://antoineblouin.wixsite.com/antoineblouindesign

Remerciements

Nous tenons à remercier très chaleureusement toutes les contributrices et contributeurs de ce projet éditorial, toutes les étudiantes et étudiants, les enseignantes et enseignants de l’ÉSAD Orléans, ainsi que les artistes et designers ayant contribué à faire de ce programme de recherche autour des écologies du numérique une aventure commune passionnante.

Grâce à leurs réflexions, à leurs projets, et surtout à leur générosité et à leur ténacité, ce programme a pu prendre la forme d’un projet éditorial inédit dont on peut espérer qu’il contribue à éclairer les questionnements sur la condition numérique de nos existences et nourrisse les pratiques de design qui cherchent à en développer les potentiels constructeurs, à en réduire les effets néfastes, à en contester l’hégémonie voire à en proposer des alternatives efficaces et durables.

Nous remercions également toute l'équipe de l'ECOLAB, en particulier Emmanuel Cyriaque pour pour sa collaboration dans la conception du projet éditorial, Basile Jesset pour la conception graphique de ce site en web-to-print, Manon Souchet pour sa relecture attentive ainsi que Jacqueline Febvre (directrice de l'ESAD Orléans jusqu'en 2019) pour avoir soutenu ces deux colloques et contribué à l'existence de la recherche dans cette école ainsi qu'à son rayonnement.

Ludovic DUHEM

Colophon

Les écologies du numérique
Actes augmentés du colloque "Les écologies du numérique"
Orléans - 9 et 10 novembre 2017 et 13 et 14 décembre 2018

Sous la direction de : Ludovic Duhem

Avec l'ECOLAB (2017-2019) : Emmanuel Cyriaque, Jacqueline Febvre, Gunther Ludwig, Caroline Zahnd

Conception graphique : Basile Jesset

Editeur : NUMA éditions - École Supérieure d'Art et de Design d'Orléans
Direction éditoriale : Emmanuel Guez
Année de publication : 2022

++ Les programmes du colloque :

Les écologies du numérique 9-10 nov. 2017

Les écologies du numérique 13-14 dec. 2018

Mentions légales

LES ÉCOLOGIES DU NUMÉRIQUE

Adresse du site : https://ecologies-du-numerique.fr

Hébergement : ovh.com

Éditeur : NUMA éditions - École Supérieure d'Art et de Design d'Orléans, France.
14, rue Dupanloup - 45000 Orléans

Direction éditoriale : Emmanuel Guez

Contact : communication@esad-orleans.fr

Droits : Les contenus de ce site sont, sauf mention contraire, mis à disposition selon les termes de la Licence Creative Commons Attribution – Pas d’Utilisation Commerciale 4.0 International.

Loi RGPD : Le site ne dépose aucun cookie.
Les données vous concernant qui pourraient apparaître sur le site pendant votre navigation ne sont en aucun cas stockées sur notre serveur. Ces données ne sortent pas de votre navigateur.

Les articles de ce site peuvent inclure des contenus intégrés (par exemple des vidéos, images, articles…). Le contenu intégré depuis d’autres sites se comporte de la même manière que si le visiteur se rendait sur cet autre site. Ces sites web pourraient collecter des données sur vous, utiliser des cookies, embarquer des outils de suivis tiers, suivre vos interactions avec ces contenus embarqués si vous disposez d’un compte connecté sur leur site web.