Écriture et production du sens

Introduction

Qu’est-ce qui produit du sens dans le dispositif d’écriture ? Est-ce que le sens produit durant l’écriture diffère selon le dispositif technique employé ?

Donner des éléments de réponse à ces questions nécessite en premier lieu de convenir d’une définition commune de l’écriture. Toutefois, il est essentiel de préciser que cette thèse n’a pas pour objectif, ni pour prétention, d’apporter une nouvelle définition à cette notion. Ainsi, nous nous appuyons sur la littérature existante pour dresser les contours de cette écriture et poser les bases de notre recherche.

Ironiquement, que l’on en fasse l’apologie ou la critique, l’écriture est un sujet controversé qui fait toujours couler beaucoup d’encre à son sujet. La littérature y est très abondante et, à notre regret, nous ne pouvons pas en faire le tour. Les plus anciens textes sur l’écriture portés à notre connaissance remontent à l’Antiquité. Durant l’époque classique, Platon a rédigé une critique de l’écriture dans le Phèdre, dans laquelle il affirme que l’écriture serait une création divine ayant pour propriété de diminuer la capacité mémorielle des êtres humains. Plus de deux millénaires après sa rédaction, le Phèdre reste un texte d’actualité qui est souvent réactivé lorsqu’il s’agit de traiter de l’écriture, que ce soit par exemple chez Ong, Derrida ou encore chez Vitali-Rosati. D’autres textes, notamment ceux des stoïciens Sénèque et Marc Aurèle, rédigés au début de l’Empire romain alors sous influence helléniste, nous ont ensuite marqués à la suite du Phèdre. Nous nous sommes également penchés sur les écrits de Saint-Antoine et de Saint-Augustin dont les propos sur l’écriture héritent de la philosophie antique et marquent la fin de la transition entre l’époque hellénistique et l’Empire romain, alors que le christianisme est en pleine expansion en Europe. Durant ces différentes époques, la pratique de l’écriture est alors considérée comme une méthode de mise à distance de soi-même. Écrire est un exercice de pensée critique où s’opère un double mouvement à la fois d’introspection et d’extériorisation. Que le modèle soit celui du philosophe ou celui du religieux, l’écriture est intimement liée à un rapport à soi et à un rapport à l’autre Hadot (2002). En tant qu’exercice, cette pratique permet à ces deux figures d’arpenter les voies de la sagesse et de s’extraire de leur condition humaine pour tendre vers une condition divine (Hadot, 1995, p. 334; 2002, p. 127). Outre ces anciens textes, si l’on s’en tient à un nombre restreint de disciplines académiques issues des lettres et des sciences humaines et sociales, définir l’écriture relève tout autant de la philosophie contemporaine, par exemple avec Foucault ou Derrida, que de l’anthropologie ou de l’ethnologie. On pense notamment aux travaux de Leroi-Gourhan pour qui l’écriture mêle le geste et la parole (Leroi-Gourhan, 2022), ou ceux, plus récents, d’Ingold sur l’histoire des lignes (Ingold, 2013). Les lettres ne sont pas en reste et participent abondamment à cette réflexion. D’ailleurs, les travaux de Christin sur l’origine de l’écriture nous ont été très précieux à ce sujet (Christin, 1999). Parmi ces disciplines qui participent à cette discussion, nous retrouvons également l’archéologie et la linguistique, notamment avec les travaux d’Herrenschmidt et les liens qu’elle tisse entre écriture, système monétaire et écriture informatique (Herrenschmidt, 2023). Les sciences de l’information et de la communication, dans lesquelles nous nous inscrivons, ont largement contribué à ce débat, particulièrement quant à l’implication des médiations techniques qui produisent l’écriture, notamment l’écriture numérique (Bachimont, 2000; Crozat et al., 2011). À travers d’autres travaux en SIC à cheval avec la sémiotique, tels que ceux mentionnant l’énonciation éditoriale de Souchier, l’écriture se réconcilie avec des « éléments anodins et quotidiens d’ordinaire considérés comme insignifiants » (1999) puisque, selon cette théorie, ce sont eux qui la rendent lisible. Ces éléments forment un « texte second » relevant de cadres sociaux, techniques et culturels dont l’énonciation participe à l’écriture au même titre que le « texte premier », celui que l’auteur rédige (1999). L’ouverture vers ces autres cadres techniques, sociaux et culturels nous ont amené à parcourir les travaux de Paveau en sciences du langage à propos de la distribution de l’écriture dans ces dispositifs (Paveau, 2015). Les disciplines s’entremêlant parfois, nous sommes également allés piocher dans des champs de recherche plus vastes comme les media studies depuis McLuhan (1977) jusqu’au posthumanisme avec Hayles (2005) et Barad (Barad, 2007) en passant par les humanités numériques dans lesquelles nous avons baigné tout au long de notre parcours doctoral, que ce soit dans le courant anglophone (Burdick et al., 2012) ou dans le courant francophone (Mounier, 2010). Ce fragment infime de la littérature mobilisée n’est pourtant pas un échantillon représentatif des recherches menées sur l’écriture.

Si l’on saisit le mot écriture dans une requête formulée dans le moteur de recherche isidore.science, ce sont quelques 147 192 résultats toutes disciplines confondues que l’algorithme remonte depuis sa base de connaissances1. Nous constatons qu’il s’agit là d’un sujet quasiment inépuisable et en constante reconfiguration selon les époques et les techniques auxquelles nous recourrons pour justement pouvoir écrire. Cette dimension technique est sans doute celle qui nous intéresse le plus dans le cadre de notre recherche. Mobiliser la technique, c’est également considérer la place des supports dans l’écriture. Le support devient alors un élément indissociable de l’histoire de l’écriture puisqu’il en détermine les configurations, comme l’ont démontré Goody avec la raison graphique (1979) et Bachimont à sa suite avec la raison computationnelle (2000). Cette dimension technique de l’écriture sera notre fil d’Ariane tout au long de ce chapitre.

Afin de l’initier, nous proposons une définition assez large de l’écriture, de manière à ce que nous puissions disposer d’un objet commun auquel se référer sans pour autant prendre parti dans les multiples controverses qu’elle suscite et qui animent les travaux que nous venons de mentionner. Ainsi, nous définissons l’écriture comme un « mode d’expression » et une « fonction de communication » au sein d’une société (Christin, 1999). Saisie sous cet angle, et puisque l’histoire de l’écriture n’est pas notre sujet, l’écriture échappe entre autres à la controverse de son origine, à savoir si elle provient du paradigme de la trace, étant soit comprise comme le signe verbal transposé sur un support soit comme la marque laissée par un corps, ou si elle provient du paradigme du signe selon son sens étymologique d’« événement inaugural [qui] participe d’une révélation » tant qu’il s’inscrit dans un « système » tel que la disposition des entrailles d’une bête sacrifiée lors d’une cérémonie (Christin, 1999). Circonscrire l’écriture selon des modalités d’expression et de communication c’est avant tout mettre en avant une propriété qui peut caractériser toutes les formes d’écriture, même numérique. Lorsque l’écriture est convoquée, elle fait ainsi appel à deux actions : d’abord l’inscription, puis la lecture (Pédauque, 2006). Qu’il s’agisse d’une trace ou d’un signe, retenons que l’écriture est toujours inscrite sur un support et que cette inscription fait l’objet d’une lecture et d’une interprétation.

Lorsque les actions d’inscrire et de lire se mêlent, notamment dans le but de communiquer au sein d’une société, on ne parle plus seulement d’alphabétisation, soit la capacité à organiser des signes, mais de littératie. La littératie peut être définie en tant que capacité à écrire et à lire dans un cadre socioculturel particulier, nous rappelle O. Le Deuff (2012). Cette littératie fait écho à ce « texte second » que mentionnait Souchier à propos de l’énonciation éditoriale (Souchier & Jeanneret, 1999). Si l’alphabétisation renvoie au « texte premier », la littératie quant à elle fait référence à la fois au « texte premier » et au « texte second », c’est-à-dire au contexte dans lequel l’écriture s’insère et qui en permet l’interprétation. Autrement dit, l’écriture s’appuierait non seulement sur l’organisation des signes mais également sur des codes sociaux et culturels ainsi que sur des techniques pour faire office de fonction de communication au sein d’une société. L’écriture ne constitue plus un simple agencement logocentré, où un individu déverse sa pensée sur un support, mais un phénomène distribué et réparti entre les éléments de l’énonciation éditoriale. D’ailleurs, l’énonciation éditoriale n’est pas la seule théorie de l’écriture qui n’est pas centrée sur l’individu. En s’appuyant sur la « cognition distribuée » d’Hutchins (1995), Paveau développe une théorie selon laquelle l’écriture serait le résultat d’une « distribution des agentivités cognitives dans les ressources de l’environnement » (Paveau, 2015). L’écriture, ainsi que la production du sens qui en résulte, serait alors contrainte par ces agentivités cognitives dont la technique fait partie.

À partir de cette définition de l’écriture, la problématique qui nous anime questionne les modalités de production du sens de l’écriture, notamment sur la place et le rôle de l’environnement technique dans cette production. Parmi ces agentivités cognitives participantes de l’énonciation éditoriale, est-ce que la technique et les media qui s’y rattachent produisent-ils du sens ?

Notre hypothèse est que les techniques d’écriture forment un ensemble plus ou moins complexe de médiations, selon la technique employée. Que l’on écrive avec un crayon sur une feuille de papier, avec une craie sur une ardoise ou avec une machine à écrire, il y a toujours des médiations (techniques) entre le geste d’écriture et son incarnation matérielle dans un document. En contraignant matériellement l’écriture, ces techniques déterminent ce qu’il est possible d’écrire et ce qui ne l’est pas. Ces médiations techniques deviennent porteuses du sens produit durant l’action d’écriture.

La défense de cette hypothèse est réalisée en trois parties. La première partie est dédiée aux philosophes de l’Antiquité, plus précisément à la période de transition entre la période hellénistique et le début de l’Empire romain, lorsque les stoïciens pratiquaient l’écriture comme exercice philosophique. À l’instar de Ong et Goody, nous mobilisons cette lointaine période pour la raison qu’elle permet d’observer une transition entre une transmission orale des savoirs et une transmission écrite. Malgré le fait que l’origine de l’écriture remonte à encore plus loin dans le temps, la pratique de l’écriture par les philosophes de l’Antiquité permet d’observer les changements dans la conception même de l’écriture, de la philosophie, et de la production du sens. En effet, à partir de Platon, les philosophes du bassin méditerranéen se sont emparés de l’écriture et en ont développé de nouvelles formes.

Puisque la pratique de l’écriture produit des changements dans la production du sens chez les philosophes de l’Antiquité, nous nous intéressons, dans la deuxième partie de ce chapitre, aux éléments à l’origine de ces changements. En nous appuyant sur les travaux de distribution de l’écriture que Paveau a initialement réalisés pour l’écriture numérique, et que nous employons plus largement pour toutes écritures, nous défendons l’idée que l’écriture est un acte qui dépasse le simple geste d’inscrire un signe sur un support, et que ce geste incarne plutôt un ensemble de dynamiques culturelles, techniques, technologiques et sociales. De Leroi-Gourhan à Goody, en passant par Hutchins, nous nous intéresserons à la fois aux effets provoqués par l’usage de l’écriture, notamment en termes de possibilités de structuration des informations que la parole ne connaît pas, ce que Goody nomme la raison graphique, puis, en nous appuyant sur les travaux d’Hutchins, sur sa distribution dans un dispositif social de navigation en mer. Au même titre qu’Hutchins identifie une distribution de la cognition dans ce dispositif, nous y voyons une distribution de l’écriture organisée selon des procédures propres à cet environnement. Pour chaque action que réalise le navire, c’est tout un ensemble de décisions et d’actions que prennent les membres de l’équipage. Des informations doivent circuler entre les équipiers pour que chaque décision, chaque action, soit réalisée selon un comportement souhaité. Alors, l’écriture circule d’un individu à un autre, d’un medium à un autre, sous la forme d’une chaîne de prise de décisions dans les procédures de la navigation militaire où chaque équipier participe activement à son bon déroulé dans une chaîne de commandement très hiérarchisée.

Tandis que les deux premières parties de ce chapitre nous permettent de commencer à lever la dichotomie entre inscription et support, nous nous intéressons, dans une troisième partie, aux médiations productrices de l’écriture, sous l’angle de la théorie des médias telle qu’elle est pensée depuis l’école de Toronto. Plutôt que de conceptualiser l’inscription d’un côté, telle qu’elle serait pensée par un auteur, et le support de l’autre, prêt à recevoir cette inscription, nous envisageons l’écriture comme un tout, c’est-à-dire comme un environnement dans lequel chaque entité agit sur l’autre. Les travaux de McLuhan, de Kittler et de l’école de l’intermédialité montréalaise nous ont été précieux pour envisager l’écriture sous un tel prisme. Néanmoins, les deux premières théories présentent un aspect critique de déterminisme technologique que la troisième dépasse implicitement, et qui nous empêche de mener à bien cette réconciliation. En nous appuyant sur le nouveau matérialisme et le posthumanisme, nous montrons qu’une autre forme de causalité agentielle est possible entre ces entités agissantes dans l’écriture. Ce faisant, il devient possible de considérer le support comme partie intégrante de l’écriture, comme une dynamique, et non plus comme un élément neutre et inerte séparé du phénomène écriture.

Écriture et exercices spirituels

Cette première partie traite de l’écriture telle qu’elle a été employée par les philosophes de l’Antiquité. À notre époque, nous ne questionnons plus l’intérêt de l’écriture dans nos sociétés car il est nécessaire et primordial de savoir écrire en toutes circonstances. Le texte est un objet omniprésent de nos quotidiens et nous le retrouvons dans toutes les strates de la société, que ce soit au milieu des espaces public, ou dans des formulaires administratifs, sur les lieux de travail ou sur les bancs de l’école, chez soi ou encore à l’université. Du fait de sa nécessité, et de notre habitude à l’employer, nous ne questionnons pas ou peu le fait d’écrire. Si nous faisons un détour par l’époque hellénistique dans ce chapitre, c’est pour apercevoir les changements qu’apporte l’écriture dans une société basée principalement sur la transmission orale des informations (l’écriture étant alors essentiellement utilisée par la magistrature), notamment en nous intéressant plus précisément à la pratique de la philosophie durant cette période.

Dans la cité grecque, l’éloquence et la rhétorique sont les principaux outils du philosophe. Pour eux, l’écriture n’est au départ qu’un moyen de préparer des leçons2 et de les garder disponibles pour les générations suivantes d’élèves philosophes (Ong, 2014). En ce sens, l’écriture n’est pas une chose indispensable à la pratique de la philosophie.

Étudier l’écriture telle qu’elle est pratiquée par les philosophes de l’Antiquité, c’est se poser la question de l’apport de l’écriture à ce mode de vie alors qu’elle ne leur était pas indispensable. Pour l’exprimer autrement, nous nous demandons ce que l’écriture produit comme sens différent ou supplémentaire par rapport à une transmission orale plus traditionnelle à cette époque ?

Dans son ouvrage Exercices spirituels et philosophie antique, Pierre Hadot décrit ce qu’était la philosophie antique durant l’apogée de la civilisation grecque que l’on peut situer à partir de la fin de l’époque présocratique (environ 700 av. JC) jusqu’à la fin de la période hellénistique (31 av. JC). Durant cette période, la philosophie n’était pas seulement un exercice de pensée pour répondre aux questions sur l’existence de l’être et son rapport au monde, mais elle était un mode de vie qui se pratiquait au quotidien. Elle était pratiquée par celles et ceux qui aimait et désirait la sagesse. L’objectif n’était pas d’atteindre cette sagesse, car elle est l’apanage des dieux, mais d’en frayer la voie pour s’en approcher. Les philosophes de l’Antiquité, à la différence de leurs contemporains spécialistes du savoir, les sophistes, modifiaient ainsi leur façon de vivre et l’accordaient à un système de valeurs vertueuses aligné sur les préceptes de l’école ou du courant philosophique auquel ils étaient rattachés. La philosophie pratiquée par les anciens était plus qu’un mode de pensée, elle était donc une « manière d’être » (Hadot, 2002, p. 77). Afin de parcourir ce chemin vertueux, les différentes écoles et courants ont mis au point des séries d’exercices spirituels que les philosophes pratiquaient au quotidien.

L’étymologie de ces exercices est strictement identique à celle de l’ascèse chrétienne\ : askesis. Les deux termes ont une origine commune, mais ont une signification bien différente. À ce propos, Hadot nous met en garde quant à la confusion possible entre ces deux askesis. L’askesis chrétienne se rapproche de la définition contemporaine du terme, c’est-à-dire de l’abstinence et de la restriction de nourriture, de boisson, de relation sexuelle, etc.; tandis que l’askesis grecque ne renvoie qu’aux exercices spirituels que nous avons mentionnés, qualifiés comme étant « une activité intérieure de la pensée et de la volonté » (Hadot, 2002, p. 78). La philosophie antique, à travers l’askesis, agit comme une « thérapeutique des passions » (Hadot, 2002, p. 22). Une pratique assidue permet de se dépouiller de ces dernières et d’opérer une objectivation du monde débarrassée des perceptions subjectives et des affects. « L’intériorisation [réalisée à travers cette vie ascétique] est dépassement de soi et universalisation » (Hadot, 2002, p. 22), notamment chez les épicuriens et les stoïciens. En somme, lorsque le philosophe entreprend son parcours, il en vient à se détacher de sa condition humaine et, par un mouvement d’extériorisation, développe une « une nouvelle manière d’être-au-monde […] qui consiste à prendre conscience de soi comme partie de la Nature » (Hadot, 2002, p. 330).

Hadot propose également une liste de ces exercices parmi lesquels on trouve : la recherche (zetesis), l’examen approfondi (skepsis), la lecture, l’audition (akroasis), l’attention (prosochè), la maîtrise de soi (enkrateia), l’indifférence aux choses indifférentes, les méditations (meletai), les thérapies des passions, le souvenir de ce qui est bien et l’accomplissement des devoirs (Hadot, 2002, p. 26). L’auteur accorde une valeur particulière à l’examen de conscience que suppose l’attention à soi (prosochè). Il s’agit d’un exercice à réaliser quotidiennement, voire même plusieurs fois par journée. Pour cet exercice, le philosophe prend du recul sur ses actes passés, soit une distance critique vis-à-vis de sa manière d’être qu’il confronte au système de valeurs auquel il prétend appartenir. Une des méthodes pour réaliser cet exercice est l’écriture de soi. Le philosophe couche sur le papier les actions effectuées durant une période précise, il s’y raconte. C’est ce que font, par exemple, Sénèque dans les Lettres à Lucilius ou Marc Aurèle dans les Pensées pour moi-même3.

En réalisant un léger anachronisme, cette pratique de l’écriture de soi pourrait aisément être confondue avec une écriture diaristique ou se rapprocher d’un récit autobiographique. Cette confusion est souvent faite notamment pour des ouvrages tels que les Confessions de Saint-Augustin, ou Les Confessions de Rousseau, ou encore les Méditations de Descartes. Elles peuvent effectivement être lues comme un récit autobiographique ou alors comme la réalisation d’une askesis, où l’auteur utilise l’écriture pour exercer une tension entre un récit de lui-même et des réflexions philosophiques. Le succès de cette méthode qu’est l’écriture perdure pendant plusieurs siècles tandis que l’époque hellénistique est révolue, comme en témoigne les exemples précédents ainsi que les écrits d’Athanase d’Alexandrie dans la Vie d’Antoine vers l’an 360 (soit environ 40 ans avant les Confessions d’Augustin). Hadot en cite le passage suivant (Hadot, 2002, p. 90)\ :

Que chacun note par écrit, conseille Antoine, les actions et les mouvements de son âme, comme s’il devait les faire connaître aux autres. En effet, poursuit-il, nous n’oserions certainement pas commettre des fautes en public, devant les autres. Que l’écriture tienne donc la place de l’œil d’autrui.

Ainsi, l’examen de conscience, dont la finalité est la maîtrise de soi, peut être réalisé par une série d’étapes dont la première est l’introspection. Cette introspection est accomplie grâce à une mise en récit de soi via un medium, l’écriture, et génère alors une deuxième étape, celle de l’extériorisation de soi. Dans le cadre de cet exercice, l’écriture dépasse la simple condition de technique/support grâce auquel une information peut être transmise et devient la condition sine qua non de l’accès à l’autre.

À titre d’exemple, dans la lettre 834 de sa correspondance avec Lucilius5, Sénèque écrit ceci\ : « Sans doute l’homme devrait toujours se conduire comme s’il avait des témoins, toujours penser comme si quelqu’un pouvait lire au fond de son cœur » (Sénèque, s. d.). Dans cette lettre, antérieure de trois siècles au texte d’Athanase d’Alexandrie, Sénèque soumet à Lucilius une méthode très similaire à celle de Saint-Antoine. Cette méthode s’incarne à travers la lettre, alors employée comme support de cette méthode et de cette leçon philosophique.

Sénèque nous indique dès le début de la lettre qu’il s’agit de l’exercice de l’examen de soi\ : « Je vais donc me mettre à m’observer, et, pour plus de sûreté, je ferai le soir la revue de ma journée ». Si nous considérons qu’il s’agit bien là de la réalisation d’un exercice spirituel, en sachant que Sénèque est un philosophe de l’école stoïcienne, nous pouvons en déduire que cette lettre comporte un double enjeu. Le premier est explicite\ : Sénèque fait une démonstration à Lucilius comme un maître peut le faire avec son élève. Le second est la réalisation de l’exercice pour Sénèque lui-même. En réalisant cet exercice dans le cadre d’une leçon qu’il dispense, Sénèque en profite pour appliquer cette méthode et écrire son examen de conscience qu’il va pouvoir livrer à Lucilius qui, en l’occurrence, incarne l’autre. La conjugaison au futur employée dans la lettre donne à penser que Sénèque prémédite les actions et mouvements qu’il va réaliser dans la journée. Nous pouvons supposer qu’il fait en sorte que ses actions soient vertueuses afin qu’il n’y ait rien dont il puisse avoir honte car il sait que Lucilius sera témoin de son récit.

Néanmoins, il ne s’agit pas uniquement de se livrer à autrui au sens d’un destinataire, comme cela peut paraître être le cas dans cette correspondance. D’ailleurs ce n’est pas le regard que l’autre peut porter sur soi qui importe en matière de philosophie antique. Qu’il s’agisse de Sénèque ou d’Antoine, leurs méthodes convoquent un autre qui est soit « public », soit « témoin ». L’autre ainsi convoqué dans ce mouvement d’extériorisation est avant tout un autre social et politique que l’écrivain projette sur son texte lorsqu’il écrit. Finalement, le philosophe se doit d’être irréprochable et sa conduite doit correspondre à l’image attendu d’un philosophe dans l’école mais aussi et surtout dans la cité (grecque). Il ne dépend pas du regard que peuvent porter les citoyens sur lui, mais plutôt d’un système de valeurs qui le détermine en tant que philosophe. La question de la maîtrise de soi et de l’examen de conscience est donc fondamentalement éthique.

Ong, dans son ouvrage intitulé Oralité et écriture nous donne une piste de réflexion quant à l’emploi et à l’intérêt de l’écriture dans la pratique de la philosophie alors que la tradition est initialement orale. Selon lui, l’écriture permet de créer un objet qui va laisser une trace de ce qui a été prononcé. L’écriture sert en premier lieu à préserver un discours car, « une fois prononcé, il ne restait rien sur quoi travailler » (Ong, 2014, p. 29). D’ailleurs, la transcription de ces discours était réalisée bien après qu’ils aient été prononcés. Socrate, par exemple, n’a laissé aucun écrits pour les générations futures et c’est notamment Platon, son élève, a qui l’on attribue la préservation de ces enseignements à travers la mise en scène de Socrate, le personnage, dans ses textes. Contrairement à aujourd’hui, l’écriture n’était donc pas un support pour préparer un discours. Cette première fonction de l’écriture à trait à la mémoire et à la transmission. Cette fonction de soutien à la mémoire n’est pas sans rappeler les hypomnémata, des notes que l’on rédige sans forcément que les informations y soient ordonnées à l’intérieur. Ce sont plutôt des notes désordonnées que l’on peut mettre de côté pour décharger sa mémoire. Hadot, en citant Aulu-Gelle, nous rappelle qu’il s’agit là du sens étymologique d’hypomnéma, d’être justement un aide mémoire (Hadot, 1992, p. 47). Initialement, ces notes ne sont pas destinées au public, elles sont plutôt gardées pour soi. Toutefois, elle peuvent elles aussi faire l’objet d’une publication, comme ce fut le cas pour les Pensées de Marc Aurèle, dont la publication de la première édition est réalisée plusieurs après son décès (Hadot, 1992 , p.36).

Marc Aurèle (121-180 ap. JC) était un empereur romain. Il accéda au trône en l’an 161 et régna pendant une vingtaine d’années sur un empire tourmenté par les guerres et les catastrophes naturelles. Plus tard, il sera qualifié par Machiavel comme le dernier des « excellents empereurs »6, donnant lieu à l’expression des « cinq bons empereurs » que l’on retiendra ensuite. Marc Aurèle est connu pour avoir été un empereur-philosophe de l’école stoïcienne. Les Pensées laissées par Marc Aurèle sont aujourd’hui considérées comme une œuvre majeure de la philosophie antique, dont Hadot était un spécialiste. Son ouvrage La Citadelle intérieure\ : introduction aux Pensées de Marc Aurèle, est révélateur quant à la place de l’écriture dans la vie philosophique de l’empereur romain. Selon Hadot, les Pensées sont des hypomnémata particulières par rapport à celles des autres philosophes. En plus d’être des notes qu’il rédige pour lui-même, Marc Aurèle les emploie à des fins de réalisation d’un exercice spirituel, comme le fait Sénèque lors de sa correspondance avec Lucilius. Les Pensées sont donc la trace de cette pratique de l’écriture quotidienne, sous forme de notes où l’auteur s’y raconte. Marc Aurèle les écrits au jour le jour sans qu’il n’y ait, a priori, de suite logique entre ces notes car il ne les écrits pas dans l’objectif de les publier par la suite. D’ailleurs, elles seront recomposées ensemble plus tard, lors de leur publication.

Un fait tout à fait intéressant est que ces notes ont été soigneusement rédigées par l’empereur lui-même selon la méthode stoïcienne. De par son statut, Marc Aurèle avait accès à tout un ensemble de services dont des scribes pour occuper le rôle de secrétaire. Pourtant, Hadot nous confirme que les Pensées ont été rédigées de la main de l’auteur et en grec qui plus est, tandis que la langue courante durant le règne de Marc Aurèle était le latin (Hadot, 1992, p. 67).

Cette information nous permet de mettre à jour la deuxième fonctionnalité de l’écriture que l’on doit retenir de cette pratique de l’écriture philosophique. Marc-Aurèle n’écrit pas pour se relire dans un temps second, il écrit pour réactiver les dogmes stoïciens en suivant les consignes laissées par Épictète. Marc Aurèle le dit lui-même :

Les principes vivent. Comment pourraient-ils mourir, à moins que les idées qui leur correspondent ne s’éteignent ? Or celles-ci, il dépend de toi de les raviver sans cesse. (Aurèle, 2015, VII, 2, p. 85)

Les consignes laissées par Épictète sont très similaires à cette note de Marc Aurèle. Hadot en cite deux (1992, p. 65) :

Voilà ce que doivent méditer les philosophes, voilà ce qu’ils doivent écrire tous les jours, qui doit être leur matière d’exercice (I, 1, 25).

Ces principes, il faut que tu les aies sous la main (procheira), la nuit et le jour, il faut les écrire, il faut les lire (III, 24, 103).

Grâce à ce que nous disent Marc Aurèle et Épictète, on devine que l’écriture est nécessaire à la pratique de la philosophie en ce qu’elle permet de réactiver quelque chose chez le philosophe que la lecture ne permet pas car « les pages écrites sont déjà mortes » (Hadot, 1992, p. 66). Écrire permet de se rappeler les dogmes stoïciens et aussi de se les approprier par la reformulation constante. La répétition par la réécriture permet à Marc Aurèle de formuler différemment ses Pensées jusqu’à ce qu’il les ait assimilées et qu’elles soient siennes, jusqu’à ce qu’il vive en tant que philosophe, c’est-à-dire que ses actes soient en accord avec les dogmes qu’il répète sans cesse – c’est-à-dire jusqu’à sa mort puisque l’état de philosophe relève du divin, il est inatteignable.

C’est d’ailleurs pour cette raison que Marc Aurèle rédige lui-même ses Pensées alors qu’il pourrait les faire écrire par un scribe. C’est également pour cette raison qu’il écrit en grec et non en latin : les concepts majeurs du stoïcisme ont été fondés durant l’époque hellénistique, en grec donc, et n’ont pas été traduits en latin. Marc Aurèle manipule le grec pour exprimer et réactiver quelque chose en lui que le latin ne peut réaliser.

En écrivant ses Pensées, Marc Aurèle pratique donc des exercices spirituels stoïciens, c’est-à-dire qu’il utilise une technique, un procédé, l’écriture, pour s’influencer lui-même, pour transformer son discours intérieur par la méditation des dogmes et des règles de vie du stoïcisme. Exercice d’écriture au jour le jour, toujours renouvelé, toujours repris, toujours à reprendre, puisque le vrai philosophe est celui qui a conscience de ne pas encore avoir atteint la sagesse (Hadot, 1992, p. 67).

Les exercices spirituels, que ce soit à travers Sénèque ou Marc Aurèle, nous montrent que l’écriture est une technique qui affecte la pensée. L’écriture a alors une double fonction, la première est un aide-mémoire tandis que la seconde déplace la stricte répétition identique d’un dogme (d’une idée) pour passer à l’action de reformulation. Cette deuxième fonctionnalité découle de la première, même si ce n’est pas un fait évident de prime abord. Si la reformulation est rendue possible, c’est bien parce que l’écriture décharge l’auteur du devoir de mémoire, puisque celle-ci est dorénavant inscrite sur un support. En libérant la pensée de cette charge, l’écriture permet à Marc Aurèle de formuler ses Pensées d’une nouvelle façon.

Dans son ouvrage Preface to Plato, Havelock nous informe que, du temps où il n’y avait pas de livres, la poésie était le moyen par lequel les informations étaient transmises (Havelock, 1967, p. 44). Les poètes s’exerçaient à répéter les mêmes formules clichées d’un poème à l’autre pour pouvoir transmettre de génération en génération les mémoires et les sagesses de leurs prédécesseurs, Homère étant le poète par excellence de cette forme de transmission. La poésie orale a alors une fonction de mémoire et de fait délimite la formulation de la pensée (et de la création de poème) pour éviter que les savoirs ne se perdent (Ong, 2014, p. 44). Tandis qu’à partir de l’époque de Platon, les Grecs intériorisent l’écriture et se déchargent de la fonction mémorielle : les savoirs et les connaissances sont préservées dans les supports écrits. Ainsi, « le nouveau moyen de stocker du savoir ne consistait plus en formules mnémoniques mais en texte écrit, ce qui, en libérant l’esprit, le disposait à d’autres réflexions plus originales, plus abstraites » (Ong, 2014, p. 44). Pour cette deuxième fonction de l’écriture, c’est précisément parce qu’elle permet de décharger l’esprit de la fonction mémorielle qu’elle permet à Marc Aurèle de se réapproprier les dogmes du stoïcisme non pas par la répétition mais par la reformulation. En la sollicitant, les philosophes affectent leur façon de penser et surtout leur façon de vivre.

L’écriture est distribuée

Cet exemple des exercices spirituels nous montre qu’il y a dans l’écriture quelque chose qui permet de produire un sens différent d’un autre mode d’expression, oral dans notre exemple. Lorsque Marc Aurèle écrit, il le fait sur un support donné, certainement des tablettes (pugillares) ou des feuillets (schedae) sur lesquelles l’écriture de notes peut être rapide, mais toutefois limitée en espace (et pas forcément pérenne) (Hadot, 1992, p. 48). Ces deux supports ont la particularité d’être relativement petits. Les schedae sont des feuillets volants, non rattachés entre eux, à l’image des fiches contemporaines (Ronconi, 2022) tandis que les pugillares sont des petites tablettes certainement composées de cire et qui peuvent tenir dans la main (d’où leur nom). Marc Aurèle emploie également le grec et non le latin pour inscrire des concepts qui n’existent que dans cette langue, alors qu’il pourrait aussi bien proposer des traductions de son cru. Plus que le choix de la langue, Marc Aurèle fait le choix d’employer les notions qu’il a appris dans un contexte social précis : celui de l’école stoïcienne. En respectant ainsi les traditions et les dogmes de l’école stoïcienne, il revendique une appartenance identitaire à cette communauté, identité qui d’ailleurs persistera dans le temps puisque, lorsque nous évoquons Marc Aurèle aujourd’hui, nous convoquons à la fois l’image de l’empereur et celle du philosophe stoïcien. Tous ces choix que réalise Marc Aurèle définissent les contraintes de l’écriture et la manière dont il va pouvoir écrire. Ce sont ces contraintes qui, en un sens, déterminent l’écriture et le sens qu’elle produit. Cela nous amène à considérer l’écriture sous une nouvelle perspective : les éléments qui construisent l’écriture sont disséminés dans diverses entités comme le sont la langue employée et le support physique récepteur de l’inscription. À partir de ce constat, nous proposons de considérer l’écriture comme un phénomène distribué. Cette proposition n’est pas anodine puisqu’elle écarte la définition de l’écriture comme une production uniquement humaine, c’est-à-dire produite par un seul centre de contrôle, la cognition humaine (et le geste technique qui l’accompagne).

Le Phèdre de Platon abonde également dans le sens d’une écriture qui n’est pas uniquement humaine. Socrate, le personnage, révèle à Phèdre, ainsi qu’au lecteur, l’origine divine de l’écriture. Celle-ci aurait pour père le dieu Theuth (Platon, 2007, p. [274‑277]). C’est Theuth qui, en premier, aurait découvert les arcanes de l’écriture. En s’appuyant sur cette origine divine, Ong, à l’instar de Platon, qualifie l’écriture d’inhumaine, car « elle prétend établir en dehors de l’esprit ce qui ne peut être en réalité que dans l’esprit ». Pour Socrate, « elle est une chose, un produit manufacturé » séparé de sa source vivante et de l’esprit d’où émerge l’idée avant qu’elle ne soit inscrite sur son support (Ong, 2014). Pour Ong, l’écriture est une technique, puisqu’elle mobilise toujours des outils que ce soit une feuille ou un pinceau, qu’elle soit numérique ou non, et implique, comme toutes les techniques, « des transformations intérieures de la conscience ». Le fait de qualifier l’écriture d’inhumaine renvoie alors à cette possibilité que l’écriture, en tant qu’élément extérieur à l’humain, participe à la construction de la pensée et de l’individu.

Afin de mieux comprendre ce qu’impliquerait la participation de ces éléments extérieurs à l’être humain dans la production du sens, nous nous tournons vers plusieurs théories, ou plutôt vers un ensemble d’intrications théoriques, qui intègrent le non-humain dans leur approche. Les théories à ce sujet, même si elles ne sont pas majoritaires, foisonnent depuis plusieurs siècles. Leroi-Gourhan, dont l’une de ses thèses est justement que la technique façonne les êtres humains et la pensée, cite La Création de l’homme de Grégoire de Nysse (379 ap. JC.) dans son ouvrage Le Geste et la parole (Leroi-Gourhan, 2022, p. 59) :

Ainsi, c’est grâce à cette organisation que l’esprit, comme un musicien, produit en nous le langage et que nous devenons capable de parler. Ce privilège, jamais sans doute nous ne l’aurions, si nos lèvres devaient assurer, pour les besoins du corps, la charge pesante et pénible de la nourriture. Mais les mains ont pris sur elles cette charge et ont libéré la bouche pour le service de la parole.

En s’appuyant sur Grégoire de Nysse, Leroi-Gourhan soutient que le développement du cerveau – le siège de l’intelligence humaine – est une conséquence biologique de l’évolution des êtres humains et non sa propriété principale, contrairement aux idées évolutionnistes largement répandues durant le XIXe siècle (Leroi-Gourhan, 2022, p. 30).

Cette hypothèse lui permet d’échapper à ce « déterminisme aboutissant à des formes vivantes de plus en plus adaptées aux mobiles de l’exploitation de la matière [dont] pour nombre d’évolutionnistes, […] le fait significatif est le développement toujours plus grand du cerveau et de ses dépendances nerveuses » (Leroi-Gourhan, 2022, p. 109‑110). Pour le dire autrement, Leroi-Gourhan émet l’hypothèse que les développements du cerveau sont liés à « l’adaptation des structures corporelles » aux environnements dans lesquels le corps se situe. La cognition ou la pensée seraient alors des conséquences de ces adaptations techniques et non l’inverse. La pensée est quelque chose qui vient après les changements techniques et non pas avant, ce qui veut dire que la technique joue un rôle dans le fonctionnement de la pensée. Dès lors, nous pouvons nous demander si les techniques d’écriture n’ont pas, à leur tour, libéré quelque chose dans la pensée, comme ce fut le cas pour Marc Aurèle.

Si Leroi-Gourhan, à l’instar de Grégoire de Nysse, nous démontre que la main libère la bouche et le langage, c’est du côté de Marie-Anne Paveau que nous trouvons une approche axée sur le discours plutôt que sur la paléontologie et l’évolution. Marie-Anne Paveau est une spécialiste des théories du discours, de l’histoire de leur analyse ainsi que des linguistiques sociales. Elle développe entre autres une approche non-anthropocentrée de la production du sens, notamment :

[une] théorie du discours retravaillée par la cognition sociale dans sa version distribuée : l’intelligence est distribuée dans les environnements, humains comme non humains, et l’objet d’analyse est le système, et non seulement les énoncés ou les locuteurs, qui n’en constituent qu’une partie. Il s’agit donc d’une conception du discours comme intégré dans l’ensemble de l’environnement humain et non humain, et non distingué de cet environnement : je souhaite éviter l’approche « égocéphalocentrée » (expression de C. Brassac qu’il emprunte à J.-P. Kaufmann, et qui désigne une approche internaliste centré sur le sujet-locuteur) et logocentrée. (Paveau, 2012).

Cette théorie rejoint en un sens le propos de Leroi-Gourhan, excepté le fait qu’elle ne se limite pas seulement à la technique, mais concerne également l’ensemble de l’environnement humain et non-humain. Cette perspective d’une « cognition sociale distribuée » ouvre la possibilité d’une cognition externe à la fois sociale mais aussi culturelle et plus seulement internaliste (à l’intérieur du cerveau) (Paveau, 2015).

Pour construire cette réflexion, Paveau s’appuie avant tout sur la cognition distribuée développée par Edwin Hutchins dans les années 1990 (Paveau, 2015). Le texte d’Hutchins s’intitule Cognition in the Wild et a été publié en 19957. La publication de cet ouvrage majeur fait suite à une recherche ethnographique menée pendant plusieurs années auprès de l’US Navy. C’est grâce à une pratique antérieure de la navigation et surtout à l’observation des manœuvres de navigation réalisées par l’équipage de l’USS Palau, un bâtiment amphibie de transport d’hélicoptères, qu’Hutchins développe cette notion de cognition distribuée (Hutchins, 1995).

Dans ce texte, Hutchins nous explique que manœuvrer un bâtiment de plusieurs milliers de tonnes et de presque 200 mètres de long n’est pas une action réalisable par une seule personne. Pour accomplir cela, un navire a besoin de tout un équipage coordonné, que l’on peut répartir en plusieurs organes nécessaires à la navigation. Tout d’abord, plusieurs membres d’équipage doivent être affectés directement aux commandes de la navigation, un organe de prise de décision de la route à suivre ou de la manœuvre à effectuer. Ensuite, d’autres marins doivent s’occuper de la propulsion du bateau, il faut donc des mécaniciens parés à modifier l’état de la propulsion en tout temps. Un navire de cette taille est également doté d’organes sensoriels, des sonars, des radars, des radios, des jumelles, de sondes, etc., afin de lui permettre d’appréhender le monde extérieur. Pour utiliser ces outils, d’autres marins doivent également être affectés à ces postes afin de collationner et analyser les informations captées par ces senseurs. Tout cela ne représente que les grandes lignes de la navigation d’un tel bâtiment, la liste pourrait largement être allongée par d’autres services tels que l’aéronautique (selon les manœuvres il peut être nécessaire d’ajouter cette fonction puisque le Palau est un porte-hélicoptères), la logistique (à la fois en termes de transport mais aussi en termes de support de l’équipage, il faut bien que les personnels affectés à la navigation mangent, dorment, puissent prendre soin d’eux, etc.), l’artillerie, la santé, etc. Toutes ces personnes et ces matériels sont rigoureusement organisés selon des procédures très précises pour que chaque manœuvre puisse être réalisée correctement ou que l’équipage puisse répondre dans les plus brefs délais à une avarie ou à une situation exceptionnelle. Ces procédures sont encadrées par des codes sociaux et une chaîne hiérarchique qu’impose le monde militaire. Lorsque le commandant de l’unité donne un ordre, celui-ci se répercute auprès du chef de quart en poste à la navigation, qui va ensuite traduire cet ordre par une multitude d’actions et d’ordres qu’il va déléguer aux différents services que nous venons de mentionner. Par exemple, au moment d’entrer dans un port, le chef de quart va probablement demander à la salle des machines de réduire l’allure à une vitesse appropriée, puis il va demander au barreur de modifier la route de navigation pour positionner le bâtiment dans le chenal de navigation, puis il demandera aux manœuvriers de se préparer sur les plages avant et arrière du navire pour préparer l’accostage et l’amarrage à quai. La réalisation de ces actions ne dépend pas de la réflexion d’une seule personne – le chef de quart en l’occurrence – mais de tout un équipage où chaque personne compte car chaque action à son importance pour le bon déroulement de la procédure. Puisque le chef de quart ne peut pas tout penser par lui-même, car la charge est trop importante, il la distribue avec le reste de l’équipage.

Déplacer un aussi gros bâtiment n’est pas quelque chose que l’on met en exécution à vue d’œil ou au doigt mouillé. Sur l’eau, un bâtiment d’un tel poids à une très longue inertie. Excepté sur certains navires de dernière génération, la plupart des bâtiments sont dotés d’une propulsion à transmission mécanique par ligne d’arbre se terminant par une hélice. Il n’y a pas de freins sur un bateau, ni de roues pour tourner très rapidement. Avec ce système de ligne d’arbre, un navire ne peut pas tourner en un instant, ni s’arrêter brutalement en serrant les freins, comme le ferait un pilote automobile. Si l’on coupe la propulsion d’un bâtiment qui navigue, il va rester sur son erre pendant très longtemps avant de s’arrêter – l’erre représente la vitesse résiduelle lorsqu’il n’y a plus de propulsion. En conséquence, naviguer requiert d’anticiper un maximum la route à suivre et les changements à effectuer pour suivre la bonne route ou effectuer la bonne manœuvre. Cette anticipation est rendue possible par la présence d’outils de mesure et de calcul présents à bord, les radars, les sonars, les GPS, le sextant ou la table traçante – une table avec une carte sur laquelle un équipier va pointer la position du bateau grâce à différents calculs pour avoir un aperçu en temps réel de la situation du navire. Par calcul – ou computation –, Hutchins se réfère à la « propagation d’un état à travers les supports » (1995, p. 118), c’est-à-dire à la captation d’un événement par un senseur que l’équipage va traduire par une valeur, puis un graphe, puis un ordre et enfin une action pour l’appliquer. La particularité de cette valeur mesurée est qu’elle ne peut l’être qu’au moyen d’un outil : sans cet outil et sans écriture, la mesure ne peut pas être réalisée et la propagation de l’état correspondant ne se fera pas. Les décisions qui en découlent seront alors certainement différentes sans cette information.

Une situation de navigation typique est le cabotage, la navigation près des littoraux. Lorsqu’un navire de l’envergure de l’USS Palau se trouve près des côtes, il est nécessaire que les membres de son équipage – au moins l’équipe de quart affectée à la navigation – connaissent sa position en tout temps. Parmi les senseurs qu’ils peuvent utiliser, un de ceux que l’on va préférer dans cette situation est l’alidade. Une alidade est un instrument avec un système de visée monté sur un axe vertical rotatif qui permet d’obtenir un angle entre l’axe du bateau et un amer, c’est-à-dire un objet fixe et visible à terre, tel qu’un phare. Une fois que les équipiers se sont accordés sur le choix des amers sur lesquels ils vont s’appuyer pour réaliser le relevé à l’alidade, le chef de quart coordonne la prise de relevé grâce à un TOP oral et l’équipier derrière la table traçante reporte ensuite les angles annoncés par les équipiers derrière les alidades. Ces résultats (il en faut au moins deux) permettent à l’équipier de la table traçante de déduire la position du navire par triangulation, c’est-à-dire grâce au croisement des informations qu’il a reportées sur la carte. Toutefois, cette position du navire n’est pas en temps réel, elle est différée puisque le bateau aura forcément avancé de plusieurs dizaines de mètres entre le moment où le relevé est effectué et le moment où les angles sont reportés sur la carte. Malgré ce léger décalage de tout au plus une dizaine de secondes pour un équipier habitué à l’exercice, le chef de quart peut vérifier si le navire suit la route préparée ou s’il faut modifier certains paramètres du bateau pour s’en rapprocher dans le cas où le bateau ce serait écarté de cette route. L’angle mesurée par l’équipier à l’alidade est transformée en une position sur la table à carte, puis à nouveau transformée en une ou plusieurs valeurs (changement de l’angle de la barre, changement de vitesse sur les lignes d’arbre, etc.) par des ordres passés à l’équipage selon la conduite décidée par le commandant ou le chef de quart. Pour Hutchins, il y a donc une continuité entre la technique, les technologies, l’organisation sociale et la cognition qui se retrouve distribuée dans tous ces éléments culturels.

La pensée d’Hutchins peut être alors résumée par cette citation :

Je propose une notion plus large de la cognition parce que je veux préserver un concept de cognition en tant que computation, et je veux que le type de computation qu’est la cognition soit applicable aux événements qui impliquent l’interaction des humains avec des artefacts et avec d’autres humains, ainsi qu’aux événements qui sont exclusivement internes aux personnes individuelles. (Hutchins, 1995, p. 118)8

Cette conception de la cognition distribuée avec sa technologie cognitive permet à Paveau de transposer la théorie d’Hutchins à l’écriture et de qualifier la technologie de discursive. Ainsi, elle définie la technologie discursive en tant que « dispositif au sein duquel la production discursive est intrinsèquement liée à des outils technologiques » (Paveau, 2015). Cette transposition, Paveau la réalise au moyen de la notion de technologie intellectuelle que l’on retrouve notamment chez Goody.

Jack Goody est un anthropologue britannique ayant exercé dans la seconde moitié du 20e siècle. Ses travaux sur l’écriture ont largement marqué la recherche en Occident, que ce soit en Amérique du Nord chez Ong, chez McLuhan ou, quelques décennies plus tard avec l’école de l’intermédialité montréalaise, ou encore de l’autre côté de l’Antlantique, en Europe, avec notamment les recherches en sciences de l’information et de la communication ou les travaux très critiques d’Anne-Marie Christin sur la déraison graphique (Christin, 2009). Goody est notamment connu pour ses recherches sur l’écriture et ses développements de la raison graphique dans lesquels il traite justement de la production du sens. En s’appuyant sur les différences entre les modes de communication oral et écrit ainsi que sur ses expériences de terrain au sein de différentes communauté à travers le monde, Goody analyse dans cet ouvrage les effets de l’écriture sur les « modes de pensée » (Goody, 1979, p. 31). Contrairement à Hutchins, Goody est influencé par Lévi-Strauss et se positionne directement dans ses pas en accolant le sous-titre la domestication de la pensée sauvage à son ouvrage. La thèse défendue par Goody est que cette domestication de la pensée est un processus rendu possible par l’introduction de nouvelles techniques de communication dans nos sociétés tels que l’écriture, l’alphabet et l’imprimerie (1979, p. 107) dont l’une des conséquences est l’accumulation de textes critiques permettant l’avènement de la pensée scientifique (1979, p. 101). À l’instar de Ong, Goody convoque l’appropriation de l’écriture comme mode de communication durant la période classique et la période hellénistique en s’appuyant également sur les travaux de Havelock que nous avons cité précédemment et sur les modifications de la cognition qu’elle engendre (Goody, 1979, p. 86‑87). L’écriture joue alors un rôle majeur dans la thèse de Goody. C’est grâce à elle, et aux représentations graphiques que cette technique permet, que l’on accède à d’autres formes de structuration des connaissances et, par extension, de cognition et de production du sens. En s’appuyant sur trois formes écrites, le tableau, la liste et la formule, Goody démontre que la structuration spatiale des connaissances joue un rôle dans nos manières de penser et cela à tel point que, sans plus les remettre en cause, ces techniques de structuration des connaissances nous empêchent de penser selon d’autres modalités comme, par exemple, de nous projeter dans un système de pensée purement oral. Pour le formuler autrement, Goody prolonge la conception courante de l’écriture en tant que « redoublement matériel » du discours oral d’une conception graphique de la disposition des informations dans l’espace écrit (1979, p. 144). Qu’il s’agisse du tableau, de la liste ou de la formule, ces agencements permettent d’organiser les informations et de créer des liens logiques entre elles. Ces arrangements graphiques permettent alors de hiérarchiser les informations selon une structure et un sens de lecture. Par exemple dans une liste, les informations sont ordonnées verticalement, tandis que dans un tableau les éléments sont ordonnées à la fois verticalement, mais aussi horizontalement sous la forme de colonnes et de lignes. L’écriture n’est plus seulement une affaire de langage et devient également une affaire de disposition graphique de l’information. En disposant les informations selon des structures graphiques, les rapports entre les éléments changent. Le texte n’est plus donné à lire de façon linéaire (de gauche à droite et de haut en bas dans notre cas) car il faut suivre l’arborescence de la structure pour comprendre les liens hiérarchiques entre les éléments qui la composent. Une lecture linéaire d’une liste ou d’un tableau n’aura aucun sens si elle ne suit pas la structure des informations. Sans cela, elle ne comportera qu’une suite d’écrits sans aucun lien entre les différents éléments. La raison graphique démontre alors que ces formes de structuration de l’information ne sont rendues possibles que parce que l’écriture le permet, à l’oral il n’était pas envisageable de structurer les informations de cette manière graphique. La création de nouvelles relations entre les éléments de ces structures graphiques produisent de nouvelles formes de connaissances, de nouvelles formes de cognition et produisent donc un sens nouveau.

À l’instar de Paveau, la raison graphique a également été un appui théorique pour développer une autre forme de « cognition externe » et de « technologie intellectuelle ». Au tournant du numérique, les sciences de l’information et de la communication se sont emparées de cette raison graphique et l’ont réadaptée au regard de l’écriture numérique. Bachimont a ainsi proposé la notion de raison computationnelle en s’appuyant à la fois sur la raison graphique mais aussi sur le principe de « technologie cognitive » dans le sens « d’une technologie symbolique permettant de manipuler des unités signifiantes » (Bachimont, 2000). À l’endroit où la raison graphique permet de produire du sens par les médiations qu’offre l’écriture, comme la structuration des contenus en liste ou en tableau sur un support, la raison computationnelle exprime la possibilité de produire du sens sur la base des calculs que réalise l’informatique pour traiter l’information. En s’appuyant sur le calcul et non plus sur une raison graphique, l’écriture numérique permet d’autres agencements des informations et des connaissances de ceux produits par une écriture manuscrite, et donne ainsi lieu à de nouvelles formes de cognition et de sens9. Cette brève introduction à la raison computationnelle met en évidence le fait que l’écriture ne mobilise pas qu’une seule forme de cognition externe que l’on pourrait généraliser à toutes les formes d’écriture. L’écriture n’est donc pas une technique que l’on pourrait réduire à un seul et unique mode de pensée, ce que démontre les différences entre la raison graphique et la raison computationnelle qui n’impliquent pas la même organisation des informations, ni la même production du sens.

Au-delà d’une modalité d’écriture générique – écriture manuscrite, écriture numérique, etc – il est nécessaire de connaître le rôle des différents agents mobilisés dans une forme d’écriture pour comprendre leur implication dans la production du sens. C’est ainsi que, dans les travaux de Paveau, cette conception de l’écriture distribuée dans des « technologies discursives » implique une « approche écologique » de l’écriture, soit la nécessité de prendre en considération la totalité de l’environnement duquel elle émerge, ainsi que le sens qu’elle produit, puisqu’« il n’y a pas de rupture entre ce qui est humain et ce qui ne l’est pas, entre l’esprit et la matière, le linguistique et l’extralinguistique, le discours et le contexte » (Paveau, 2013). L’écriture ne doit pas être réduite à la capacité d’inscrire et d’organiser des signes dans un espace, mais doit être considérée dans tous ces paramètres : le support, l’instrument pour tracer ou inscrire, la composition de la matière employée pour l’inscription, les protocoles employés, le cadre social et le cadre culturel, etc. Lorsque Ong, Paveau et, plus tard, Vitali-Rosati, qualifient l’écriture de non-humaine (Paveau, 2015) ou d’inhumaine, ils nous renvoient à cette cognition distribuée, située dans des « interactions sociales, culturelles, techniques et technologiques » (vitali-rosati_quest-ce_2020-1?) et non dans un logos, à partir de laquelle l’écriture n’est plus dissociable de son environnement.

Nous avons vu précédemment que lorsque Marc Aurèle écrit ses Pensées sur les pugillares, il fait ressortir deux aspects que produit l’écriture. Le premier aspect est la libération de la mémoire qu’obligeait la transmission orale puisque la mémoire n’avait aucun support sur lequel se fixer. Au même titre que la main libère la parole chez Leroi-Gourhan, l’ajout d’une nouvelle technique, l’écriture, décharge Marc Aurèle d’une fonction, que la technique occupe par la suite, au profit d’une nouvelle, dans ce cas-ci la possibilité laissée à Marc Aurèle de reformuler les préceptes de l’école stoïcienne pour les faire siens, ce qui constitue notre deuxième aspect. La possibilité de cette nouvelle fonction n’est pas juste rendue possible parce que l’écriture décharge Marc Aurèle d’un devoir de mémoire et de transmission de ces connaissances. En se référant aux divers travaux sur la distribution de la cognition, nous avons remarqué que l’écriture n’est pas un phénomène neutre ne servant qu’à coucher la pensée sur un support. L’écriture est une technique avec sa propre agentivité, qu’induisent les techniques et technologies employées pour la produire. Pour reprendre les mots de Bachimont, l’écriture produit du sens non pas parce « qu’[elle] possède une quelconque pertinence cognitive, mais parce qu’[elle] constitue une médiation technique » (Bachimont, 2000). Les reformulations de Marc Aurèle sont alors non seulement réalisables parce que l’écriture décharge Marc Aurèle de son devoir de mémoire de la parole, mais surtout parce que l’écriture est une médiation technique offrant la possibilité d’opérer de nouveaux agencements des connaissances et donc de production du sens. Les reformulations de Marc Aurèle ne sont pas également faites au hasard ou selon son humeur. Elles sont élaborées en suivant les règles édictées par l’école stoïcienne, c’est-à-dire selon un ensemble de règles établies pour développer une pensée stoïcienne et en respecter les dogmes (une culture). Marc Aurèle, en suivant ces règles, suit des protocoles très particuliers pour écrire.

Les protocoles sont des choses qui foisonnent dans nos quotidiens. Nous les suivons pas à pas pour un certain nombre de nos activités sans forcément nous en rendre compte. En reprenant l’exemple du navire d’Hutchins, la manœuvre d’un bateau dans un port nécessite le respect d’un code nautique afin que les bateaux puissent circuler avec fluidité tout en préservant un minimum de sécurité pour toutes les autres entités empruntant les chenaux. Ce code nautique définit les comportements à adopter vis-à-vis des autres bâtiments dans le port, ainsi que des autorités portuaires. En un sens, il s’agit là d’un protocole partagé par les marins afin que chacun puisse interpréter les comportements de l’autre et ainsi adapter les siens en conséquence (en suivant ce que le protocole prévoit).

Un protocole regroupe donc un ensemble de méthodes et de formules que l’on emploie dans un environnement donné pour que chaque acteur présent dans cet environnement soit à même d’interpréter l’autre. De la même façon, tout acte de communication nécessite un protocole pour que l’autre à qui le message est adressé puisse comprendre – grâce au protocole – la signification du message. « Sans protocole partagé, il n’y a pas de réseau »10, écrivait Galloway en 2004 (2004, p. 12). En s’appuyant sur les travaux de Deleuze et Foucault, Galloway démontre que les protocoles sont nécessaires dans les environnements de communication distribuée (en opposition aux environnements centralisés) afin que chaque nœud du réseau soit à même de lire et d’écrire le message sans avoir à passer par un nœud central. Cette définition que Galloway applique à Internet et au Web s’applique également à d’autres environnements. Si nous reprenons le cas de la navigation en mer, chaque bateau est autonome dans la gestion de ses manœuvres. En théorie, les marins à bord des navires connaissent le code nautique, donc le protocole à suivre lorsqu’ils rencontrent d’autres navires. Ils sont donc à même de comprendre les communications qui transitent dans cet environnement. De plus, chaque bateau est en capacité de recevoir ou d’envoyer un message à un autre navire sans avoir à passer par un nœud central. En ce sens, cet exemple correspond à la description du réseau distribué que décrit Galloway puisque les différents acteurs y sont autonomes et indépendants.

Dans un autre cas de figure, par exemple l’écriture d’une thèse de doctorat, la rédaction se fait en suivant un protocole de rédaction scientifique partagé par la communauté savante. En premier lieu, le doctorant va articuler son manuscrit en suivant une structure : un plan composé d’une introduction, de plusieurs parties contenant des chapitres (les parties ne sont pas une obligation mais les chapitres sont attendus), une conclusion, une bibliographie, des annexes (optionnelles). À une échelle plus profonde concernant par exemple l’introduction de ce document, celle-ci sera composée d’éléments contextuels, d’une problématique, d’une ou plusieurs hypothèses et d’une annonce du plan des parties et des chapitres grâce auxquel une réponse à la problématique sera apportée (confirmant ou non les hypothèses). Cette structure générale, a priori banale puisque enseignée dès le secondaire pour apprendre aux lycéens à interpréter et à construire des documents scientifiques, est pourtant cruciale puisqu’elle est toujours appliquée par les professionnels de la recherche dans leurs écrits à quelques rares exceptions près. Cette structuration de l’information permet à un lecteur de se repérer rapidement dans un manuscrit et de comprendre – avant même d’avoir commencé à lire – à quel type de contenu il a affaire. Néanmoins, le protocole n’est pas un ensemble de règles strictes inviolables que l’on doit respecter de manière absolue. Si la vitesse maximale autorisée dans la zone à 300m du port est limitée à 5 nœuds, il n’y a rien qui empêche un bateau de naviguer à plus de 5 nœuds – ou à moins. De la même façon, la composition d’une thèse peut varier selon le sujet traité avec des parties en plus ou en moins que ce qu’un protocole conseillerait ou en proposant une structure plus adaptée à une problématique par exemple pour une thèse en recherche-création. Il n’y a pas de limite absolue que le protocole imposerait dans la composition du message tant que celle-ci respecte les modalités de circulation de l’information nécessaires au bon fonctionnement du protocole. Au contraire, ce sont des règles autour desquelles chaque nœud du réseau oscille selon la situation, on adapte un comportement pour qu’il corresponde à une situation donnée à un instant T quitte à déroger au protocole. Un voilier avec une panne de moteur au milieu du chenal (la voie navigable prévue en eaux peu profondes) serait un bon prétexte pour faire un crochet à l’extérieur du chenal si le tirant d’eau du bâtiment le permet et cela, afin d’éviter de percuter le voilier en panne. Ce dernier exemple est révélateur de la capacité d’application du protocole car elle est contingentée aux propriétés physiques du bateau. La condition de la longueur du tirant d’eau (correlée à la profondeur de l’eau en dehors du chenal) devient un croisement possible dans un arbre décisionnel des comportements que le marin peut adopter. Si à l’endroit du voilier, l’extérieur du chenal comporte un haut-fond que touchera la coque du bateau, le marin à la barre ne déviera peut-être pas de la route initiale car le risque de percer la coque est trop grand. Au contraire, si le tirant d’eau est faible et qu’il n’y a pas de haut-fond, le barreur pourra faire un crochet et éviter le voilier sans prendre aucun risque. L’oscillation autour d’un protocole est directement liée aux caractéristiques du medium employé. Il en allait de même pour Marc Aurèle et l’écriture de ses Pensées. Le bon empereur ne pouvait suivre les préceptes stoïciens que dans la capacité physique que les pugillares lui permettait. Dès le choix de ce support, l’écriture des Pensées s’est retrouvée conditionnée par les propriétés physiques du matériau choisi. En d’autres termes, il existe une différence entre le protocole en tant que tel, c’est-à-dire en tant qu’ensemble de règles de communication, et son application effective par les entités physiques présentes dans l’environnement où ce protocole est appliqué.

Finalement, la distribution de la cognition à travers les interactions sociales, culturelles, techniques et technologiques d’un environnement est réalisée par l’application d’un ou plusieurs protocoles que chaque acteur est en capacité d’interpréter en toute autonomie, selon ses propriétés physiques. En reprenant le cas de Platon et du Phèdre, nous avons vu qu’il y écrit une critique de l’écriture. Ce que la démarche de Marc Aurèle nous a appris s’applique également à l’écriture du Phèdre. Si l’on suit notre raisonnement, Platon n’a pu émettre toute cette critique de l’écriture uniquement parce qu’il était en capacité de l’écrire. C’est l’écriture elle-même qui permet à Platon d’en faire la critique. Sans elle, il n’aurait pu élaborer ce raisonnement critique, nous disent Ong et Goody (Goody, 1979, p. 87; Ong, 2014, p. 48). Cette situation apparaît ironique puisque la critique de cette technique ne peut être faîte qu’en l’employant. La technique, en tant que medium, apporterait donc quelque chose d’irréductible à la pensée et à la production du sens. Toutefois, la technique n’est pas à considérer en tant qu’abstraction universelle, puisque selon les technologies employées dans la réalisation de cette technique, les modalités de l’environnement se voient modifiées et transforment par la même occasion les entités entre lesquelles la cognition se retrouve distribuée. C’est ce que nous avons vu avec Hutchins ou encore la distinction qu’il peut y avoir entre une raison graphique dans un environnement manuscrit et une raison computationnelle dans un environnement informatique. Cette écriture distribuée, à travers des technologies discursives, serait liée a des media qui, de par leurs propriétés, déterminent 1) les caractéristiques de la distribution de la cognition, 2) les modalités de propagation de l’information entre les supports dans les différentes étapes de la cognition et 3) les modalités de la production du sens.

Le support n’existe pas

Dans cette dernière section du chapitre, nous traitons de la place du support physique sur lequel l’écriture est effectuée. Jusqu’à ce stade, nous avons abordé l’écriture en tant que technique détenant une part active de la cognition à l’œuvre dans la production du sens. Pour ce faire, nous avons laissé de côté un élément majeur de notre démonstration, pourtant abordé en filigrane tout au long de ce chapitre : le support sur lequel l’information est inscrite. Ce support a été évoqué avec les écrits de Marc Aurèle sur les pugillares ou encore avec la navigation lorsqu’un marin inscrit la position du navire sur la table traçante. Toutes ces formes d’écriture nécessite un objet tangible sur lequel l’écriture va pouvoir s’inscrire. Quel que soit l’exemple, l’écriture apparaît toujours matérielle et non pas diffuse dans quelque chose de non tangible. La matérialité de l’écriture est la propriété que nous pouvons retenir de la distribution de l’écriture dans tout l’environnement qui la produit. Sans ces éléments physiques, il n’y a pas d’écriture, et la pensée ne peut pas en être décorrélée.

Avant d’aller plus avant dans cette section, il nous est nécessaire de préciser ce que nous entendons par matérialité. La matérialité n’est pas uniquement comprise dans le sens d’un objet physique avec des propriétés physiques. Le papier sur lequel écrire une lettre pourrait être une feuille au format A4 (210*297mm) avec un grammage de 80g/m2 (soit 5g pour une seule feuille), que l’on plie ensuite en 3 pour la faire entrer dans une enveloppe. Ce que nous venons de décrire sont des propriétés physiques du support de l’écriture. Nous avons là les propriétés du support avant que l’on commence à écrire. La matérialité est différente de ces propriétés, elle concerne l’objet final, une fois que la lettre est rédigée et que le texte y est inscrit. Pour bien distinguer la dimension physique de la dimension matérielle, Hayles propose de considérer la physicalité en tant qu’ensemble des propriétés physiques d’un artefact tandis que la matérialité est une propriété émergente de l’écriture (2005, p. 3). La matérialité serait donc une production de l’écriture, au croisement des propriétés physiques d’un objet et de leur part cognitive dans la distribution de l’écriture. Pour Hayles, la matérialité ne produit pas du sens, elle est le sens de l’écriture, elle est cette « matière qui compte pour la pensée humaine »11 [Hayles (2005); p.3]. En nous appuyant sur l’écriture distribuée, nous pouvons défendre l’idée selon laquelle le sens donné à notre lettre précédente est contingenté aux caractéristiques du papier sur lequel elle est écrite, puis aux protocoles de transmission. Ces éléments participent à l’émergence de la matérialité de l’écriture, en tant qu’ils participent à la production du sens. Dorénavant, lorsque nous nous référerons aux propriétés physiques d’un artefact, nous emploierons le terme de physicalité, et lorsque nous nous référerons au sens produit par cette écriture distribuée, nous emploierons le terme de matérialité.

Cette distinction entre physicalité et matérialité nous amène à considérer la notion de support. Le support est l’élément qui se retrouve à l’interface entre cette physicalité et cette matérialité. Au moment de l’écriture, c’est-à-dire au moment où un objet est en passe de devenir un document, une preuve d’un fait (Briet, 1951), qu’il s’agisse d’une stèle, d’un post-it, d’une feuille A4, d’un fichier au format .txt, etc, un objet, un support, accepte une inscription et se transforme en un objet document. En jouant ce rôle de médiateur entre deux états, le support devient un medium.

L’emploie du terme medium à cet endroit n’est pas un fait anodin. Nous le mobilisons en nous positionnant depuis la théorie des médias telle qu’elle a été formulée depuis McLuhan avec l’école de Toronto dans les années 1960 (dans laquelle participe Ong) puis à travers différents courants entre l’Amérique du nord et l’Europe (principalement en France et en Allemagne).

Ce terme, medium, n’est pas aisé à circonscrire car il est déjà ambivalent depuis son étymologie latine. En latin, le medium signifie le milieu ou le centre12. Krämer nous rappelle que ce milieu que l’étymologie désigne peut être envisagé sous trois perspectives. La première est spatiale, le milieu occupe une position intermédiaire au centre de l’espace. La deuxième est fonctionnelle, elle renvoie a la fonction de médiation du milieu qui sert d’intermédiaire entre deux entités. Enfin, la troisième est d’ordre formel et renvoie à la neutralisation et à l’état neutre que peut représenter le milieu. Dans cette troisième signification, le milieu devient un point d’équilibre entre des forces opposés (Krämer, 2016, p. 209). Le medium est donc ce qui se trouve au milieu, ou plutôt entre des entités ou des états. Au prisme de son étymologie, le terme medium n’est pas une notion réductible à un catalogue d’objets, malgré le fait que nous nous en servions couramment comme un mot-valise pour désigner tour à tour des moyens de communication classiques, comme l’écriture ou la parole, des moyens de communication de masse, comme la radio ou la télévision, des artefacts et des objets, comme le papier, la pierre ou encore la silice, ou encore des systèmes techniques tels que l’ordinateur ou la machine à écrire, des techniques, comme l’imprimerie, etc. Cette liste pourrait continuer d’être allongée sans jamais être exhaustive, car elle serait toujours obsolète. En effet, selon la théorie de la communication de Shannon, le medium concerne tout ce qui se trouve entre un émetteur et un récepteur (Shannon, 1948). À titre d’exemple, dans son introduction à la Théorie des médias, Mersch comptabilise pas moins de 26 media différents mentionnés dans l’ouvrage Pour comprendre les médias de McLuhan (Mersch, 2018, p. 9), tous différents les uns des autres et couvrant un large spectre de choses, allant de l’électricité à l’artillerie militaire. Puisque c’est un objet instable, la question de ce qu’est un medium n’est alors pas opérationnelle, précise Friesen en introduction d’un ouvrage sur les développements de la théorie des médias entre l’Amérique du Nord et l’Europe (selon une orientation germanophone) (Friesen, 2018, p. 3), car elle nous pousse à l’essentialiser et biaise notre compréhension d’un phénomène dans lequel il intervient. À défaut de le définir, nous pouvons le qualifier en tant qu’« ensemble des processus relatifs à l’échange et à la transmission ainsi que les dispositifs techniques et ceux que l’on peut caractériser comme organe d’accumulation de données » (Mersch, 2018, p. 12). L’intérêt que nous pouvons trouver à cette définition proposée par Mersch est la mise en avant des propriétés médiales – au sens de médiations – du medium. Mersch, à l’instar de Friesen et de bien d’autres théoriciens des médias étudient plutôt les médiations puisque ce sont elles qui, finalement, construisent les relations.

Que signifie au juste : médiation ? Là où nous sommes confrontés à une extériorité – un dehors ou un “autre” – et afin de pouvoir la percevoir, la comprendre et lui conférer du sens, il nous faut un milieu au double sens que peut prendre ce terme, un moyen ou un intermédiaire. Aussi, la médiation peut prendre les formes les plus variées : une atmosphère, un discours, un procédé technique, mais aussi des espaces et des temps ou encore un agencement des choses, un ensemble d’architectures ou de programmes, pour ne donner que quelques exemples. L’important, c’est de glisser entre cette altérité et le lieu de l’humain ce minuscule opérateur, pourtant si fondamental (Mersch, 2018, p. 13).

Tandis que Mersch, dans cette citation, nous donne une définition de la médiation qui englobe les deux premières étymologies – spatiale et fonctionnelle – du terme medium, il faut se tourner vers Krämer pour y adjoindre la troisième. Krämer développe une approche du medium sur le modèle du messager mourant. Krämer convoque la métaphore du messager qui porte les messages et les informations jusqu’à son destinataire avant de disparaître, tel le coureur de marathon qui, en armure, meurt lors de la délivrance du message de victoire des athéniens sur les perses (Krämer, 2016, p. 210). Selon cette perspective, la figure du messager mourant illustre la disparition du medium derrière le message qu’il transporte et se neutralise lui-même pour mettre le message en avant. À la fonction d’espace intermédiaire que joue le medium, il faut alors lui ajouter une caractéristique discrète : ce n’est pas un élément directement visible. Si nous employons tour à tour les termes medium et médiation, presque comme des synonymes, c’est parce que ce ne sont pas des éléments séparables l’un de l’autre. La définition de la médiation que nous venons de donner englobe ainsi les trois étymologies du mot medium. Selon ce prisme, nous considérons que puisque les médiations sont définies par les caractéristiques du medium, ce sont elles qui déterminent ce dernier. Pour cette raison, l’étude des médiations est une forme d’étude des media.

L’étude des médiations est incontournable depuis les années 1960, notamment depuis la publication des travaux de McLuhan et de sa célèbre assertion « le message, c’est le medium ». La signification de cette phrase ne donne pas simplement son importance au medium en dépit du message, mais considère que le “contenu” d’un medium est toujours un autre medium (McLuhan, 1977, p. 22‑23). Ainsi, « le contenu de l’écriture, c’est la parole, tout comme le mot écrit est le contenu de l’imprimé et l’imprimé, celui du télégraphe » (McLuhan, 1977, p. 38). En prenant l’exemple de la lumière électrique, McLuhan montre qu’il s’agit là d’un medium pur, c’est-à-dire un contenant auquel personne n’a adjoint de message. Pourtant, ce medium permet de réaliser des actions – une opération chirurgicale par exemple, ou d’écrire alors qu’il fait nuit – alors que sans cette lumière électrique, ces actions ne seraient pas réalisables. Cette phrase a donc un double niveau d’interprétation. Premièrement, elle démontre la thèse de McLuhan selon laquelle le medium et les médiations qu’il génère produisent le sens de l’événement au centre duquel ils se trouvent. Un autre exemple que celui de la lumière électrique serait celui de la voie ferrée ou de la route. En tant que support du transport ferroviaire ou routier, ces media modifient notre conception de la ville et des déplacements : les architectures évoluent en fonction de cette technique, tandis que dans cette interprétation de l’architecture des villes modernes, nous ne nous préoccupons pas des trains, des voitures, ni même de leurs contenus. Ce n’est pas tant le contenu qu’il pourrait y avoir qui intéresse McLuhan, mais les modifications qu’engendrent le medium dans le milieu dans lequel il se trouve : il y aurait, pour l’auteur, une co-construction entre le milieu et le medium.

Deuxièmement, le fait que le “contenu” d’un medium soit un autre medium constitue les prémices de ce qui sera nommé remédiation par Bolter et Grusin à la fin des années 1990 (Bolter & Grusin, 1998). Porter une attention particulière à la remédiation équivaut à vouloir observer les relations entre les media. L’étude de ces relations entre les media est le principal sujet d’un courant de la théorie des médias nommé intermédialité. L’histoire de l’intermédialité débute aux États-Unis d’Amérique avec Dick Higgins, un artiste affilié au collectif Fluxus, qui dans le cadre de ses projets, emploi le terme intermedia en 1966 (Higgins, 1966). Dans un article consacré à ce sujet, « Statement on Intermedia », Higgins développe l’idée que les artistes, pour faire œuvre, ne se cantonnent plus à un seul champ artistique, mais s’emparent de plusieurs champs, donc de plusieurs médias, jusqu’à un point de rupture où finalement, l’évocation d’un medium pour désigner une œuvre n’est plus qu’« un point de référence » ou un « repère » que l’on emploie en tant qu’« outil critique » pour analyser cette œuvre. Ce qui fonde « l’approche intermédiale », c’est cette capacité à « souligner la dialectique entre les médias ».

De cette intermédialitẃ naissante émergent différents courants de pensée parmi lesquels nous nous intéressons particulièrement au creuset montréalais qui se développe depuis un peu plus d’une vingtaine années autour de plusieurs disciplines académiques artistiques et littéraires. En 2014, à l’occasion des dix ans de la revue Intermédialités que porte cette école de l’intermédialité montréalaise, Philippe Despoix résume « l’intermédialité non comme un objet mais comme un réseau complexe de relations, matérielles, techniques, sociales et sémiologiques, permettant de dessiner a posteriori des formes de médiation culturelle de fait toujours hybrides ». Une expérience menée par André Habib, professeur en histoire de l’art et études cinématographiques à l’université de Montréal, illustre parfaitement le propos de Despoix. Lors de cette expérience, Habib débute son cours de cinéma expérimental par la projection d’un film d’une dizaine de minutes, sans aucune image sur la pellicule (Habib, 2021). Dans la salle de cours plongée dans le noir, les étudiants observent alors la projection de la pellicule, sur laquelle s’accumule poussières et rayures pendant toute la durée de l’expérience.

La première année, je m’étais assuré de faire traîner au sol l’amorce de pellicule transparente afin qu’elle accumule un peu de poussière et des marques d’usure. Sur l’écran, au fond de la salle, le faisceau du projecteur fait doucement vibrer un carré de lumière laiteux, un peu caillé, moucheté de ponctuations hasardeuses et de fines rayures qui se sont gravées sur la matière plastique du film. Parfois, un poil ou un grain de poussière s’invite et danse un temps dans l’embrasure de l’image. Le vrombissement régulier du projecteur emplit l’espace. Au moment où les griffes du projecteur transportent dans son mécanisme la section de la pellicule où se situe la collure, on entend clairement un petit déclic sonore, une façon pour le spectateur ou la spectatrice qui tendrait l’oreille de marquer le point de jonction de la bande.

Cette réadaptation de Zen for film de Nam June Paik (œuvre présentée pour la première fois en 1964 dans le cadre d’un Festival Fluxus) que propose Habib durant son séminaire incarne l’approche intermédiale de l’école montréalaise. D’une certaine manière, ce film sans image rejoint le propos de McLuhan, puisque l’expérience repose sur les relations entre le medium et son milieu, sans avoir a priori de contenu, comme cela était le cas pour l’exemple de l’électricité. Tout le travail d’Habib repose alors sur la présence de la poussière dans la salle et sur la projection de cette poussière à l’écran. À chaque tour que la pellicule fait sur le projecteur, ce sont de nouvelles poussières qui s’accumulent sur la bande avant d’être projetées. Ces poussières sont souvent faites « de pellicule (petite peau étymologiquement), de peau desquamée, de pilosités (poil, cheveu), de fines particules échues de la nature ou de l’activité des individus, des machines, des appareils, de l’industrie ». Elles sont le résultat des actions du milieu dans lequel se trouve la bande. Ce sont les personnes présentes dans la salle, ainsi que les équipements qui, par leurs actions et leurs interactions, génèrent cette poussière que capte la bande avant d’être projetée à l’écran. À ce propos, Habib nous indique quelques caractéristiques techniques des équipements employés pour cette expérimentation, « projecteur 16mm Eiki au Xenon », « boucle de 12 pieds (un peu plus de 3m) », pour caractériser les comportements des ces objets techniques dans le milieu. Par exemple, selon la longueur de la bande, la durée du film n’est plus la même et l’accumulation de poussière sera différente. L’expérience de Habib montre que même sans image, le medium se construit et véhicule du sens de par son interaction avec le milieu. Le medium n’est alors pas quelque chose que l’on définit en amont mais bien quelque chose que l’on détermine a posteriori. Pour continuer dans cette direction, Elsa Tadier, en rapprochant l’intermédialité montréalaise des sciences de l’information et de la communication, décrit la méthode de la « pensée par cas » employée par les membres de l’école montréalaise : on ne généralise pas le traitement du medium au risque de l’essentialiser. De Zen for film à Zen for Zoom, Habib boucle la boucle de son expérience par la description d’une réadaptation de son expérience en pleine période de pandémie et de confinement, alors en distanciel, via le logiciel de vidéoconférence Zoom. La remédiation de son dispositif n’a pas le résultat escompté puisque, malgré de nouveaux effets tel qu’un « clignotement » dû à la « différence de battement d’image », « personne n’avait été sensible ou n’avait perçu le jeu des poussières ». Dans ce dispositif, la technique numérique n’a pas bien rendu ces parasites et a altéré l’expérience qu’Habib souhaitait proposer à ses étudiants. Malgré l’intention initiale de Habib, cette remédiation nous montre à quel point le medium utilisé modifie en profondeur le sens produit dans le phénomène.

Finalement, ce que McLuhan et l’intermédialité montréalaise montrent est qu’il n’y a pas de rupture nette entre les media, ni de révolution lorsque un nouveau medium est employé, d’ailleurs. Au contraire, il y a toujours une continuité entre une tradition et sa remédiation dans une nouvelle technique. Ainsi, la remédiation porte l’héritage des dispositifs qui l’ont précédé sans toutefois préserver exactement le même sens puisque celui-ci est produit par les actions dans le milieu, dont la technique fait entièrement partie, comme le montre la remédiation Zen for Zoom montée par Habib.

En philologie, un exemple flagrant de cette remédiation est la technique de collation des variants dans les différents témoins d’un manuscrit de référence. La méthode consiste d’abord à découper le texte de référence en unités significatives (un mot ou un groupe de mots) que l’on dispose sur une première ligne, puis à collationner les variations observées dans les manuscrits témoins que l’on dispose sur d’autres lignes, une par témoin13. Ce travail de collation permet de recueillir et d’élaborer un appareil critique en prévision d’une édition critique du texte de référence. Avec du papier, ce travail est réalisée au moyen d’un collage entre des feuilles pour obtenir un accordéon que l’on peut déplier et remplir selon l’endroit où l’on se trouve dans le texte et selon la ligne du témoin concerné par la variation. Appliqué à un environnement informatique, les premières tentatives de reproduction de cette méthode sont réalisées dans des tableurs du type de ceux que proposent les logiciels Microsoft Excel ou LibreOffice. Un changement clair est opéré dans les tableurs, le fonctionnement par ligne est transformé par un fonctionnement en colonne mais le principe reste le même. Toutefois, la possibilité d’insérer des formules dans les entrées du tableur permet de modifier une partie du processus et le rapport que le philologue entretient avec cette méthode. Une autre remédiation de cette méthode philologique, toujours dans l’environnement informatique, prend la forme du logiciel ChrysoCollate développé par Sébastien Moureau, professeur à l’Université catholique de Louvain14. ChrysoCollate est un logiciel développé pour la collation de variants selon la méthode que nous venons de décrire. Cet environnement bénéficie de fonctionnalités avancées pour aider le philologue dans l’application de cette méthode (comme des fonctionnalités de déplacement et de recherche dans les manuscrits ou des modes de saisie adaptés aux types de contenus à ajouter) mais ne révolutionne absolument pas la méthode telle qu’elle est employée depuis plusieurs siècles. À travers ces différents environnements, on observe qu’il y a alors une remédiation de la méthode de collation sans que le changement d’environnement n’opère de rupture dans le processus. Toutefois, chaque nouvel environnement apporte des nouveautés dans l’appréhension de cette méthode, et des nouveaux usages pour produire un sens différent des autres méthodes, au même titre que la réadaptation de Zen for film et sa remédiation en Zen for zoom de Habib ne produisent pas le même sens.

Une autre interprétation des travaux de McLuhan est faite par Friedrich Kittler de l’autre côté de l’Atlantique, en Allemagne, et sera dans les années 1980 un élément fondateur du courant germanophone de la théorie des médias contre lequel se positionne l’intermédialité montréalaise. Kittler est dans une double posture vis-à-vis de McLuhan. Si de prime abord il semble rejeter le titre Pour comprendre les médias, puisque « comprendre les média demeure impossible » (F. Kittler, 2018, p. 31), Kittler reprend pourtant à son compte les deux thèses de McLuhan que nous venons d’énoncer, à savoir «the medium is the message» ainsi que la deuxième selon laquelle le contenu d’un medium serait toujours un autre medium (Mersch, 2018, p. 198) tant que cette thèse décrit des « systèmes composites partiels » (F. Kittler, 2018, p. 36), c’est-à-dire des systèmes où persistent des incompatibilités entre les media. Kittler propose de distinguer ces systèmes continus et analogiques du système numérique, avec l’informatique et les supports optiques/électroniques de l’information, qu’il considère comme un « support composite total » (2018, p. 36) qui va annexer le concept de medium, puisque tous les media remédiées reposeront sur la même structure binaire de l’information. À l’intérieur des systèmes composites partiels, le signal de la télévision n’est pas compatible avec celui d’une radio – la réciproque est vraie également – ni avec celui du service postal. Ces media optique, acoustique et écrit, sont techniquement différenciés et intègrent chacun une fonctionnalité et un usage particulier. McLuhan nomme cette fonctionnalité extension de l’être humain tandis que Kittler considère que cette différenciation, que l’on peut dater de 1880 environ – « rend celui que l’on appelle être humain fabriquable » (F. Kittler, 2018, p. 57). Ainsi, la thèse de Kittler diffère de celle de McLuhan à propos des médiations comme productrice de sens et propose de placer la production du sens dans des effets techniques que déterminent des technologies de l’information : la machine détermine l’être humain. Ces deux approches du médias ne sont pas opposées, ni irréconciliables, mais bien au contraire complémentaires car elles offrent deux perspectives différentes d’un même objet. Là où la méthode de McLuhan est anthopocentrée, avec l’humain augmenté par les media (McLuhan & Nevitt, 1973), la méthode de Kittler est foncièrement axée sur les machines, sur leur fabrication et leur fonctionnement afin de déterminer leur contribution à la production du sens (F. A. Kittler, 2015, p. 14).

Une critique formulée à l’encontre de cette perspective matérialiste des media et des technologies de l’information est sa dimension déterministe. Que ce soit chez McLuhan ou chez Kittler, les deux convoquent une forme de causalité traditionnelle d’une cause à l’origine d’un effet. Pourtant, le déterminisme que l’on impute à McLuhan n’est pas si bien fondé puisque lui-même s’en défend, comme le souligne J-F. Vallée (Vallée, 2011). McLuhan, en s’appuyant sur les travaux d’un pair de l’école de Toronto, Harold Innis, nous rappelle que cette forme causale traditionnelle existe depuis que les grecs ont inventé le concept de Nature (McLuhan & Nevitt, 1973). Il considère que cette Nature grecque est un territoire abstrait dont s’empare les philosophes au moyen de figures conceptuelles et, surtout, de l’écriture (Innis, 1964). De ce constat, Innis a démontré que la capacité des grecs à séparer la pensée de l’être était due à l’écriture alphabétique. Ainsi, le processus de passage entre oralité et scripturalité aurait non seulement provoqué cette séparation, mais également produit deux événements : un divorce entre “sujet” et “objet” (McLuhan & Nevitt, 1973) et l’émergence de la causalité (Mersch, 2018, p. 104). Selon Popper, le principe de causalité indique que chaque événement peut être expliqué grâce à une cause (Popper, 2002, p. 12). Autrement dit, lorsque l’on connaît la cause, il devient possible de prédire quel en sera l’effet. Ce déterminisme technologique est une critique gênante à l’égard des thèses de McLuhan et de Kittler, puisque si on leur applique ce raisonnement, il deviendrait possible de prédire le sens que produirait une machine ou une technique – un medium – avant même que celle-ci soit mise en action. Le problème fondamental de cette perspective est que si chaque phénomène est prévisible, il devient possible de le répéter et d’obtenir le même résultat autant de fois que l’on réitère l’expérience. Dans ce cas, l’action d’écrire avec un stylo bille au milieu d’un parc peut être répétée pour produire un texte identique à chaque itération. Toutefois, lors d’une des itérations de l’expérience, un événement inattendu pourrait survenir : le stylo peut par exemple être à court d’encre ou la météo peut devenir pluvieuse et détremper le papier. Le principe causal n’est plus suffisant pour expliquer les effets obtenus dans les deux cas imprévus. McLuhan se défend de ce principe de causalité et s’oriente plutôt vers une causalité formelle (qui s’intéresse aux formes) avec pour structure centrale de nos sociétés modernes l’électricité (Vallée, 2011). Il ne faut pas interpréter l’électricité comme le nœud au centre de la causalité, l’électricité n’est la cause de rien, mais comme une structure permettant de renverser le principe de causalité du fait de la circulation de l’information à la vitesse de la lumière. À cette vitesse, « de nouvelles perceptions directes de l’existence dépassent les concepts rigides de la Nature » (McLuhan & Nevitt, 1973). Les perceptions sont l’élément central de cette phrase de McLuhan, car elles sont juxtaposées par l’auteur aux concepts. Les concepts, issus de la Nature abstraite grecque, permettent d’identifier les causes, sans eux il n’est pas possible de les nommer, tandis que les percepts permettent quant à eux d’identifier et de percevoir les effets à partir de nos sens. McLuhan nous renvoie ici à la dichotomie de la pensée et de l’être évoquée précédemment. Or les conceptions ou les perceptions ne sont jamais totales, elles ne sont toujours que partielles, car il y a toujours des phénomènes que nous ne prenons pas en compte. De plus, avec l’avènement de l’ère électrique, l’auteur déplace le monde abstrait de la pensée de la Nature abstraite vers le réseau électrique. L’information ainsi véhiculée à la vitesse de la lumière, se propage partout autour du globe et engendre à la fois de nouvelles formes de conception, puisque le medium façonne la pensée, et de nouvelles formes de perception. De cette manière, McLuhan renverse le principe de causalité selon le paradigme de la Nature grecque pour celui de l’électricité.

Malgré cela, le dépassement du déterminisme technologique n’apparaît pas comme flagrant. Pourtant, si Kittler défend également l’idée que la pensée réside dans des technologies de l’information à l’heure où l’être humain n’écrit plus (F. A. Kittler, 2015, p. 30), il faut se tourner vers le posthumanisme et le nouveau matérialisme avec les travaux de Hayles, d’abord, puis ceux de Barad, pour que se mette en place une autre approche causale. Inspirée par les travaux de Kittler, Katherine Hayles propose une solide défense à ses travaux accompagnée d’une nouvelle forme de causalité (Hayles, 2005, p. 7). Là où McLuhan est resté orienté sur l’être humain, Hayles décide de passer ce pas et de prendre appui sur le posthumanisme pour étayer son propos. Le posthumanisme est une tentative de dépassement de certains dualismes (par exemple nature/culture) et de la non différenciation entre humain et non-humain, ainsi que de la prise en compte du non-humain dans la production du sens, comme c’était le cas avec l’approche de Paveau sur l’écriture distribuée. Les posthumanisme se distingue ainsi du transhumanisme, et ne concerne pas le dépassement de la condition humaine par une extension technologique. Karen Barad en donne la définition suivante :

Par « posthumaniste », j’entends la reconnaissance cruciale du fait que les non-humains jouent un rôle important dans les pratiques naturelles/culturelles, y compris les pratiques sociales quotidiennes, les pratiques scientifiques et les pratiques qui n’incluent pas les humains. Mais au-delà de cela, mon utilisation du terme « posthumanisme » marque un refus de considérer la distinction entre « humain » et « non humain » comme allant de soi, et de fonder les analyses sur cet ensemble de catégories présumées fixes et inhérentes. Un tel câblage exclut une enquête généalogique sur les pratiques par lesquelles les « humains » et les « non-humains » sont délimités et constitués de manière différentielle. Un récit performatif posthumaniste digne de ce nom doit également éviter de cimenter la dichotomie nature-culture dans ses fondations, permettant ainsi une analyse généalogique de la manière dont ces distinctions cruciales sont matériellement et discursivement produites15. (Barad, 2007, p. 32)

My Mother was a Computer est le titre d’un ouvrage fondateur quant à la redéfinition du principe de causalité (2005). Dans cet ouvrage, l’auteure développe une thèse similaire à celles de McLuhan et Kittler. La proposition de Hayles consiste en un remplacement de Mère Nature par un Ordinateur Universel (Hayles, 2005, p. 3). À l’ère numérique, cet Ordinateur Universel est un référentiel pour interagir dans le monde : le monde devient le résultat de calculs. De la même façon que Bachimont a déplacé la raison graphique vers une raison computationnelle, Hayles propose un changement de perspective et de « vision du monde » (worldview) basé sur le calcul en tant qu’élément fondateur d’une modélisation du monde (Hayles, 2005, p. 17). Au-delà de la dimension numérique et des « intermédiations » que l’auteure développe entre oralité, scripturalité et code informatique, le fait qui nous intéresse est ce changement de paradigme et de conception du monde lors de la venue d’un nouveau medium. Si, pour Innis, la Nature et son abstraction sont la vision du monde rendue possible par l’écriture, Hayles nous dit qu’avec l’émergence des technologies numériques, ce paradigme s’effondre pour laisser la place à une nouvelle vision du monde composée d’une matrice, à partir de laquelle nous élaborons le sens des choses. À la différence des travaux qui l’ont précédés, la proposition d’Hayles s’inscrit dans une perspective posthumaine où le non-humain est pris en compte au même titre que l’humain dans l’analyse des événements. Pour le dire autrement, il n’y a pas de pré-détermination ni de différentiation entre l’humain et le non-humain dans le modèle de Hayles. Comme le mentionne Barad, ce renversement causal est un pré-requis nécessaire pour analyser un événement (par généalogie). Sans remplir ce pré-requis, Barad affirme que l’enquête généalogique est alors exclue de l’analyse du sens produit lors d’une interaction car les éléments en jeu seraient d’ores et déjà déterminés.

Si la première intuition que nous aurions pu considérer serait qu’un support technique, avec ses particularités, serait l’élément dont les caractéristiques façonnent l’écriture, nos hypothèses tomberaient alors dans une forme de déterminisme technologique car il y aurait un support pré-déterminé et prêt à accueillir l’écriture. Cette intuition est erronée si l’on suit d’abord les critiques faites à l’encontre de McLuhan et de Kittler, puis les approches de Barad et Hayles. L’intermédialité montréalaise abonde également dans cette direction, comme en témoigne l’ouvrage intitulé Media do not exist (Vitali-Rosati & Larrue, 2019, p. 39). Selon Larrue et Vitali-Rosati, considérer le support en amont d’une interaction, le pré-déterminer, c’est prendre le risque de décontextualiser le support de son histoire et de l’essentialiser, c’est-à-dire de ne pas prendre en considération les remédiations des medium dans l’analyse généalogique, étant donné que l’intermédialité montréalaise applique une méthode très similaire à celle de l’analyse généalogique à partir cas concret. Que ce soit pour Hayles ou pour Larrue et Vitali-Rosati, cette méthode généalogique implique d’analyser a posteriori les médiations d’une interaction pour en observer les « conjonctures » (Hayles, 2005, p. 2; Vitali-Rosati & Larrue, 2019).

Afin de se débarrasser de tout risque d’essentialisation du medium et d’une réduction d’un événement à une seule médiation – celle par laquelle on désigne l’action principale qui nous intéresse, par exemple écrire – Larrue et Vitali-Rosati proposent de mettre ce terme de médiation au pluriel. Les médiations réfèrent alors à tous les éléments qui peuvent entrer en action dans un événement. Lorsque l’on écrit sur une tablette de cire, il n’y alors plus seulement une médiation qui engloberait toute l’action en cours, mais des médiations dont chacune renvoie aux états des caractéristiques des éléments présents dans cette action à un instant donné : par exemple, l’état de la cire selon si la température ambiante est élevée ou non, l’état de la pointe du stylet, etc.

À cet instant précis où se déroule l’action, ces médiations se lient alors en un mouvement et s’incarnent à travers une forme matérielle, le medium. Cette liaison, Larrue et Vitali-Rosati la nomme conjoncture. Ainsi, il définissent les conjonctures médiatrices comme suit :

Il n’y a pas de médiateur; mais un ensemble d’éléments en jeu au moment de l’action et ces éléments (forces, agents humains et non humains, aspects contextuels…) se croisent, se confondent, s’opposent, se rencontrent et se dédoublent dans un mouvement continu.16 (Vitali-Rosati & Larrue, 2019, p. 52)

Le fait qu’un medium soit toujours la remédiation d’un autre medium, si l’on considère le support en tant que medium de quelque chose, c’est-à-dire en tant qu’ensemble de conjonctures médiatrices qui le produisent, évoque la possibilité qu’un support ne contienne jamais directement un contenu, mais contienne plutôt un autre support qu’il remédie (et ceci n’est de fait pas limité à une seule remédiation) (Vitali-Rosati & Larrue, 2019, p. 39).

Le problème posé par l’essentialisation du medium est évacué par les conjonctures médiatrices. Néanmoins, elles ne règlent qu’implicitement la question du déterminisme technologique. Pour asseoir plus solidement notre raisonnement et résoudre cette problématique du déterminisme, nous nous tournons vers les travaux de Barad et mobilisons la notion de réalisme agentiel (Barad, 2023). Karen Barad est à la fois philosophe et physicienne. En s’appuyant sur les littératures et les théories féministes et queer, notamment Haraway, ainsi que sur la physique théorique, Barad développe une épistémologie des savoirs situés au sein de laquelle le réalisme agentiel trouve une place importante. Le réalisme agentiel est le nom donné à l’approche philosophique de Barad. Pour construire cette approche, iel s’appuie sur une interprétation de la philosophysique de Bohr pour qui la physique (quantique) était inséparable de la philosophie. Pour Bohr, les concepts théoriques ne sont pas de nature conceptuelle, ce sont plutôt des agencements physiques spécifiques. Il démontre que dans le cas d’une particule, les concepts de position et de quantité de mouvement relève d’un agencement physique particulier, en l’occurrence de la disposition d’outils de mesure particuliers dans l’environnement pour appréhender ces concepts. C’est-à-dire que ces concepts n’ont de valeur que lorsqu’ils sont agencés avec des outils de mesure permettant d’effectuer cette mesure. En outre, Bohr démontre que le principe d’incertitude de Heisenberg est due à l’impossibilité de déterminer simultanément ces deux concepts / mesures car l’une relève d’un état fixe et l’autre d’un état mobile (et nécessitent des outils différents). En ce sens, le dispositif de mesure agit dans cet agencement et produit une exclusion d’un autre état qu’il repousse à l’extérieur (Barad, 2023, p. 48). Le fait qu’une mesure ne puisse être effectuée, et correspondre à un instant T à un état donné, uniquement lorsqu’un dispositif est inséré dans un phénomène montre, pour Barad, l’inséparabilité entre l’observateur et l’observé. L’observateur n’est pas un élément neutre et externe à un phénomène, bien au contraire, il intra-agit avec le phénomène. Pour Barad, la notion d’intra-action est fondamentale et désigne une autre forme de relation que la notion plus courante d’interaction. Plutôt que d’envisager des relations entre des entités dont chacune serait prédéterminée, il faut envisager les intra-actions comme des agencements permettant l’émergence des propriétés, comme c’est le cas de la position ou de la quantité de mouvement d’une particule. Ainsi, « c’est à travers des intra-actions agentielles spécifiques que les contours et les propriétés des “composantes” des phénomènes émergents, se déterminent, autrement dit s’instancient, et que des concepts incarnés particuliers deviennent significatifs » (Barad, 2023, p. 49).

Ce phénomène d’émergence des propriétés, Barad le nomme matérialisation. Nous pouvons ici faire le rapprochement avec la matérialité chez Hayles, qui serait également un produit pour Barad, et serait également un phénomène. Plus qu’un produit que l’on pourrait uniquement observer après le phénomène, il s’agit d’un processus qui se construit tout au long du phénomène, selon les conjonctures médiatrices en jeu à l’intérieur du phénomène – et par extension, excluant une partie du phénomène. C’est cette double action locale d’extériorisation et de mise en exergue d’une forme intérieure à un phénomène qui s’appelle matérialisation et donne au phénomène sa matérialité. Les intra-actions conduisent à la matérialisation des forces matérialo-discursives, « elles comprennent toutes les forces que l’on classe habituellement comme “sociales”, “culturelles”, “psychiques”, “économiques”, “naturelles”, “physiques”, “biologiques”, “géopolitiques” et “géologiques” (Barad, 2023, p. 39‑40).

En conceptualisant ce réalisme agentiel, Barad pose également la question de la causalité, car puisqu’il n’y a plus de prédétermination des phénomènes, la causalité cartésienne ne fait plus sens. Le phénomène causal de Barad repose sur cette séparation entre une intériorité et une extériorité que nous venons de mentionner. Ce qu’iel nous explique est que l’extériorité dont il est question n’est pas un extérieur absolu puisqu’il fait partie du phénomène, c’est un extérieur relatif que provoque une intra-action sous la forme d’une coupure ou d’une sélection à l’intérieur du phénomène. La coupure réalisée à l’intérieur du phénomène écarte alors une partie du phénomène à l’extérieur de son champ d’action, mais pas à l’extérieur du phénomène lui-même. C’est cette coupure qui réalise une distinction entre un sujet et un objet, ou entre une cause et un effet. Une intra-action causale n’est donc pas un phénomène déterminant mais un phénomène contraignant, puisqu’une autre intra-action causale provoquerait une autre matérialisation (Barad, 2023, p. 70). Dans le réalisme agentiel, la séparation de la cause et de l’effet devient un phénomène à l’intérieur du phénomène sous la forme d’une intra-action qui contraint la matérialisation.

L’étude du cas de Pfiesteria piscicida (le tueur de poisson) réalisée par Astrid Schrader est un bon exemple pour expliquer cette causalité agentielle (Schrader, 2010). Pfiesteria piscicida est le nom donné à un micro-organisme unicellulaire de la famille des dinoflagellés, piscicida signifie littéralement tueur de poisson. Parmi les quelques 1500 espèces recensées appartenant à cette famille, il n’y a eu qu’une seule espèce tueuse de poisson. L’histoire de Pfiesteria piscicida débute dans les années 1990 lorsque cette espèce prolifère dans l’estuaire de la Caroline du Nord (tout à l’Est des États-Unis) et devient la cause de la mort de milliers de poissons. La particularité de cette histoire est que le phénomène du micro-organisme tueur de poissons est resté un mystère scientifique pendant plus d’une décennie, sans que les scientifiques parviennent réellement à trouver un accord sur la cause qui rendrait toxique le dinoflagellé pour les poissons. L’histoire de ce micro-organisme relève a priori d’études en biologie marine et en écologie, pourtant c’est Astrid Schrader qui, depuis la sociologie, apporte un nouvel éclairage scientifique à cette énigme en 2010 en s’appuyant entre autres sur le réalisme agentiel de Barad. La controverse autour de cette affaire concerne l’incertitude quand à la toxicité ou la non toxicité du Pfiesteria piscicida envers les poissons. La principale difficulté autour du Pfiesteria réside dans la reproduction des conditions environnementales permettant d’amener le dinoflagellé à cet état de prédateur de poisson. De manière globale, ces organismes mono-cellulaire gisent sur la couche de sédiments au fond de l’eau. Ils mangent, se reproduisent, de façon sexuée ou asexuée et le cycle continue. Dans le cas du tueur de poisson, les scientifiques considèrent que des éléments comme le mauvais traitement des excréments issus de l’élevage animal entraîne un dérèglement de l’environnement du Pfiesteria et le pousse à tenir ce comportement. Le problème n’est pas si facilement résolu car le cycle de vie de cette espèce est particulier puisqu’il comporte pas moins de 24 stades différents. Cependant, ce cycle de vie n’en est pas réellement un car ce n’est pas un cycle linéaire comme ce serait le cas la plupart des êtres vivants. Les stades ou les morphes du Pfiesteria répondent plus à des conditions environnementales qu’à un écoulement temporel. L’affaire peut encore être corsée puisqu’un morphe peut correspondre à plusieurs environnements différents, augmentant ainsi la difficulté de trouver un modèle de métamorphose cohérent. Pour le dire autrement, le fait qu’il n’y ait pas de modèle particulier que l’on pourrait associer aux évolutions du dinoflagellé nous indique qu’il n’y a pas de « détermination mutuelle entre ces organismes et un environnement particulier ». Dans ces circonstances, « il n’est pas possible de dire quel morphe appartient “naturellement” au cycle de vie du Pfiesteria et quelles transformations sont induites par l’environnement ». Pour terminer le portrait du Pfiesteria, selon les états dans lequel il se trouve, ce micro-organisme se comporte plutôt comme un animal ou plutôt comme un végétal. En somme, c’est un organisme dont l’identité n’est pas et ne peut pas être prédéterminée. Pour ces raisons, il s’agit d’un organisme difficilement classable dans un règne puisqu’il peut appartenir à plusieurs règnes à la fois. La thèse soutenue par Schrader est que l’incertitude est une caractéristique de ce micro-organisme et qu’en ce sens, il n’est donc pas possible de déterminer les propriétés exactes de cet organisme hors de son environnement. En considérant ces éléments, Schrader ramène le mystère du Pfiesteria à la théorie du réalisme agentiel et considère que ce dinoflagellé ne peut pas pré-exister à son environnement. Ce n’est que lorsqu’il est observé dans son environnement qu’il devient possible d’appréhender à la fois son comportement, ses métamorphoses et les propriétés de l’environnement dans lequel il se trouve. Les intra-actions ou les conjonctures médiatrices ne sont pas seulement des actions dirigées dans le sens des métamorphoses du Pfiesteria, mais elles sont des phénomènes agissant sur la totalité du milieu : le Pfiesteria n’évolue pas dans un milieu immuable mais se co-construit avec son environnement. Le réalisme agentiel permet de formaliser l’approche du medium que proposait McLuhan lorsqu’il considérait que le medium et l’environnement se co-construisent et ne sont pas dissociables.

En appliquant le même raisonnement au cas de Marc Aurèle et de l’écriture de ses Pensées, les choix d’employer la tablette de cire et le grec pour inscrire le texte se dissolvent dans le phénomène “écriture”. Cette tablette de cire et le texte en grec ne sont plus des éléments qui pré-existent l’écriture. Il n’y a pas un support qui serait là, au préalable, et attendrait sagement qu’un Marc Aurèle y déverse ses Pensées déjà formulées dans son esprit. Bien au contraire, la fonction de support émerge pendant la matérialisation de l’écriture sur celui-ci. Chaque action de sélection des éléments composant cette écriture provoque alors une coupure agentielle du phénomène et exclue par conséquent les autres phénomènes possibles. En ce sens, Marc Aurèle (et la culture qu’il incarne) opère une contrainte dans le processus d’écriture qui va déterminer ce qu’il peut ou ne peut pas écrire, puisque, par ce processus, il exclut ce qu’il ne peut pas écrire. Par exemple, le choix du grec lui permet d’exprimer les concepts de l’école stoïcienne. Cependant, il ne peut pas (ou alors de manière détournée) exprimer en grec des concepts créé seulement en latin. En nous autorisant un léger anachronisme et rebondir sur notre propos initial quant au sens accordé à certains ouvrages de philosophie, il est possible de prendre pour exemple la notion qu’est l’intime, qui provient du latin intimus et signifie littéralement l’intérieur de l’intérieur. L’intimus nous intéresse pour deux raisons : premièrement ce concept n’a pas d’équivalent en grec ancien et, deuxièmement, il est plutôt associé à Augustin et à ses Confessions. Des traces de cette notion ont été retrouvées chez Sénèque (en latin) mais son emploi est légèrement différent du sens que lui donne Augustin plusieurs siècles plus tard (et plusieurs siècles après Marc Aurèle). Si le concept d’intime n’existe pas en grec (ni au sens où nous le concevons), Marc Aurèle ne peut alors pas l’exprimer ni même le conceptualiser, car le grec ne le permet pas. De fait, les Pensées ne peuvent pas être considérées en tant que journal intime, parce que Marc Aurèle ne pouvait exprimer quoi que ce soit qui se rapproche d’une intimité. En ce sens, le choix d’utiliser le grec opère cette coupure dans les possibilités d’expression qui s’offrent à lui. Un autre exemple serait celui du choix de la tablette de cire pour écrire. Une des difficultés rapportées par les philologues sur ce texte touche à sa structuration même. Les scribes qui ont copié le texte dans les siècles qui ont suivi son écriture, puis par la suite les philologues spécialistes de Marc Aurèle, n’ont jamais réellement statué sur la structure même des Pensées en tant que livre. La tablette de cire n’est pas un objet pensé pour une écriture pérenne, ni même pour structurer le texte en profondeur : il n’y a pas la place pour effectuer cette structuration et cela sans considérer le fait que la cire est un matériau fragile. Regrouper de petites tablettes entre elles pour former des chapitres, des parties voire même des volumes semble alors inconcevable. Ce phénomène se ressent dans la construction des Pensées qui ne suivent pas une structure véritablement explicite et claire pour le lecteur.

Finalement, la théorie des médias, l’école de l’intermédialité montréalaise, le posthumanisme et le réalisme agentiel nous montrent que le support n’est pas un élément que l’on doit traiter au préalable de l’écriture, puisqu’il en est matériellement le produit. Ce n’est qu’une fois que nous avons le document écrit entre les mains que le support devient effectivement un support. En ce sens, il n’y a plus lieu de questionner la physicalité du support puisqu’elle est déjà matérielle. Toutefois, cette approche rend possible l’étude de la production du sens par la reconstruction généalogique des différentes phases de matérialisation des conjonctures médiatrices selon les coupures agentielles qu’elles réalisent dans un phénomène particulier, que ces médiations soient le fait d’humains ou de non-humains. Ce faisant, il devient possible de comprendre le sens produit par un phénomène, dans notre cas l’écriture.

Conclusion

La problématique énoncée dans ce chapitre relève des modalités de production du sens de l’écriture, notamment sur le rôle que joue l’environnement technique dans cette production. La thèse que nous avons défendue est que les techniques d’écriture forment un ensemble plus ou moins complexe de médiations, selon la technique employée, et que ce sont ces médiations qui produisent à la fois l’écriture et le sens qui lui est accordé. Écrire avec un stylet sur une tablette de cire, les pugillares de Marc Aurèle, ou avec la machine à écrire de Kittler, ou encore avec un crayon sur la carte disposée sur la table traçante d’un navire militaire, chaque écriture consiste en une technique différente grâce à laquelle il est possible ou non d’inscrire des informations.

Dans ce premier chapitre, nous avons mis en évidence le fait que l’écriture est un phénomène producteur de sens. Pour démontrer cela, nous avons, à l’instar des théoriciens des médias de l’école de Toronto et du courant germanophone, puisé dans les connaissances que nous avons sur les pratiques d’écriture des anciens afin de faire émerger des différences dans la production du sens à une époque où la transmission des connaissances est en transition entre oralité et scripturalité. À partir de ce constat, nous avons mis en évidence la présence de plusieurs différences dans les modes de transmission inhérents à l’écriture. Si, selon Leroi-Gourhan, la technique engendre les développements cognitifs de l’être humain, c’est un fait que l’on vérifie avec Hadot, Havelock, Ong et Goody durant cette transition entre oralité et scripturalité. L’écriture libère les anciens de leur devoir de mémoire et leur ouvre ainsi la perspective de développer une pensée critique. Le cas des Pensées de Marc Aurèle est un exemple idéal de l’élaboration de cette pensée critique. À travers cet exemple, nous avons montré que c’est la pratique des exercices spirituels permet à Marc Aurèle de se réapproprier les enseignements de l’école stoïcienne, et donc de développer une pensée critique. Néanmoins, il ne faut pas y voir l’œuvre de la seule capacité cognitive de l’auteur. Au contraire, grâce à Paveau, Hutchins et à Souchier, nous pouvons considérer que l’écriture est un phénomène distribué, mélangeant des dynamiques culturelles, sociales et techniques provenant à la fois de la philosophie qui était alors un mode de vie et non uniquement une conception théorique et abstraite du monde, mais aussi de son statut d’empereur romain et des outils dont il disposait pour écrire : le grec et les tablettes de cire.

Durant le phénomène qu’est l’écriture, la distribution de la cognition dans tout le dispositif se cristallise et s’incarne dans un élément qu’est le support de l’écriture. La théorie des médias dans son courant matérialiste nous amène à penser que le support en lui-même n’est pas significatif, au contraire des médiations impliquées dans l’écriture. Que ce soit avec McLuhan et sa célèbre thèse « le message c’est le medium » qui signifie que le medium est lui-même porteur de sens du fait de sa relation avec l’environnement dans lequel il se trouve, ou que ce soit avec Kittler pour qui l’écriture est un phénomène technique et technologique, le support se dissout dans les médiations entre les entités présentes dans l’environnement. Ce thème d’étude est notamment développé par l’école de l’intermédialité montréalaise. En s’appuyant sur des cas d’étude, les études intermédiales analysent les médiations d’un événement et en révèlent le sens. Cette approche contourne une critique souvent adressée à McLuhan et à Kittler : le déterminisme technologique. Afin de consolider notre approche théorique, nous avons fait appel au nouveau matérialisme, notamment en mobilisant la notion de réalisme agentiel de Barad. Cette notion permet de redéfinir un principe de causalité selon lequel les entités présentes dans l’environnement d’écriture ne lui sont pas prédéterminées : Marc Aurèle, la tablette de cire, le texte à inscrire, etc. En effet, si une cause entraînait systématiquement un effet, il serait possible de prédire l’effet généré par une cause, sous-entendu le sens que produirait cette cause. Or dans le réalisme agentiel, ce sont les relations qu’entretiennent entre elles les entités de cet environnement qui sont au cœur cette perspective et de la causalité agentielle. Ces relations peuvent être saisies sous le terme de médiations. Chaque médiation crée alors une coupure agentielle dans l’environnement, c’est-à-dire qu’elle ouvre ou ferme des possibilités d’écriture en contraignant l’environnement. Choisir le grec ou le latin est une contrainte que Marc Aurèle applique à son environnement d’écriture : il opère ainsi une coupure agentielle pour lui permettre de signifier des choses, mais limite aussi ce qu’il peut énoncer. L’étude de ces relations apparaît donc fondamentale si l’on souhaite étudier les environnements d’écriture et la production du sens. Étant donné que les environnements d’écriture et les médiations qu’ils impliquent se complexifient au fur et à mesure des développements technologiques, notamment pour les environnements numériques, nous mobilisons de la documentation technique dans la suite de la recherche pour être au plus proche du comportement de certaines médiations à l’œuvre dans ces environnements.

Afin de respecter l’approche que nous venons d’énoncer, l’étude de ces environnements est réalisée à partir de cas concrets d’environnements d’écriture, c’est-à-dire à partir d’une approche empirique et qualitative de l’objet de recherche. Or, nous l’avons vu, l’étude des relations entre les médias est devenue une spécialité de l’école de l’intermédialité montréalaise, dont la méthode est parfois très similaire à celle des sciences de l’information et de la communication. Aussi, nous réaffirmons notre méthode d’analyse des environnements d’écriture au croisement de ces deux approches de la recherche. Être au croisement, entre, est une position ténue qui ne se trouve ni dans un dedans ni dans un dehors, mais qui peut aussi être à la fois dans les deux : c’est une frontière. Cette méthode est à l’image de la cotutelle de doctorat sous laquelle je me trouve. Profiter de deux visions différentes de la recherche est à la fois enrichissant et à la fois une coupure agentielle dans les modalités d’observation de l’objet d’étude : elle implique des contraintes et des biais qui, inévitablement, créent des angles morts dans la recherche.

Bibliographie

Aurèle, M. (2015). Pensées pour moi-même (S. Pennor’s, A. Puech, & A.-I. Trannoy, Trad.). Les Belles Lettres.
Bachimont, B. (2000). Intelligence Artificielle et Écriture Dynamique, de La Raison Graphique à La Raison Computationnelle. In Au Nom Du Sens. Autour de l’oeuvre d’Umberto Eco (p. 290‑319). Grasset.
Barad, K. (2007). Meeting the Universe Halfway: Quantum Physics and the Entanglement of Matter and Meaning (Second Printing edition). Duke University Press Books.
Barad, K. (2023). Frankenstein, la grenouille et l’électron: Les sciences et la performativité queer de la nature (L. Balice & C. Degoutin, Trad.). ASINAMALI.
Bolter, J. D., & Grusin, R. (1998). Remediation: Understanding New Media. MIT Press.
Briet, S. (1951). Qu’est-Ce Que La Documentation ? (Editions Documentaires Industrielles et Techniques).
Burdick, A., Drucker, J., Lunenfeld, P., Presner, T., & Schnapp, J. (2012). Digital_Humanities. MIT Press.
Christin, A.-M. (1999). Les Origines de l’écriture : Image, Signe, Trace. Le débat, 4, 28‑36.
Christin, A.-M. (2009). L’Image écrite ou La déraison graphique (Enlarged édition). FLAMMARION.
Crozat, S., Bachimont, B., Cailleau, I., Bouchardon, S., & Gaillard, L. (2011). Éléments pour une théorie opérationnelle de l’écriture numérique. Document numérique, 14(3), 9‑33.
Deuff, O. L. (2012). Littératies informationnelles, médiatiques et numériques : de la concurrence à la convergence ? Études de communication. langages, information, médiations, 38, 131‑147. https://doi.org/10.4000/edc.3411
Friesen, N. (2018). Media Transatlantic: Developments in Media and Communication Studies between North American and German-speaking Europe (Softcover reprint of the original 1st ed. 2016 édition). Springer.
Galloway, A. R. (2004). Protocol. How Control Exists after Decentralization. MIT Press.
Goody, J. (1979). La Raison graphique : la domestication de la pensée sauvage (J. Bazin & A. Bensa, Trad.; Sens commun). Minuit.
Habib, A. (2021). et des poussières. Autour de Zen for Film (1962-1964) de Nam June Paik. Communication & langages, 208209(2), 95‑113. https://doi.org/10.3917/comla1.208.0095
Hadot, P. (1992). La Citadelle Intérieure. Introduction aux Pensées de Marc Aurèle. Fayard.
Hadot, P. (1995). Qu’est-ce que la philosophie antique ? Folio.
Hadot, P. (2002). Exercices spirituels et philosophie antique (Nouv éd rev. et augm édition). Albin Michel.
Havelock, E. A. (1967). Preface to Plato. New York : Grosset & Dunlap.
Hayles, N. K. (2005). My Mother Was A Computer: Digital Subjects And Literary Texts (2nd ed. édition). University of Chicago Press.
Herrenschmidt, C. (2023). Les trois écritures: Langue, nombre, code. FOLIO.
Higgins, D. (1966). Statement on Intermedia. https://www.artpool.hu/Fluxus/Higgins/intermedia2.html.
Hutchins, E. (1995). Cognition in the Wild. MIT Press.
Ingold, T. (2013). Une Brève Histoire Des Lignes. Zones sensibles.
Innis, H. A. (1964). The Bias of Communication (Vol. 15). University of Toronto Press.
Kittler, F. (2018). Gramophone, Film, Typewriter. PRESSES DU REEL.
Kittler, F. A. (2015). Mode protégé. Les Presses du réel.
Krämer, S. (2016). The Messenger as a Model in Media Theory. Reflections on the Philosophical Dimensions of Theorizing Media. In N. Friesen (Éd.), Media Transatlantic: Developments in Media and Communication Studies between North American and German-speaking Europe (p. 197‑213). Springer International Publishing. https://doi.org/10.1007/978-3-319-28489-7_11
Leroi-Gourhan, A. (2022). Le Geste et la Parole (Illustrated édition, Vol. 1). Albin Michel.
McLuhan, M. (1977). Pour comprendre les médias. Points.
McLuhan, M., & Nevitt, B. (1973). The Argument: Causality in the Electric World. Technology and Culture, 14(1), 1. https://doi.org/10.2307/3102728
Mersch, D. (2018). Théorie des médias - Une introduction. PRESSES DU REEL.
Mounier, P. (2010). Manifeste des Digital Humanities. Journal des anthropologues. Association française des anthropologues, 122-123, 447‑452. https://doi.org/10.4000/jda.3652
Ong, W. J. (2014). Oralité et écriture: La technologie de la parole (1er édition). Les Belles Lettres.
Paveau, M.-A. (2012). Activités langagières et technologie discursive. L’exemple de Twitter [{Billet}]. In La pensée du discours. https://doi.org/10.58079/ssle
Paveau, M.-A. (2013). Technodiscursivités Natives Sur Twitter. Une Écologie Du Discours Numérique. Epistémè : revue internationale de sciences humaines et sociales appliquées / 에피스테메, 9, 139‑176.
Paveau, M.-A. (2015). Ce qui s’écrit dans les univers numériques. Itinéraires. Littérature, textes, cultures, 2014-1. https://doi.org/10.4000/itineraires.2313
Pédauque, R. T. (2006). Le document à la lumière du numérique. C&F éditions.
Platon. (2007). Phèdre. Le Livre de Poche.
Popper, K. R. (Karl. R. (2002). The Logic of Scientific Discovery. London : Routledge Classics.
Ronconi, F. (2022). Écrire par schédê, schédia, schédiasmata et schédaria. Genesis. Manuscrits – Recherche – Invention, 55, 45‑56. https://doi.org/10.4000/genesis.7287
Schrader, A. (2010). Responding to Pfiesteria Piscicida (the Fish Killer): Phantomatic Ontologies, Indeterminacy, and Responsibility in Toxic Microbiology. Social Studies of Science, 40(2), 275‑306. https://doi.org/10.1177/0306312709344902
Sénèque. (s. d.). Lettres à Lucilius. http://agoraclass.fltr.ucl.ac.be/concordances/sen_luciliusX/lecture/3.htm.
Shannon, C. E. (1948). A Mathematical Theory of Communication. The Bell System Technical Journal, 27(3), 379‑423. https://doi.org/10.1002/j.1538-7305.1948.tb01338.x
Souchier, E., & Jeanneret, Y. (1999). Pour une poétique de l’écrit d’écran. 6, 97.
Vallée, J.-F. (2011). L’image globale : la pensée électrique de Marshall McLuhan. In O. Asselin, S. Mariniello, & A. Oberhuber (Éds.), L’ère électrique. The Electric Age (p. 85‑112). Les Presses de l’Université d’Ottawa University of Ottawa Press.
Vitali-Rosati, M., & Larrue, J.-M. (2019). Media Do Not Exist. Institute of Network Cultures.

  1. Cette requête a été effectuée le 22 octobre 2024.↩︎

  2. La préparation des leçons n’est pas à comprendre au sens de la fabrication de fiches en amont du cours pour ne rien oublier. Au contraire, les philosophes de l’Antiquité n’avait pas besoin de support pour leurs leçons. Ces notes servaient uniquement pour transmettre plus tard le contenu de la leçon à la génération suivante de philosophes.↩︎

  3. Le texte de Marc Aurèle revient à plusieurs occasions dans ce chapitre. Pour éviter d’avoir à répéter intégralement le titre à chaque occurrence, nous le désignons par la version abrégée suivante : Pensées.↩︎

  4. La lettre 83 est disponible sur cette page Web : https://agoraclass.fltr.ucl.ac.be/concordances/sen_luciliusX/lecture/3.htm, visitée le 29 octobre 2024.↩︎

  5. La correspondance entre les deux protagonistes s’étale sur deux années, entre l’an 62 et l’an 64, et l’on décompte pas moins de 124 lettres rédigées par Sénèque à l’intention de Lucilius. Elles ont été regroupées sous la forme d’un recueil intitulé Lettres à Lucilius. Ce recueil est connu pour aborder une large variété de sujets ayant pour objectif de former Lucilius au stoïcisme.↩︎

  6. Voir le Discours sur Tite-live, https://fr.wikisource.org/wiki/Page:%C5%92uvres_politiques_de_Machiavel.djvu/206, consulté le 31 octobre 2024.↩︎

  7. Cognition in the wild d’Hutchins n’est pas à confondre avec La pensée sauvage de Lévi-Strauss. Chez Hutchins, cette pensée n’est pas à mettre en opposition avec une pensée domestiquée. La pensée sauvage réfère ici à une pensée hors laboratoire, une pensée observée dans son « habitat naturel », entourée d’une culture, de pratiques, de techniques et d’aléas.↩︎

  8. Traduction personnelle de : I propose a broader notion of cognition because I want to preserve a concept of cognition as computation, and I want the sort of computation that cognition is to be applicable to events that involve the interaction of humans with artifacts and with other humans as it is to events that are interely internal to individual persons.↩︎

  9. Nous reviendrons plus en détail sur l’écriture numérique dans le chapitre 2. À ce stade, la partie qui nous intéresse concerne les techniques d’écriture et la production du sens ainsi que le fait qu’il y ait une forme de cognition distribuée dans la technique.↩︎

  10. Traduction personnelle : Without a shared protocol, there is no network.↩︎

  11. Traduction personnelle : matter that matter for human meaning. Cette assertion sera reprise sous la forme de matter matter par Barad, que l’on peut traduire par “c’est la matière qui compte” (Barad, 2007).↩︎

  12. Voir le dictionnaire français-latin Gaffiot : https://gaffiot.fr/#medium, page visitée le 20 novembre 2024.↩︎

  13. Pour cette pratique, il faut imaginer qu’après collage, le contenu d’un manuscrit contient sur une seule et longue ligne.↩︎

  14. Voir le site web du logiciel, https://cental.uclouvain.be/chrysocollate/, consulté le 21 novembre 2024.↩︎

  15. Traduction personnelle : By “posthumanist” I mean to signal the crucial recognition that nonhumans play an important role in natural/cultural practices, including everyday social practices, scientific practices, and practices that do not include humans. But also, beyond this, my use of “posthumanism” marks a refusal to take the distinction between “human” and “nonhuman” for granted, and to found analyses on this presumably fixed and inherent set of categories. Any such hardwiring precludes a genealogical investigation into the practices through which “humans” and “nonhumans” are delineated and differentially constituted. A posthumanist performative account worth its salt must also avoid cementing the nature-culture dichotomy into its foundations, thereby enabling a genealogical analysis of how these crucial distinctions are materially and discursively produced.↩︎

  16. Traduction personnelle : There is no mediator; there is instead an ensemble of elements in play at the time of the action and these elements (forces, human and non-human agents, contextual aspects…) intersect, merge, oppose, meet and double in a continual movement.↩︎