« On dirait que les univers mythologiques sont destinés à être pulvérisés à peine formés, pour que de nouveaux univers naissent de leurs débris. »
Franz Boas, 18981.
« Les gens qui nient l’existence des dragons sont souvent dévorés par les dragons. De l’intérieur. »
Ursula Le Guin, 20042
On l’appelle la grotte aux fées. La golée de fayes, en patois. Parce que la cavité en hébergeait, jusqu’à ce qu’elles disparaissent. C’était il y a quelques décennies. Il y en avait partout, de ces créatures. La forêt plus haut avait la réputation d’être infestée de servans, ces petits lutins facétieux qui pouvaient protéger le bétail ou faire toutes sortes de farces. Genre jeter des sorts, chaparder des trucs, ou mettre vos affaires sens dessus dessous pendant la nuit. Comme dans la grange là en bas. Il y en avait dans les bois, dans les lacs, ou dans ces parois rocheuses, mais ils se sont volatilisés. Tout ça a foutu le camp.
J’en ai entendu beaucoup, des anecdotes comme celle-ci, recueillie auprès d’un guide dans un vallon savoyard1. Les récits d’exil des fées ou d’autres créatures de la « petite mythologie » – cet ensemble de légendes populaires locales qui se distinguent des mythes antiques – forment depuis bien longtemps un thème récurrent chez les conteurs ou les poètes. À telle enseigne que cet exil est lui-même un motif folklorique, qui correspond à l’entrée « F388 » de l’immense inventaire des situations types des contes populaires qu’est la classification Aarne-Thompson-Uther2. Ces récits servent souvent à faire le constat d’un monde en voie d’extinction, en particulier en Occident. Comme me l’a expliqué un spécialiste des elfes, nous ne verrions plus le petit peuple, et les entités du merveilleux jadis connues, craintes ou respectées auraient tout bonnement disparu. Ce qui reléguerait ces créatures fabuleuses dans une sorte de bestiaire passé, sauf pour quelques-uns qui, comme lui, sauraient encore les repérer.
J’ai avalisé ces constats pendant un temps. À l’évidence, pensais-je, les êtres fabuleux ont disparu. Volatilisées, les fées, avec les follatons et autres loups-garous. La rationalité occidentale aurait triomphé de ce petit peuple avec lequel nous avons cohabité tant de siècles. Mais je me suis rapidement demandé s’il ne s’agissait pas de constats erronés. Si ces observateurs regardaient au bon endroit. Et si ces figures du merveilleux n’avaient pas non seulement subsisté, mais circulé, puis occupé un milieu bien différent des forêts, des montagnes et des lacs : celui que composent nos ordinateurs, nos smartphones et nos consoles de jeux. Voilà une vingtaine d’années que je mène des enquêtes sur les usages du numérique et que je suis frappé par la persistance, dans ces appareils, d’un certain nombre de figures du merveilleux ou de la mythologie. Pensons aux trolls qui perturbent les échanges en ligne, à ces petits programmes nommés « daemon » qui font tourner des tâches de fond dans nos systèmes d’exploitation, aux lutins (« sprites ») qui désignent les images en deux dimensions superposées aux décors de jeux vidéo, aux multiples virus dont certains sont qualifiés de « vers » et qui infectent ces appareils, aux bugs qui viennent également perturber nos usages, aux chevaux de Troie qui infiltrent nos machines. Sans parler des cas plus flagrants de rumeurs de fantômes qui hantent les réseaux. Utilisateurs de ces machines, nous passons notre temps à nous frotter à cette ménagerie, à parler de (et à) certaines de ces créatures, à en subir les effets ou à documenter leur présence. Si nous, Occidentaux, ne percevons plus la présence de tous ces protagonistes du merveilleux que sont les fées, les gnomes, les hommes des bois ou les esprits divers qui peuplaient forêts, montagnes et lacs, nous en côtoyons d’autres dont les noms et les caractéristiques héritent du bestiaire fabuleux antérieur. Telle est l’hypothèse que je creuse dans le présent ouvrage, en abordant cette ménagerie aussi banale que peu traitée, et qui se niche dans des dispositifs injustement décrits comme froids, désenchantés et désespérément rationnels.
Mirabilia d’hier à aujourd’hui
Le terme « merveilleux » sert aujourd’hui le plus souvent à qualifier une admiration pour des phénomènes ou des objets d’une rare beauté ou d’une grande qualité. Il fait néanmoins aussi référence à un genre littéraire, artistique ou cinématographique caractérisé par la présence d’éléments surnaturels s’écartant de notre expérience ordinaire ; en d’autres termes, à une catégorie alternative à la réalité qui englobe des éléments tels que la magie, les animaux et créatures mythiques, les mondes et les événements extraordinaires. Dans les œuvres de fiction contemporaines, le recours aux trolls, lutins et autres fantômes vise en général à susciter l’évasion en transportant le public dans un univers imaginaire, souvent teinté de féerie et d’enchantement. L’étymologie du mot « merveilleux » se rapporte en effet au latin « mirabilia », qui renvoie aux miracles, à ce « qui dépasse les limites ordinaires3 ». D’après l’historien Jacques Le Goff, ce terme, dont la racine « mir » implique un lien avec le regard, désigne non seulement ce que nous admirons avec nos yeux, mais aussi tout l’imaginaire engendré par les images ou les métaphores visuelles4. Est donc merveilleux ce que l’on voit d’étrange, ou ce que nous évoquent des expressions orales ou écrites décrivant de telles manifestations curieuses. Cela n’a pas toujours été le cas, puisque le terme mirabilia, dont est tiré le mot « merveilles », désignait antérieurement non seulement une catégorie, mais également une collection d’êtres, d’objets ou de phénomènes surprenants qui intéressaient les clercs du Moyen Âge et suscitaient fascination et incompréhension, que ces phénomènes soient nouveaux et rares ou que leur cause soit inconnue. S’intéresser aux merveilles, c’était compiler toutes sortes de choses curieuses (curiositas), à la manière de ces illustres personnages que furent Gervais de Tilbury ou Jean de Mandeville. Tant le premier, dans sa proto-encyclopédie, que le second, dans ses récits de voyage, se sont employés à rassembler les connaissances de l’époque sur des événements naturels curieux, des êtres surnaturels, des anecdotes historiques ou cosmographiques. Le recueil Les Divertissements pour un Empereur (Otia Imperialia) de De Tilbury, rédigé entre 1209 et 1214, présente ainsi une série de notices et historiettes à propos d’eau de mer qui se solidifie en sel, des signes qui apparurent à la mort de César, de l’arbre agnus-castus qui éloigne les fantômes, de démons capturés dans des anneaux, ou d’hommes à huit pieds et autant d’yeux5. Le Livre des merveilles du monde de De Mandeville, supposément écrit après un voyage réalisé entre 1322 à 1356, regorge de descriptions de créatures fabuleuses telles que des licornes, des dragons à plusieurs têtes, des sciapodes (des êtres munis d’un unique pied géant), des géants hirsutes mangeurs de serpents, ou des manticores (une bête à tête humaine et corps de lion)6.
La disparition des fées décrite plus haut correspond plus largement à un lent processus d’évacuation de ce merveilleux, une évolution peut-être encore inachevée7. Il s’agirait plus d’une trajectoire de sécularisation advenue par étapes, marquée par des mouvements de désintérêt ou au contraire de regain d’attention. L’influence de la religion chrétienne au Moyen Âge a joué un rôle fondamental dans cette éviction. Associés à des traditions anciennes, des croyances païennes ou des pratiques jugées incompatibles avec la doctrine, les récits mettant en scène des entités merveilleuses étaient souvent considérés comme concurrents ou incompatibles avec une religion en train d’établir sa propre autorité culturelle et spirituelle en Europe8. De même, l’influence de l’Inquisition au XIIIe siècle, puis la Réforme protestante, dès le XIVe siècle, ont contribué à cette évolution en impulsant l’élimination de ces éléments ou en formant à leur propos la catégorie de « superstition9 ». Mais c’est sans doute l’émergence du rationalisme, dans la philosophie médiévale puis le mouvement humaniste de la Renaissance, qui ont contribué de manière décisive à la relégation du merveilleux dans des catégories nouvelles, celles du « surnaturel » et du « fantastique », opposées à celles de la « raison » et de la « logique »10. Des historiennes telles que Lorraine Daston et Katharine Park défendent par ailleurs l’idée que le coup de grâce aurait été porté par la mutation des intellectuels au XVIIIe siècle. Ceux-ci n’auraient plus considéré prodiges et curiosités comme dignes d’intérêt scientifique, du fait non pas d’une victoire de la rationalité, mais de leur caractère vulgaire, malséant, signe d’une crédulité associée aux basses couches de la population11. Il est ainsi devenu incongru pour les penseurs des Lumières de s’y intéresser. Ce long déclin est cependant contrarié par l’avènement du romantisme, au XIXe siècle, particulièrement en Allemagne, qui vit une réintégration de ses figures et manifestations du merveilleux d’une manière souvent nostalgique – on pense, par exemple, aux recueils de contes des frères Grimm ou d’Hoffmann, où l’on retrouve notamment le motif du double inquiétant (Doppelgänger) et la présence de fées et de fantômes. Quant à l’époque contemporaine, si elle est résolument ancrée dans la science moderne et le rationalisme, elle persiste cependant à faire une place à ces motifs et à l’apparition d’autres créatures suscitant effroi et enchantement. L’ethnologue Federica Tamarozzi décrit par exemple en quoi les Européens regardent dorénavant leurs forêts comme si celles-ci n’étaient plus que des « champs de laitues » dépeuplées des figures légendaires telles que « les elfes, les dryades ou les hommes de bois » qui les peuplaient jadis, désormais reléguées dans un passé mythique suranné ; tout en constatant qu’un mystère résiduel subsisterait dans les sols avec ces organismes curieux que sont les champignons, ferments de nouveaux mythes12. L’historien Gil Bartholeyns souligne quant à lui en quoi les êtres légendaires ont fini de quitter le monde dans lequel nous vivons en devenant des créatures de papier. Leur réalité littéraire, dans les contes puis dans les littératures dites de l’imaginaire, a selon lui progressivement donné à ces entités « une présence aussi quotidienne que les esprits domestiques qui, la nuit venue, disait-on, faisaient le ménage et nourrissaient les animaux de la ferme13 ». Elfes, lutins et autres fées auraient ainsi adopté un nouveau mode d’existence, d’abord chez de grands noms tels que J.R.R. Tolkien, puis chez tous les auteurs ultérieurs du genre fantastique. Cette circulation s’est poursuivie au cinéma puis dans les jeux vidéo… et, par extension, dans ce nouveau milieu accessible par les technologies numériques qui est le nôtre depuis une quarantaine d’années.
Ce rapide panorama de la place fluctuante accordée aux merveilles et au merveilleux souligne en quoi il s’agit moins d’une disparition que de périodes d’hibernation de ces entités, qui suivent une trajectoire sinueuse de flux et de reflux. Celles-ci ont pour toile de fond des catégories de pensée qui ont évolué en Europe, et plus largement en Occident, en fonction de l’importance croissante d’une rationalité opposée à ce qui était qualifié de crédulité, ou de modalités de distinction sociale entre des traditions locales jugées vulgaires et des formes culturelles plus valorisées. Mais si la manière de concevoir ces entités, phénomènes et curiosités aujourd’hui décrits comme mythiques s’est transformée, force est de constater qu’ont aussi perduré dans le temps les deux traits caractéristiques du merveilleux évoqués plus haut à leur propos : l’importance du visuel et la dimension compilatoire de ces merveilles. En attestent les recueils de contes ou de récits dits « légendaires » rassemblés et édités depuis plusieurs centaines d’années, la profusion actuelle de toute une littérature à propos d’êtres fantastiques dans les rayons ésotérisme des librairies, les expositions sur les animaux fabuleux14, les multiples bestiaires des littératures de l’imaginaire, les compilations de créatures des films et livres de la saga Harry Potter et des ouvrages de Tolkien, ou encore ces livres intrigants que sont les « manuels de monstres » conçus pour animer des parties de jeux de rôle15. Les multiples ouvrages, jeux de cartes et autres documents consacrés à ces thèmes et particulièrement aux créatures fabuleuses combinent logique de collection, descriptions textuelles évocatrices et illustrations suggestives. Se poursuit en somme la tradition de restitution des merveilles née au Moyen Âge dans le champ des pratiques culturelles contemporaines. Il aurait été surprenant que les médias numériques, omniprésents, soient épargnés par ce phénomène.
Saisir la ménagerie numérique
Si les bestiaires et leur logique compilatoire connaissent un retour en grâce, ce n’est pas la voie que je poursuivrai dans cet ouvrage. Ce livre n’a en effet ni vocation à être un répertoire de créatures, ni un Matin des Magiciens du XXIe siècle qui cataloguerait les curiosités de ce nouveau milieu accessible via nos machines16. Mon objectif est plus analytique. Il vise à comprendre ce que sont concrètement ces entités pour celles et ceux qui les créent, les côtoient, les utilisent ou les subissent.
Qui est là dans nos machines ? Qui les peuple au quotidien ? Et de quelle manière ? J’aborderai ces questions au prisme de plusieurs enjeux. D’abord en décrivant ce à quoi ces créatures ressemblent et, surtout, comment leur présence se manifeste concrètement aux utilisateurs d’ordinateurs, de consoles ou de smartphones. Cette approche fait écho à toute une lignée de travaux en anthropologie, qui s’intéressent de longue date aux « effets de personne », c’est-à-dire aux multiples façons dont minéraux, animaux, végétaux, objets, images, reflets ou ombres se voient traités comme des individus avec lesquels nous entretenons des relations17. Étudié depuis les débuts de la discipline, par exemple par des anthropologues tels que E.-B. Tylor ou Lucien Lévy-Bruhl, ce thème connaît un regain d’intérêt depuis une quinzaine d’années avec l’avènement de cette nouvelle classe d’objets que sont les robots et les créatures de jeux vidéo18. Ces entités partagent des propriétés symboliques avec les autres objets du monde tout en s’en distinguant du fait des interactions qu’elles rendent possibles : échanges vocaux en situations de coprésence ou à distance, incarnation physique plus ou moins humanoïde, capacité d’interaction simultanée avec plusieurs personnes, etc.
Mais d’abord, qui est là ? Ces entités forment une véritable ménagerie, terme que je choisis ici pour décrire ce regroupement en un milieu bien spécifique et qui correspond tout autant aux établissements rassemblant des animaux qu’à l’ensemble d’espèces que l’on y trouve pour l’étude ou la présentation au public.
Premier constat : la terminologie employée à leur propos fait directement écho à différents mythes. Reconstituer le processus de dénomination de ces entités permet de comprendre comment celles-ci émergent19, en particulier dans le monde occidental et en Amérique du Nord. Pourquoi trouve-t-on des démons, des chevaux de Troie ou des trolls sur nos écrans ? Les expressions employées pour désigner ces entités relèvent de références tantôt mythologiques, tantôt monstrueuses. Et donc d’une persistance du merveilleux qui renvoie à tout un répertoire symbolique très éloigné de la supposée aridité électronique des machines.
Au-delà du « qui est là », cet ouvrage entend aborder les relations que nous nouons au quotidien avec cette ménagerie numérique. Quels liens les utilisateurs d’ordinateurs, de smartphones ou de consoles de jeux établissent-ils avec ces créatures de pixels ? Comment formulent-ils leurs échanges éventuels ? Ces créatures sont-elles juste perçues, remarquées ou véritablement prises en considération ? Ces interrogations concernent les multiples façons dont les humains attribuent un caractère animé ainsi qu’une certaine autonomie aux animaux, aux végétaux, aux motifs paysagers ou encore aux objets techniques. Elles renvoient au thème bien connu en anthropologie de l’animisme, cette manière de penser le monde en attribuant une forme de vitalité aux êtres vivants non humains, aux éléments ou aux artefacts. Plutôt, cependant, que d’affirmer que nos rapports avec les entités numériques relèvent de cette notion autour de laquelle les anthropologues s’écharpent20, j’aborderai ici les choses de manière plus pragmatique, et non sans prudence, en m’attachant à décrire les subtilités des relations qui nous unissent à ces entités.
Le mot « relation » peut être compris ici dans le sens commun du terme, c’est-à-dire comme une interaction entre des entités diverses. Mais ce terme a également une acception plus précise, par exemple chez Philippe Descola ou Anne-Christine Taylor. Le premier l’emploie pour décrire un schème de structuration de l’expérience individuelle et collective (l’échange, la prédation, le don, la protection, etc.), en général caractérisé par un sens (unique ou bidirectionnel), des liens (étroits ou non) et des rapports de domination21. La seconde introduit l’idée que cette notion décrit la modulation spécifique d’un rapport possédant un « dynamisme interne, un mouvement de va-et-vient entre les termes impliqués tels que A affecte B qualitativement et réciproquement22 ». Sur la base d’une description des divers liens que les utilisateurs de ces technologies entretiennent avec la ménagerie numérique, je montrerai donc comment ces interactions s’établissent en continuité ou non avec celles qui nous liaient aux créatures merveilleuses passées, ainsi remises au goût du jour dans nos ordinateurs, smartphones et consoles de jeux. En d’autres termes, à décrire le folklore numérique.
Folklore, folklore numérique, netlore
Décrire la présence du merveilleux, d’entités mythiques et d’êtres fabuleux est une tâche que l’on a longtemps attribuée au champ du folklore. L’expression désigne à la fois l’ensemble des pratiques culturelles populaires (contes et légendes, rites, croyances diverses) et la discipline qui les étudie. Suivant les pays et les traditions culturelles, l’intérêt pour le folklore est plus ou moins valorisé. L’expression a parfois une connotation négative, comme c’est le cas en France, où il renvoie à une image surannée, d’autant plus passéiste qu’il a été instrumentalisé par la politique culturelle du régime de Vichy comme exaltation d’une âme nationale et de régionalismes divers. Mais il peut susciter ailleurs, par exemple dans les pays anglophones, un intérêt sans cesse renouvelé. Il concerne alors tout autant les témoignages du passé, les circulations diverses de rituels ou de récits quelconques, que les traditions culturelles (le suffixe « lore »), passées ou récentes, partagées par tout collectif (le préfixe « folk » correspondant au mot « peuple » en anglais)23. C’est la raison pour laquelle le terme « folklore » déborde aujourd’hui du cadre des sociétés traditionnelles pour recouvrir toutes sortes de mondes sociaux, de modes de diffusion autres que l’oralité stricte et en vient à concerner les objets et situations contemporains. On trouve ainsi un photocopy-lore correspondant aux récits qui circulent sous la forme de photocopies, un computer-lore à propos de faits concernant les ordinateurs, ou un net-lore désignant le folklore des réseaux numériques tels qu’Internet24. L’investigation que je propose dans cet ouvrage se situera donc au croisement de cet ensemble, dans une espèce de « folklore numérique » en devenir qui s’intéresse aux contenus en ligne et aux manières d’interagir avec les interfaces numériques et dans les mondes virtuels : mèmes Internet, expressions idiomatiques, recours aux smileys et emoticons, esthétiques visuelles, etc.25. Mon enquête ne vise cependant pas seulement à saisir cette créativité vernaculaire, mais aussi et surtout à appréhender les êtres animés qui les peuplent.
Si, comme on le voit ici, le folklore a évolué en termes de contenus et d’objets abordés, les manières d’investiguer les pratiques culturelles ont elles aussi changé. Les études du folklore se sont longtemps appuyées sur un effort de collecte, de compilation et de classement de curiosités pas toujours très rigoureux, jusqu’à ce qu’elles se scindent entre un versant scientifique d’une part, dont l’ethnologie a pris le relais, et son pendant régionaliste – ce dernier réduisant parfois les faits et les coutumes collectés à des survivances ancestrales, ou négligeant les problématiques plus larges auxquelles ceux-ci renvoient : rapports de domination, influences culturelles externes, questionnements identitaires, etc. C’est la raison pour laquelle le propos de cet ouvrage ne consiste pas à proposer une simple compilation de créatures folkloriques numériques, aussi fabuleuses et curieuses soient-elles. Il s’agit plutôt de resituer les êtres numériques dans des enjeux plus larges, qui concernent notre vie quotidienne avec les machines.
Cette tâche est d’autant plus pertinente qu’une grande partie de l’attention accordée aux entités technologiques s’est concentrée ces dernières décennies sur les robots et autres créatures physiquement incarnées – qui sont souvent des prototypes (le robot humanoïde Asimo de Honda), des produits de consommation coûteux (le chien AIBO de Sony) ou des machines conçues pour des applications militaires ou policières (BigDog de Boston Dynamics). En laissant de côté ces créatures robotiques, mon intention est plutôt de me concentrer sur les habitants du numérique moins connus malgré leur omniprésence dans notre quotidien. Sans viser un traitement encyclopédique – comme entend le faire la multitude d’ouvrages consacrés à des créatures aussi fabuleuses que les lutins ou les loups-garous dans diverses communautés folkloriques –, cet essai s’interroge sur ce que sont concrètement ces êtres pour ceux qui les côtoient, leurs créateurs et leurs utilisateurs, et ceux qui subissent leur présence. En enquêtant sur cette ménagerie, je propose de montrer en quoi, malgré l’accusation de désenchantement, notre monde technologique contemporain est empreint de curiosités et d’étrangetés. À la suite d’autres travaux s’intéressant à la présence du merveilleux dans les objets – pensons aux récits de disques vinyle hantés, de cassettes vidéo maudites ou de guitares de bluesmen diaboliques –, cet essai concerne au fond la place des techniques dans le merveilleux. Car loin d’être antithétiques à l’enchantement, les appareils numériques, tout comme les miroirs malveillants du Moyen Âge, font l’objet de fantasmagories diverses26. Il ne s’agit pour autant évidemment pas de défendre l’argument simpliste selon lequel les médias numériques seraient « merveilleux » dans le sens contemporain du terme, autrement dit qu’ils représenteraient un bénéfice indiscutable et dénué de défauts. Mon propos, on l’aura compris, n’est pas normatif : il se situe essentiellement sur le plan de la dimension symbolique.
Du corpus à la ménagerie
Si cet ouvrage n’adopte pas le format du bestiaire, il m’a néanmoins fallu cerner qui (ou ce qui ?) constitue la ménagerie numérique, en me concentrant sur le contexte occidental. J’ai pour cela construit un corpus compilant un ensemble d’entités en m’appuyant sur les mentions des participants à mes enquêtes27 et sur un recensement systématique dans des ressources documentaires : articles académiques et références historiques sur les questions prégnantes d’interaction humain-machine, articles dans la presse généraliste, discussions sur des forums, blogs ou réseaux sociaux. Dans l’intention de ne pas séparer culture savante et culture populaire, j’ai aussi compulsé des manuels et tutoriels de programmation, ainsi que des dictionnaires, lexiques et autres références encyclopédiques relatifs aux cultures numériques. Certains de ces documents sont en effet rédigés par des experts, comme le Principles of English Usage in the Digital Age de la revue Wired, guide de référence en anglais pour le vocabulaire technique à destination des journalistes. D’autres sont produits par les utilisateurs eux-mêmes, tels que le Jargon File (un glossaire spécialisé dans l’argot des programmeurs, lancé en 1975 et mis à jour depuis), Know Your Meme (une plateforme de description des mèmes Internet), textfiles.com (un site archivant les textes produits sur différentes plateformes Internet d’avant le Web) ou Fandom (une constellation de sites à propos des diverses formes et spécificités des cultures populaires). J’ai aussi créé mon propre « piège à créatures » en mettant en place un blog relatant mon travail d’enquête. Un blog qui, comme souvent avec ce médium, a suscité des interactions avec des collègues et, plus généralement, des personnes partageant le même intérêt, lesquels m’ont fait parvenir des références nouvelles28.
Plus concrètement, j’ai relevé dans ces différentes sources la présence de noms d’entités, leur description, leur origine ainsi que des observations sur les relations que les utilisateurs nouent avec elles. Par analogie avec la notion de bestiaire, j’ai retenu comme entité pour ce corpus tout agent qui respecterait les trois critères suivants. Le premier concerne l’incarnation de l’entité. J’ai en effet retenu celles qui se présentaient à l’écran avec un nom (Clippy, Siri, Bob) ou une dénomination de catégorie (troll, virus) et qui étaient accessibles via une interface physique ou textuelle, ou par commande vocale. Cette représentation peut relever d’une incarnation visuelle, comme dans le cas des personnages de jeux vidéo (avatar, sprite), ou être purement graphique, avec des formes ou des motifs plus ou moins complexes (motifs du jeu de la vie).
Le deuxième critère est la présence d’une forme d’agentivité : l’entité doit effectuer des actions et des tâches, avec des conséquences sur le monde. Siri donne l’heure et répond à des questions simples, ChatGPT génère du texte, un troll produit de la frustration en polluant une conversation, un LOLcat circule, etc.
Enfin, dernier critère, les entités doivent exister en dehors d’un cercle restreint : mention dans des documents descriptifs (presse, articles historiques, documentation technique, manuels), au sein de discussions en ligne, présence dans des enquêtes de terrain, dans des manuels de conception, dictionnaires et autres lexiques. Je n’ai retenu dans mon corpus final que les entités dont il était fait mention plus de dix fois dans les documents considérés.
Ce travail de recension m’a permis de construire un corpus de 56 entités, en excluant les robots à incarnation physique tels que les aspirateurs Roomba, les multiples chiens-robots ou les androïdes Pepper et Nao, les créatures mécaniques historiques de l’ingénierie telles que le Canard digérateur de Vaucanson, la tête parlante Euphonia ou les créatures électro-mécaniques de la cybernétique. Les spécimens sur lesquels je me pencherai ici sont donc des êtres apparaissant essentiellement sur nos écrans et/ou via les haut-parleurs de nos machines. J’ai ensuite organisé ces entités par catégories thématiques en les regroupant en fonction de la similarité de leurs comportements et attitudes, et non selon leur degré de sophistication technologique. La structure de cet ouvrage suit cette classification de la ménagerie numérique, en commençant par la catégorie des entités qui nous veulent du bien, ces concierges numériques que sont les démons, crons, watchdogs et autres Clippy révélant une forme d’ambivalence liée à leur action aussi discrète que méconnue. Le deuxième chapitre aborde un autre ensemble plus nébuleux, constitué des multiples types de revenants et fantômes qui hantent les réseaux, comme on en trouve dans les récits dits de « creepypasta ». À la suite de quoi nous croiserons des êtres malveillants : virus, vers, chevaux de Troie, bugs et autres trolls. Cette partie thématise les relations conflictuelles au sein de nos machines. Le chapitre suivant poursuivra ce panorama en se penchant sur les compagnons et partenaires d’interaction que l’on croise principalement dans les jeux vidéo. Nous rencontrerons des assistants virtuels, des lutins (sprites), des PNJ (personnages non joueurs) munis de leur avatar ainsi que des animaux plus ou moins fictifs. Quant à la dernière partie, elle concernera ces nouveaux monstres que sont les systèmes d’intelligence artificielle. Il s’agira alors de proposer une tératologie qui reflète l’effroi suscité par la sophistication croissante de ces êtres insaisissables.
Ce faisant, cette enquête entend contribuer à remettre en question l’idée encore prédominante aujourd’hui d’un désenchantement du monde, en montrant que nos sociétés sont encore traversées par un merveilleux persistant, présent jusque dans des objets aussi froids que notre instrumentarium numérique.
I.
DES DÉMONS TRÈS DISCRETS
« Explore Search Results Daemon will damage your computer. » Tel est l’intitulé du message d’avertissement que mon voisin montre du doigt sur son écran. Nous sommes assis dans une salle de classe autour de tables en U, occupés à pianoter sur nos claviers dans le cadre d’une formation professionnelle. Il râle. Bloqué par cette fenêtre associant de façon curieuse le terme de « démon » – ici écrit « daemon » – à d’autres mots plus courants du sabir informatique, il s’inquiète, cherche à s’en débarrasser et finit par appeler le formateur. « “Explore Search Results Daemon will damage your computer.” Depuis que j’ai fait la mise à jour de mon système d’exploitation, ça n’arrête pas de s’afficher, puis ça disparaît. Je suis censé faire quoi ? » L’enseignant soupire, s’approche et rassure mon voisin : « C’est juste un message de maintenance. Il faut vider les démons de leur répertoire, tu vois ? Dans LaunchDaemons, le répertoire de lancement des démons. » « Vider les démons ? Un répertoire à démons à lancer, mais c’est quoi ce truc-là ? » Le formateur s’adresse ensuite à la classe. Il va en profiter pour nous livrer des explications sur ces créatures, comme s’il s’agissait d’instructions indispensables à tout propriétaire d’ordinateur.
Attiré par l’incongruité du propos, je prête une oreille attentive. Dans les systèmes informatiques basés sur le système d’exploitation UNIX, explique-t-il, tels ceux des ordinateurs de la marque Apple, tournent en permanence des petits programmes qui effectuent des tâches nécessaires à leur bon fonctionnement. « C’est ça qu’on appelle un démon. Un daemon, en fait. » Il y a par exemple bluetoothd, qui scanne continuellement l’environnement alentour et « permet d’établir une connexion de votre ordi avec les appareils Bluetooth du genre clavier, souris, haut-parleurs ». Screensharingd, comme son nom l’indique, gère quant à lui le partage d’écran du Mac vers un autre appareil. Le daemon cloudd tente pour sa part d’exécuter les services iCloud, la plateforme de stockage en ligne d’Apple. Cloudd agit automatiquement, chaque fois qu’une application ou un processus synchronise ou copie des données, pour voir si tout est bien au bon endroit. « Il y en a plein des comme ça, ça sert à superviser des choses, à maintenir le bon fonctionnement de votre système d’exploitation, des serveurs. Ces démons vérifient des aléas éventuels de sécurité, tout en restant en tâche de fond, sans que l’on s’en rende compte. » « Jusqu’à ce que surgisse un message d’erreur », précise mon voisin.
S’ils restent la plupart du temps silencieux, il arrive, comme mon camarade en a fait les frais, qu’ils se manifestent en créant un dysfonctionnement. Ils peuvent aussi, nous explique notre formateur, ralentir nos machines. « Si un daemon est mal conçu, il peut être complètement inefficace, fonctionner de manière poussive et diminuer les performances de votre ordinateur. Dans ces cas-là, vous devez identifier les daemons qui causent des problèmes de performance, puis les désactiver. Ça nécessite d’aller à l’endroit où ils sont stockés. » Ce qu’il démontre en ouvrant le répertoire sur la machine de mon comparse avant d’éliminer les récalcitrants en quelques clics. Il clôt alors cette digression dans la formation par la formule suivante, aussi lapidaire qu’intrigante : « Morale de l’affaire : il faut surveiller ses démons et ne pas hésiter à les supprimer. »
Daemons et infraordinaire numérique
Depuis cette rencontre impromptue avec ces entités, je me suis mis à guetter leur apparition. Rien de tel pour cela que d’élaborer une tactique d’observation des pannes, consistant à prêter attention aux multiples écrans croisés au quotidien et à lire les éventuels messages d’erreur qui s’y affichent. Des affiches interactives des centres commerciaux aux systèmes multimédias des avions en passant par les panneaux de gare, j’ai tâché de tenir à l’œil les différents objets numériques qui balisent nos circuits quotidiens.
De cette moisson, j’ai ainsi relevé la présence de « firmware update daemons », de « display daemons », de « power profiles daemons », de « syslog daemons », mais aussi, plus évocateur encore, de « samba SMB daemons ». Un ensemble de qualificatifs qui désignent le genre de tâches dont s’occupent ces entités au nom maléfique : la mise à jour de logiciels, l’affichage d’informations diverses, l’accélération éventuelle du fonctionnement de la machine, des contrôles ou des dépannages divers, l’envoi de rapports ou le partage de fichiers avec une imprimante. Le plus courant pour un usager lambda est sans doute le « mailer-daemon@… » (parfois nommé « Mail Delivery Subsystem »), émetteur d’un courriel automatique de « remise impossible » chaque fois que le message envoyé n’a pu être acheminé jusqu’à son destinataire. Allez voir dans les archives de votre messagerie, je suis certain qu’un de ces démons vous a déjà écrit.
La lecture des manuels d’utilisation des systèmes d’exploitation d’ordinateurs est dans l’ensemble un exercice assez fastidieux. Les documents techniques de ce type, en effet, ne sont guère rédigés pour être lus, mais pour être consultés ponctuellement en cas de problème à résoudre. J’y trouve néanmoins des explications qui me permettent de compléter ma chasse et de mieux saisir de quoi il retourne concrètement. J’apprends ainsi que les « daemons » sont des programmes informatiques rudimentaires, pour la plupart lancés quand l’ordinateur démarre, et qu’ils fonctionnent en arrière-plan, c’est-à-dire sans contrôle direct de la part de l’utilisateur. Ils agissent soit en continu, soit lors d’un changement particulier, par exemple à un moment choisi (toutes les x minutes ou chaque jour à 5 heures du matin) ou lorsque le trafic Internet devient embouteillé. Se terminant par la lettre d (pour « daemon »), leur nom renvoie de manière laconique au rôle qu’ils jouent dans nos machines.
Ces daemons prennent en charge plusieurs types de fonctions : certains servent par exemple à gérer automatiquement la capacité de votre smartphone ou de votre ordinateur à faire tourner d’autres programmes et, par là même, à éviter que le ventilateur se mettre à tourner si intensément que vous avez l’impression d’un décollage imminent. On parle alors de « daemons système ». Exception à cette règle de nom en d, la classe particulière des crons permet d’exécuter automatiquement des tâches à une date et une heure spécifiées à l’avance, ou selon un cycle prédéfini. Leur nom provient du terme « crontab » (qui signifie « table de planification »), troncation du mot « chrono » venant du grec « χρόνος » (chronos), qui désigne le temps. L’exemple introductif nous montre aussi que les démons peuvent se charger des connexions avec d’autres appareils, par exemple en Bluetooth ; il s’agit alors de « daemons de périphériques ». De leur côté, les « daemons de réseaux » offrent des services tels que l’accès au Web et au courrier électronique.
Le Jargon File, ce glossaire spécialisé dans l’argot des programmeurs devenu mythique depuis son éclosion dans les années 1970, définit le terme de « daemon/« démon » comme suit : « Un programme qui n’est pas invoqué explicitement, mais qui reste en sommeil en attendant qu’une ou plusieurs conditions se produisent. L’idée est que la personne qui actualise cette condition n’a pas besoin de savoir qu’un démon est à l’affût1. » Comme le formule l’un des manuels que j’ai pu consulter, « c’est comme avoir un bataillon de petits assistants, ou d’anges gardiens, qui s’occupent de diverses choses pour vous ». Et qui le fait non seulement indépendamment des utilisateurs, mais aussi en collaboration avec d’autres daemons. Lesquels se rendent alors service, notamment pour communiquer avec d’autres programmes ou pour coordonner des tâches.
Affublées d’un nom directement lié à la mythologie, ces entités appartiennent à l’infraordinaire de nos machines2. C’est la raison pour laquelle je propose d’employer ici le qualificatif de « concierge numérique », par analogie avec les personnes chargées de la garde ou de l’entretien d’un immeuble. De fait, l’entretien de ces appareils, discrètement dévolu aux démons, est aussi méconnu des utilisateurs lambda (sauf quand ça dysfonctionne) que documentée par les experts. Ces derniers donnent alors un sens nouveau à la démonologie. Pour comprendre comment des programmes informatiques aussi banals ont pu se retrouver désignés par ce vocable, attardons-nous donc maintenant sur sa circulation, de la mythologie à l’informatique.
Circulations mythologiques
Le terme de « démon » a plusieurs acceptions et sa variabilité orthographique atteste d’un glissement symbolique. Si, dans le langage courant, il est employé pour parler d’une personne malveillante, tourmentée ou dangereuse, son étymologie indique que le mot français vient du latin « daemon », emprunté quant à lui au grec ancien « δαίμων » (daímōn). Dans le contexte de la culture grecque populaire, l’expression désigne une divinité intermédiaire entre les dieux et les êtres humains, également douée d’une puissance mystérieuse, qui intervient de manière ambivalente et imprévisible3. Suivant les époques et les auteurs qui les discutent, ce type de daímōn correspond à une entité extérieure ou intérieure à l’individu. La plus connue est le « démon personnel » décrit par Socrate, qui inspire le philosophe ou lui souffle des décisions à prendre, voire des réponses à ses questions4. La croyance de l’Antiquité gréco-latine en cette sorte d’esprit familier assistant chaque être humain a pris par la suite une connotation maléfique avec l’avènement du christianisme ; d’abord pour désigner les dieux païens inacceptables aux yeux de Rome puis, à la fin du Moyen Âge, pour évoquer un alter ego maléfique du bon génie de l’Antiquité. Le terme, alors écrit « démon », fait référence à l’ange déchu nommé Satan, Belzébuth ou Lucifer, révolté contre Dieu, qui incite les humains à faire le mal. Sorte de version négative de l’ange gardien du quotidien, il est en général représenté par cet être anthropomorphe velu et muni de cornes qu’est le diable, lui-même combinaison d’éléments variés provenant de créatures remontant à l’Antiquité classique et d’êtres fabuleux orientaux5.
C’est cette figure démoniaque qui a ensuite investi les traditions populaires du folklore européen et que nous avons encore en tête. On la retrouve dans les contes et récits du terroir étudié par l’ethnologie rurale. À fois nuisibles et protecteurs, selon la manière dont ils sont traités par les humains6, les démons sont souvent liés à des lieux spécifiques, comme des forêts, des sources, des champs ou des montagnes. En outre, leur comportement est profondément influencé par les rituels et les offrandes que les habitants leur consacrent. Reflets d’une vision du monde où la nature est vivante et dotée d’une conscience, ils incitaient à une certaine prudence face à un milieu auquel il fallait rendre des comptes. Ce n’est qu’au Moyen Âge tardif que le qualificatif de « démon » a commencé à symboliser la personnification des vices et des tentations telle qu’on la connaît aujourd’hui.
Quelle qu’en soit la définition, les relations que les humains entretiennent avec ces êtres intermédiaires sont ambiguës. Protecteurs dans les cultures antiques, ils sont néanmoins imprévisibles et capricieux, munis de pouvoirs surnaturels. Malintentionnés aux yeux de la chrétienté, les démons font l’objet de multiples procédés destinés à s’en protéger, les apaiser ou contrer leur action : tatouages protecteurs, formules magiques prononcées oralement et destinées à se rendre invisible à leurs yeux, amulettes et autres objets servant à détourner le danger, recours à des sacrifices7. C’est la raison pour laquelle ces entités surnaturelles ont reçu une attention des plus soutenues. L’étude des démons – la démonologie – s’est ainsi attachée à tenter de saisir leur nature exacte, à décrire leur apparence visible ou invisible, à les classer en différentes catégories (bienveillants ou malfaisants, protecteurs ou tentateurs, intérieurs ou extérieurs aux individus, etc.) et à analyser leur organisation en sociétés8. Datant du XVIe siècle, le Livre des esperitz en est un bon exemple dans le contexte chrétien. Il répertorie pas moins de 46 démons accompagnés d’une description physique, de leurs fonctions et effectifs comptabilisés en légions. L’ouvrage les classe en super-démons, tels que Lucifer, Belzebuth et Satan, ou en rois qui gouvernent les points cardinaux du ciel : Orient (alias Oriens), Poymon (alias Paymon), Amoymon (alias Amaymon) ou Equi (alias Egyn). Publiée en 1577 par le Brabançon Johann Wier, la Pseudomonarchia dæmonum compile de son côté une description de 69 entités, dont une vingtaine d’anges déchus. Accompagné de précisions sur leur mode opératoire, le texte donne également quelques statistiques audacieuses, comme le fait que chaque légion serait constituée de 6 666 démons9. Dans d’autres cultures, comme en Chine, certains démonologues indiquent l’existence de 70 démons tsing potentiellement malfaisants, et 40 kouei aux ordres de divinités10.
Pour comprendre comment de telles entités en étaient venues à désigner des processus automatiques sur un ordinateur, j’ai contacté J., physicien et informaticien, qui s’exprimait sur un forum en ligne sur ce sujet. J. m’a donné rendez-vous au Cern, au pied du Jura, à côté de Genève, dans le centre d’accueil flambant neuf de l’Organisation européenne pour la recherche nucléaire, construit par l’architecte italien Renzo Piano. Alors que je l’interroge sur la filiation du terme, il assène d’emblée que « l’emploi du terme “démon” est courant chez les scientifiques. […] Ça date d’avant les ordinateurs, pour désigner des phénomènes ou des processus encore méconnus ou mal compris. Il y a toute une tradition du démon en sciences, surtout en physique ». De ce que je comprends, c’est moins la connotation maléfique ou surnaturelle qui importe ici que la nécessité d’un terme technique permettant de qualifier ce qui paraît exceptionnel ou entre en contradiction avec l’état des connaissances antérieures. « Tu as Descartes’ demon, comme on l’appelle en anglais, ou “malin génie” en français, que le philosophe du XVIIe a utilisé dans ses Méditations pour décrire ce manipulateur de sens qui nous ferait douter de la réalité. Tu as aussi celui de Laplace, proposé par ses commentateurs pour faire référence à tout autre chose : une intelligence à même de calculer l’évolution de la position et du mouvement précis de toutes les particules de l’univers sur la base d’une connaissance de leurs positions présentes et passées. » J. me le répète, le démon est avant tout un personnage qui permet de réaliser une expérience de pensée et de concevoir une situation hypothétique pour explorer, par l’imagination, les conséquences théoriques d’une idée ou d’un principe. Les expériences de pensée sont courantes en philosophie et en sciences ; pensons par exemple au chat de Schrödinger pour illustrer les paradoxes de la mécanique quantique, ou à l’ascenseur utilisé par Albert Einstein afin de développer sa théorie de la relativité générale. Pour sa part, la notion de démon aide à se projeter dans l’inconnu. Le choix du terme de “génie”, puis de “démon” par les commentateurs de Descartes et Laplace n’est pas anodin. Il fait référence non à une créature maléfique, de type ange déchu, telle qu’envisagée par la doctrine chrétienne, mais à ces entités d’inspiration païenne et préchrétienne munies de pouvoirs limités et à l’existence hypothétique. C’est cette dernière caractéristique qui fascinait les penseurs de l’époque11, du fait notamment de la difficulté à réfuter leur existence et parce que cette incertitude permettait d’aborder les phénomènes mystérieux qu’ils souhaitaient saisir, comme Descartes en son temps.
L’expérience de pensée du « démon de Maxwell » en est un bon exemple. Très connue en physique, cette expérience spéculative a par ailleurs nourri l’arrière-plan théorique sur lequel l’informatique et les ordinateurs contemporains ont éclos au milieu du XXe siècle. J. me la décrit de la manière suivante :
Le démon de Maxwell est une manière d’aborder un problème concret fondamental en physique. C’est une expérience de pensée qui date de la fin des années 1860. Elle permet de se demander si le fait de collecter des informations dans un milieu peut avoir un effet sur la régulation des échanges de chaleur et de transformation d’énergie dans celui-ci. Dans ce scénario, on imagine qu’un petit être imaginaire, le démon, observe les molécules dans l’air dans une boîte divisée en deux compartiments. Il peut ouvrir ou fermer une minuscule trappe entre les compartiments pour trier ces molécules, apparemment sans dépenser d’énergie, et selon leur vitesse, qu’il peut détecter. Cette expérience permet aux physiciens de se demander si l’acquisition d’information à propos d’un système peut influencer son comportement thermique et s’il est possible de réduire son entropie (son désordre) sans dépenser d’énergie, ce qui serait paradoxal.
En d’autres termes, le « démon de Maxwell12 » illustre la manière cruciale dont l’acquisition d’information et de connaissances par un système influence les processus physiques qui s’y déroulent. C’est pour cette raison qu’il a par la suite suscité de nombreux échanges parmi les chercheurs des années 1940-1950, intéressés par ce champ nouveau et prometteur appelé « théorie de l’information ». Cette branche des mathématiques et de l’ingénierie introduit l’idée que l’on peut mesurer la quantité d’information contenue dans un message, la stocker et la transmettre de manière optimale. Dans cette communauté de recherche, la référence au « démon de Maxwell », théorisé plusieurs décennies auparavant, a contribué à l’éclosion de deux idées fondamentales. Elle a d’abord permis de penser la notion d’information par des chercheurs tels que Norbert Wiener et Claude Shannon, puisque toute l’expérience de pensée repose sur le fait que cette entité démoniaque collecte des connaissances pour agir. Cette expérience les a mis sur la piste d’un élément quantifiable nommé « information », bribe de savoirs sur le monde susceptible d’être objectivée, mesurée et intégrée aux machines. En soulignant l’existence d’un mécanisme capable de mettre de l’ordre dans la distribution aléatoire des molécules dans l’air, il a permis en second lieu d’imaginer une force de contrôle des machines qui créerait de l’ordre. Et donc d’envisager la possibilité de déployer dans les ordinateurs une infrastructure qui en assurerait leur bon fonctionnement13.
Après ce détour par la physique, J. sourit : tout cela doit sans doute me paraître bien abstrait… Il poursuit : « Je vais être plus clair. Il a fallu attendre plusieurs années avant que l’on parvienne à concevoir une telle infrastructure. » Il saisit son smartphone, tape quelques mots-clés dans un moteur de recherche et me montre des images d’une espèce de bureau gris constellé de petites lumières. C’est un ordinateur IBM 7094, sur lequel tournait le CTSS (Compatible Time-Sharing System, soit le « système accomplissant du temps partagé compatible »), l’un des premiers systèmes d’exploitation informatiques. Cet ancêtre de Windows, de MacOS ou d’Android proposait en 1961 un traitement de texte rudimentaire ainsi qu’un outil de courrier électronique. Partagé par plusieurs utilisateurs, ce CTSS nécessitait l’existence d’un organe de supervision, afin de prioriser les tâches en fonction de leur importance et de leur temps d’exécution, et d’éviter de tomber en panne ou de se bloquer. J. explique que c’est à ce moment-là que les membres du projet ont repris à Maxwell le terme de « démon », transformé en « daemon » par un détour via terminologie latine, moins empreint de connotations religieuses. C’était pour eux le moyen de désigner ce superviseur discret et son rôle au sein de la machine. Comme le décrit Fernando Corbató, responsable en chef du projet : « Notre utilisation du mot a été inspirée par le daemon de Maxwell en physique et en thermodynamique (ma formation est la physique). […] C’est avec une certaine imagination que nous avons commencé à utiliser le mot “daemon” pour décrire les processus d’arrière-plan qui travaillaient sans relâche à l’exécution des tâches du système14. » Le terme est ensuite resté avec la création d’une entité bien particulière, le Disk And Execution MONitor (moniteur de disque et d’exécution), dont l’acronyme est DAEMON, en charge de contrôler la sauvegarde sur bande magnétique des contenus manipulés. Ont ensuite proliféré toutes sortes de daemons, d’importance plus ou moins grande, sur les machines ultérieures.
On peut cependant retracer une autre histoire de ce recours à la terminologie démoniaque, sans lien avec ce CTSS et sans qu’il soit fait référence à son usage en physique et en science. Le chercheur en informatique du MIT Oliver Selfridge proposait en effet dès 1958 l’idée d’une rupture dans la manière de faire fonctionner les ordinateurs en les programmant à agir par le truchement d’un « pandémonium15 ». Le terme, forgé à partir du grec ancien « πᾶν » (pân) (« tout ») et « δαίμων » (daímôn) (« démon ») par le poète anglais John Milton au XVIIe siècle, désignait la capitale du royaume des Enfers où Satan invoquait les démons les plus malfaisants afin de préparer l’Apocalypse.
Ce terme permettait à Selfridge d’organiser le travail en parallèle d’une multitude de démons et sous-démons qui actualiseraient leur stratégie en fonction des échecs et des succès rencontrés dans l’accomplissement des tâches demandées16. Organisé de manière hiérarchique, cet ensemble serait lui composé d’entités simples effectuant des tâches rudimentaires et répétitives, qui pourraient ensuite recourir à d’autres entités, plus haut placées dans la hiérarchie, afin qu’elles prennent en charge les étapes ultérieures. Si Selfridge a été attaqué par certains de ses collègues pour son recours à cette terminologie très connotée, il s’en est défendu en arguant de son efficacité fondée sur des considérations exclusivement pragmatiques.
La proposition de Selfridge eut moins de retombées concrètes que la référence au démon de Maxwell dans la manière de penser l’organisation des systèmes d’exploitation, mais elle reçut un écho favorable, à la même époque, chez les pionniers d’une nouvelle discipline nommée intelligence artificielle. Parmi les réactions à son article, on peut en effet lire le créateur du terme « IA », John McCarthy, souligner avec enthousiasme que le recours à ce qu’il nomme une « collection de démons » est un outil pertinent pour comprendre la cognition humaine. McCarthy voit dans le pandémonium une métaphore bienvenue pour décrire les différents degrés de conscience : « Peut-être que ce qui se passe entre les démons peut être considéré comme la partie inconsciente de la pensée, et ce que les démons crient publiquement pour que les autres l’entendent, comme la partie consciente. » Les autres pionniers de l’IA que furent Marvin Minsky ou Allen Newell reprirent par la suite cette proposition de pandémonium, décidément fertile pour simuler l’intelligence avec des machines17 – le second s’en servit par exemple pour concevoir des programmes de résolution de casse-tête ou de jeux d’échecs. Selfridge passa lui-même à la pratique en montrant dès 1960 comment un groupe de démons pouvait apprendre aux machines à percevoir le monde et, en particulier, à reconnaître les caractères manuscrits18 : des démons de « bas niveau » pourraient prendre en charge la détection d’éléments basiques dans l’image d’une lettre (une ligne horizontale, une verticale, des diagonales) ; ils seraient associés à des démons intermédiaires qui regrouperaient les détections effectuées précédemment pour identifier des configurations plus complexes, et à des démons de haut niveau, qui détermineraient alors le caractère le plus probablement représenté dans l’image analysée. Cette logique hiérarchique proposée par Selfridge, structurée en démons inféodés les uns aux autres et pouvant agir de concert suivant leur importance et leur spécialité, a quant à elle perduré.
Comme on le voit dans ces différentes circulations du terme de daemon/démon, ce sont les acceptions grecque et latine de ces termes qui ont fait l’objet d’une reprise19 : dans les écrits des différents chercheurs mentionnés ici, le fait de parler de démon renvoie à l’existence d’entités réalisant de manière autonome toutes sortes de tâches pour les humains ; les programmeurs parlent de « subroutine » à leur propos lorsqu’ils doivent les définir. Tout comme l’usage du terme dans le domaine scientifique, le but est surtout pragmatique. C’est une façon de faire une analogie avec un type d’être autonome alors connu de tous, dont la connotation maléfique n’est jamais évoquée explicitement. Celle-ci apparaît néanmoins de temps à autre, soit dans les manières de décrire leur comportement (Selfridge parle du fait qu’ils « crient très fort » pour communiquer entre eux), soit dans le recours ponctuel à une représentation visuelle relevant plus des démons médiévaux que de ses ancêtres gréco-latins. Le système d’exploitation Linux BSD a par exemple pour mascotte et logo un petit diablotin rouge muni d’un trident. Conçu en partie par John Lasseter, réalisateur de films d’animation tels que Toy Story, ce personnage nommé « Beastie » (mot signifiant « animal » ou « bête » auquel a été accolé un suffixe affectueux en anglais) évoque une représentation plus traditionnelle du démon.
Au-delà de ces considérations terminologiques et esthétiques, les daemons sont bien des entités agissantes. Ils collectent des informations, les traitent et interviennent sur le monde numérique, produisant des effets sur le fonctionnement des machines et sur les réseaux. Lorsqu’ils tombent en panne, leur déficience se fait sentir. En d’autres termes, ce recours au mot « démon » n’est pas qu’une simple métaphore.
Des relations unidirectionnelles, mais contrôlables
Exemple archétypique du concierge numérique s’occupant de l’entretien de nos machines, le daemon souffre du même manque de visibilité et de reconnaissance que les êtres responsables de ces tâches dans notre quotidien. Du point de vue des utilisateurs d’ordinateurs, et plus encore de ceux de smartphones ou de consoles de jeux, le lien qui les unit est principalement unidirectionnel. Les daemons agissent, le système fonctionne, on ne se rend pas compte de leur présence. Inspirés des êtres intermédiaires de la mythologie grecque, ils jouent comme ces derniers le rôle de bon génie au chevet des machines – à la différence que leur existence et leur action secrète sont connues des seuls experts. C’est généralement un dysfonctionnement quelconque, comme on l’a vu au début de ce chapitre, qui révèle leur présence et leur rôle.
Cette discrétion n’empêche cependant pas de nouer des relations plus affirmées, en particulier chez les utilisateurs avancés. Ceux-ci peuvent en effet les désactiver si les tâches qu’ils sont censés effectuer ne sont pas nécessaires, s’ils sont mal conçus et causent des problèmes ou lors d’un ralentissement généralisé des machines. Rappelons-nous du mot de la fin du formateur mentionné plus haut : « Il faut surveiller ses démons et ne pas hésiter à les supprimer. » Le vocabulaire choisi est éloquent : il s’agit de neutraliser ou d’éliminer. L’arsenal disponible à cet effet consiste à utiliser des instructions à la terminologie idoine. S’il est possible de demander un simple arrêt avec « stop <nom du daemon> », la documentation technique souligne la possibilité radicale de taper « killall » (pour tous les éliminer d’un coup) ou d’y aller un par un avec les commandes « kill » ou « dmkilld » communément admises sous UNIX, ou le plus prévenant « quitter » dans la « Microsoft Database Daemon » sous Windows.
Malgré ce vocabulaire volontiers guerrier, les manuels recommandent toutefois « de faire preuve de prudence » lors de ces interventions puisque « certains services et fonctionnalités du système peuvent en dépendre20 ». C’est la raison pour laquelle des démons spécifiques de type « watchdogds » (chiens de garde) sont implémentés pour surveiller la bonne marche d’un ordinateur en envoyant un signal régulier quand tout va bien, pour diagnostiquer et corriger des erreurs et, parfois, en cas de problème, pour effectuer une réinitialisation afin de revenir à un état plus standard. On retrouve ici l’idée d’une hiérarchie de démons déjà évoquée puisque des subalternes se trouvent surveillés par un daemon de classe supra-ordonnée.
Outre ce type de relation visant à contrôler l’action des daemons, soulignons enfin que l’attention portée par les experts à ces entités fait écho à celle des démonologues du passé qui ont étudié, décrit et classé ces êtres intermédiaires. De multiples pages de manuels de systèmes d’exploitation, de sites Web et de documents techniques proposent ainsi des listes et des tableaux répertoriant les daemons, accompagnés non seulement de recommandations quant à leur mode de fonctionnement et leurs usages, mais aussi d’indications relatives à la manière d’en créer et d’y faire appel21. Il est par exemple possible d’agir sur le monde des daemons pour en produire de nouveaux : soit en le faisant directement, par une commande textuelle telle que « init », qui initialise l’existence d’un daemon au nom et au comportement recherchés (comme vider un répertoire de notre ordinateur), soit en générant un « enfant » (« child ») d’un daemon existant afin de répliquer son comportement. Ce recours à une terminologie vitaliste parent/descendance par les démonologues contemporains est doublement intéressant. Il met d’une part en lumière la possibilité donnée à certains humains de concevoir ce type d’entités et de maîtriser leur action en paramétrant un comportement qui deviendra automatique après coup. D’autre part, il souligne le caractère collectif de la vie des démons, déjà décrit par Oliver Selfridge dans son pandémonium, répliquant en cela l’idée, présente dans les diverses mythologies, d’un ensemble agissant de manière coordonnée.
D’un point de vue symbolique, c’est l’acception gréco-latine de daemon qui a donc prévalu dans cette circulation mythologique. Ce sont en effet des entités méconnues, aux interventions aussi discrètes qu’omniprésentes, et dont seule une minorité d’êtres humains possède les connaissances nécessaires pour les contrôler. Les concepteurs des premiers systèmes informatiques les ont pensées comme des créatures stables, sans surprise et peu susceptibles d’être détournées de leur chemin. Ce qui n’est pas le cas d’un autre type de concierge numérique apparu par la suite, et dont la volonté bienveillante beaucoup plus intrusive a, quant à elle, provoqué toutes sortes de réactions : les assistants.
Des assistants démoniaques ?
À la fin des années 1960, l’avènement d’ordinateurs plus accessibles et mis en réseau sur cette nouvelle infrastructure interconnectée que l’on nommera plus tard Internet donne lieu à de multiples initiatives quant à la manière d’aider les usagers à s’approprier ces systèmes. Parmi les pistes de l’époque, l’idée de prolonger l’action des démons avec des assistants plus visibles et proactifs prend ainsi de l’importance. Afin d’honorer la mémoire du chercheur Oliver Selfridge et sa suggestion de recourir à un pandémonium pour faire fonctionner les ordinateurs, les pionniers de l’informatique J.C.R. Licklider et Robert Taylor proposent en 1968 le déploiement d’une sorte d’agent niché dans les machines. Nommé OLIVER – acronyme de « On-Line Interactive Vicarious Expediter and Responder » (« expéditeur et répondeur interactif vicariant en ligne ») –, il s’agit d’un petit programme capable d’aider les utilisateurs à interagir avec les contenus numériques en ligne. Comme ils le formulent, OLIVER « habite » le réseau et agit au nom de l’utilisateur en s’occupant de nombreuses questions mineures qui ne requièrent pas son attention22. Pour ses inventeurs, le rôle d’OLIVER est calqué sur celui des « familiers » – ces entités animales ou surnaturelles qui dans bon nombre de traditions européennes sont attachées à une personne pour la guider ou l’inspirer, pour l’épauler dans ses tâches :
Votre OLIVER prendra des notes (ou s’abstiendra de prendre des notes) sur ce que vous faites, ce que vous lisez, ce que vous achetez et où vous l’achetez. Il saura qui sont vos amis, vos simples connaissances. Il connaîtra votre structure de valeurs, qui a de l’importance à vos yeux, pour qui vous feriez quoi et dans quelle priorité, et qui peut avoir accès à tel ou tel de vos dossiers personnels. Il connaîtra les règles de votre organisation en matière d’informations confidentielles et la législation pour ce qui touche à la sécurité.
Comme les daemons imaginés en son temps par Oliver Selfridge, les OLIVER agiraient collectivement. Certaines de leurs composantes seraient communes à tous les utilisateurs d’ordinateurs ; d’autres seraient spécifiques à chacun et pourraient « apprendre » de leur expérience pour développer une personnalité et un comportement propres. Si le nom d’OLIVER est aujourd’hui oublié et inconnu du grand public, la notion d’assistant(e), qui en est l’héritière, est beaucoup plus courante. Les applications vocales de type Siri ou Alexa en sont un bon exemple, tout comme cet autre héritier des daemons et d’OLIVER que fut Clippy, l’assistant à l’écriture actif dans le logiciel Word de la société Microsoft entre 1997 et 2003. Pour celles et ceux qui ne s’en souviendraient plus, Clippy se présentait sous la forme d’un trombone anthropomorphe censé donner des conseils d’utilisation des multiples fonctionnalités du traitement de texte.
Clippy était la plus populaire des créatures conçues chez Microsoft dans les années 1990 pour aider les utilisateurs peu familiarisés avec l’informatique. Afin d’aider les débutants à manipuler le système d’exploitation Windows, la marque de Seattle avait imaginé tout un éventail de personnages animés endossant des actions spécifiques par une représentation littérale. Plusieurs d’entre elles faisaient explicitement référence à des entités merveilleuses, comme Merlin l’Enchanteur ou le génie de la bouteille des Mille et une nuits. Clippy relevait quant à lui visuellement de l’instrumentarium banal du quotidien, réenchanté cependant par une paire d’yeux et une capacité à simuler un semblant de dialogue avec les utilisateurs. Populaire chez les néophytes, Clippy a cependant rapidement énervé les utilisateurs, quel que soit leur niveau d’expertise. Il est devenu une source de frustration si grande que les chercheurs parlent d’« effet Clippy » – évocation du caractère infernal de ce trombone à lunettes bondissant qui venait perturber la rédaction de documents par des interventions tantôt inutiles, tantôt absurdes23. Taper « Cher… » dans un fichier vierge faisait inévitablement apparaître la créature, ainsi qu’un message du type « Il semblerait que vous voulez écrire une lettre. Avez-vous besoin d’aide ? Option 1 : Obtenir de l’aide pour rédiger une lettre, Option 2 : simplement taper la lettre sans aide ». L’aide apportée par la première option consistait essentiellement à proposer des conseils simplistes de formatage graphique. Et le choix de la seconde – consistant en gros à se débrouiller tout seul – n’empêchait nullement Clippy de reproposer le même message dans les minutes qui suivaient. Plus sournois encore, l’assistant-trombone pouvait apparaître soudainement lorsqu’il détectait un usage erroné de son point de vue. Par exemple, en cas d’usage trop intense des majuscules, il réagissait avec un message qui proposait de convertir la phrase en paragraphes, ce qui ne correspondait jamais vraiment à l’intention de l’utilisateur. Ce comportement intrusif et infantilisant a rapidement suscité des réactions de rejet, menant en général à sa désactivation dans le programme de traitement de texte, ce qui ne l’empêchait pas de réapparaître quelque temps après pour demander à l’utilisateur récalcitrant s’il était bien certain de ne pas avoir besoin de son aide. C’est d’ailleurs pour cette raison que Clippy est progressivement devenu un personnage récurrent, moquant la capacité des machines à agir efficacement de manière autonome, dans toutes sortes de mèmes Internet ou d’œuvres de culture populaire telles que Les Simpsons24. Il s’agit là d’un autre type de relations entretenu avec cette espèce de concierge numérique, qui fait ainsi l’objet de récits, de rumeurs et de blagues. Lesquels font perdurer son existence dans les propos des ex-utilisateurs ou sous la forme d’emojis et autres autocollants dans les applications plus récentes de la société Microsoft.
Bon génie au comportement excessif, cet assistant nous rappelle que si la majorité des concierges numériques ne sont pas démoniaques, certains peuvent le devenir. Clippy, lié généalogiquement aux daemons et aux autres êtres tels que les génies, réactualise en cela la figure du merveilleux ambigu. Il témoigne en effet du comportement tantôt positif tantôt facétieux de certaines entités du petit peuple, telles que les fées ou les génies domestiques. Les servans mentionnés dans l’avant-propos de ce livre peuvent à la fois veiller sur les humains et par moments leur jouer des tours. Plus ou moins sagaces ou intrusifs suivant les moments, sujets de moquerie, mais aussi de rumeurs diverses, ils montrent à sa manière que l’efficacité des anges gardiens est d’autant plus grande qu’ils sont cantonnés à l’arrière-plan.
La circulation des daemons jusqu’à aujourd’hui appelle deux commentaires. Le premier concerne leur statut, puisqu’à la différence de beaucoup d’entités des panthéons mythologiques classiques et des folklores populaires qui agissent sur le monde au travers de phénomènes naturels (la foudre par Zeus, un éboulement provoqué par un esprit frappeur) ou d’objets (la lance d’Athéna, les bottes d’Hermès), nous avons affaire avec eux à une situation inverse. Les daemons, crons et watchdogs numériques illustrent en effet la possibilité, pour des outils ou des opérations techniques somme toute très simples, de devenir des entités, témoignant ce faisant d’un retournement des figures du merveilleux par rapport au passé. Les daemons grecs étaient des êtres surnaturels connus de tous, doués d’une force mystérieuse et capables d’intervenir dans la vie humaine de manière ambivalente. Ceux de notre époque sont des concierges numériques, omniprésents dans nos machines mais méconnus du commun des mortels.
Leur capacité d’action constitue un second enjeu. Malgré sa fonction de concierge et de guide, ce pandémonium numérique n’en est pas moins ambigu. Si les tâches automatisées effectuées par ses membres sont en général utiles et pertinentes, les interventions de leurs héritiers tels que Clippy sont en revanche plus intrusives et souvent peu opportunes. Ce caractère imprévisible et parfois surprenant les rapproche d’une certaine manière d’une autre catégorie de notre ménagerie numérique : celle des fantômes et des revenants.
II.
RUMEURS DE REVENANTS
Quand j’avais 4 ans, mon père a acheté une Xbox, tu sais, la toute première, la grosse, robuste, de 2001. On s’est éclatés à jouer à toutes sortes de jeux ensemble – jusqu’à ce qu’il meure, j’avais à peine 6 ans. J’ai pas pu toucher à cette console pendant dix ans. Mais quand je l’ai finalement fait, j’ai remarqué quelque chose. On jouait souvent à un jeu de course, RalliSport Challenge. Franchement pas mal pour l’époque. Et quand j’ai commencé à bidouiller… j’ai trouvé un FANTÔME. Tu sais, quand tu fais une course contre la montre, le meilleur tour est enregistré sous forme de pilote fantôme ? Eh bien, tu as deviné – son fantôme roule encore sur le circuit aujourd’hui. Alors j’ai joué, et joué, et joué, jusqu’à ce que je sois presque capable de battre ce fantôme. Un jour, je suis passé devant… et je me suis arrêté juste avant la ligne d’arrivée, juste pour m’assurer que je ne l’effacerais pas1.
Dans les jeux de course automobile tels que Mario Kart, Gran Turismo ou F-Zero, on appelle « fantôme » ou « ghost » un véhicule figuré à l’écran de manière translucide dont le trajet représente, en fonction des réglages, soit la course réalisée avec le meilleur temps, soit celle de la dernière partie effectuée par un joueur. Si son usage est surtout pédagogique – ce fantôme permet aux joueurs de comparer leur performance en direct –, il lui arrive, comme on le voit dans cet exemple, d’occuper un rôle tout à fait autre, en écho direct avec son nom.
L’observation d’un défunt au moyen d’un enregistrement audiophonique ou vidéo n’a certes rien de nouveau ; l’originalité du dispositif ici décrit ne réside pas tant dans la possibilité d’accéder à une trace d’un individu que dans le fait de pouvoir interagir avec elle. En outre, ce véhicule fantôme, qui fait office de présence virtuelle, rappelle à sa manière que les revenants n’ont pas toujours eu forme humaine, qu’ils n’ont pas toujours renvoyé à une silhouette furtive, évanescente ou drapée. Suivant les époques, ils ont pu prendre différentes apparences. Des récits médiévaux rapportent par exemple que le mort était parfois représenté sous la forme d’un objet matériel (comme une meule de foin) ou d’un animal (chien, reptile, oiseau)2. La figuration du revenant comme entité transparente ou peu visible, plus commune de nos jours, apparaît aussi dans l’iconographie au Moyen Âge3. On la retrouve ici sans grande surprise dans les ghosts de jeux de course automobile.
Le ghost vidéoludique dénote une évolution de cette entité commune des mirabilia qu’est le fantôme. Il perpétue les traits traditionnels des revenants, comme cette allure infravisible, en les combinant à des attributs nouveaux rendus possibles par les technologies actuelles : enregistrement d’une trace devenue agissante, possibilité non seulement de la côtoyer, mais aussi de la contrôler pour la faire jaillir à volonté. Dénué de la connotation négative ou effrayante qui est la sienne depuis le Moyen Âge, le revenant sur la Xbox existe moins comme un sujet d’appréhension que comme un objet de curiosité et de réconfort.
Figures de revenants
Pour enquêter sur ces nouvelles formes prises par les fantômes dans les cultures contemporaines et en particulier les milieux numériques, j’ai choisi de consulter les fils Quora consacrés à la place des phénomènes d’envoûtement et de possession de nos appareils numériques4. Quora est une plateforme de questions-réponses en ligne qui fonctionne avec les contributions, organisées par catégories, de ses utilisateurs. Sur chaque page, les réponses proposées sont fournies par divers participants, qui peuvent juger positivement ou négativement celles des autres. L’agrégation de ces évaluations favorise la hiérarchisation des contenus, en faisant remonter en tête de page les réponses les plus pertinentes. Un onglet sur la droite affiche les questions similaires à celle de la page principale, ce qui permet de naviguer dans tout un ensemble de témoignages, et, dans le cas qui nous occupe, de constituer un corpus d’évènements paranormaux liés aux technologies.
Les questions sont toujours plus ou moins les mêmes : « Un smartphone peut-il être hanté ? », « Les esprits bons ou mauvais peuvent-ils utiliser la technologie pour contacter ou harceler les gens ? » Ou, plus sophistiqué : « Un fantôme peut-il posséder un téléphone portable et communiquer à travers son écran ou par des messages textuels à partir de l’appareil d’une autre personne qui se trouve à proximité ? » À chacune de ces questions, les réactions sont éloquentes. Si quelques rares rationalistes soulignent frontalement ou par un trait d’humour l’absurdité de ces préoccupations, la majorité des propositions relate les comportements inexplicables d’un appareil ou des manifestations visuelles et sonores mystérieuses à l’écran. Loin de vouloir ici me prononcer sur la véracité de ces propos, je me bornerai à aborder la manière dont ils sont interprétés. On retrouve à cet égard plus ou moins toujours les mêmes récits. Les appels en provenance d’individus décédés – du moins depuis le numéro du défunt – sont une des anecdotes les plus courantes. Sans forcément d’ailleurs que la personne qui les relate se montre convaincue : « J’ai reçu deux appels du téléphone de mon père après sa mort. Le téléphone était dans le coffre de ma voiture. Personne d’autre n’y avait accès. Était-ce mon père qui m’appelait d’au-delà de cette vie ? Ou s’agissait-il d’un dysfonctionnement de son téléphone, peut-être causé par les secousses provoquées par le mouvement de ma voiture ? Je n’en sais rien. Je n’ai répondu à aucun des deux appels. » De tels phénomènes sont également débattus à propos de jeux vidéo (« L’un d’entre vous a-t-il déjà fait l’expérience d’un jeu hanté ? ») ou de fichiers informatiques possédés (« C’était comme si le fichier n’en faisait qu’à sa tête »). Sans que l’on sache clairement s’il s’agit d’une expérience vécue ou d’une rumeur élaborée, des utilisateurs rapportent l’existence supposée d’une cartouche hantée du jeu Super Mario 64 sur la console N64. Achetée d’occasion, celle-ci, une fois lancée, produirait une expérience de jeu singulière, dans laquelle des bruits stridents et inquiétants se feraient entendre au lieu du fond sonore habituel ; le personnage principal verrait sa tête se déformer, son comparse Luigi apparaîtrait pendu et des messages morbides viendraient ponctuer les parties. Pour couronner le tout, la console refuserait de s’éteindre. De tels récits sont courants sur les forums et autres plateformes de partage en ligne (Reddit, Fandom), ainsi que sur les réseaux sociaux. Ils forment même un genre bien spécifique, nommé creepypasta, typique de ces nouvelles formes de rumeurs circulant sur Internet. Mot-valise formé de l’expression « creepy » (scabreux) et « pasta », déformation de « paste » de « copy-paste » (pour « copier-coller »), le terme désigne les histoires courtes ou les anecdotes effrayantes partagées en ligne. Ces récits sont rédigés à la première personne afin de donner une impression d’authenticité et d’expérience vécue. Conçus pour être facilement partagés et se propager rapidement sur Internet, en subissant au passage quelques transformations, ils abordent souvent les manifestations inquiétantes de présence spectrale.
Si l’histoire de la cartouche hantée de Super Mario 64 est l’un des plus classiques, les creepypasta n’épargnent pas d’autres jeux tels que The Legend of Zelda : Majora’s Mask, Godzilla : Monster of Monsters ou Pokémon Black. Dans la plupart de ces cas, leur caractère paranormal ne correspond pas au retour proprement dit d’une personne décédée qui reviendrait perturber les parties. Et les joueurs ne proposent aucune explication claire quant à l’origine de la malédiction ou de l’identité de cette présence spectrale spécifique5. Ils se contentent de partager des indices inquiétants qui semblent plutôt provenir du jeu lui-même : anomalies visuelles ou sonores et/ou personnages au comportement erratique, comme possédés.
Au-delà de ces creepypasta, les usagers de Quora rapportent d’autres situations étranges liées au fonctionnement automatique de l’appareil : « Je viens d’emménager et le clavier de mon ordinateur ne cesse de s’allumer sans que j’y touche » ou « j’ai régulièrement une alarme qui se déclenche sans que je la programme ». À tel point qu’un des répondants propose de considérer ces manifestations comme des critères pour détecter une présence spectrale au sein d’une machine : « L’écran de votre téléphone scrolle-t-il de lui-même vers le haut ou vers le bas sans que vous touchiez l’écran ? Est-ce que plusieurs applications clignotent sur l’écran sans qu’il soit nécessaire de cliquer dessus ? » Une réponse positive à ces questions impliquerait une forme de possession. Dans une enquête à propos des usages du cloud menée il y a quelques années, j’ai d’ailleurs rencontré un phénomène similaire avec des utilisateurs rendus anxieux par des répertoires et des fichiers récalcitrants sur Dropbox6. Lesquels, nommés « ghost folders » ou « ghost files », ne cessaient de réapparaître sur l’interface de ce service d’hébergement de contenu, malgré leur suppression remontant à parfois quelques années.
Une troisième classe de phénomènes rapportés sur Quora relève de l’apparition, surtout sur les smartphones et les ordinateurs, d’images plus ou moins inquiétantes ou, en tout cas, surprenantes, parfois conjointement à de multiples anomalies perceptuelles, en général visuelles, parfois sonores ou tactiles (vibrations, hausse de la température du téléphone). Tel utilisateur rapporte la présence d’un agglomérat de taches striées plus ou moins ovoïdes ressemblant à des visages sur une de ses photos de balade en forêt ; tel autre dit reconnaître l’irruption intempestive du visage de son oncle décédé dans une vidéo de médiocre qualité ; un autre encore décrit le surgissement récent d’auréoles blanchâtres sur des photos de famille prises lors d’un repas dominical. Certains s’amusent à parcourir des paysages de jeux vidéo en ligne, à la recherche de formes plus ou moins évanescentes, qu’ils qualifient de spectres. Sur Quora, certains parlent de dysfonctionnement, ou de « glitch », une expression issue d’un mot allemand et yiddish signifiant « erreur » ou « glissement » et qui correspond, d’après le Jargon File, à l’interruption soudaine d’un service électrique ou du fonctionnement d’un programme7. D’autres proposent, sciemment, par provocation ou pour s’amuser, des interprétations moins terre à terre. Fréquemment, sur ce type de sites et plus encore dans les groupes Facebook consacrés à ce sujet, les utilisateurs discutent de l’apparition récurrente d’un fantôme ou d’un ghost, d’un esprit ou, en tout cas, d’une entité mystérieuse qui viendrait soit posséder l’appareil, soit l’utiliser pour entrer en contact avec son propriétaire. Quelle que soit la nature des phénomènes considérés, ces types de récits d’apparitions sont d’ailleurs suffisamment courants pour que l’on trouve des avertissements sur les sites des fabricants de smartphones, destinés à rassurer leurs clients. À la question « Pourquoi des images fantômes apparaissent-elles sur l’écran de mon téléphone Huawei ? », l’industriel chinois répond qu’il s’agit d’un phénomène strictement technique, en précisant par exemple que « cela est dû au fait que l’écran du téléphone est un OLED. Lorsque l’écran affiche le même contenu durant une longue période, ses contours ou l’image fantôme peuvent rester visibles même si le contenu change. Il s’agit d’une caractéristique de tous les écrans OLED actuels qui ne peut être résolue pour le moment »8.
Le quatrième et dernier type de récit discuté sur Quora, ainsi que sur d’autres forums en ligne tels que Reddit, concerne enfin la présence de revenants dans nos machines. Ces derniers apparaissent grâce à la formidable capacité de nos programmes informatiques à restituer la présence rémanente de personnes décédées, dont ils ont enregistré de multiples traces ; c’est le cas du ghost de la course automobile mentionnée au début de ce chapitre. Un autre exemple courant de ce genre de phénomène est propre à la plateforme Street View. Avec cette fonctionnalité de Google Maps, qui permet d’explorer des lieux du monde entier à travers des images panoramiques à 360 degrés, il est en effet fréquent que des utilisateurs tombent sur des proches décédés9. Comme l’explique un des répondants sur Quora, le phénomène s’explique par le fonctionnement même du service : les images présentes dans Street View sont des instantanés pris par un véhicule sillonnant l’espace urbain (ou parfois par un opérateur humain muni d’un dispositif de capture dans son sac à dos). Or, la mise à jour de ces prises de vue n’est pas systématique, et certaines zones ne sont pas rephotographiées pendant des années. Des images anciennes sont ainsi conservées, et un individu se trouvant dans la rue lors de la prise de vue risque d’apparaître sur l’image, même s’il est décédé depuis. Le ton de ces récits est généralement moins inquiétant que pour les phénomènes précédemment cités. Sans doute parce que cette rémanence a une explication rationnelle, à l’instar du véhicule fantôme dans le jeu Xbox. Si l’apparition de ces revenants peut être spontanée, elle peut aussi être orchestrée, sur demande et de manière plus sophistiquée, dans les projets dits de deadbot10. Ceux-ci utilisent des données collectées à partir des échanges écrits, des messages et d’autres traces numériques laissées par un défunt, pour créer un avatar numérique de sa personnalité. Ils permettent alors de discuter de vive voix ou par écrit avec un ersatz de l’individu en question11. Si ce type d’application est nouveau, le principe général existe depuis longtemps. De tels bots mémoriels font ainsi écho aux multiples récits médiévaux dans lesquels des objets – lampes, bouteilles ou talismans – sont capables soit de communiquer avec les morts, soit de capturer leur âme par un processus surnaturel. Une pratique répandue dans le passé consistait ainsi à voiler tous les miroirs d’une maisonnée lorsqu’une personne décédait afin d’empêcher que l’âme du défunt ne s’y retrouve piégée12.
Cette incursion sur Quora permet de saisir la diversité des manifestations fantomatiques numériques. De ces quatre types de récits découlent deux constats à propos de la nature de ces entités. On remarque en premier lieu la manière dont elles font écho à la figure bien connue du merveilleux qu’est la présence spectrale des « revenants », des « fantômes » et autres « ghosts », qui viennent dans le cas présent hanter ou posséder non pas des lieux, mais des technologies. Un second constat flagrant, à la lecture de cette typologie, concerne la dimension éminemment narrative de tous ces cas. Présentes en ligne sous de multiples modalités – textuelles ou visuelles sur des forums et les réseaux sociaux –, ces anecdotes circulent, font l’objet de discussions, d’interprétations diverses, de moqueries et de modifications avant d’être remises en circulation. La présence de ces spectres dans nos machines et sur nos réseaux a une composante narrative spécifique. Laquelle fonctionnerait à la manière des contes et des rumeurs, ici renouvelés par les possibilités techniques de les faire advenir ou de les raconter.
Manifestations de la présence fantomatique
Outre l’intérêt suscité par ces phénomènes chez des utilisateurs lambda ainsi que chez toutes sortes de chasseurs de fantômes amateurs qui prolifèrent sur Internet13, cette présence spectrale est documentée par les anthropologues et par les chercheurs en études médiatiques, qui rendent compte d’une même réalité protéiforme.
C’est tout d’abord le thème d’une possession ou d’une tentative de possession au moyen d’un appareil que l’on rencontre dans les enquêtes ethnographiques. Le cas des appels téléphoniques ou des numéros de téléphone hantés est ainsi récurrent. Julien Bonhomme décrit par exemple cette rumeur qui a pris naissance au Nigeria en 2004 et qui s’est massivement diffusée en Afrique et en Asie, à propos de numéros de téléphones portables provoquant la mort subite de ceux qui répondaient à un appel14. Abordant un phénomène similaire, Geoffrey Hobbis note quant à lui la façon dont les utilisateurs de smartphones en Papouasie-Nouvelle-Guinée craignent les appels masqués. En effet, ces derniers relèveraient d’une technique de sorcellerie qui permettrait d’envoyer des esprits ancestraux, nommés ramo, blesser le propriétaire de l’appareil15.
Si de tels récits sont rares chez les Occidentaux au XIXe et XXe siècles, ceux concernant le caractère spectral des « machines à communiquer » telles que le télégraphe, la radio, le téléphone, la télévision puis les ordinateurs en réseau sont légion. Comme l’a montré l’historien Jeffrey Sconce dans son ouvrage sur les « médias hantés », ces objets auraient la réputation de permettre d’accéder aux défunts ou d’interagir avec eux16 : possibilité de conserver et transmettre la voix et parfois l’apparence des êtres disparus grâce au phonographe ou au cinéma, communication avec les morts avec le téléphone, etc. Philippe Baudouin et Mireille Berton ont notamment montré en quoi ces deux machines parlantes « se définissent en rapport étroit avec le monde de l’occulte, à une époque où l’imaginaire culturel et scientifique est saturé de spectres et d’ondes magnétiques impalpables17 ». Le cas de l’inventeur étasunien Thomas Alva Edison est symptomatique de cette tendance. Son « nécrophone » permettant aux esprits de se manifester aux vivants fut un échec patent… qui inspira néanmoins la conception d’instruments destinés à capter la voix des morts, les « spirit trumpets » (trompettes pour esprits). Du travail d’Edison sur ces sujets résultera toute une série d’appareils de reproduction visuelle et sonore, dont le kinétoscope (un dispositif pour visionner des films en boucle à travers un viseur conçu pour une seule personne), le kinétophone (une version améliorée avec du son synchronisé aux images) ou le phonographe. Ce dernier fut en effet pensé par Edison essentiellement comme une technique permettant de conserver « les derniers adieux d’un mourant ou les paroles d’un parent que l’on aime18 ». Il n’est pas étonnant que ce lien entre machine à communiquer et machine à interagir avec les morts ait perduré, y compris après l’apparition du numérique.
C’est sans doute la raison pour laquelle l’identification de spectres, d’ectoplasmes et autres fantômes sur les photographies et les vidéos est si prisée, y compris en Europe ou en Amérique du Nord. Dans ses travaux sur ce qu’il qualifie d’« apparitions technologiques », Lionel Obadia aborde le comportement mystérieux des terminaux numériques, en particulier l’importance des incongruités visuelles ou sonores19. On parle de glitch pour désigner ces apparitions de formes mystérieuses ou les défaillances d’un système technologique : écran qui se fige momentanément sur une forme quelconque, bizarrerie lumineuse, grésillement étrange, disparition de données ou comportement erratique d’une interface20. Le caractère imprévisible des glitchs pousse les utilisateurs de ces technologies à se demander s’ils sont strictement liées au hasard ou s’ils sont dus à une autre cause moins rationnelle21. S’agit-il d’un simple problème passager ? D’une présence surnaturelle ? D’un phénomène de pareidolie, cette tendance de la cognition humaine à percevoir des motifs ou des connexions significatives dans des données aléatoires ou sans rapport ? Il s’agirait alors d’un cas particulier d’apophénie, qui consiste à identifier des motifs familiers ou signifiants dans des stimuli visuels ou auditifs ambigus : visages dans les nuages ou dans une forêt sur Google Street View, messages ou mots dans une bande-son.
Obadia rapporte comment ces évènements, souvent présentés comme des problèmes strictement technologiques, sont parfois interprétés comme des images de fantômes figurant potentiellement des défunts ou leurs esprits. Et cela, en dépit de la difficulté d’identifier quoi que ce soit dans les contours des formes qui s’inscrivent sur les écrans. La part d’interprétation et de spéculation apparaît ainsi très importante, dans la continuité des spéculations antérieures à propos de motifs visuels suspects sur des surfaces planes de type miroir ou vitre, puis sur les photographies22. Ces phénomènes et leur interprétation prolongent par exemple les témoignages rapportés au cours de la période victorienne – en particulier les divers récits d’apparitions dans une glace d’une silhouette rappelant l’apparence d’une jeune mariée récemment décédée. Cette fiancée fantôme avait la réputation de se montrer généralement à minuit, vêtue de sa robe de cérémonie, pour hanter son fiancé endeuillé ou le prévenir d’un danger imminent. Du miroir aux écrans d’aujourd’hui, il n’y aurait qu’un changement de support.
Ces différentes figures du fantôme au sein des objets numériques ne sont guère surprenantes. On pourrait même dire qu’elles récapitulent, mais en partie seulement, la diversité des présences spectrales décrites par les anthropologues et les historiens à propos des époques passées. Une diversité dont il est pertinent de faire la généalogie.
Circulations spectrales
Les fantômes sont un thème commun en anthropologie et en histoire sociale et culturelle. Associée à des esprits ou à des âmes qui reviennent parmi les vivants, leur présence est documentée dans de nombreuses traditions à travers le monde23. Elle éclaire les diverses façons dont les sociétés gèrent la mort, le deuil et la mémoire collective.
L’expression « fantôme » renvoie à tort à une entité bien spécifique et univoque. Or, comme l’a montré l’historienne Caroline Callard, il n’en est rien, puisqu’elle est passée d’une figure orthodoxe et naturelle au Moyen Âge à un objet de superstition pour les Lumières, avant de devenir un phénomène digne d’intérêt pour la science moderne24.
Le terme vient de l’ancien français « fantosme » issu du latin populaire « fantauma », lui-même altération du terme grec ionien de Marseille « φάνταγμα » (phántagma), variante du grec ancien « φάντασμα » (phántasma), qui signifie « apparition » ou « spectre ». L’expression « fantôme » est introduite en français au XIIe siècle dans un sens qu’il avait déjà en latin pour désigner l’apparition d’une personne décédée et, par extension, pour parler d’un être imaginaire25. Ces mutations terminologiques reflètent un changement dans la conception du surnaturel et de l’au-delà entre l’Antiquité et l’époque médiévale et moderne : le phántasma dénote l’existence d’une représentation mentale substantielle, produite par la faculté de la phantasia (imagination), qui implique un processus mental plus complexe que précédemment. Le terme antérieur chez les Grecs était en effet celui d’« εἴδωλον » (eidôlon), qui signifiait à la fois « simulacre », « portrait » ou « double »26, et qui correspondait plus passivement à la simple réception d’une image. Le sens du mot « fantôme » s’est quant à lui transformé puisque ce revenant est une figure acceptée au Moyen Âge par les chrétiens, qui voient en lui un messager des morts aux vivants, les exhortant à prier pour abréger leurs souffrances au purgatoire27. La doctrine catholique introduit un changement de taille, à savoir l’idée que les âmes des morts peuvent interagir avec les vivants pour demander des prières. En d’autres termes, elle rend leur présence fantomatique plus active. Ce caractère agissant persiste à la Renaissance, durant laquelle le fantôme reste une entité commune et présente dans la culture imprimée ; par exemple, dans les recueils de curiosités et autres histoires prodigieuses et dans les ouvrages de controverse religieuse. Ces histoires relatent la manière dont des revenants errants et autres âmes en peine en quête d’absolution troublent le quotidien des vivants, et comment ils sont finalement apaisés, souvent grâce à l’intervention d’un homme d’Église. Les théologiens protestants – comme, plus tard, le clergé catholique – cherchent en effet à cette époque à décourager la dévotion envers les spectres, Luther estimant notamment que les revenants relèvent d’une manifestation démoniaque. Mais les fantômes continuent d’exister dans les conceptions populaires de la mort. Ils deviennent néanmoins au fil du temps des objets de suspicion, que certains philosophes et clercs dénoncent comme des supercheries. Pensons par exemple à Montaigne, qui remet en cause la fiabilité des récits et témoignages concernant leurs apparitions sans rejeter explicitement leur existence. Ou encore au juriste et démonologue Pierre Le Loyer, qui s’efforce de distinguer les véritables apparitions surnaturelles des illusions dues à des troubles des sens et de l’imagination28.
La figure du fantôme évolue aux XVIIe et XVIIIe siècles avec l’avènement de la pensée rationnelle qui renforce ces doutes en cherchant à expliquer les apparitions spectrales par des causes naturelles plutôt que surnaturelles, des illusions d’optique ou des états psychologiques. Dans le même temps, celles-ci deviennent l’objet de spectacles grâce à de nouvelles techniques comme la lanterne magique, qui permet de projeter des apparitions visuelles animées par des procédés optiques spécifiques, ou le fantascope, une version de la lanterne magique améliorée à la fin du XVIIIe siècle et destinée à créer des « fantasmagories », qui mettent en scène des apparitions de fantômes, diableries et autres créatures surnaturelles en combinant projections lumineuses et effets sonores29. Les Lumières marquent ainsi un tournant : au nom de la science et de la lutte contre la superstition, le fantôme est relégué dans le domaine du folklore.
On le rencontre au XIXe siècle sous deux formes. D’abord dans la littérature avec l’émergence du roman gothique, où il est mobilisé pour créer une atmosphère d’étrangeté et d’effroi, en montrant comment des secrets enfouis ou des crimes passés interfèrent dans le présent. Le Tour d’écrou de Henry James, publié en 1898, raconte l’histoire d’une gouvernante engagée pour s’occuper d’un frère et d’une sœur dans un manoir isolé. Elle commence peu à peu à voir les fantômes d’anciens employés décédés, qui semblent exercer une influence maléfique sur les enfants. Le récit entretient ainsi l’ambiguïté entre la réalité des apparitions et la possible instabilité mentale de la narratrice, laissant planer un doute sur la nature des événements.
À partir du milieu du XIXe siècle, le fantôme retrouve une certaine présence dans le mouvement spiritualiste, dont les membres cherchent à communiquer avec les esprits des morts lors de séances de spiritisme. Il devient alors un objet d’étude pour certaines sociétés savantes qui s’intéressent à des phénomènes que l’on qualifierait aujourd’hui de parapsychologiques : études des apparitions de personnes décédées et de ces « fantômes de vivants » que sont les dédoublements (capacité présumée de l’esprit à voyager hors du corps physique) ou la bilocation (présence simultanée en deux endroits d’une même personne). L’un des cas les plus célèbres à cet égard est celui d’Émilie Sagée, une institutrice de Dijon, dotée, selon ses élèves et d’autres membres du personnel qui rendirent compte de leurs observations en 1845, d’un double qui imitait ses gestes lorsqu’elle écrivait au tableau30. Ces manifestations sont parfois interprétées comme une preuve de l’existence d’une âme indépendante du corps physique, voire un indice de la possibilité de survie après la mort. Pour d’autres, plus critiques, de tels récits relèvent de rumeurs, de confusion perceptive ou d’hallucinations collectives.
À la reconstitution de cette trajectoire de la notion de fantôme, il faudrait ajouter celle de l’usage métaphorique du terme qui a cours aujourd’hui, puisqu’il fait désormais couramment référence au registre de l’absence. Pensons par exemple à ses acceptions techniques pour désigner, chez les bibliothécaires, un livre sorti d’un rayon ou, chez les ingénieurs, de nouveaux phénomènes rendus possibles par les machines contemporaines. Dans le domaine des logiciels, un ghost est ainsi une copie exacte d’un disque dur, ce qui n’est pas sans rappeler la figure de l’eidôlon grec décrite plus haut. On parle également de « ghost accounts » ou de « ghost users » pour désigner des utilisateurs inactifs (éventuellement décédés) ou non autorisés sur un réseau. « Fantôme » sert aussi à décrire ces phénomènes curieux évoqués plus haut de disparition/réapparition de fichiers sur les plateformes du Cloud, ou de persistance d’un défunt dans la sphère numérique, que ce soit dans une cartouche de jeu vidéo ou sur Google Street View. Dans le registre fictionnel, l’idée d’un ghost présent et actif au sein des réseaux est un motif récurrent des imaginaires de la science-fiction, particulièrement dans les récits qui mettent en scène des intelligences artificielles avancées développant une forme de conscience. L’exemple paradigmatique de ce genre de récit est celui du manga et anime Ghost in the Shell de Masamune Shirow, paru en 1995, qui met en scène des cyborgs dont la conscience (« ghost ») réside dans un corps artificiel (« shell »). La métaphore du fantôme dans différents domaines du quotidien est enfin une manière de décrire des comportements dans les relations interpersonnelles, lorsqu’une personne cesse soudainement et sans explication de communiquer avec son entourage (« Il m’a ghosté »)31.
Ces multiples évolutions de la figure du fantôme au fil du temps illustrent la grammaire d’action des figures spectrales, à laquelle correspond tout un éventail de réactions de la part des gens qui croisent leur route.
Histoires de fantômes
Contrairement aux démons, d’une discrétion qui confine à l’invisibilité, les fantômes suscitent en effet une gamme de relations très large. Que constate-t-on à la lecture des cas de présence spectrale numérique présentés dans ce chapitre ? Tout d’abord, une absence de crainte – en tout cas, bien moindre que dans les récits antérieurs de revenants32, comme si la frayeur avait cédé le pas à un mélange de curiosité et de crédulité par ailleurs typique des mirabilia33. En d’autres termes, les fantômes numériques semblent davantage être des « petits fantômes » que des spectres choquants ou angoissants. Ils sont par ailleurs plus souvent décrits comme des phénomènes que comme des créatures, et plus fréquemment compris comme relevant d’un comportement curieux des machines que comme la manifestation d’un mort. Ils sont bien, comme l’écrit Grégory Delaplace, « des choses qui arrivent ». Contrairement aux manifestations spectracles qui avaient cours jusqu’au XXe siècle, les rencontres exceptionnelles d’aujourd’hui suscitent tantôt de la perplexité (comment interpréter la survenue de tel glitch visuel ? De tel comportement spontané d’une application ?), tantôt de la surprise. Jusqu’alors, les fantômes relevaient de l’invisible ; les percevoir était soumis à certaines conditions (la nuit, dans un lieu où un évènement traumatique s’était déroulé)34. Si quelques « fantômes numériques » ont une présence parfois tout aussi furtive et ponctuelle, d’autres surviennent de manière continue, avec une présence visuelle incontestable et surtout contrôlée par les utilisateurs (ghost d’un être défunt dans un jeu vidéo, agent conversationnel). On pourrait même dire de certains qu’ils sont des fantômes sur commande.
L’absence de crainte envers ces fantômes numériques se double par ailleurs d’une posture plus contemplative. Comme s’il n’y avait pas véritablement d’interaction – sauf avec les bots mémoriels, les défunts sur Street View ou dans les cartouches de jeu vidéo ; ou alors une interaction limitée à l’observation plus ou moins passive de manifestations visuelles ou sonores. Il est frappant de constater le nombre extrêmement faible des récits d’interactions avec des revenants en ligne. De la même manière, je n’ai pas trouvé dans mes terrains ni dans les travaux sur le monde occidental de mentions de pratiques dites apotropaïques, c’est-à-dire de façons de contrer la présence des fantômes numériques, ou de manière si anecdotique qu’il faut peut-être les considérer comme des exceptions35.
Il est en revanche un autre type de relation qui perdure dans le temps et qui prend même, dans le monde numérique, une ampleur toute particulière. C’est celui de la collecte, de la production et de la circulation de récits. Des plateformes d’encyclopédie populaire participative, telles que Fandom, aux réseaux sociaux vidéo, tels que YouTube ou TikTok, les contenus en ligne regorgent de témoignages, de discussions et de décorticages de rencontres. Dans son travail sur les images fantomatiques, Lionel Obadia décrit les dizaines de sites Web qui promeuvent ces récits – ce qui tend, note-t-il, à en favoriser le surgissement. Comme il le formule à propos de cette circularité, « ce sont ces mêmes écrans qui véhiculent des récits ou des captations d’apparitions ou de formes spectrales sur… des écrans36 » !
Contrairement à ces manifestations non terrifiantes, une partie des histoires de type creepypasta fait intervenir des figures spectrales numériques légèrement différentes des fantômes, plus inquiétantes, mais à la présence tout aussi sporadique et furtive. Lesquelles forment un véritable Who’s Who des dames blanches plus ou moins célèbres de nos réseaux. Ces revenants font parfois leur apparition dans la presse grand public du fait des paniques morales que certaines suscitent. C’est par exemple le cas de Momo, cette poupée terrifiante au visage déformé, mi-femme mi-oiseau, qui circulait sur des boucles WhatsApp et autres réseaux sociaux en 2018-2019. Incitant de jeunes usagers à accomplir certaines tâches dangereuses sous la menace de représailles en cas de non-réalisation, elle aurait suscité une vague de suicides – l’histoire a par la suite été démentie37. Slenderman est un autre exemple de ces êtres. Personnage à l’allure filiforme vaguement lovecraftienne, au visage blanc et sans traits, simplement vêtu d’un costume noir et muni de bras extensibles ou de tentacules, il serait apparu en 2009 en traquant des enfants, provoquant parfois des pertes de mémoire, des insomnies ou de la paranoïa. Inspiré par la tradition du croque-mitaine et couplé à une esthétique plus contemporaine, notamment à celle des jeux vidéo d’horreur tels que Silent Hill, Slenderman s’est émancipé de ses origines en vivant une existence propre38. Smile Dog est quant à lui une sorte de husky sibérien au pelage gris et rose, avec un sourire inhumain et des dents anormalement nombreuses. Son apparition est déclenchée par une image supposément maudite appelée Smile. jpeg qui aurait le pouvoir de hanter ceux qui la regardent, provoquant alors cauchemars et maux de tête, et qui pousserait les victimes à contaminer leurs contacts en partageant l’image avec eux.
Ces creepypasta sont à l’origine de toutes sortes de contenus sur Internet. Ils circulent sous forme de récits amendés ou modifiés par des fans au moyen de textes, de mèmes, d’illustrations ou de visuels générés par des systèmes d’intelligence artificielle. Ces récits sont ensuite amplifiés sur les réseaux sociaux, renforçant ainsi l’emballement médiatique à leur propos, à tel point qu’on les retrouve parfois dans des films, séries télévisées ou livres. Le caractère viral de ce qu’on appelait autrefois les « histoires exemplaires » (urban legends) et l’ambiguïté entretenue autour de l’existence de ces êtres par les personnes qui s’échinent à les faire circuler ont d’ailleurs parfois conduit à une confusion entre fiction et réalité chez certaines personnes. Sur ces différents points, Slenderman est un cas remarquable : il a donné lieu à une web-série nommée Marble Hornets, à un documentaire de HBO intitulé Beware the Slenderman, à une bonne dizaine de jeux vidéo, mais également à une quantité d’articles de presse dus au fait que ce personnage aurait (réellement) incité deux filles du Wisconsin âgées de 12 ans à tenter d’assassiner une de leurs camarades de classe en la poignardant dix-neuf fois. Présenté comme l’héritier de personnages mythiques plus anciens, tels le Der Großmann ou le Der Ritter des mondes germaniques – des figures folkloriques en fait inventées rétrospectivement pour justifier son aura légendaire –, Slenderman est un cas fascinant. Il peut être considéré comme un exemple de ce que la psychologue Denise Jodelet décrit comme un processus de « mythisation ». L’expression désigne le processus d’élaboration de représentations sociales symbolisant de manière exacerbée les craintes, les espoirs ou la capacité d’action des êtres d’un monde donné. Sans que ces représentations soient équivalentes à celles des sociétés traditionnelles – puisqu’elles ne sont pas partagées de manière aussi étendue et de façon transgénérationnelle –, leur statut atteste toutefois d’une puissance symbolique similaire, inscrite dans une forme narrative faisant intervenir la fiction39. Le chercheur en cultures numériques David Peyron souligne à ce propos que les récits de creepypasta sont racontés sur le ton de la « rumeur plausible », du fait des nombreux détails, indices et « preuves », mais pas nécessairement crus, et que leur objectif est avant tout de susciter des frissons et une impression de malaise. Reprenant les ingrédients des histoires de fantômes et d’autres rumeurs d’apparition de spectres, la réappropriation et la mise en circulation des ingrédients composant ces récits produisent à leur manière un embryon de mythologie alternative et collective propre à la culture contemporaine ancrée dans les technologies de l’information et de la communication40.
Diffraction des fantômes
Résumons les choses. Là où les fantômes relevaient antérieurement du genre humain et d’un rapport à la mort plus ou moins inquiétant, les cas présentés dans ce chapitre illustrent leur hétérogénéité croissante avec le temps. Ces différentes manifestations témoignent d’un phénomène de diffraction de la notion de fantôme, qui, par le biais des technologies numériques, se disperse en plusieurs trajectoires, que l’on peut réduire à deux régimes d’existence. Le premier est celui de la possession de l’objet technique, empreint d’anomalies visuelles ou sonores (glitch), ou manifestant des comportements inattendus, dont font état récits divers (creepypasta entre autres). Si cette figure existait antérieurement, elle prend de nos jours un caractère sans doute plus envahissant du fait de la complexité croissante de nos artefacts quotidiens, de plus en plus autonomes. À la différence des vitres, lampes et miroirs victoriens, dont l’expressivité relevait surtout de reflets curieux, les smartphones, ordinateurs et consoles ont en effet un répertoire d’action plus étendu ; ils peuvent notamment afficher toutes sortes de choses à l’écran, émettre des sons, vibrer ; ce qui décuple les risques de bugs et d’autres incidents imprévus ensuite interprétés comme d’éventuels motifs de possession.
Le second régime d’existence du fantôme en milieu numérique est celui de l’irruption d’une personne décédée, sous une forme plus ou moins reconnaissable, que ce soit par surprise ou sur demande (voiture fantôme, deadbot). Ce deuxième régime dénote une dimension plus incarnée de l’entité fantomatique, alors identifiée comme une personne spécifique « qui s’inscrit plus dans un cadre d’attentes à partir d’un cadre symbolique précis : la recherche de l’identité de celui ou celle qui hante un lieu41 » – en l’occurrence, un objet technique. Ce second régime d’existence illustre enfin une évolution fondamentale, qui a commencé dès l’Antiquité : les revenants suscutent au fil du temps un engagement croissant de la part des gens qui les croisent. Si l’eidôlon correspondait à la simple apparition passive d’une image, double d’une personne décédée, et que le fantôme à partir du Moyen Âge requérait un processus plus actif d’imagination (phantasia), le revenant d’aujourd’hui est accessible via la manipulation d’une interface. Il faut se déplacer dans Google Street View pour le localiser, lancer le ghost dans une course dans un jeu vidéo pour le côtoyer, et utiliser une application de bot mémoriel pour échanger avec lui oralement ou par écrit.
Ce faisant, la diffraction des fantômes en plusieurs figures distinctes semble lui avoir fait perdre son caractère effrayant et potentiellement malveillant. Ce n’est pas le cas de la catégorie d’entités que je vais maintenant présenter, composée d’êtres plus nuisibles : les virus, vers et autres trolls, qui ont progressivement accaparé le rôle autrefois dévolu aux fantômes, et qui font, eux aussi, l’objet de multiples récits ou rumeurs.
III.
LA MÉNAGERIE MALFAISANTE, DES VIRUS AUX TROLLS
Pour une fois, les manchettes de journaux de la Tribune de Genève ne font pas état d’un scandale politique ou immobilier. L’affiche qu’arborent les présentoirs du quotidien propose ce titre laconique : « Un nouveau cheval de Troie menace les Mac ». L’article que je parcours décrit l’irruption soudaine et récente d’une nouvelle version très virulente d’un dénommé Flashback, capable de voler les mots de passe, notamment ceux des comptes Google ou PayPal. L’auteur nous signale aussi que l’équidé numérique est « en circulation depuis l’automne dernier », qu’il a « muté et continue d’infecter les Mac1 ». Il aura fallu une année à un consultant en cybersécurité pour identifier l’auteur de ce logiciel intrusif, un programmeur russe répondant au pseudo de Marvook2. Celui-ci cherchait par ce moyen à rediriger les résultats du moteur de recherche de Google vers des annonceurs publicitaires tiers ; cela lui permettait notamment d’obtenir une commission sur les clics ou les ventes générées par le trafic redirigé. Fraude en ligne, infiltration des machines des utilisateurs sans leur permission, violation de la vie privée par la collecte de données personnelles des ordinateurs infectés, les griefs retenus contre Flashback et son auteur sont multiples, attestant de l’illégalité de son action.
Dans le monde des ordinateurs, un cheval de Troie (Trojan horse) est un type de programme malveillant qui envahit les machines pour effectuer diverses actions nuisibles, tout en se faisant passer pour un logiciel licite. Il peut s’agir de récupérer des données personnelles et des identifiants, comme le mentionne l’article de La Tribune de Genève, mais aussi de permettre la prise de contrôle à distance de l’appareil pour lancer des attaques sur des systèmes informatiques, de verrouiller les données pour demander une rançon, voire d’installer d’autres logiciels malfaisants. Une fois infiltré dans une machine, un cheval de Troie attend généralement en arrière-plan, sans se manifester, jusqu’à son déclenchement par la personne qui l’a conçu. La menace représentée par ces intrus, de plus en plus sophistiqués, est significative. Ils peuvent notamment occasionner des pertes financières considérables aux entreprises et organisations publiques. Le Fonds monétaire international évalue ainsi à 2,5 milliards de dollars les pertes dues aux cyberattaques depuis 2020, en grande partie causées par des programmes de ce type3. S’il n’y a pas d’évaluation chiffrée à propos des seuls chevaux de Troie, les statistiques des « maliciels » – la catégorie plus générique de logiciels malveillants auxquels ils appartiennent – avancent 6 milliards d’assauts de ce genre pour l’année 2023 ; environ 450 000 programmes distincts de ce type seraient identifiés chaque jour4. Ils empruntent de multiples portes d’entrée, le plus souvent des pièces jointes reçues par courrier électronique, des fichiers échangés sur des sites de partage de fichiers musicaux ou vidéo, des sites Web infectés ou de faux réseaux Wi-Fi publics. La réponse à apporter est assez simple puisqu’il s’agit, après avoir identifié une activité suspecte sur sa machine, de désactiver tout ce qui ne provient pas dune source sûre. C’est au fond ce que proposent les logiciels antivirus, qui vérifient le degré de fiabilité des applications pour ensuite détecter les interventions pernicieuses et supprimer les indésirables.
Le terme « cheval de Troie » fait ici référence à la mythologie grecque, plus précisément au subterfuge déployé par Ulysse pour conquérir la ville de Troie tel qu’il est relaté dans l’Odyssée d’Homère. Rappelons-en l’histoire : après un siège inefficace de dix ans, les Grecs simulèrent leur départ tout en laissant devant les portes de la cité un immense cheval de bois construit de telle sorte à pouvoir cacher en son sein un groupe de soldats. Les Troyens, pensant avoir gagné la guerre, prirent celui-ci pour un « présent de victoire » et le firent entrer dans la ville. Dans la nuit qui suivit, les guerriers grecs sortirent de la créature et ouvrirent les portes de la cité, permettant à leurs compagnons d’y entrer et de la piller. Ce mythe a donné naissance à l’expression « cheval de Troie », qui décrit toute ruse utilisée pour s’introduire quelque part en prétendant agir de manière inoffensive. C’est à partir des années 1970 que ce terme commence à désigner une technique d’intrusion dans les systèmes informatiques5.
Sur les réseaux, les chevaux de Troie sont innombrables. Ils ont néanmoins un comportement bien spécifique, scruté par les chercheurs et les sociétés de sécurité informatique qui s’acharnent à les repérer pour s’en débarrasser. Une fois identifiés, les chevaux de Troie reçoivent un nom, plus ou moins aléatoire, mais parfois ancré dans les cultures populaires ou dans les mythes. C’est ainsi qu’un cheval de Troie catastrophique pour le monde bancaire en 2009 s’est vu appeler Zeus, dieu grec tout-puissant ici réincarné dans un simple maliciel. Un Cerberus, du nom du chien à trois têtes gardien des Enfers, a été réputé cibler les smartphones Android pour prélever les identifiants bancaires de leurs propriétaires. Un certain Bifrost – du nom du pont à l’allure d’arc-en-ciel de la mythologie nordique qui relie le monde des humains, Midgard, au royaume des dieux, Asgard – a pu infecter en 2013 des ordinateurs équipés de différentes générations de système Windows. Ce programme pouvait non seulement attaquer la machine de la victime à distance pour lui voler des données confidentielles, mais aussi se propager à d’autres systèmes sur le réseau.
Aussi discrets que les daemons du chapitre introductif, les chevaux de Troie s’en distinguent par leur comportement fondamentalement malveillant. Ils font partie d’un ensemble plus vaste composé d’une myriade d’êtres sournois et pernicieux, à l’image de leurs cousins, les virus, les vers informatiques, les bugs et les trolls. L’histoire de Flashback relatée ici illustre plusieurs aspects de cette ménagerie. Elle souligne d’abord la soudaineté de cette menace, qui se propage rapidement. Cette affaire, comme il s’en produit visiblement tous les jours sur les réseaux, met aussi en lumière la composante officieuse de la vie en ligne, qui rassemble un ensemble d’acteurs opérant dans une zone grise entre flou juridique et illégalité totale. Elle témoigne aussi de l’attention quasi éthologique dont ce type d’activités fait l’objet. Combattu par diverses entreprises, Flashback a été décrit, comme beaucoup d’autres chevaux de Troie, à la manière d’une espèce animale pistée par des naturalistes. Des consultants en cybersécurité, décidés à en trouver le responsable, ont ce faisant produit sur des forums et des blogs de véritables comptes rendus de leur traque. De manière plus frappante encore, cette histoire révèle combien la capacité de nuisance de ce parasite contemporain est liée à l’emballement qu’il produit. Car avec les chevaux de Troie ou les autres nuisibles de type virus, vers, trolls et bugs, tout se passe comme si les récits élaborés à leur propos et leur ampleur médiatique renforçaient leur dangerosité, en l’entretenant et en l’exagérant, produisant une sorte d’aura légendaire.
Virus, vers et automates réplicatifs
Alors que les daemons du premier chapitre veillent au grain, les virus sont précisément les fameux grains qui grippent l’engrenage censément fluide de la machinerie numérique. Suivant les cas, ils bloquent et endommagent ordinateurs et téléphones, y dérobent des informations sensibles ou servent à en prendre le contrôle afin, par exemple, d’attaquer d’autres systèmes. Mais avant d’expliquer pourquoi le terme médical de « virus » a été choisi, un détour est nécessaire pour saisir comment ces entités sont apparues.
Les premières entités de ce type datent des années 1970-1980, avant même que le terme de « virus » leur soit accolé. Le bien nommé Creeper, par exemple, né en 1971, se propageait sur ARPANET, l’ancêtre d’Internet, en affichant « I’m the creeper, catch me if you can ! » (« Je suis la plante grimpante, attrape-moi si tu peux ») sur les ordinateurs infectés. Le mot « creeper » illustrait alors de manière imagée et vaguement humoristique la nature auto-réplicative et mobile de ce premier virus informatique, dont l’intention n’était pas forcément nuisible. De la même manière, le virus Xerox, créé en 1981 par des chercheurs du centre de recherche éponyme de Palo Alto, dans la Silicon Valley, visait à étudier le comportement de petits programmes se répliquant par eux-mêmes toutes les quatre secondes sur le réseau local du centre. Il se contentait de se reproduire sans causer le moindre dommage, permettant ainsi à l’équipe de comprendre les mécanismes de propagation de logiciels véritablement malveillants. Dans un autre registre, Elk Cloner (« cloneur d’élan ») fut créé en 1982 par un programmeur de 15 ans sur un ordinateur Apple II comme une farce. Il se propageait via des disquettes puis sur le réseau et affichait un message humoristique informant l’utilisateur que sa machine avait été infectée : « Elk Cloner : Le programme qui a de la personnalité. Il s’installe sur tous vos disques. Il s’infiltre dans vos puces. Oui, c’est Cloner ! » Avec leur ton humoristique, Creeper et Elk Cloner illustrent à leur manière l’importance du motif du canular, mêlé à une logique d’expérimentation et de prouesse technique, une dimension très importante de la culture des programmeurs6.
À la même époque, sans lien direct avec ces premiers exemples, le doctorant en informatique Frederick B. Cohen propose le terme de « virus informatique » pour décrire les programmes qui, à l’instar de leur pendant biologique, se reproduit de manière autonome. Avec Leonard Adleman, son directeur de thèse, l’étudiant à l’université de Californie du Sud est crédité dans l’histoire des techniques comme étant l’inventeur cette notion. Cohen et Adleman la proposent alors pour désigner le type de programme qui, une fois exécuté, peut s’insérer discrètement dans un deuxième programme, et, de proche en proche, en contaminer de nombreux autres7. Si cette suggestion a fait date, le caractère de plus en plus malveillant des virus ultérieurs et l’existence d’autres modes d’infection des ordinateurs ont justifié l’évolution de cette définition.
Sans qu’il y ait forcément de formulation universellement acceptée du terme de « virus informatique », on trouve aujourd’hui des définitions comportementales (« un programme qui se reproduit. Lorsqu’il est exécuté, il fait simplement une ou plusieurs copies de lui-même. Ces copies peuvent ensuite être exécutées pour créer encore d’autres copies, à l’infini8 ») ou techniques (« une séquence de symboles qui, interprétée dans un environnement donné [adéquat], modifie d’autres séquences de symboles dans cet environnement, de manière à y inclure une copie de lui-même, cette copie ayant éventuellement évolué9 »). Mais ce sont sans doute les encyclopédies vernaculaires qui le définissent avec le plus de clarté. Voici celle que propose le Cyberspace Lexicon : « Programme informatique, inspiré des virus biologiques, qui se réplique en s’attachant à d’autres programmes informatiques et qui manifeste sa présence soit de manière inoffensive, soit de manière nuisible. Les virus sont activés dans des conditions spécifiées par l’auteur du virus – à une heure ou une date donnée, ou lorsqu’une commande particulière est exécutée – et peuvent causer des dommages catastrophiques, en interférant avec des fichiers de données, en les effaçant ou en les détériorant10 »).
Si les premiers virus et leur conceptualisation datent de l’avènement de l’informatique personnelle à la fin du XXe siècle, l’idée même d’entités auto-réplicatrices existait antérieurement. D’abord dans les bases théoriques de l’informatique, puisque le mathématicien John von Neumann avait déjà évoqué la possibilité de créer des automates auto-reproducteurs dans les années 194011. C’est d’ailleurs cette théorie que le créateur du virus Creeper souhaitait mettre au défi. La science-fiction anticipe également ces propositions avec, notamment, The Scarred Man, de Gregory Benford (1970). Cette nouvelle raconte l’histoire de la confrontation entre deux programmes informatiques : l’un nommé VIRUS, capable de rechercher d’autres ordinateurs pour y télécharger une copie de lui-même via les lignes téléphoniques, et un autre appelé VACCINE, à même de le contrer. De la même manière, le film Westworld (Mondwest), de Michael Crichton (1973), met en scène une idée similaire. Il se déroule dans un parc d’attractions futuriste dans lequel des androïdes à l’allure réaliste font vivre aux visiteurs des aventures immersives situées dans différentes époques historiques. L’intrigue s’appuie sur une défaillance qui se réplique en cascade parmi ces machines, les rendant menaçantes et imprévisibles. Tout se passe comme si ces robots étaient victimes d’un dysfonctionnement circulant d’une machine à l’autre de façon systémique. En dehors de la fiction, il faudra près de dix ans au champ de l’informatique pour théoriser cette notion et la faire advenir concrètement. Contrairement aux daemons et autres entités de cet ouvrage, ce sont donc moins les récits antiques ou médiévaux qui nourrissent la légende des virus qu’un imaginaire de science-fiction contemporain, basé sur l’autonomie des logiciels et des machines.
Avec le temps, la connotation virale évolue. À la fin des années 1980, le terme initialement proposé par Cohen pour décrire un programme auto-propagateur est en effet progressivement associé à une dimension d’abord destructrice, puis frauduleuse. Le « ver Morris », apparu en 1988, est à cet égard un personnage clé. Il compte parmi les premiers virus aux conséquences dévastatrices et peut être considéré comme l’un des premiers « vers informatiques » majeurs de l’histoire. Créé par Robert Tappan Morris, alors étudiant en informatique à l’université de Cornell, et lancé le 2 novembre 1988 depuis un ordinateur du MIT, ce programme tirait parti des vulnérabilités du système d’exploitation Unix de certaines machines pour se propager rapidement. Malgré un objectif recevable, qui relevait de la curiosité envers les capacités de réplication des entités numériques et du désir d’évaluer la dimension du réseau internet d’alors, Morris n’en fut pas moins sanctionné. En infectant pas moins de 6 000 ordinateurs – soit environ 10 % des machines connectées à Internet à l’époque – ce virus causa des ralentissements importants et des dommages financiers allant de 10 à 100 millions de dollars. Cela valut à Morris d’être la première personne condamnée pour ce type de fraude informatique, avec une peine de trois ans avec sursis, 400 heures de travaux d’intérêt général, ainsi qu’une amende. Les observateurs de ce virus proposèrent alors le terme de ver pour rendre compte de son mode opératoire, qui tirait parti de la faiblesse des machines-hôtes, à la manière d’un parasite. Cette référence aux vers semble faire référence à une autre œuvre de science-fiction, Shockwave Rider, de John Brunner, paru en 1975. En continuité avec la place sournoise et insidieuse occupée par les vers dans les bestiaires médiévaux, l’auteur anglais mettait en scène, dans ce roman, un programme se propageant sur un réseau informatique de manière plus autonome que les virus : il ne nécessitait pas d’intervention des utilisateurs pour infecter ses hôtes.
La fin des années 1980 marque un tournant dans l’histoire des virus. Avec les agents néfastes tels que le ver Morris ou le virus pakistanais Brain, le temps des expérimentations ou, dans certains cas, de blagues qui dérapent se clôt. On a alors affaire à une armada d’entités malveillantes capables de causer des dommages importants et de se propager rapidement via les réseaux et Internet. Dans les années 2000 apparaissent d’autres techniques d’infection plus hostiles encore (cf. encart p. 83-84). Si les virus des années 1990 se contentaient d’infecter des portions de disque dur, des fichiers ou des programmes de type traitement de texte, les spécimens ultérieurs adoptent un mode opératoire beaucoup plus sophistiqué : possibilité de modifier leur code pour échapper à la détection (virus polymorphe), atours licites pour ne pas être remarqué (chevaux de Troie), capacité d’espionnage (spyware) ou d’encryptage des données des utilisateurs (rançongiciels), fonctionnement en réseaux de machines (botnets), etc. C’est face à cette menace croissante que l’industrie de la sécurité informatique se constitue, avec le développement des antivirus à la fin des années 1980. L’existence de canulars et de farces provocatrices perdure néanmoins par le biais de messages alarmistes ou de fausses alertes au virus dont l’objectif est de faire paniquer les utilisateurs novices, sans forcément endommager leur machine12. On parle alors de viroax – mot-valise formé avec le suffixe « oax » pour « hoax » (« canular » en anglais) – qui pousse le destinataire à délibérément effacer un fichier de son ordinateur en lui laissant croire qu’il est infecté.
Ce panorama des trente dernières années montre que le choix du terme « virus » relève finalement assez peu d’une stricte analogie entre l’espèce d’agent logiciel qui s’y réfère et la réalité d’un pathogène biologique. Même s’il existe une forme de proximité entre l’idée de code informatique et celle de code génétique, ou entre des mécanismes de réplication informatiques et biologiques, cette expression s’est sans doute imposée non pas comme une métaphore organique, mais parce que, comme l’a montré le sociologue Nicolas Auray, elle désignait la réponse concrète requise contre cette menace, à savoir l’immunisation des machines et des systèmes. Combattre ces programmes auto-propagateurs repose en effet sur une logique de « mise en quarantaine » des ordinateurs infectés et de « stérilisation » du réseau afin de limiter la diffusion du problème13. En attestent les discours sur l’immunité à propos des antivirus : « Une protection simple et efficace », « Protection puissante, système fluide », « Une protection totale pour tous vos appareils »14. L’anthropologue Stefan Helmreich fait un constat similaire en soulignant comment la reprise d’un vocabulaire bien connu de l’immunologie permet de se doter d’outils conceptuels pour faire face à une menace insaisissable15.
Parler de menace virale, c’est emprunter à la rhétorique de la sécurité pour chercher à saisir ce que des entités difficiles à qualifier font concrètement, ou plus généralement rendre compte de leur caractère envahissant. C’est d’ailleurs sur ce point que Helmreich éclaire la façon dont les discours portant sur les virus témoignent d’une crainte de la contamination par un corps allogène et envahissant. On retrouve d’ailleurs ici une dimension fréquente dans les récits merveilleux, celle de l’apparition d’un inconnu, qui suscite non seulement un mélange de crainte et de fascination, mais aussi d’une difficulté à comprendre16. D’une certaine façon, comme le formule Helmreich, le fait d’employer un champ lexical biologique permet aux discours de l’industrie de la sécurité informatique de s’appuyer sur l’autorité des sciences naturelles. Dans les deux cas, l’objectif est le même : circonscrire des causes encore mystérieuses et tenter d’immuniser l’hôte organique ou machinique. Le recours à la métaphore virale renvoie sans doute par ailleurs à des préoccupations plus générales17, liées à la soudaine informatisation de la société dans les années 1980 et à l’incapacité apparente des structures sociales traditionnelles – le droit en particulier – de s’adapter aux changements qui s’imposent à l’ensemble de la société. Dit autrement, le virus « révèle les vulnérabilités des systèmes qu’il parasite18 », non seulement dans les milieux techniques, mais aussi, plus largement, dans les collectifs humains qu’il vient bousculer19.
VIRUS NOTABLES
Brain (1986) : considéré comme le premier virus à avoir infecté les ordinateurs personnels (PC), il est conçu par les deux frères Alvi, au Pakistan, pour empêcher les copies illégales d’un logiciel qu’ils avaient développé. S’autorépliquait et se propageait d’un ordinateur à l’autre via les disquettes infectées.
Jerusalem (1987) : premier virus de type « bombe logique », c’est-à-dire à déclenchement programmé en fonction d’une condition spécifique – par exemple en s’activant tous les vendredis 13, comme Jérusalem, qui supprimait alors tous les programmes exécutés ce jour-là.
AIDS Trojan (1989) : cheval de Troie et premier rançongiciel, conçu pour obtenir de l’argent directement auprès des victimes en échange de la restauration de l’accès à leurs données20.
1260 (1989) : virus polymorphique, c’est-à-dire capable de modifier constamment son apparence ou ses fichiers de signature afin d’éviter d’être reconnu par les logiciels antivirus.
Michelangelo (1991) : virus conçu pour s’activer le jour de l’anniversaire de l’artiste (le 6 mars) et qui écrasait les données sur les disques durs de ses victimes.
Good Times (1994) : rumeur qui se propageait par un courrier électronique alertant les destinataires de ne pas ouvrir un email avec « Good Times » comme objet. Le message affirmait que cela déclencherait un virus destructeur susceptible d’effacer le disque dur de l’utilisateur ou de causer d’autres dommages graves à son ordinateur.
Concept (1995) : premier virus « macro », qui infectait les fichiers Word et se déclenchait lors de l’ouverture d’un document. Fonctionnait par activation de macros, qui sont des séquences d’instructions programmées pour automatiser des tâches dans ce traitement de texte.
Esperanto (1997) : virus qui, comme son nom l’évoque, s’attaquait à tout type de plateformes (DOS, Windows et Macintosh).
Melissa (1999) : virus se propageant via la messagerie électronique sous forme de pièce jointe, généralement un document Word, et qui envoyait des emails infectés aux 50 premiers contacts du carnet d’adresses de la victime.
ILOVEYOU (2000) : ver particulièrement destructeur qui s’est propagé très rapidement, infectant environ 10 % des ordinateurs connectés à Internet dans le monde. Son nom incitait les utilisateurs à ouvrir la pièce jointe.
Pikachu (2000) : virus qui exploitait la popularité d’une figure de la culture populaire pour faciliter sa diffusion, en particulier auprès des jeunes utilisateurs. Activé, il affichait une image de Pikachu sur l’écran de l’ordinateur infecté tout en effaçant des fichiers du disque dur.
MyDoom (2004) : ver informatique qui se propageait en envoyant des emails infectés à tous les contacts de la victime et transformait son ordinateur en « machine zombie ». Celle-ci permettait alors de lancer des cyberattaques visant à rendre un site Web ou un réseau inaccessible en le submergeant de trafic provenant de multiples sources. Considéré comme la plus importante attaque virale jamais connue sur Internet à l’époque, il a causé des dommages estimés à 38,5 milliards de dollars.
Storm (2006) : ver informatique polymorphe qui circulait par courrier électronique avec des sujets accrocheurs liés à l’actualité, et qui créait un « botnet », c’est-à-dire un réseau d’ordinateurs infectés, pour envoyer du spam et mener des cyberattaques à l’insu de leurs propriétaires.
Caribe/Cabir (2004) : un des premiers vers informatiques conçus pour infecter les téléphones mobiles.
Stuxnet (2010) : ver informatique considéré comme la première cyberarme connue ciblant spécifiquement des systèmes industriels et, en particulier, les centrifugeuses utilisées dans le programme nucléaire iranien à Natanz.
Flashback (2012) : cheval de Troie qui se faisait passer pour un logiciel licite afin d’infecter les systèmes Mac, réputés pour être peu ciblés par les virus.
Mirai (2016) : botnet ciblant les caméras IP, les routeurs et autres appareils connectés, soulignant l’importance de protéger non seulement les ordinateurs, mais aussi tous les périphériques.
WannaCry (2017) : rançongiciel qui chiffrait les fichiers rendus alors inaccessibles à leur propriétaire et affichait un message demandant une rançon en bitcoins.
Vivre avec les virus, faire confiance aux experts
Problèmes courants de l’expérience ordinaire des utilisateurs depuis des décennies, et plus encore dans le monde de l’entreprise, les « virus informatiques » font l’objet de toutes sortes de commentaires quant à leur nature et surtout aux conséquences qu’ils occasionnent. Lesquels permettent de saisir les relations ambivalentes que les utilisateurs tissent avec ces créatures numériques, ambivalence qui fait écho au caractère tout aussi équivoque des créatures merveilleuses.
Dans son enquête sur le raisonnement des experts en sécurité en lutte contre des vers, le sociologue Nicolas Auray décrit l’attitude courante du grand public face aux menaces et aux vulnérabilités informatiques comme relevant soit de la peur et de l’alarmisme, soit de l’insouciance21. L’oscillation entre ces deux extrêmes repose selon lui sur l’invisibilité de ces programmes créés par des humains. Difficilement perceptibles, les virus doivent cependant l’être un minimum pour susciter la curiosité des utilisateurs, être activés et in fine produire leurs effets en se propageant. Mais ils doivent aussi rester discrets, car révéler leur véritable nature menacerait directement leur existence. Ils doivent en d’autres termes attirer l’attention, mais pas trop. Dans une des rares études consacrées à la perception des menaces informatiques par des usagers non experts, le chercheur en interaction humain/machine Rick Wash souligne par ailleurs l’existence d’une forme de fatalité face aux virus. Tout se passe comme si l’irruption de ces vers était au-delà du champ de responsabilité des propriétaires d’ordinateurs, et ce quelles que soient leurs compétences ou leur compréhension du mode opératoire de ces entités. Il s’agirait en effet d’une relation subie, c’est-à-dire à la fois non choisie et toujours à connotation négative22. Rick Wash distingue néanmoins plusieurs attitudes face à ces agents pathogènes. Quel que soit le degré de compréhension de l’intentionnalité sous-jacente (malveillance criminelle ou dysfonctionnement imprévu) et la gravité des conséquences (ralentissement momentané, nuisance frustrante, vol de données ou panne totale), les utilisateurs se trouvent suivant les cas dans une situation de méconnaissance presque totale et assumée, de vague compréhension de la menace, de connaissance rudimentaire ou de début d’expertise, ces quatre types étant en général liés à un degré de compétence plus ou moins grand dans l’usage des technologies numériques. Toujours, le recours au terme « virus » semble jouer son rôle, puisque les participants à son étude utilisent une terminologie médicale pour décrire les actions des logiciels malveillants : un ordinateur « attrape » un virus ou est « infecté », les possesseurs de Mac pensent (tout en s’inquiétant un peu) que leur machine est « immunisée » contre ceux-ci, etc. Ces niveaux de connaissance impliquent une pluralité de réactions, qui va de l’adoption d’un antivirus au mépris pour ces outils, en passant par un usage simplement précautionneux des appareils numériques : méfiance face à certains emails et aux invitations à installer des applications, non-consultation de certains sites Web, paramétrage de la sécurité du navigateur, etc. Disons en résumé que plus la personne comprend l’importance d’une menace virale et son mode de fonctionnement, moins cette menace est perçue comme une fatalité. Certains éprouvent la nécessité de s’en remettre à des experts tiers. Comme le signale le chercheur en virologie informatique Éric Filiol, ils sont alors « condamnés, d’une part, à faire confiance aux éditeurs d’antivirus et à leurs produits et, d’autre part, à subir, presque sans espoir, les virus programmés par d’autres23 ». Une telle asymétrie renforce à la fois l’aura légendaire des virus et celle des experts à même de les contrer : ces derniers ont tout avantage à voir se propager ou à propager eux-mêmes des récits grandiloquents à propos de ces êtres malfaisants, renforçant ainsi leur importance et celles des produits ou services à disposition pour les tenir à distance.
Chez les experts justement, la gamme de relations avec les virus est plus étendue. La consultation de la littérature technique à leur sujet fait apparaître deux enjeux bien spécifiques : la connaissance des virus et la lutte contre ces virus24. Il s’agit d’abord de surveiller les réseaux pour repérer l’apparition de nouvelles menaces, mais aussi de les décrire. Or, il existe à cet égard des pratiques qui n’ont rien à envier aux multiples champs de la biologie. Au même titre que les spécialistes d’éthologie et de systématique animale ou végétale qui procèdent à l’inventaire de la diversité des êtres vivants, les virologues numériques s’attachent à catégoriser les différents spécimens qu’ils rencontrent et à saisir leur organisation au moyen de classements divers ou de taxonomies, portant par exemple sur leur nature (« virus interprétés », « virus compagnons », « virus de documents », « vers », « botnets ») ou leurs modes d’action (« virus par écrasement de code », « par ajout de code », « par entrelacement de code », « par accompagnement de code »)25. Le fait de nommer et d’interpréter ces entités par la description de caractères spécifiques, puis d’évaluer leur menace, fait écho aux gestes intellectuels des bestiaires médiévaux et autres récits de découvertes26. Notamment parce que ces documents compilaient toutes sortes de phénomènes singuliers qui suscitaient curiosité, incompréhension et inquiétude, en leur ajoutant une connotation morale. La démarche actuelle de classification et de recherche de causes techniques ou économiques obéit, elle, à une logique plus contemporaine, liée à la démarche scientifique – laquelle cherche à dépasser la surprise pour éclairer des phénomènes à objectiver. Cependant, la production d’ouvrages et de sites Web sur les vers, virus et autres chevaux de Troie, malgré leur côté rigoureux, contribue à renforcer leur aura. Leurs noms parfois étranges, aux connotations empreintes d’ironie, de private jokes ou de références aux cultures populaires (cf. encart ci-après), la présence de hiérarchies de virus plus ou moins destructeurs rendent ces textes singuliers, différents des traités de sciences naturelles. Le fait que les sociétés produisant des antivirus, telles que Kaspersky ou Broadcom (Symantec), se chargent d’une telle documentation n’est d’ailleurs pas anodin, puisqu’elles sont alors juges et parties dans la présentation et le degré d’importance des menaces qu’elles indiquent combattre.
Comme les virologues, ces experts nourrissent vis-à-vis des virus un mode de relation belliqueux, et leurs travaux descriptifs débouchent sur un objectif sanitaire de prévention et d’éradication. Le vocabulaire est alors celui de l’endiguement, de la chasse ou du combat. Juguler les épidémies virales sur les réseaux repose littéralement sur le développement d’un arsenal de mesures et de dispositifs qui vont du recours à des techniques de scrutation répétée (repetitive scanning) à des opérations de vérification, en passant par des opérations de soin (désinfection) ou le recours à des « pots de miel » (honeypots)27. Un « pot de miel » correspond au déploiement de leurres qui ont pour objectif d’attirer les virus et autres entités malveillantes afin de détecter rapidement de nouvelles menaces avant qu’elles n’atteignent les systèmes réels, tout en détournant leur attention. Cependant, c’est surtout par la conception et le déploiement de logiciels antivirus que la lutte a lieu concrètement.
Le terme d’« anti-virus » illustre la manière dont ces programmes, et l’industrie qui les produit ou/et les fait évoluer, se conforment à la rhétorique virale à laquelle ils se confrontent ; ce faisant, ils font apparaître une myriade d’entités nouvelles. Tout se passe en effet comme si à chaque apparition d’un nouvel être viral correspondait l’éclosion d’une contre-entité, ou d’une mise à jour d’un anti-virus existant. Si les virus sont des êtres proliférants, les anti-virus se doivent de l’être aussi.
Avant même que le nom de « virus » ne soit proposé, le Creeper de 1971 s’est ainsi vu affublé d’une entité adverse, le Reaper, conçu spécifiquement pour le détecter et le supprimer – comme dans la nouvelle The Scarred Man de Gregory Benford, qui mettait en scène la confrontation entre les programmes VIRUS et VACCINE. On l’a vu, c’est à partir de la fin des années 1980, lorsque leur caractère dangereux s’est amplifié, qu’une véritable industrie a vu le jour, avec l’apparition d’entreprises tels que Norton, BitDefender, McAfee, Eset, Kaspersky, Avast ou Intego. Ces entreprises se sont alors structurées dans une logique de lutte couplée à une motivation commerciale, en surjouant parfois les risques afin de donner l’impression d’une crise perpétuelle. C’est ce que montre l’anthropologue Jessica Johnston28, qui a, durant six ans, enquêté auprès de sociétés intervenant dans ce domaine. Tout se passe comme si la lutte contre les agents viraux numériques était ancrée dans une logique de double promesse, visant tout autant à endiguer le danger qu’à maintenir le pouvoir et l’autorité de ces entreprises. Malgré leurs fonctionnalités bénéfiques, les anti-virus et leurs notifications alarmistes peuvent donner une impression de présence constante et invisible, parfois désarmante pour les usagers ; lesquels ont l’impression d’une forme d’emprise d’autant plus curieuse qu’ils n’en comprennent pas clairement le fonctionnement et que ces logiciels provoquent parfois un net ralentissement des ordinateurs. Un tel mécanisme rappelle les contes et légendes dans lesquels un ange gardien bénéfique joue parfois un rôle ambivalent, tantôt bienveillant, tantôt oppressant. C’est le cas des démons et des génies du terroir mentionnés au premier chapitre, ainsi que des fées et autres esprits de la nature réputés aider les humains tout en étant parfois imprévisibles29.
Ce phénomène est d’ailleurs renforcé par le fait que ces programmes antiviraux sont malheureusement souvent « en retard d’une guerre », autrement dit inaptes à détecter les nouvelles générations d’entités30. Pour rester dans le champ lexical guerrier employé par les acteurs du domaine, leur conception semble relever d’une « course aux armements » continue et sans fin, puisque les créateurs de logiciels malveillants inventent constamment de nouvelles menaces, obligeant les développeurs d’antivirus à s’adapter et à innover en permanence. Chaque variante étant suivie par une amélioration des systèmes de défense, et ainsi de suite.
Ce tour d’horizon de nos relations avec les virus ne serait pas complet sans l’examen des conditions de leur création. En effet, les virus n’apparaissent pas ex nihilo. Ce sont des programmes informatiques conçus par divers acteurs – individus isolés, groupes d’activistes, organisations militaires ou paramilitaires. Et leurs motivations sont tout aussi multiples : sabotage commercial, opération de guerre économique, moyen d’espionnage, revendication politique, volonté de vengeance de la part d’employés mécontents, mais également, pour les créateurs plus jeunes, envie de sensations fortes, recherche de célébrité, pression des pairs, voire simple ennui31. Les enquêtes soulignent ainsi que la création de virus se double de la production et de la circulation de récits par les entreprises d’antivirus, les consultants en cybersécurité, les journalistes et parfois leurs créateurs eux-mêmes. Lesquels discutent de leurs techniques sur des forums spécialisés ou des plateformes méconnues, sous pseudonyme ou non, en s’exposant plus ou moins. Leurs motivations vont de l’obtention d’une forme de reconnaissance de la part de leur communauté pour se vanter de leurs exploits à la simple envie de partager des connaissances.
Comme pour les fantômes numériques du chapitre précédent, la dimension narrative joue donc un rôle fondamental dans le mode opératoire de la ménagerie malfaisante. Articles de presse, vagues d’emails alarmistes, rapports de sociétés de sécurité informatique et d’antivirus, pages Wikipédia, rumeurs circulant sur des forums, réactions d’experts, publications académiques… les multiples textes concernant Michelangelo, ILOVEYOU ou Storm font exister la menace virale, l’entretiennent, la renforcent. En décrivant de manière plus ou moins déformée leurs effets, les affirmations, rumeurs et dénégations à leur endroit nourrissent la dimension légendaire de ces multiples êtres. Comme l’ont montré Sarah Gordon et Joe Wells, ces récits oscillent entre battage médiatique (hype) et canular (hoax). Le premier qualificatif souligne la dimension démesurée, voire extravagante de certaines menaces, dangereuses a priori, mais montées en épingle de façon parfois exagérée, contribuant à la création d’une forme de panique. Quant au second terme, il rappelle que certains virus n’ont de menaçant que leur réputation. Ces derniers, nommés « métavirus », sont de fausses nouvelles alarmistes transmises aux utilisateurs, qui sont incités à les faire circuler le plus largement possible, provoquant par là même un engorgement du réseau32. Malgré leur caractère fictif et inopérant, ces canulars ont contribué à façonner la culture de la sécurité informatique et à motiver la création de sites Web spécialisés dans la vérification des informations pour distinguer les vrais virus des faux.
Plus généralement, l’importance médiatique de ces récits contribue in fine à la constitution d’un folklore technologique qui prend de l’ampleur avec le temps. Quelques-uns d’entre eux ont ainsi acquis le statut de jalon dans l’histoire de l’informatique, voire d’évènement mythique, tout comme leurs créateurs ou les concepteurs d’antivirus. Des documentaires sur le virus Brain sortent par exemple toujours aujourd’hui33 . Des séries de podcasts telles que Malicious Life34 proposent des rétrospectives sur le virus de Fred Cohen ou sur des botnets plus récents, tels que le ver Wank (1989), co-conçu par le jeune Julian Assange, futur fondateur de Wikileaks. On croise aussi dans ces épisodes des reportages sur des figures controversées et légendaires du monde des antivirus, tel John McAfee. Créateur du premier logiciel antivirus commercial dans les années 1980, cet entrepreneur étatsunien sera impliqué dans de nombreuses affaires judiciaires, combinant soupçons de meurtre au Belize, accusations d’évasion fiscale et de promotion frauduleuse de cryptomonnaies, jusqu’à ce qu’on le retrouve mort dans sa cellule de prison en Espagne en 2021, alors qu’il était menacé d’extradition vers les États-Unis. Cet exemple et celui du ver Wank illustrent en quoi, malgré l’aridité du sujet, les acteurs de ce folklore numérique sont devenus des figures publiques, contribuant encore une fois à l’aura singulière du monde des virus.
Relevons aussi qu’avec le temps et la diffusion massive des ordinateurs et des réseaux, ces menaces virales, qui se limitaient à un petit cercle de victimes dans les années 1980, en sont venues à toucher un nombre considérable de personnes et d’organisations. Et, progressivement, à infecter d’autres mondes numériques. Outre les menaces bureautiques les plus communes décrites dans l’encart 1, le cas de la pandémie de sang vicié (corrupted blood incident) dans le jeu en ligne World of Warcraft en 2005 est l’un des moments marquants dans la vie des univers virtuels. Dans ce jeu de rôle en ligne massivement multijoueur (MMORPG), les millions de participants créent et contrôlent des personnages de différentes races et classes. Ces derniers peuvent explorer les différentes parties du monde fantastique d’Azeroth, qui leur offre des quêtes à accomplir et des actions collectives à réaliser (raids) visant, par exemple, à s’emparer d’un lieu, à récupérer un allié ou un objet précieux. Du fait d’un bug permettant à un sort contagieux (nommé « sang vicié ») de se propager au-delà des limites prévues d’une zone du jeu déterminée, l’épidémie de 2005 perturba pendant plusieurs semaines la vie d’Azeroth. Les avatars infectés étaient alors entourés d’un effet visuel qui prenait la forme d’une aura rougeâtre ou violacée. La pandémie provoqua la mort massive de personnages et le dépeuplement de secteurs entiers du jeu, ainsi que diverses réactions de la part des joueurs, allant de tentatives de quarantaine à la propagation délibérée de l’infection. Différentes zones du jeu restèrent dépeuplées un bon moment. Rappelé, discuté (ressassé ?) par joueurs et non-joueurs, le corrupted blood incident a même fait l’objet d’une documentation rassemblée par des joueurs et des chercheurs agissant à la manière des folkloristes35. De multiples analyses furent menées par des épidémiologistes, qui y virent un modèle potentiel pour étudier la propagation des maladies infectieuses et les comportements humains face aux épidémies biologiques36.
Le virus, entité du merveilleux d’hier et d’aujourd’hui
Contrairement au cas des démons ou des fantômes, qui s’inscrivent dans une continuité directe entre les mirabilia du passé et ceux d’aujourd’hui, ce sont les récits qu’ils suscitent qui font des virus une composante du merveilleux contemporain. Le virus, en tant qu’entité biologique que nous connaissons de nos jours, ne fait a priori pas partie du répertoire d’entités fabuleuses qui relèvent du merveilleux. Minuscule et inconnu, il n’était pas représenté dans les bestiaires médiévaux ; il est chose de la modernité et de ses instruments d’observation. Toutefois, il n’est pas impossible de distinguer dans les savoirs médiévaux certaines entités qui s’en rapprochent conceptuellement. Quelle généalogie des virus informatiques pourrait-on ainsi trouver dans les bestiaires du Moyen Âge ? Ce sont sans doute les vers et la vermine qui en sont les ancêtres les plus significatifs. Les vers (vermes) constituaient l’une des cinq grandes familles animales identifiées dans les savoirs médiévaux, aux côtés des quadrupèdes, des oiseaux, des poissons et des serpents. Ils englobaient de manière hétérogène ce que l’on a commencé à nommer insectes au XVIe siècle, des petits animaux rampants (batraciens, gastéropodes), des vers et leurs larves, ainsi que certains rongeurs37. La vermine, quant à elle, ne formait pas une catégorie distincte, mais appartenait au groupe des vers, désignant ce qu’aujourd’hui nous décririons comme des insectes parasites de type poux, puces, vers et leurs larves38. D’un point de vue symbolique, la pensée médiévale connotait négativement ces catégories de vers et de vermine, perçues comme la manifestation de l’impureté ou d’une punition divine. C’est d’ailleurs ce qui pourrait expliquer la position inférieure de ces catégories dans la hiérarchie des espèces telle quelle est présentée dans les bestiaires. Comme le précise l’historien Michel Pastoureau, « les vers naissent en effet de la pourriture et de la corruption de la terre, de l’eau, de l’air ou de la chair […] tous sont de petite taille, heureusement car ce sont pour l’essentiel des fléaux39 ». C’est donc peut-être la dimension minuscule des virus informatiques, leur capacité à provoquer des maladies, mais aussi leurs noms (les vers informatiques) qui les associent aux vers et vermines de l’époque. Y aurait-il une circulation conceptuelle, non seulement de ces catégories d’entités, mais aussi des milieux dans lesquelles elles existent ?
En outre, si l’on ne trouve pas de virus proprement dit dans les bestiaires médiévaux, les virus informatiques possèdent un marqueur typique des récits de type mirabilia médiévaux : leur propension à être simultanément objet de crainte et de curiosité. La peur transparaît d’abord dans les discours médiatiques à leurs sujets, lesquels mobilisent toutes sortes de statistiques outrancières et de propos alarmants40. D’où la proposition du chercheur en sciences sociales Peter Knight de les décrire comme des marqueurs incontournables d’une période d’anxiété sociale, liée en particulier à l’existence d’un milieu technique de plus en plus sophistiqué et illisible41. Les experts en informatique partagent cette inquiétude à propos du caractère insaisissable de ces entités et soulignent leurs conséquences de plus en plus dévastatrices. Une crainte d’autant plus fondamentale que malgré l’importance du sujet, travailler sur ce thème n’est pas toujours bien accepté dans les communautés de recherche. L’expert en cryptologie Éric Filiol estime à cet égard que ceux qui s’y intéressent reçoivent les « marques du sceau de l’infamie », comme s’il s’agissait d’une réalité qui s’imposait à la société, mais qu’elle refuserait de voir42. Les virus, dont la propagation repose sur l’exploitation de la curiosité des internautes, sont fondamentalement un objet d’intérêt ou de fascination43. En s’intéressant particulièrement au ver Storm, qui propageait des rumeurs aux titres croustillants, Nicolas Auray a montré comment l’« impulsion exploratoire » et la curiosité macabre des internautes étaient mobilisées par les concepteurs de ce virus, stimulant le voyeurisme et le goût morbide pour le malheur des autres… afin d’abaisser leur vigilance et de les pousser à cliquer sur des liens permettant l’activation ou la propagation dudit virus. La recherche des causes de la malfaisance numérique par de telles entités fait écho, on l’a dit, à la curiositas suscitée par les récits merveilleux, dans le passé comme dans le présent, et ce parmi le grand public comme chez les spécialistes.
Bugs, trolls et autres trollbots
Du fait de leur présence médiatique et des dégâts avérés qu’ils occasionnent, les virus, métavirus et autres maliciels incarnent presque à eux seuls la malfaisance numérique. Mais ils n’en sont pas les seuls représentants et ne doivent pas éclipser l’existence d’autres êtres moins sophistiqués, mais tout aussi actifs, et plus directement héritiers des créatures mythologiques : les trolls et les bugs. Là où les premiers illustrent la malveillance intentionnelle, les seconds nous rappellent l’existence d’aléas et de dysfonctionnements plus ou moins involontaires, émanant de la complexité du système technique formé par notre appareillage numérique.
Le troll, pour commencer, est un type de participant aux conversations en ligne qui « trolle », c’est-à-dire qui agit en publiant délibérément des messages provocateurs, offensants, voire hors sujet. Son but est généralement de perturber les discussions normales ou de susciter des réactions émotionnelles chez les autres utilisateurs dans les médias sociaux, les groupes de discussion, les forums, les jeux vidéo et les mondes virtuels. La définition proposée par le Jargon File souligne la double étymologie du terme44 : dans sa forme verbale, il dérive de l’expression « trolling for newbies », qui vient elle-même du « trolling », un style de pêche dans lequel on traîne l’appât dans un endroit propice en espérant que le poisson morde. Il s’agit dans le champ du numérique de leurrer les participants à une conversation en postant des messages pour les tromper45. Dans sa forme nominale, la référence est celle des créatures de la mythologie scandinave dont il porte le nom. Un « tröll », en vieux norrois, désigne depuis le XVIIe siècle un être querelleur de grande taille, parfois très laid et à l’intelligence limitée, qui apparaît fréquemment comme antagoniste des humains dans les contes et légendes, un rôle comparable à celui des géants ou des ogres d’autres traditions européennes. Plus ou moins influencée par ces représentations, la littérature populaire et de fantasy a continué à mettre en scène les trolls comme des êtres de conflit et semeurs de troubles. On les retrouve par exemple chez J.R.R. Tolkien en tant que créatures aussi menaçantes que grotesques46. Avec le temps, le terme de « troll » a évolué pour caractériser tout comportement ayant trait au maléfique et à la méchanceté47. C’est cette nature perturbatrice qui semble avoir été retenue pour définir cette pratique communicationnelle née dans les années 1980 et qui avait alors lieu sur cet ancêtre des plateformes en ligne qu’était Usenet (un système de discussion distribué à l’échelle mondiale et accessible via Internet). Oscillant entre taquinerie humoristique et malveillance plus affirmée, les pratiques de trolling des débuts ont été d’abord décrites comme une réactualisation du « trickster » (farceur)48. Cette figure mythologique présente dans de nombreuses traditions à travers le monde incarne souvent la ruse, la subversion des règles, l’ambiguïté morale et la transgression des normes établies. Mais peu à peu, l’attitude des trolls est devenue agaçante et de plus en plus hostile, jusqu’aux comportements que l’on connaît aujourd’hui. Pour les usagers de ces plateformes, ils sont désormais une véritable plaie. Les travaux en sociologie distinguent néanmoins plusieurs types de trolling, entre provocateurs désobligeants venant pourrir une conversation, contributeurs oscillant entre comportement néfaste et intervention modérément pertinente, et revendicateurs se plaignant d’une entreprise ou une institution49. Employés comme moyens de déstabilisation ou de propagande, les trolls jouent un rôle de plus en plus politique. L’exemple le plus commun à cet égard est celui des « trolls russes », soit des réseaux de personnes envoyées par des agences gouvernementales ou des entreprises russes pour mener des campagnes de désinformation et d’influence sur les réseaux sociaux. Leur objectif est d’influencer l’opinion publique et d’amplifier les divisions politiques et sociales au sein de différents États, que ce soit en promouvant la propagande pro-russe ou en semant la discorde dans les communautés en ligne. Quelle que soit l’activité des trolls considérés, il est en général conseillé de ne pas leur prêter attention et surtout de ne pas renchérir – selon l’adage classique « don’t feed the troll » (« ne pas nourrir le troll »). Le respect de cette recommandation ne suffit cependant pas à endiguer leur présence.
L’essentiel de l’action des trolls est le fait d’utilisateurs humains, qui vitupèrent de diverses manières sur les différentes plateformes auxquelles ils ont accès. Certains agissent à titre individuel, tandis que d’autres appartiennent à des organisations coordonnant leur action. On parle alors de « ferme à trolls » ou d’« usine à trolls »50. Mais ce comportement provocateur et offensant est aussi le fait de trollbots, c’est-à-dire d’agents programmés conçus pour se comporter comme des trolls humains. En publiant automatiquement des contenus provocateurs, offensants ou trompeurs, ces acteurs viennent également perturber les communautés en ligne en propageant de fausses informations. Le conflit russo-ukrainien à partir de 2022 a par exemple donné lieu à la publication de centaines de milliers de messages par des trollbots sur des réseaux sociaux tels que X (ex-Twitter), TikTok ou Instagram, véhiculant de fausses informations sur les victimes civiles en Ukraine ou moquant l’action des alliés de Kiev. En raison de son caractère automatisé, leur action est peu subtile et, par conséquent, assez vite repérable. Hybrides malfaisants, ces trollbots croisent au fond la logique du virus, comme entité programmée, et celle de l’action humaine propre aux trolls.
Comme leurs homologues mythologiques ou issus de la fantasy, les trolls et trollbots d’Internet exercent une action perturbatrice. Cependant, alors que les trolls des contes et légendes étaient des figures de l’altérité et du danger physique, les trolls numériques agissent à une échelle psychologique et selon un mode opératoire beaucoup plus ciblé. Leur évolution au sein même de ce monde numérique depuis une trentaine d’années témoigne en outre de leur aptitude à perpétuellement s’adapter à leur environnement. Ils ont ainsi délaissé leur rôle de perturbateurs plus ou moins inoffensifs pour endosser un rôle politique, explicitement malintentionné et instrumentalisé par des acteurs plus organisés.
Terminons cette ménagerie malfaisante avec une entité diamétralement opposée au troll, puisque non opérée par un être humain : le « bug » (« bogue » en français), qui désigne quant à lui moins un être qu’un aléa. Occurrence ordinaire de nos interactions avec les machines, se manifestant généralement par des messages d’erreur et autres avertissements, il correspond à un défaut dans un programme ou un système informatique qui engendre un comportement inattendu ou incorrect. Ses effets peuvent être bénins comme très problématiques : blocage momentané des fonctionnalités du programme, plantage complet, perte de données. Ils occasionnent parfois des incidents majeurs tels que des accidents industriels ou des catastrophes aérospatiales. Or, contrairement aux virus et aux trolls intentionnellement malveillants, les bugs ne relèvent en général pas d’une action délibérée. Leurs causes sont en effet multiples, de l’erreur de programmation aux problèmes de conception en passant par des dysfonctionnements matériels.
De la même manière que les virus ont leur antivirus, les bugs nécessitent une action corrective, appelée « debugging » (« débogage » en français). Il s’agit là d’une étape majeure du processus de développement des logiciels, qui consiste à détecter, documenter dans des « bug reports » et corriger ces problèmes. Le terme « bug », qui personnalise ces aléas en les inscrivant dans une entité évoquant un animal, a plusieurs origines possibles.
En analysant son étymologie, le philosophe Marcello Vitali-Rosati évoque une première hypothèse : l’expression dériverait d’abord du gallois bwg, qui fait référence aux créatures fabuleuses de type spectres et hobgoblins, « dont les attributs principaux sont le fait d’être invisibles et terrifiants51 ». Puis elle aurait été associée au sens du mot tel qu’on le connaît aujourd’hui en anglais : celui de la punaise de lit, c’est-à-dire un petit insecte repoussant et difficilement visible, qui correspond à la vermine des bestiaires médiévaux. Sa présence n’apparaîtrait aux humains qu’en cas de piqûre, en général lorsqu’ils dorment, pendant la nuit, à la manière d’un spectre. Vitali-Rosati souligne enfin que le recours au terme de « bug » pour désigner un problème technique matériel semble apparaître dès 1875, sans que l’on sache bien si cette métaphore provient du sens spectral ou est liée aux insectes. Comme il l’explique, l’histoire de l’informatique semble accréditer la seconde explication : un récit communément partagé par les informaticiens rapporte qu’en 1947, une panne majeure de l’ordinateur Harvard Mark II aurait été causée par un papillon de nuit coincé dans ses circuits. Cet incident aurait incité à utiliser ce terme pour désigner les multiples dysfonctionnements de ces machines. Mais l’histoire est trop belle pour être vraie. Des historiens soulignent en effet que l’on trouve déjà ce type de terminologie insectoïde chez des inventeurs tels que Thomas Edison52. La référence avérée ou non au papillon importe néanmoins assez peu. Et il faut sans doute retenir, comme le fait Vitali-Rosati, que l’emploi du mot « bug » attribue la cause du problème à une entité invisible : « Le spectre produit des situations qui ne sont pas supposées arriver et dont la cause ne semble pas être un agent visible. La machine – mécanique ou électronique – fait quelque chose qu’elle ne doit pas faire ; cela signifie qu’un autre agent – qui n’est pas la machine ou son concepteur – a déterminé, de façon intentionnelle, le comportement53 ». Cette attribution d’intentionnalité, malgré son caractère erroné, fait finalement écho aux autres récits plus ou moins véridiques que nous avons rencontrés dans le cas des fantômes numériques et des virus, soulignant encore une fois la dimension légendaire de certaines de ces entités.
Le « bug de l’an 2000 » (Y2K Bug) est à cet égard le cas le plus célèbre de l’informatique contemporaine, à la fois par son ampleur médiatique et par les préparatifs auxquels il a donné lieu. À la différence des aléas apparaissant par surprise (tel le bug du logiciel Crowdstrike du 19 juillet 2024, rencontré lors de la rédaction de ce livre), celui-ci avait été identifié en amont et avait donné lieu à de multiples investissements pour éviter son avènement. Le bug de l’an 2000 était lié au mode de gestion des dates dans les ordinateurs. En effet, de nombreux systèmes informatiques utilisaient uniquement deux chiffres pour représenter les années (par exemple, « 99 » pour « 1999 »). Au milieu des années 1990, certains experts tirèrent la sonnette d’alarme concernant les écueils liés au passage à l’année 2000, car ces systèmes risquaient d’interpréter le « 00 » comme 1900 au lieu de 2000, source d’erreurs importantes dans les calculs de dates et dans le fonctionnement des logiciels. À mesure que des audits étaient réalisés pour tester les conséquences possibles de cette erreur, les informaticiens ont pris conscience de la vulnérabilité de certains secteurs d’activité tels que la finance, l’énergie ou les transports. Cette prise de conscience, relayée massivement à l’époque par les médias, a conduit à la mise en place de correctifs et de mises à jour à travers le monde, et, in fine, a permis de minimiser l’impact de ce bug.
Cette période pré-an 2000 a ainsi donné lieu à une profusion non seulement d’avertissements, de formations professionnelles, de rapports techniques et de procédures, mais également de toute une littérature catastrophiste, voire eschatologique, à propos de l’« évènement ». La concomitance de ce problème technique et du changement de siècle (qui a en fait eu lieu en 2001) a de toute évidence revitalisé des craintes millénaristes qui anticipaient depuis des siècles une transformation fondamentale de la société à cette date. Nourris par une interprétation littérale ou dévoyée de l’Apocalypse, des ouvrages tels que Time Bomb 2000 et Millennium Meltdown : Spiritual and Practical Strategies to Survive Y2K proposaient à cet égard un éventail de conseils bien loin des enjeux effectifs du bug et qui soulignaient sa dimension éminemment symbolique54.
Pour ceux qui ont défendu les préparatifs contre le bug, cette mobilisation mondiale massive était justifiée, car elle a permis de moderniser les systèmes informatiques et d’éviter des perturbations majeures. Dans le même temps, l’absence d’incidents significatifs a renforcé le scepticisme chez ceux qui doutaient de la gravité du problème. Cette situation a entraîné pléthores de critiques à propos du rôle des médias et des experts, accusés d’avoir exagéré la menace (« Y2K scare »). Elle a également fragilisé la confiance accordée aux alertes ultérieures, que ce soit à propos des technologies ou de problèmes mondiaux tels que la pandémie de la Covid-19. Malgré tout, cette crise a stimulé l’industrie technologique, laissant en héritage des systèmes plus robustes et sécurisés55. Comme l’a titré le Time Magazine il y a quelques années « 20 ans plus tard, le bogue de l’an 2000 semble être une blague – parce que ceux qui étaient en coulisses l’ont pris au sérieux56 ».
Chevaux de Troie, virus, vers, botnets, trolls, trollbots, bugs… La liste des menaces décrites dans ce chapitre illustre au fond l’explosion du nombre des entités numériques malfaisantes, ainsi que leur diversité. Parfois masques dissimulant un utilisateur humain (troll), parfois entités programmées (chevaux de Troie, virus, trollbots), parfois incidents imprévisibles, elles correspondent aux différents degrés d’autonomie et de contrôle des personnes qui les mobilisent. Elles montrent également à leur manière la diversité des désagréments courants dans les mondes numériques et nous interpellent quant aux multiples frayeurs qu’elles suscitent. Mais il y a plus. Que l’on parle de virus plus ou moins pernicieux, de « trolls russes » ou de bugs dont le danger est difficile à qualifier, chacun de ces cas révèle un hiatus entre la menace avérée et l’intensité des récits à leur propos. Car ceux-ci les amplifient, les entretiennent, voire les exagèrent, en les arrimant à des considérations eschatologiques (bug de l’an 2000), en surfocalisant parfois sur certains (trolls russes), ou en négligeant le fait que d’autres sont des canulars. Sans diminuer l’importance de toutes ces menaces, il semble néanmoins important de constater que la difficulté à comprendre et expliquer le mode opératoire de toute cette ménagerie ainsi que le degré de sophistication technique générale dans lequel elles opèrent contribuent à les nimber d’une aura légendaire. Par le fait de leur donner chacune un nom et de raconter leur action en la transposant depuis un registre technique plus ou moins maîtrisé, nous donnons corps à ce qui, hormis les trolls, ne constitue que de simples programmes ou incidents techniques. Nous leur prêtons alors une sorte d’autonomie sans doute renforcée par les récits exagérés à leur propos, destinés à mieux capter et retenir l’intérêt de lecteurs potentiels, sans aucune garantie quant à la fiabilité des informations proposées57. C’est ce phénomène qui leur donne un mode d’existence singulier, celui de fléau aux conséquences floues et au fonctionnement mystérieux, entre fantasmes de catastrophes et conséquences bien tangibles.
Les histoires de malfaisants reformulent ce faisant les avertissements des récits édifiants (cautionary tales) des contes et légendes. Ils le font en en transposant non seulement certaines entités fabuleuses, mais également les leçons de morale traditionnelles dans cet environnement en ligne. Ces récits abordent les nouveaux dangers et défis de l’ère numérique, et sont peuplés d’une multitude de nouveaux êtres, parfois liés aux précédents (trolls), parfois inédits (botnets, trollbots), avec en toile de fond des mécanismes d’amplification virale qui favorisent l’exagération et la simplification typiques de notre économie médiatique actuelle.
IV.
COMPAGNONS D’INTERACTION
Sur l’écran de sa console Nintendo Switch, A. me montre plusieurs captures d’écran d’une fête organisée pour elle dans le jeu Animal Crossing New Horizons. Sur l’une des images, on peut voir un personnage au pelage blond à tête de chien assis à une sorte de bureau. « C’est Marie », annonce A. en désignant également du doigt un message dans une bulle qui annonce qu’Akane – le nom de la créature jouée par A. – « fête son anniversaire aujourd’hui même ». Une autre photo montre un intérieur de maison cartoonesque décoré de ballons et de banderoles, au centre duquel trône une table avec un gros gâteau de type pièce montée, muni de quelques bougies et entouré de plusieurs gobelets colorés. Ici et là, trois petits bonshommes à l’allure forestière et simiesque semblent crier « Joyeux Anniversaire » avec emphase (le message est écrit en lettres majuscules). A. m’explique que ces personnages en tenue festive sont des villageois de l’île sur laquelle le jeu se déroule, que ces trois-là sont ceux avec qui elle « discute » le plus, qu’ils sont « joués par la console » et donc que « c’est pas des vrais, mais ils disent des trucs marrants ». Et ce, à la différence de deux sauriens contrôlés par de « vrais amis », représentés sur une autre image devant la maison, les bras chargés de paquets cadeaux, dans ce qui semble être le prolongement extérieur de la fête. Ces deux reptiles ont simplement rejoint Akane depuis chez eux, via leur console. Sur une quatrième capture d’écran, une piñata rose pend du plafond, tandis que le personnage joué par A. tente de la faire exploser, encouragé par l’équipe d’êtres zoomorphes (« C’est parti ! », « Éclate-moi ça ! », « Go, Akane ! »). La suivante montre Akane en train de distribuer des cupcakes issus de la piñata aux autres protagonistes du jeu. Une dernière image présente un tableau d’affichage comportant plusieurs messages écrits et dessinés. A. les a pris en photo « parce que ça disparaît après ».
Quand je lui demande ce qu’elle entend par « discuter » avec les bonshommes d’Animal Crossing, A. rallume la Switch, lance le jeu, me montre la carte de l’île, puis entre dans une boutique où elle amorce une conversation avec une dénommée Coco. A. pointe du doigt une petite bulle qui apparaît au bas de l’écran (« J’ai un peu de mal à essayer des vêtements devant les autres, touloulou. »), ainsi qu’une autre, à la droite de la précédente, qui propose trois options : « Parle-moi d’un truc ! », « Voilà pour toi ! » et « À plus tard ! ». Les options sont basiques, mais A. me dit que cela suffit. « On discute de poissons, d’insectes qu’on trouve, parfois quelqu’un me demande un médicament ou d’aller lui retrouver un truc qu’il a perdu. Il y a même des annonces de chasse au trésor. Mais le plus souvent, c’est juste blabli blabla, ça raconte pas grand-chose, ils me disent des trucs. » Ces échanges se passent plutôt spontanément, puisque certains habitants « rentrent chez [elle] sans prévenir ». A. se fait d’ailleurs parfois interpeller en se baladant sur l’île (« mais pas trop sur la plage »). Elle précise aussi qu’au début, elle ne « parlait » à personne, mais une amie lui avait dit qu’interagir de temps en temps avec les habitants « débloquait des choses dans le jeu », et puis que « c’était parfois rigolo de prendre des nouvelles », de découvrir des surprises. Le fil de la discussion conduit A. à conclure en souriant : « Quand on y joue quasiment tous les jours, on les voit évoluer, c’est drôle, même s’ils ont parfois l’air un peu bêtas et disent souvent les mêmes trucs. »
Que nous dit cette rencontre avec une joueuse d’Animal Crossing ? D’abord l’importance de ces petits bonshommes-logiciel, compagnons du quotidien certes mineurs, mais avec lesquels une sorte de relation se noue au fil du temps. S’il est plus ou moins possible de jouer sans interagir avec eux, leur présence rend le jeu plus amusant. Le degré d’autonomie des personnages mentionnés par A. est aussi un fait remarquable. Les uns, en majorité dans la scène décrite ici, sont contrôlés par la machine. Leur apparence, que l’on nomme avatar dans le jargon du jeu vidéo, est prédéfinie : les phrases qu’ils prononcent suivent en effet une sorte de script programmé. Dans le même sabir, on dit que ce sont des « personnages non joueurs » (PNJ)1. Parmi les autres créatures mentionnées par A., les deux personnages venus pour son anniversaire sont quant à eux joués à distance par des amis. Leurs avatars ressemblent certes à ceux des autres, mais ils n’ont pas été choisis par l’ordinateur. Leur comportement est plus spontané et abouti, puisqu’ils peuvent communiquer avec un canal vocal en plus de l’échange de messages textuels. Les commentaires de A. et la façon dont elle montre l’interface d’Animal Crossing témoignent enfin des multiples manières de simuler à l’écran des interactions humaines langagières verbales ou non verbales avec les PNJ : mouvements corporels, marques de ponctuation qui apparaissent au-dessus de la tête des personnages, fenêtres de dialogue, etc. Malgré le caractère répétitif et parfois limité des réponses proposées – on parle en informatique d’interface structurée pour désigner ce type de propositions de dialogue –, les joueurs développent une forme de relation avec ces petits êtres.
Du reste, ces échanges reproduisent de manière simulée quelques-unes des fonctions langagières propres aux interactions verbales2 : l’expression de sentiments, avec des compliments adressés au personnage (fonction expressive), invitation à réaliser certaines actions (fonction conative). On rencontre également ce que les linguistes nomment la fonction phatique du langage, celle qui vise, dans le parler de tous les jours, avec ses « ça va ? » et ses « tu vois », à établir une communication entre les parties prenantes d’un dialogue sans qu’un véritable message soit transmis. Beaucoup d’échanges semblent en effet servir à prendre des nouvelles et à relancer la relation entre A. et les protagonistes de l’île. Par ailleurs, l’existence de formes de don/contre-don, par l’échange de cadeaux d’anniversaire et de cupcakes, est aussi un semblant d’interaction commune aux humains et aux personnages de jeu vidéo. A. n’est toutefois pas dupe : elle rit du côté répétitif des personnages, du peu de choix disponibles dans les réponses et du fait qu’ils sont très différents de ceux incarnés par ses amis humains. Comme elle le souligne, ces PNJ suscitent bel et bien une forme de sociabilité curieuse et par moments « utile », mais elle est limitée.
Une double généalogie
Cet exemple d’interaction témoigne d’un nouveau type d’entités apparues depuis une quarantaine d’années : les compagnons numériques, avec lesquels les utilisateurs d’ordinateurs, consoles et smartphones passent du temps et entretiennent des liens. Parfois zoomorphes, comme dans le cas présent, parfois anthropomorphes, parfois plus hybrides encore, ces personnages de jeu vidéo, et en particulier les PNJ, nous ont progressivement habitués à interagir avec eux. Ce faisant, ils nous ont familiarisés avec ces autres compagnons que sont les agents conversationnels présents sur les smartphones et les chatbots rencontrés sur les sites Web ou sur les réseaux sociaux3.
Ni humains, ni animaux, ni personnages de romans ou de films (même s’ils peuvent parfois en dériver), ces différents compagnons numériques ont une existence à part dans le répertoire d’entités avec lesquelles nous interagissons au quotidien. Ils n’en sont pas moins proches des êtres vivants du fait des trois caractéristiques illustrées par cet exemple introductif. Ces compagnons possèdent tout d’abord une apparence qui se décline soit textuellement (chatbots), soit visuellement en deux ou trois dimensions sous la forme d’un avatar, avec une résolution qui va du rudimentaire (quelques pixels4) au photoréaliste. Ils sont par ailleurs plus ou moins animés, aptes par exemple à se mouvoir ou à réaliser des actions (se déplacer, gesticuler, combattre) qui ont des conséquences sur le monde. Cette capacité à agir – dans un milieu certes virtuel – leur donne une capacité minimale d’autonomie. Le fait qu’ils puissent échanger verbalement de manière plus ou moins élaborée est un autre aspect fondamental. Certes, les discussions menées avec les personnages d’Animal Crossing sont frustes, mais les choses sont en train de changer, comme nous le montrent les dernières versions de ChatGPT ou les prototypes de jeux vidéo plus élaborés, tels ceux que proposent Replica Studios ou Inworld AI. La combinaison de ces trois qualités produit un « effet de personne ». Ce terme employé dans les études littéraires et théâtrales désigne la capacité d’un récit, d’un texte ou d’une représentation à créer une impression plus ou moins affirmée de présence auprès du lecteur5. Comme l’a montré l’anthropologie depuis plusieurs décennies, cet effet concerne également les processus par lesquels des objets, des animaux, des végétaux, des images, des minéraux, des ombres se trouvent dotés de telles propriétés de présence, d’animation et d’autonomie6.
Comment comprendre cet effet de personne et son avènement dans notre panoplie numérique ? D’où viennent ces manières de penser et de concevoir de tels êtres ? Et, au fond, que sont ces compagnons avec lesquels nous partageons une forme de sociabilité ? Hormis l’héritage de la tradition narratologique, qui affirme l’importance des personnages dans la littérature, deux avancées conceptuelles majeures ont rendu possible le principe même de compagnons numériques. Il a d’abord fallu faire advenir des objets techniques munis d’un certain degré d’animation et d’autonomie – une possibilité née avec l’apparition des automates dès l’Antiquité. Puis, beaucoup plus tard, que se concrétise l’idée de donner vie à des personnages au sein des descendants de ces machines, à la façon des protagonistes de fiction, et de les faire parler. Ces deux lignées (automates et personnages de jeux vidéo) se déroulent en parallèle et s’entrecroisent pour aboutir à ces nouveaux partenaires d’interaction que sont les agents conversationnels et les PNJ. Attardons-nous sur ces deux trajectoires et sur la manière dont elles embarquent de multiples traits mythologiques.
Automates merveilleux
Parmi la multitude de choses qui constituent les cultures matérielles humaines, il est une catégorie qui occupe une place à part dès l’Antiquité : les automates. Cette classe d’objets se distingue des artefacts statiques que sont les outils ou les objets décoratifs par leur capacité à effectuer des actions ou des mouvements de manière autonome, c’est-à-dire sans intervention directe une fois qu’ils ont été activés. Le terme « automate » vient du grec « αὐτόματον » (automatos), qui signifie « qui bouge par lui-même ». Historiquement créés pour imiter des êtres vivants (humains ou animaux), ces dispositifs sont composés de mécanismes internes complexes, d’abord hydrauliques ou mécaniques (engrenages, poulies, leviers, tuyaux, systèmes de poids et contrepoids), qui leur permettent de réaliser des mouvements. Les automates antiques furent ainsi conçus pour reproduire certaines actions propres à des corps animés. C’est le cas, par exemple, au IIIe siècle avant notre ère, des automates de Philon de Byzance, telle la Servante automatique. Cette machine humanoïde pouvait verser du vin et de l’eau automatiquement lorsqu’on plaçait une coupe dans sa main gauche, grâce à un système de vases communicants et de siphons. Autre cas notable, les horloges hydrauliques de Ctésibios utilisaient l’eau pour mesurer le temps et donner l’heure au moyen de figurines animées. Au Ier siècle avant J.-C., le théâtre automatique de Héron d’Alexandrie proposait aussi un petit théâtre mécanique dans lequel des marionnettes se déplaçaient automatiquement pour raconter des histoires, utilisant des poids et des contrepoids pour animer les scènes7.
Cette production d’automates se poursuivra au cours des siècles suivants, en particulier chez les érudits du Moyen-Orient, qui perfectionneront les idées des Grecs anciens. On pense notamment aux inventions d’Al-Jazari, au XIIe siècle, telle l’« horloge à éléphant », une horloge munie de flotteurs et de contrepoids qui permettaient d’indiquer l’heure par le truchement de figurines animées, à son lave-mains automatique décoré de figurines d’oiseaux et de serviteurs humanoïdes, qui distribuait de l’eau et du savon grâce à un système de chasse d’eau, ou encore à son distributeur de boissons à l’allure de serveuse mécanique sur roulettes sortant d’une petite armoire pour donner un verre rempli de liquide tiré d’une jarre située au-dessus du meuble8. Dans le monde occidental européen du Moyen Âge, la production d’automates connaît en revanche un changement de trajectoire : les concepteurs s’intéressent plus spécifiquement aux appareils mécaniques figurant des êtres animés, capables de simuler les mouvements d’animaux ou de personnes. C’est le cas des jacquemarts, ces personnages de bois et de métal qui ornent les horloges mécaniques et qui reproduisent les gestes d’un sonneur de cloches, des coqs mécanisés sur les églises, notamment en France, dont le chant annonce le passage des heures, ou encore des effigies du Christ comme le Rood of Grace, un crucifix orné capable d’effectuer des mouvements de la tête et, entre autres expressions faciales, de produire des larmes9. C’est depuis cette période qu’un automate désigne plus spécifiquement un personnage androïde tel qu’il en existe depuis l’Antiquité égyptienne.
Tout autant curiosités que jouets ou artefacts utiles au quotidien, ces objets automates ont à toutes les époques revêtu un caractère merveilleux, suscitant étonnement, admiration ou crainte, comme le souligne l’historien Vincent Deluz10. Ce mélange d’attrait et de répulsion pour l’étrange est d’autant plus fort que ces objets ont pour partie été associés à une esthétique du spectaculaire et de l’illusion, à la fois dans la mise en scène théâtrale de leur fonctionnement mystérieux et dans les récits qui leur ont été consacrés11. Vincent Deluz souligne à cet égard l’émerveillement de plusieurs monarques divers – Gondebaud en 507, Charlemagne en 807 – devant des automates horloges à eau offerts par des diplomates orientaux. Reflétant le monde social dans lequel ils ont été créés et inspirés de descriptions présentes dans les textes antiques (retranscrits et complétés par les savants islamiques), ces automates introduisent l’idée de machine autonome, qui ne fera que se renforcer par la suite. L’effort se poursuit à la Renaissance, avec notamment la simulation de créatures humaines ou animales. On pense aux créations de Léonard de Vinci, au XVe siècle : son chevalier mécanique, un humanoïde capable de se lever, d’agiter les bras et de bouger la tête et la mâchoire, est un précurseur des robots à venir. Comme le sera quelques décennies plus tard son lion mécanique, créé à la demande du pape Léon X, capable de marcher sur quelques mètres et de déverser des fleurs de lys aux pieds du roi François Ier12. Mais l’âge d’or des automates est très certainement le XVIIIe siècle, avec ces personnages que sont L’Écrivain, La Musicienne et Le Dessinateur, réalisés par les horlogers neuchâtelois Pierre Jaquet-Droz, son fils Henri-Louis et leur collègue Jean-Frédéric Leschot. Conçues pour impressionner les cours royales européennes et démontrer le savoir-faire technique de leurs créateurs, ces figures humanoïdes et leurs multiples répliques pouvaient être « programmées ». Autrement dit, leur comportement – écrire un texte, jouer un morceau de musique, dessiner – était prédéfini au moyen de cylindres interchangeables. L’Écrivain, pour prendre l’exemple le plus frappant, était un automate composé de pas moins de 6 000 pièces, dont 4 000 pour la partie « programmable », qui lui permettaient, en manipulant une plume d’oie préalablement trempée dans un encrier, d’écrire un texte de 40 signes répartis sur quatre lignes. Le poète surréaliste Benjamin Péret faisait d’ailleurs remarquer à ce propos que L’Écrivain écrivait inlassablement le même mot – « Merveilleux » – comme par une mise en abyme curieuse de son statut d’entité remarquable13.
Cet intérêt pour la simulation d’êtres vivants débouche sur la création d’entités automatisées animales tout aussi singulières. Le Canard digérateur de Jacques Vaucanson – inventeur grenoblois qualifié par Voltaire de « rival de Prométhée » – en est certainement le plus fameux exemple. Il s’agit d’un oiseau mécanique de cuivre doré conçu pour imiter et effectuer des mouvements réalistes : agiter sa queue et ses ailes, lever la tête et regarder autour de lui, avancer son bec pour saisir de la nourriture, pousser des cris proches de ceux d’un canard, mais surtout manger et digérer du grain. C’est d’ailleurs cette aptitude spécifique qui en fit un automate marquant : grâce à la transparence de son abdomen, les spectateurs pouvaient observer le processus de digestion qui imitait, depuis l’ingestion jusqu’à l’expulsion d’une bouillie verte, les fonctions biologiques de son double vivant14. Ces « merveilles artificielles » reposaient sur la propension de leurs concepteurs à imiter la nature et à mettre en scène leurs créations par des effets d’artifices et d’illusions impressionnants pour le public. À la fois objet démonstrateur de la sophistication et des prouesses techniques de l’époque et vecteur d’une pensée philosophique mécaniste qui envisageait les êtres vivants comme des machines régies par les lois de la physique, ils suscitèrent curiosité, étonnement et fascination dans les cours royales et les expositions dans lesquelles ils furent montrés. Il faudrait rajouter à cette série d’exemples le célèbre Turc mécanique de Johann Wolfgang von Kempelen (1770), un prétendu automate doté de la faculté de jouer aux échecs. Exposé dans différentes cours européennes, l’automate, à l’apparence d’un mannequin muni d’un turban assis derrière un meuble d’érable, semblait capable de défier un adversaire humain. Sa capacité à jouer provenait en fait de l’habileté d’un homme de petite taille glissé dans un compartiment secret et capable de manipuler le mannequin, tel un marionnettiste.
La réputation de ces automates était à la mesure de leur rareté et de leur sophistication. De l’Antiquité à l’époque moderne en passant par le Moyen Âge, ces créations techniques revêtaient un caractère enchanteur et magique du fait de leur action autonome, renforcé par les situations de démonstration dans lesquelles elles étaient présentées. Celles-ci avaient pour effet de magnifier le pouvoir singulier des créateurs de ces machines, capables d’animer des objets sans que les spectateurs puissent en saisir le fonctionnement15. Lors de leurs apparitions dans des fêtes publiques, des foires ou à la cour, ingénieurs et artisans orchestraient ainsi leur présentation en alternant entre registre explicatif, à propos des mécanismes complexes à l’œuvre dans ces machines, et recours à des récits ou des légendes destinés à leur conférer une aura mystérieuse. Détenteurs d’un savoir technique, mécanique et physique qu’ils combinaient à leur talent oratoire, les maîtres de ces dispositifs techniques comptaient au moins autant que les machines elles-mêmes.
En quoi ces automates sont-ils importants pour comprendre les compagnons numériques ? Bien qu’ils aient peu en commun du point de vue de leur fonctionnement technique et de leur apparence, ils peuvent en être considérés, à plusieurs égards, comme les précurseurs. D’abord par leur manière d’exprimer une présence humaine ou animale. Leurs créateurs cherchaient en effet à donner à ces machines une illusion de vie, comme plus tard les concepteurs de personnages de jeux vidéo ou de chatbots. Deuxième élément, l’utilisation de systèmes mécaniques, puis électriques, implique l’idée de programmation, c’est-à-dire d’exécution de séquences d’actions prédéfinies – voilà qui prépare les esprits au système d’instructions codées qui sont au cœur du fonctionnement des ordinateurs, et donc à l’idée que le comportement de ces compagnons peut être « programmable ». Rudimentaires par rapport à ceux de l’époque actuelle, les moyens alors à disposition permettaient néanmoins l’avènement de formes inédites d’interactions humain/machine. Certains automates pouvaient en effet répondre à des stimuli externes (digérer des aliments) ou exécuter des tâches spécifiques (servir de l’eau, rédiger un texte), ce qui préfigure là encore l’interactivité des ordinateurs et des jeux vidéo modernes. Enfin, en utilisant des mécanismes de rétroaction très simples pour réguler leurs mouvements, tels que des systèmes de contrepoids ou de ressorts, la conception de ces automates anticipe les modes opératoires à venir : par exemple, la logique d’interactivité, c’est-à-dire l’idée que les machines ne sont pas de simples dispositifs passifs, mais qu’elles peuvent « participer » activement à un processus dynamique d’échange d’informations et d’action typiquement utilisé dans les systèmes informatiques et les mécanismes de contrôle des personnages de jeux vidéo16. L’interactivité implique que le comportement des machines évolue en fonction de changements se produisant dans leur environnement ou induits par l’action d’un utilisateur, qu’il s’agisse d’un être humain remontant le ressort d’un automate ou d’un joueur frappant un personnage de jeu vidéo ou entrant en conversation avec un agent conversationnel (chatbot).
Ces trois caractéristiques de simulation du vivant ont nourri l’avènement de l’idée visionnaire de « traitement de l’information » qui se trouve au cœur de l’informatique contemporaine. L’évolution des automates a en effet progressivement introduit les bases conceptuelles débattues dans un nouveau mouvement scientifique né au milieu du XXe siècle aux États-Unis, la cybernétique. Popularisé par le mathématicien et philosophe américain Norbert Wiener en 1948, ce terme désigne à la fois la communauté de recherche et le champ interdisciplinaire qui cherchait à comprendre comment les systèmes vivants ou artificiels pouvaient être conçus, analysés et contrôlés17. La cybernétique s’intéressait à l’étude des moyens dont les animaux, les automates ou les organisations recueillent, produisent, manipulent, stockent des données ou des signaux pour agir, communiquer ou adopter un comportement spécifique. Elle entendait produire une théorie unifiée pour exprimer ces phénomènes. C’est ainsi que la notion d’« information » a été proposée pour expliquer le fonctionnement sous-jacent de ces comportements, pensés comme des échanges de signaux18.
Au-delà de cette visée descriptive, les cybernéticiens se sont attelés à échafauder divers modèles théoriques et de multiples prototypes afin, par exemple, de décrire différents phénomènes (calculs statistiques à partir de données démographiques ou économiques), de les anticiper (calcul balistique dans un contexte militaire) ou d’étudier comment contrôler des machines19. Il fallait pour cela trouver un moyen d’exprimer conceptuellement une structure mathématique composée d’un ensemble de règles déterminant les états et les transitions d’un processus de traitement de l’information20. Les automates ont alors servi de modèles permettant de se représenter une succession d’étapes pouvant être réalisées de manière autonome et prédéfinie par un opérateur humain.
Comme dans le cas des daemons du premier chapitre, nous avons ici affaire à une entité du merveilleux antique et médiéval qui a perduré jusqu’à notre époque. La notion d’automate, à la fois objet de science et de fascination, a en effet évolué pour désigner la capacité des machines à exécuter automatiquement des tâches, d’abord de manière abstraite, puis concrète. Un exemple marquant est la « machine de Turing », du nom de son créateur, le mathématicien britannique Alan Turing. Ancêtre conceptuel de nos ordinateurs modernes, une machine de Turing est un modèle théorique de calcul. On peut se la représenter comme une longue bande de papier qui s’étend à l’infini, un peu comme un ruban de caisse enregistreuse. Cette bande est divisée en petites cases, chacune d’elles contenant soit un 0, soit un 1. Une petite tête, à la manière d’un crayon, qui se déplace sur cette bande peut lire ce qui est inscrit dans chaque case, écrire un nouveau chiffre (0 ou 1), et ensuite se déplacer à gauche ou à droite sur la bande. La machine suit des règles très simples qui lui disent quoi faire en fonction de ce qu’elle lit. Par exemple, si elle lit un 0, elle peut avoir une règle qui lui dit d’écrire un 1 à la place et de se déplacer à droite. Avec ces simples actions – lire, écrire et se déplacer –, la machine de Turing est capable de résoudre des problèmes très compliqués. Pionnier de l’informatique, Turing a non seulement imaginé ces machines sans les faire advenir physiquement, mais aussi démontré mathématiquement leur capacité à accomplir des tâches complexes en simulant manuellement les calculs nécessaires pour jouer aux échecs21.
C’est à la même époque que le mathématicien étasunien d’origine hongroise John von Neumann s’appuie sur l’évolution des automates pour imaginer un autre type d’entités abstraites fondamentales dans l’histoire de l’informatique. Il imagine en effet la possibilité de créer des automates dits « cellulaires », dotés de cette fascinante capacité des cellules vivantes à s’autorépliquer, c’est-à-dire à créer des copies d’elles-mêmes. Un automate cellulaire est un modèle mathématique constitué d’une grille, dans laquelle chaque case peut se trouver dans un certain nombre d’états. L’état de ces cellules évolue au fil du temps en fonction d’un ensemble de règles locales simples, qui tiennent compte de l’état actuel de la cellule et de celui de ses voisines. Cette proposition de von Neumann permet de montrer comment des systèmes simples peuvent donner lieu à des comportements complexes, un concept fondamental en informatique et en biologie. C’est ce à quoi s’emploiera le mathématicien John Conway au début des années 1970 pour concevoir le Game of Life (Jeu de la vie), un dispositif de simulation s’inspirant du travail de von Neumann. Anticipant la notion d’avatar, ou de cette espèce de forme de vie artificielle animée aujourd’hui commune dans les jeux vidéo, le Game of Life est un jeu contemplatif, puisqu’il ne requiert aucune action spécifique autre que son déclenchement. La simulation se déroule sur une grille à deux dimensions apparaissant à l’écran de l’ordinateur (à défaut, sur une feuille en papier). Chaque case, nommée « cellule » par analogie avec les cellules vivantes, peut adopter deux états : « vivante » ou « morte » (allumée ou éteinte sur la grille). Ces cellules évoluent par tour selon des règles précises basées sur l’état de leurs voisines : (1) une cellule morte avec exactement 3 voisines vivantes devient vivante (2) une cellule vivante avec 2 ou 3 voisines vivantes reste vivante, sinon elle meurt. En montrant l’évolution de ces cellules à partir d’une configuration de départ, le Game of Life illustre comment des règles simples peuvent faire émerger toute une typologie de formes (cf. Figure 1).
Affublés de noms tels que « bloc », « tub », « mare », « nid d’abeilles », « glisseur », « lance-glisseur », « pulsar », etc., les très nombreux motifs ainsi produits font depuis plusieurs décennies l’objet de travaux en mathématiques et en informatique théorique tout en mobilisant l’intérêt du grand public. En suscitant des interrogations non seulement sur la nature et le comportement de ces motifs, mais aussi sur le caractère évocateur de leurs mouvements et transformations, le Game of Life et ses petites créatures perpétuent à leur manière les affects du merveilleux inséparables de l’histoire des automates. Bien qu’il n’y ait pas de lien direct entre les entités du Jeu de la vie et les personnages de jeux vidéo, on peut par ailleurs toutefois considérer que le jeu de John Conway a contribué à l’évolution de la pensée en matière de systèmes complexes et de vie artificielle, ce qui a indirectement influencé le développement des jeux vidéo de type simulateurs de vie (The Sims, Animal Crossing) ainsi que le comportement émergent et génératif de créatures artificielles (Creatures, Spore, No Man’s Sky).
Figure 1 : Évolution des motifs du Jeu de la vie après trois générations.
Avatars, sprites et incarnations
Depuis toujours, les jeux proposent une simulation d’un système physique. Plateaux de dame ou jeux de société sont munis de cases et de trajectoires correspondant à toutes sortes de situations et de contextes. Les parties consistent à suivre des règles pour atteindre divers buts en déplaçant des pions, qui figurent, eux, des personnes ou des entités diverses. Les concepteurs de jeux d’arcade, sur console de salon puis sur ordinateur, ont transposé cette logique dans leurs créations. Ils ont dû pour cela se demander comment représenter le monde et les protagonistes à l’écran. Dans Spacewar !, par exemple, créé en 1962, deux joueurs s’affrontent l’un l’autre en contrôlant chacun un vaisseau dessiné de lignes blanches dans un combat spatial dont l’arrière-plan est un espace en deux dimensions représentant un fond étoilé. Chaque vaisseau, équivalent des pions des jeux antérieurs, est alors déplacé par l’intermédiaire d’une interface, en l’occurrence ici des interrupteurs. Spacewar !, qui compte parmi les tout premiers jeux vidéo, introduit l’idée de ce que l’on appellera plus tard l’« avatar » : une entité apparaissant à l’écran qui personnifie graphiquement le joueur dans l’univers fictionnel22.
Si les jeux ont des pions (jeux de société) ou des feuilles de personnage (jeux de rôle), les jeux vidéo proposent aux joueurs d’incarner une grande diversité d’entités : vaisseaux spatiaux, automobiles, personnages à l’apparence humaine, animale ou monstrueuse, etc. Certains sont contrôlés par les joueurs humains, d’autres par un programme – ce sont les « personnages non joueurs » (PNJ) dont nous avons déjà croisé la route. Or, la terminologie utilisée pour décrire ces nouveaux compagnons numériques hérite aussi du bestiaire merveilleux. Le terme « avatar », qui désigne leur apparence et qui apparaît au milieu des années 1980, est sans doute remarquable à cet égard. Il naît du sanskrit avatāra (« qui descend du ciel »), avant d’être anglicisé. Il désigne avant tout dans l’hindouisme l’incarnation sur Terre d’une divinité, sous la forme d’un être vivant, animal ou humain, venue pour sauver le monde du désordre cosmique. Dit autrement, les dieux et déesses hindous utilisent des avatars lorsqu’ils veulent accéder au monde physique et mortel de l’humanité. L’expression apparaît de manière simultanée dans la littérature de science-fiction23 et chez les développeurs de jeux vidéo, qui l’utilisent afin de faire comprendre l’idée d’incarnation dans un personnage représenté sur un écran. On trouve ainsi cette expression dans le titre d’un jeu conçu pour le système d’exploitation PLATO en 1979, qui permet d’incarner plusieurs personnages. Ou, en 1985, dans le célèbre jeu de rôle Ultima IV : Quest of the Avatar. Son concepteur, le Britannique Richard Garriott, l’emploie pour montrer que l’avatar n’est pas juste l’équivalent d’un pion, matérialisation physique des joueurs, mais qu’il a une symbolique plus profonde. Il s’agissait selon lui d’aller au-delà du simple contrôle de la représentation à l’écran, en suggérant un effort quasi spirituel qui s’alignerait avec les connotations religieuses originelles du terme « avatar »24 : le joueur régnerait sur le jeu à la manière d’une déité. Cas d’école d’appropriation culturelle et de séduction orientaliste, la circulation du terme « avatar » semble ici montrer la manière dont les technologies numériques peuvent offrir une perspective merveilleuse dans un monde séculier25. Le terme « avatar », évocateur de mystère et d’altérité, suggérait la possibilité de faire advenir de nouvelles expériences « réenchantées » dans le monde ordinaire sécularisé des Occidentaux. Il suggérait ainsi la capacité des jeux vidéo à créer des situations incarnées, empathiques et émotionnelles, à une époque où il s’agissait encore d’un divertissement en devenir26.
Sans que cette connotation persiste explicitement, on retrouvera par la suite ce terme dans d’autres jeux, par exemple dans Habitat, de Lucasfilm, en 1986, où il désigne simplement la représentation numérique personnalisable de l’utilisateur dans un monde virtuel en trois dimensions et peuplé des avatars des différents joueurs. L’usage du terme « avatar » est ici dénué de la connotation morale voulue par Garriott. Elle subsistera malgré l’évolution formelle des avatars, liée au développement des capacités technologiques des machines et aux milieux dans lesquels elles se diffuseront : des universités pour des prototypes comme Spacewar !, les salles d’arcade, les salons, puis les consoles portables et les smartphones27. Dans les premières décennies du jeu vidéo, les avatars restaient simples et adoptaient souvent des formes basiques, comme les vaisseaux spatiaux de Spacewar !, exprimés par des points lumineux. C’est à partir de la fin des années 1970 que les personnages ont adopté une représentation un peu plus sophistiquée, en deux dimensions, avec une composition de pixels représentant une silhouette humaine, animale ou d’une créature, comme dans le cas de Pac-Man (1980). Nommé « sprite », cet assemblage de petits carrés désigne une image en deux dimensions qui peut être déplacée indépendamment du fond de l’affichage (le décor).
Le mot « sprite » dérive du latin « spiritus » (esprit), par l’intermédiaire du français « esprit » ; il est cousin du mot celtique « spriggan28 ». Si le terme n’est pas employé en français (il a été parfois traduit en « lutin » pour désigner cette composition de pixels), il correspond dans le folklore britannique à une créature du petit peuple dans la lignée des elfes, fées et gnomes, plutôt de petite taille. Le choix de ce vocable par des ingénieurs de la société Texas Instruments à la fin des années 1970 reposait sur le fait que les pixels qui composent les sprites « flottent » au-dessus de l’image de fond sans l’écraser, un peu comme un fantôme ou un esprit29. Dans un registre plus poétique, le terme pourrait également évoquer la manifestation visuelle d’un substrat abstrait, le code informatique, méconnu du commun des mortels et ainsi rendu accessible formellement, de la même manière que la féerie donnait à voir une vision poétique et symbolique des esprits élémentaires de la nature30. Là où ondines et fées pouvaient personnifier des lacs ou des forêts, les sprites sont une incarnation du langage des machines. L’expression a perduré, même si peu de personnages de jeux vidéo sont encore figurés par cette technique. D’autres techniques, comme les représentations en trois dimensions, renouvelleront dans les années 1990 les possibilités graphiques, avec des visuels plus complexes et photoréalistes.
En parallèle, les avatars ont vu leurs comportements évoluer. Suivant les générations de représentations graphiques résumées ici, les actions des PNJ se sont progressivement autonomisées. Quand l’attitude des premières créatures était caractérisée par une certaine monotonie du fait de leurs déplacements et de leurs actions programmées de manière très simpliste (pensons aux mouvements stéréotypés des fantômes de Pac-Man), les suivantes ont été dotées de comportements plus spontanés, qu’ils soient dus au hasard ou à des techniques de programmation plus poussées. Dans les jeux vidéo, les avatars des PNJ sont progressivement devenus interactifs et ont commencé à réagir aux changements d’environnement, notamment à ceux qui étaient engendrés par les actions des joueurs : telle créature détecte la présence de l’avatar d’un joueur et vient lui parler ou l’affronter, tel individu PNJ lui demande d’accomplir une tâche spécifique pour progresser dans le jeu et qui n’est pas la même que celle adressée à un autre avatar, etc. De plus en plus, la dimension émotionnelle dans l’interaction avec les joueurs s’est trouvée valorisée ; on a préconisé de concevoir des entités qui évoluent avec le temps, qui dépassent leur rôle d’éléments de décors pour venir participer à un récit, à une quête ou plus généralement aux activités qui peuplent l’univers de jeu, et finalement, de leur permettre de converser de manière la plus fluide possible31. Une généalogie qui n’est pas sans évoquer celle de ces automates historiques qui ont acquis la capacité de s’exprimer.
L’ambivalence des machines parlantes
Que l’on s’intéresse aux robots humanoïdes, aux agents conversationnels, tels que Siri ou Alexa, ou aux PNJ bavards de certains jeux vidéo, la généalogie est la même. Toutes ces entités numériques dérivent plus ou moins d’une catégorie d’automates qui cherche à reproduire la parole humaine.
Comme on l’a vu précédemment, c’est à partir de la Renaissance que l’on cherche, avec les automates, à reproduire humains et animaux. D’abord dans un contexte religieux, puis en tant que terrain d’invention et de démonstration de prouesses techniques, avec les créatures conçues par Léonard de Vinci, Jaquet-Droz ou Vaucanson. C’est dans cette continuité que l’on trouve les premiers appareils mécaniques capables de produire des sons semblables à ceux de la parole.
Au XVIIe siècle, le formidable inventeur jésuite allemand Athanasius Kircher est reconnu comme l’un des pionniers du domaine. Sa « statue parlante » consiste en un système de tubes acoustiques en spirale permettant de capter les sons d’une pièce ou d’une place et de les rediriger vers la bouche d’une sculpture d’humain, donnant l’illusion qu’elle parle. Malheureusement, le peu de documentation consacré à ses dispositifs acoustiques a favorisé, dans la mémoire collective, ses successeurs, qui ont prolongé ce travail : par exemple, l’abbé Mical, concepteur de deux « têtes parlantes » capables de prononcer un certain nombre de phrases prédéterminées au moyen d’un mécanisme complexe comprenant des boîtes creuses, des membranes et des glottes artificielles. En appuyant sur les touches d’un clavier, le prêtre français déclenchait toute une série de sons permettant la prononciation de phrases entières, imparfaites mais suffisamment éloquentes pour convaincre l’Académie des sciences en 1783 du bien-fondé de cette démarche32. L’écrivain et inventeur austro-hongrois Johann Wolfgang von Kempelen, connu pour son joueur d’échecs, passa par ailleurs vingt ans de sa vie, entre 1769 et 1791, à concevoir un synthétiseur vocal qui tentait de reproduire mécaniquement le fonctionnement du système vocal humain. Grâce à un système composé d’un soufflet faisant office de poumons pour produire le flux d’air, d’une anche servant de glotte pour générer le son fondamental, d’une « bouche » en caoutchouc pour former les voyelles et de quelques pièces supplémentaires pour produire les consonnes, la machine pouvait prononcer des phrases complètes en français, en italien et en anglais, et plus difficilement en allemand33. Il n’est pas étonnant qu’avec un tel assemblage l’effet parût déroutant aux observateurs de 1784, comme on peut s’en rendre compte à la lueur du témoignage suivant :
Vous ne pouvez pas croire, cher ami, la sensation étrange que nous a causée la première audition d’une voix humaine et d’un langage humain qui ne provenaient visiblement pas d’une bouche humaine. Nous nous regardâmes les uns les autres, muets et affectés, et nous nous avouâmes ensuite franchement qu’un petit frisson inavoué nous avait parcourus au premier moment34.
Plus élaborée encore, Euphonia, conçue par l’inventeur étasunien Joseph Faber, se présentait sous la forme d’une tête et d’un buste de femme arrimés à une structure en bois munie de l’assemblage d’un soufflet et d’une bouche articulée capable de prononcer des mots et des phrases complètes en plusieurs langues à partir de la vibration de hanches d’ivoire contrôlée par un clavier et des pédales. En raison du trouble qu’elle provoquait lors des expositions et des démonstrations publiques au milieu du XIXe siècle aux États-Unis et en Europe, l’appareil ne suscita pas l’enthousiasme attendu par son auteur, qui la détruisit de dépit35. Euphonia reste malgré tout un repère important dans l’histoire des techniques, en ce qu’elle inaugure la longue lignée des interfaces vocales incarnées par une figure féminine36.
Quels que soient les cas considérés, ces diverses machines parlantes suscitèrent un mélange de curiosité et de crainte. Ces réactions mitigées étaient liées à l’apparence générale de ces dispositifs, qui ne cherchaient pas toujours à ressembler à un être humain ou qui, le cas échéant, pouvaient afficher des détails physiques si étranges qu’ils en devenaient rebutants. On retrouve ici la notion de « vallée de l’étrange » (Uncanny valley) décrite beaucoup plus tard, en 1970, par le roboticien japonais Masahiro Mori, qui postulait que plus l’apparence d’un robot se rapproche de celle d’un être humain, plus ses imperfections nous dérangent37.
Le caractère fondamentalement bizarre des sons émis par un appareillage non organique concourait en outre à son ambivalence. L’attitude parfois peu avenante de l’inventeur pouvait enfin accentuer l’aspect plus ou moins terrifiant de l’appareil, aussi curieux fût-il, comme le laisse entendre le directeur d’un théâtre dans lequel Faber s’est produit avec Euphonia :
Le professeur n’était pas très propre, et ses cheveux et sa barbe méritaient l’attention d’un barbier. Je ne doute pas qu’il dormait dans la même chambre que son personnage – son monstre de Frankenstein scientifique – et je sentais l’influence secrète d’une idée selon laquelle les deux étaient destinés à vivre et à mourir ensemble… Un clavier, touché par le professeur, produisait des mots qui, lentement et délibérément, d’une voix rauque et sépulcrale, sortaient de la bouche du personnage, comme s’ils provenaient des profondeurs d’un tombeau38.
À l’instar des démonstrations d’automates médiévaux dans lesquelles la prestation scénique de l’inventeur influait sur l’expérience générale, les maîtres des machines parlantes semblent, comme on le voit ici, projeter un univers de référence qui peut soit séduire, soit repousser.
Ces dispositifs d’imitation de la parole évoluèrent et débouchèrent en partie sur des appareils plus proches de nous, tel le phonographe de Thomas Edison (1877), capable d’enregistrer et de reproduire le son, y compris les propos humains, ou sur le téléphone d’Alexander Graham Bell. Mais si ces deux inventions sont passées à la postérité et sont devenues des objets courants du quotidien à partir du début du XXe siècle, leurs principes techniques ne permettent pas la conception d’un assistant vocal tel que Siri, des chatbots sur les réseaux sociaux ou de personnages de jeux vidéo avec qui converser. Il faut attendre la révolution informatique post-Seconde Guerre mondiale pour trouver un autre type d’appareil capable de comprendre la parole humaine et de s’exprimer en retour : l’ordinateur. Les exemples de machines parlantes évoquées jusqu’ici ne produisent en effet pas de texte automatiquement. Celui-ci est soit déclenché par un opérateur humain qui tape sur un clavier, soit inscrit sur un support mécanique. Elles sont néanmoins précurseurs de toute une lignée de jouets et de poupées parlantes fonctionnant sur la diffusion de phrases préenregistrées.
Deux choses sont nécessaires à l’avènement des compagnons numériques. Une avancée conceptuelle d’abord, puis une déclinaison concrète de cette avancée. Disons simplement que d’un point de vue théorique, les agents conversationnels d’aujourd’hui sont les héritiers directs des travaux portant sur ce qui est devenu, à partir de 1956, le champ de recherche de l’intelligence artificielle (IA). Les réflexions d’Alan Turing, ainsi que de ses collègues cybernéticiens, sont importantes à cet égard. Pour ce mathématicien anglais, qui explora les capacités des machines à imiter et à développer des formes de cognition humaine, le fait de pouvoir se faire passer pour un interlocuteur humain au cours d’un dialogue prouverait son « intelligence39 ». C’est d’ailleurs ainsi qu’il définit le test dorénavant associé à son nom, qui vise à évaluer si une machine peut imiter l’intelligence humaine au point d’être indiscernable d’un être humain lors d’une conversation. Ce test implique la participation d’un interrogateur humain qui doit déterminer, à partir de réponses écrites, si son interlocuteur est un humain ou une machine. S’il ne peut pas faire la distinction, la machine est alors considérée comme « intelligente ». Cette façon de voir les choses est évidemment limitée40. Le test pèche sur différents aspects, dont le manque de compréhension réelle puisqu’il évalue la capacité d’une machine à imiter le comportement humain dans une conversation textuelle, sans pour autant qu’elle en discerne le sens. Sans entrer dans les critiques portées sur cette manière de conceptualiser la cognition humaine, il faut garder à l’esprit le fait que malgré toutes leurs limites, les travaux de Turing ont eu une influence considérable sur les manières de penser l’IA et, partant, sur les applications diverses qui en sont issues. Le sociologue Olivier Glassey souligne à ce titre que les robots sociaux contemporains ne font finalement que reproduire le schéma de dialogue proposé dans ce test41. Lequel propose une interaction dans laquelle le statut de partenaire de la machine reste masqué par tout un ensemble de médiations propres aux échanges numériques. Il précise que l’idée du test de Turing provient d’un jeu de salon bourgeois du XIXe siècle, l’imitation game, qui consistait à deviner le genre d’un convive présent dans une autre pièce par l’échange de lettres anonymes. Pour Olivier Glassey, un tel « jeu de cache-cache mondain de l’identité » anticipe à sa façon une caractéristique des agents conversationnels : en effet, il est impossible de savoir si un chatbot est programmé ou opéré par un humain.
Parmi la multitude de projets qui ont cherché à faire advenir cette vision des agents conversationnels, le programme ELIZA, conçu par le chercheur en informatique Joseph Weizenbaum, est peut-être la plus importante déclinaison de la proposition de Turing42. Développé entre 1964 et 1966, ce programme simple simulait le dialogue avec un psychothérapeute d’obédience rogérienne, approche qui revendique des techniques d’écoute empathiques et l’usage de la reformulation pour aider les patients à explorer leurs sentiments et pensées. Conçu pour engager une conversation avec des utilisateurs humains, ELIZA paraphrasait les réponses, transformant par exemple les affirmations en interrogations. À la proposition « Je me sens triste », ELIZA pouvait répondre : « Pourquoi dites-vous que vous vous sentez triste ? » Le programme fonctionnait par reconnaissance de formes et par substitution de mots-clés dans les phrases produites par l’utilisateur, en se contentant de former des propositions à partir de modèles préétablis, sans compréhension du contenu43. Joseph Weizenbaum avait choisi ce nom en référence à Eliza Doolittle, le personnage principal de la pièce de George Bernard Shaw, Pygmalion, récit lui-même tiré de la mythologie grecque. Tout comme ce personnage utilisait le langage pour produire une illusion – celle d’apprendre à bien parler à Eliza afin de la faire passer pour une duchesse –, le programme parlait de manière à produire l’illusion qu’il comprenait son interlocuteur. Malgré son fonctionnement relativement basique, ELIZA suscita un mélange de fascination et de surprise chez les gens qui l’utilisèrent. Joseph Weizenbaum rapporte en particulier son effarement face à l’attitude de sa propre secrétaire. Alors qu’elle était parfaitement au courant de la nature réelle de ce programme, celle-ci développa un fort attachement émotionnel envers ELIZA, partageant avec elle des informations personnelles, comme avec un véritable thérapeute, jusqu’à demander au chercheur de quitter la pièce lorsqu’elle conversait avec elle pour préserver une forme d’intimité. « Certains sujets ont été très difficiles à convaincre qu’ELIZA (dans son état actuel) n’est pas humain », écrivit-il à l’époque. Ce genre de réactions, comme celles des multiples personnes qui interagirent avec ELIZA à l’époque, troublèrent tellement son auteur qu’il passa une grande partie de sa carrière à élaborer une critique des techniques d’intelligence artificielle ainsi que de la tendance à anthropomorphiser les machines et à leur attribuer des capacités qu’elles ne possèdent pas réellement44. C’est d’ailleurs à cette occasion que le terme « effet ELIZA » fut employé pour désigner la tendance des gens à attribuer des qualités humaines aux machines45.
Malgré tous ces inconvénients, et bien que les technologies aient évolué depuis les années 1960 avec l’inclusion des capacités de reconnaissance vocale et des techniques d’apprentissage automatique (machine learning), le programme de Joseph Weizenbaum servit de modèle pour de nombreux chatbots et agents conversationnels ultérieurs. Pensons aux assistants virtuels tels que le Knowledge Navigator d’Apple (1987), le bot SmarterChild des messageries AOL, ICQ et MSN (2000), qui pouvait fournir des informations sur divers sujets, comme les sports, la météo, l’actualité, ou des connaissances encyclopédiques générales, Siri sur l’iPhone (2011)46, Alexa d’Amazon (2014), ou encore le générateur de texte conversationnel ChatGPT d’OpenAI (2022), qui peuvent tous être considérés comme des descendants d’ELIZA, des machines parlantes et des automates. Comme d’ailleurs les différents robots sociaux qui produisent des contenus de plus ou moins bonne qualité sur les réseaux sociaux (messages textuels, liens, photographies, vidéos) : bots de recommandation commerciale qui suggèrent des offres en ligne aux utilisateurs en comparant des prix, bots pédagogues venant fournir de temps à autre un contenu à découvrir, bots co-équipiers dans des jeux vidéo…
Si une grande partie d’entre eux est conçue avec des intentions louables, il en est une catégorie qui rentrerait sans aucun doute dans la ménagerie malveillante du chapitre précédent : bots submergeant les sites Web de trafic afin de les rendre inaccessibles aux utilisateurs légitimes, bots simulant des clics sur des publicités afin de gonfler artificiellement les recettes publicitaires ou de saboter les campagnes de leurs concurrents, ou encore bots spammeurs qui inondent les plateformes de propos orientés politiquement ou qui font la promotion de liens ou de produits nuisibles. Parmi les différentes organisations qui ont recours à ces bots de manière offensive, la figure médiatique des « bots russes » est remarquable. Pendant automatique de celles des trolls russes décrits au chapitre précédent, ces derniers prolongent leur action « manuelle » par le recours à la programmation47.
Ces capacités à simuler des conversations ont enfin permis aux personnages de jeux vidéo de devenir des entités avec lesquelles dialoguer. Si les premiers PNJ semblaient tenir un monologue (dans des bulles de dialogue ou des petites animations) impossible à faire dévier, comme dans Animal Crossing, les interactions avec les personnages de jeux de rôle en ligne plus récents, arrimés aux techniques d’intelligence artificielle, proposent des nuances bien plus fines donnant l’impression d’une conversation soutenue, sans forcément démériter par rapport à des programmes tels que ChatGPT. Des automates parlants aux agents logiciels, la trajectoire peut également s’inverser, avec l’avènement de robots et robots jouets, du chien AIBO de Sony aux peluches parlantes Furby, qui tentèrent à leur tour de faire interagir et parfois converser les humains avec les machines.
Quelles qu’elles soient, ces diverses entités ont ceci de commun qu’elles passent outre l’avertissement de Joseph Weizenbaum et participent sous une forme anthropomorphisée (ou zoomorphisée) à des interactions langagières avec des humains, que ce soit par écrit ou oralement. Cependant, ces conversations, plus ou moins sophistiquées, diffèrent suivant les techniques sous-jacentes employées pour dialoguer avec elles et suivant le degré de personnalisation ou d’automatisation des scripts de réponses qu’elles proposent. Leur usage massif à partir des années 2010, conjointement à la fréquentation croissante des personnages de jeux vidéo dotés de capacités de dialogue similaires, ont poussé les usagers des technologies numériques à développer toute une gamme de relations avec ces compagnons numériques.
Avatars individualisés, avatarisation généralisée
Le fait d’avoir choisi d’associer des entités de milieux différents dans une même catégorie de compagnons numériques n’est pas anodin. Personnages de jeux vidéo, agents conversationnels sur les réseaux sociaux et assistants sur téléphone illustrent à leur façon l’hypothèse d’un phénomène d’« avatarisation généralisée » formulée par Étienne Amato et Étienne Perény48. L’expression appuie l’idée que cette notion d’avatar a unifié les multiples manières d’exister dans les mondes et plateformes numériques, des applications de divertissement aux réseaux sociaux en passant par les apps mobiles et les systèmes de visioconférence. Avec le temps, le terme a en effet débordé le monde vidéoludique. Depuis le début des années 2000, il ne correspond plus seulement à l’incarnation d’un joueur humain dans un jeu, mais en est venu à désigner toute manifestation de notre présence en ligne, que ce soit dans les mondes virtuels, sur les réseaux sociaux ou les applications utilitaires. Il est alors le simple visage de nos identités numériques49. Ce phénomène reposerait sur le besoin des utilisateurs d’adopter un mode d’incarnation permettant d’interagir avec les habitants de ces espaces représentés et simulés, et, par la même occasion, de décider quelle image et impression ils souhaitent donner aux autres – soit une représentation fidèle, soit une projection subjective et symbolique. Ce phénomène institue, en retour, de nouveaux « modes de fréquentation » avec les entités à l’écran50.
Cette avatarisation peut passer par une incarnation dans des créatures très éloignées de soi. C’est notamment le cas dans les jeux vidéo, dont les personnages disposent de pouvoirs qui outrepassent largement les capacités humaines : faire des bonds gigantesques, envoyer des boules de feu, voler ou encore se relever après mille morts subites. On retrouve ici un autre motif des contes et légendes du merveilleux : l’incarnation dans une créature qui se trouve dotée d’aptitudes surnaturelles. On pense au loup-garou ou au berserker des cultures nordiques, ce guerrier-fauve pris d’une fureur sacrée le rendant surpuissant. En rupture avec la réalité ordinaire, la capacité d’action démesurée de ces avatars leur donne des super-pouvoirs inédits, fascinants à incarner. Comme dans les contes et les récits merveilleux où des êtres fabuleux possédaient une force ou un talent prodigieux, ils permettent de transcender les limites humaines et suscitent un sentiment d’émerveillement et de fascination51.
Ainsi que l’a montré la chercheuse en sciences de l’information et de la communication Fanny Georges, la diversité des formes graphiques prises par les personnages de jeux vidéo, de la 2D à la 3D, se double d’une pluralité de modalités de manipulation et de charges symboliques52. La notion d’avatar a en effet progressivement débordé sa définition traditionnelle de créature contrôlée par le joueur pour permettre un rapprochement croissant entre son identité et celle du personnage ; comme si cette représentation visuelle permettait de plus en plus de façonner sa psyché en une entité extérieure. Les premiers avatars (Pac-Man, Mario, Mega Man, Lara Croft) pourraient en effet être qualifiés de marionnettes : leur apparence était similaire quel que soit l’utilisateur et il n’était pas possible de modifier leur apparence53. Fanny Georges décrit l’apparition des « avatars-masques », en rupture avec cette figure, qui proposent une personnalisation des personnages joués grâce à un paramétrage plus ou moins fin de l’apparence physique, laissant la possibilité au joueur de lui ressembler ou non. L’avatar devient alors un reflet de l’état mental et émotionnel de l’utilisateur, susceptible d’être ajusté et personnalisé en fonction de ses souhaits, de ses désirs ou de l’humeur du moment54.
Devenue prépondérante aujourd’hui, la figure de l’« avatar-masque » souligne ce rapprochement entre le joueur et le personnage qu’il contrôle. À travers l’interaction avec son avatar et l’observation de ses actions dans l’univers numérique, l’utilisateur peut ainsi découvrir des traits cachés de sa personnalité, faisant de son double un instrument d’autoréflexion et de développement personnel. Les recherches à propos des usages du jeu vidéo ont montré que des aspects personnels, tels que l’allure et la personnalité d’un individu, affectaient ceux des avatars dans le jeu. L’inverse est également vrai : des caractéristiques de l’avatar, parfois très éloigné du joueur, peuvent influencer le comportement de ce dernier au sein de mondes virtuels55. À tel point que les psychologues parlent à ce sujet d’« effet Proteus », du nom de la divinité marine de la mythologie grecque capable de changer de forme à volonté. Cet effet documenté en psychologie décrit la manière dont les individus modifient leur comportement, leur personnalité ou leur identité en fonction de leur environnement ou des rôles qu’ils endossent. Dans le cas des jeux vidéo, il a ainsi pu être montré que les joueurs peuvent inconsciemment modifier leur comportement en fonction des stéréotypes associés à la race ou l’ethnie de leur avatar56 ; ou que les avatars portant des signes associés à des stéréotypes sociaux connotés négativement (une cape noire, un uniforme du Ku Klux Klan) peuvent susciter un surcroît d’agressivité de la part de la personne qui les manipule57.
De la figure de la déité hindouiste prêtant son nom aux entités à l’aspect immuable des premiers jeux vidéo aux avatars-masques personnalisables de certains jeux actuels, la notion d’avatar a évolué. Cette mutation opérée ces dernières années suggère un glissement progressif de la symbolique de l’incarnation, dans un double mouvement. On notera en premier lieu avec Étienne Amato et Étienne Perény un renversement de sens, puisque contrairement à la situation mythologique originelle en Inde, c’est ici l’être humain qui acquiert des pouvoirs divins pour s’élever dans des sphères plus abstraites58. Par ailleurs, si, dans la mythologie indienne, un dieu comme Vishnou adopte la forme de figures animales aussi complexes que Matsya le poisson ou Kurma la tortue, ou encore d’hybrides humain-animal comme Narasimha l’homme-lion, les premiers personnages de jeux vidéo donnent à jouer des formes relativement basiques et homogènes. Le nombre d’entités proposées par les concepteurs de jeux était en effet, au début, très limité. Et l’incarnation dans une créature personnalisée et personnalisable apparue par la suite, qui plus est dans des mondes peuplés de milliers d’autres avatars, atteste d’un second changement : celui de l’éclosion d’une multiplicité des êtres présents, pensés comme des sortes de doubles virtuels des humains qui les commandent. Avec les jeux de rôle en ligne de type MMORPG59, les jeux en mondes ouverts et les simulations de vie tels que Les Sims ou Animal Crossing, il est davantage possible d’investir personnellement le personnage que l’on dirige, à la différence des êtres aux actions préenregistrées et restreintes du passé. Cette évolution témoigne en outre d’une intrication croissante de l’identité ludique et de l’identité numérique des joueurs, comme l’a montré Fanny Georges : même si l’apparence des avatars n’est pas celle des joueurs, leur vie quotidienne et leur activité ludique fusionnent, en raison du temps passé à les incarner et des sociabilités qui se créent au sein même du jeu et qui se prolongent sur les réseaux sociaux. Dit autrement, nous ne « descendons plus » tels des dieux dans nos machines, mais nous prolongeons notre vie dans celles-ci au moyen d’entités toujours plus individualisées, que l’on incarne avec des pouvoirs parfois divins ou surhumains. Or, comme l’a montré le sociologue Antonio Casilli, cette capacité à se mettre dans la peau d’un corps virtuel « libre des stigmates de la maladie et de la mort » est sans aucun doute une caractéristique majeure d’un effacement de la dimension charnelle du corps, entre substitution et sublimation à l’écran60. Les incarnations dont on parle ici n’impliquent guère la chair organique, comme dans le contexte hindouiste à l’origine du terme. Elles se produisent dans un autre assemblage matériel mythique, formé par les ordinateurs, consoles et smartphones, lui-même descendant des automates merveilleux de jadis61.
Chatbots et PNJ, ces compagnons programmés
La présentation des compagnons numériques ne serait pas complète sans une description des relations spécifiques avec les chatbots et les PNJ. Celles-ci ne sont pas du même ordre puisqu’il s’agit de côtoyer une entité au statut intermédiaire, un automate dont le comportement est programmé.
Il y a dans les deux cas un rapport utilitaire qui advient. Avec les chatbots et autres agents conversationnels, les interactions sont ponctuelles, liées à la réalisation d’une tâche bien spécifique, par exemple (tenter de) résoudre un problème de l’utilisateur ou réagir à son activité en ligne. Cette dimension utilitaire se ressent d’abord dans la forme des échanges entretenus avec ces nouvelles machines parlantes. En effet, ceux-ci ne relèvent pas de la conversation telle que les études en linguistiques l’ont décrite. Ils ressemblent plus à une combinaison de traits humains (recours au langage parlé, respect des tours de parole) et de modes d’expression contraints par le fait de s’adresser à des machines (emploi de phrases plus courtes, utilisation de mots-clés ou d’impératifs chez l’usager, nombre plus faible et moins long des tours de parole)62. Au-delà de cet aspect langagier, la logique instrumentale à l’œuvre dans l’interaction avec ces robots sociaux provient du fait que ces êtres numériques n’inspirent pas toujours confiance aux usagers. « Je ne sais jamais à qui j’ai affaire, si c’est un humain, un robot, ou une sorte d’horloge parlante », m’avait ainsi confié une utilisatrice de smartphone lors d’une de mes enquêtes à ce sujet.
Cette défiance s’explique de deux manières. En raison, d’une part, du fonctionnement en boîte noire inhérent à la technologie de l’IA et, d’autre part, du caractère anthropomorphique de ces agents. Les résultats des recherches menées à propos de ce caractère anthropomorphique sont ambigus, voire contradictoires63. Conçus comme tels, les chatbots sont censés se comporter comme des humains. Or, ce n’est pas le cas, soit parce que les nuances verbales qu’introduisent les usagers humains sont pour eux difficiles à saisir, soit parce qu’ils n’ont tout simplement pas de réponses pertinentes à apporter. C’est sans doute pour cette raison que les chatbots font l’objet d’une grande animosité et se font souvent copieusement insulter64. Ce phénomène est si prégnant qu’il existe toute une littérature académique dans le champ des interactions humain-machine à ce propos. Serait-ce une revanche face à ce que le philosophe Günther Anders nommait la « honte prométhéenne », ce sentiment de faiblesse ressenti par les humains face à la perfection et à la puissance des machines et de la technologie qu’il a lui-même créées65 ? Est-ce lié à la facilité de s’en prendre à une créature désincarnée ? Il s’agit peut-être d’un peu des deux.
Les relations avec les personnages de jeux vidéo relèvent, elles, d’un autre ordre. Les PNJ sont en général des éléments cruciaux dans la construction de l’univers fictionnel et le déroulement du récit. Ils ne sont que superficiellement utilitaires, puisque leur rôle consiste surtout à déployer un pouvoir de suggestion et d’immersion. À ce titre, ils ont à la fois une fonction interactive – pour inciter à progresser dans le jeu – et narrative – pour la construction de l’histoire. La chercheuse en narration vidéoludique Fanny Barnabé décrit en particulier l’importance des « personnages-guides », ces PNJ dont la principale raison d’être est de révéler des informations utilitaires au joueur – en disant par exemple, dans un épisode de Zelda, d’« utiliser les clés dans les palais où elles se trouvent » ou de « ne pas aller au sud sans une bougie ». En agissant ainsi, ces PNJ-accompagnateurs donnent l’impression de posséder un savoir individualisé qui « laisse la possibilité au joueur de leur prêter une vie propre, un passé imaginaire qui leur aurait permis d’acquérir ce savoir66 ».
Les relations entretenues avec les PNJ sont sans doute plus vives et plus marquantes qu’avec les agents conversationnels des sites Web ou des réseaux sociaux. D’abord, car certains d’entre eux sont devenus des icônes culturelles, dépassant le cadre du jeu pour devenir des mascottes de compagnies ou des figures reconnues dans la culture populaire. Mais aussi, car ils contribuent de manière significative à créer une sensation de réalisme et d’immersion dans le monde du jeu. En peuplant l’univers virtuel, ils le rendent plus vivant et crédible, ce qui influence en retour la perception qu’en ont les joueurs. Plus généralement, les théories sur les personnages de jeux vidéo les décrivent comme des éléments centraux de l’expérience ludique, qui influencent l’engagement émotionnel des joueurs. Les quelques travaux à ce sujet en game studies montrent par exemple l’étendue du répertoire d’attachements aux personnages, qui, suivant les jeux, impliquent tout autant un sentiment d’admiration ou de confiance qu’un effet de surprise, de l’enthousiasme ou une envie de protéger certaines créatures67. D’autres études soulignent en quoi les joueurs perçoivent les PNJ comme des sortes d’amis, qui ont certes un rôle dans les mécaniques du jeu, mais surtout une place dans l’histoire qu’ils élaborent ensemble68. D’où la pratique de plus en plus répandue consistant à documenter les relations entre les joueurs et ces PNJ, au moyen par exemple de captures d’écran pour se constituer des souvenirs de ces interactions, ou à les partager sur les réseaux sociaux de manière plus ou moins distancée. Le cas de relations sentimentales plus poussées est également documenté, en particulier dans certains jeux de rôle69 ou sur les applications de type « virtual girlfriend/boyfriend », explicitement tournées vers ce genre d’interactions70. Ces dernières, telles que Replika, PicSo.ai, KARI (« Knowledge Acquiring and Response Intelligence »), utilisent des techniques d’intelligence artificielle pour simuler une relation amoureuse ou amicale avec un utilisateur. Le thème des relations amoureuses entre des êtres humains et des entités numériques (robots ou agents conversationnels) est un motif courant de la science-fiction (Blade Runner, Her). Quant aux travaux académiques, ils tendent à « réinscrire ces “amours augmentés” dans le champ des potentialités humaines, qui sont historiquement variables », comme le formule l’anthropologue Agnès Giard71, notamment en les présentant comme une forme singulière d’attachement émotionnel en lien avec des besoins de compagnie, de soutien émotionnel ou d’intimité. Et cela, alors que d’autres s’en offusquent et mobilisent ces pratiques pour dénoncer une dilution des liens sociaux ou les risques de comportement addictif vis-à-vis de ces entités disponibles 24 heures sur 2472.
Pour terminer sur les relations affectives qui nous lient aux compagnons numériques, il est intéressant de constater que, curieusement, les enquêtes au sujet des PNJ n’abordent pas la face négative de ces relations, alors qu’elle est au cœur de mécaniques de jeu qui valorisent des antagonismes, par exemple lorsqu’il s’agit de combattre des ennemis ou de situations de compétition. Ce thème des relations conflictuelles est beaucoup plus commun dans les travaux portant sur les chatbots et autres robots sociaux en ligne – sans doute du fait de la part très importante d’entités malfaisantes qu’il s’agit de détecter, d’identifier (en les distinguant des humains), de contrer ou de neutraliser : chatbots reprogrammés pour faire circuler de la propagande, du spam, des informations erronées ou des insultes, bots « vandales » sur Wikipédia capables de faire des modifications orientées ou erronées, ou de créer massivement des entrées73. C’est aussi le cas de chatbots plus élaborés grâce aux techniques d’intelligence artificielle, telles que Tay, cet agent conversationnel sur Twitter conçu par Microsoft en 2016 et rapidement suspendu du fait d’une salve de messages incendiaires que lui ont envoyés certains utilisateurs avides, et à même, de lui faire apprendre des insultes racistes et sexistes. Citons également Xiaoice, développé par le Software Technology Center (STCA) de Microsoft Asie, qui a également dû être mis hors ligne sur l’application WeChat après avoir envoyé des informations critiques à l’encontre du gouvernement chinois.
Le répertoire de relations exposé ici montre néanmoins que la relation utilitaire avec les PNJ n’empêche en rien l’établissement de liens émotionnels. En un sens, les PNJ peuvent d’une certaine manière être considérés comme des équivalents modernes des objets transitionnels de l’enfance tels que les jouets, en facilitant l’investissement affectif du joueur dans l’univers virtuel74. Même si le comportement de ces personnages est de plus en plus sophistiqué, les relations qu’ils impliquent restent cependant asymétriques, contrairement aux rapports qu’humains ou animaux entretiennent les uns avec les autres. Certes, les PNJ peuvent détecter des conduites spécifiques, interagir avec l’avatar représentant les joueurs et donner l’impression de ressentir des émotions. Mais il n’est pas ici question d’acquérir des sentiments avérés. Leur réaction est soit scriptée, soit relevant d’un comportement émergent de la part du programme. Ce qui est ici en jeu, c’est la seule interprétation des joueurs75.
Que nous dit finalement la généalogie complexe qui va des machines de l’Antiquité jusqu’aux chatbots et aux personnages de jeux vidéo ? Celle-ci souligne le caractère ambigu de ces partenaires d’interaction. En suscitant à la fois la fascination et la crainte, ces successeurs des automates, des androïdes et des machines parlantes de la modernité sont ambivalents. Compagnons omniprésents, ils n’appartiennent pas pour autant au cercle social des proches, amis ou famille. S’il est indéniable que les interactions avec ces entités ne peuvent être considérées comme équivalentes à celles que nous entretenons entre êtres humains, elles n’en restent pas moins de plus en plus présentes, en termes de temps passé et d’occasions d’interagir, et couvrent une gamme toujours plus large de types de relations ou de liens émotionnels. En améliorant leur autonomie, leur capacité d’apprentissage et leur façon de simuler un comportement d’être vivant, les évolutions récentes et à venir, grâce aux techniques d’intelligence artificielle, nous interrogent sur l’éventualité d’un changement de statut de ces compagnons. Outil banal dans le cas des chabots ou personnage au comportement simpliste dans le cas des PNJ, certaines de ces entités deviennent peu à peu des partenaires d’interaction sophistiqués.
En ce sens, le fait que l’immense majorité de ces compagnons soit pensée et produite par des entreprises interpelle. D’une certaine manière, celles-ci ont en effet le pouvoir de structurer les relations sociales, telles que les liens amoureux, amicaux ou familiaux, selon leur propre logique d’action. En favorisant certains contenus ou certaines modalités d’interaction et en en occultant d’autres qui contreviennent à leur modèle d’affaires ou à leur posture morale, ces entreprises appauvrissent la variété des situations relationnelles ou les rendent plus homogènes. La commercialisation de relations affectives soulève en outre d’évidentes questions éthiques, renforcées par le manque de transparence de ces entreprises sur le fonctionnement de leurs technologies.
L’évolution actuelle de ces compagnons nourrit par conséquent un ensemble de promesses, de craintes et d’étrangeté, qui tend à les faire apparaître comme des sortes de monstres. C’est vers cette dernière catégorie d’entités que nous allons maintenant nous tourner.
V.
LES IA, CES NOUVEAUX MONSTRES
Le 6 septembre 2022, l’utilisatrice de Twitter/X Steph Maj Swanson (@supercomposite) partageait sur ce réseau social sa découverte énigmatique d’un visage de femme particulièrement sinistre, obtenu en utilisant une intelligence artificielle génératrice d’images1. Sur la base d’une phrase ou d’une série de mots composées sous forme d’une requête (« prompt »), ces outils créent pixel par pixel une image correspondante en se basant sur les régularités statistiques apprises à partir de millions d’autres. À l’instar d’autres outils d’IA générative, l’outil utilisé par Swanson permet non seulement de créer des images de lieux, d’objets ou de personnes, mais il peut également être employé pour observer les résultats de demandes absurdes ou la manière dont ces technologies se représentent des choses qu’on ne leur a jamais montrées2. C’est ce à quoi s’employait justement Swanson ce jour-là. Intriguée par ce type de programme encore balbutiant à l’automne 2022, elle entendait expérimenter les rendus de requêtes dites « négatives » ou « inversées ». En demandant l’« inverse » d’un visage aussi connu que celui de Marlon Brando, elle obtint curieusement une sorte de logo d’entreprise technologique. Puis, en demandant l’inverse du logo, elle vit apparaître le portrait d’une femme patibulaire à cheveux longs qu’elle nomma Loab. Celle-ci était dotée d’un faciès composé de traits déformés et de joues si sévèrement couperosées qu’elle donnait l’impression d’avoir un lupus (du mot « loup » en latin), cette maladie de la peau à l’aspect caractéristique, en forme de masque de couleur rouge traduisant une éruption cutanée. Malgré les diverses instructions soumises par Swanson, qui auraient dû modifier complètement le visage, Loab ne cessait de réapparaître. La combinaison avec d’autres images produisait des variations de plus en plus effrayantes, parfois accompagnées d’éléments macabres comme du sang ou des silhouettes d’enfants mutilés.
Après avoir partagé ses découvertes visuelles sur Internet, Swanson vit Loab devenir rapidement un phénomène viral. Le tweet initial, partagé plus de 16 000 fois et occasionnant environ 75 000 likes, déclencha toutes sortes de discussions fascinées ou inquiètes sur les réseaux sociaux et les forums. Comme souvent dans ces cas d’emballement médiatique, les réactions furent exacerbées (« Je ne crois pas au surnaturel, mais c’est la chose la plus terrifiante que j’aie jamais vue. Le fait qu’elle soit autogénérée de façon répétée et apparemment à partir de rien la rend encore plus horrifiante »). Certains observateurs se demandèrent s’il s’agissait d’une coïncidence algorithmique (« Peut-être l’IA apprend-elle de vos goûts personnels et vous propose-t-elle quelque chose qu’elle “pense” que vous voulez voir ? », « Je me demande si ce n’est pas une sorte de synthèse de ce que l’IA a appris et que personne ne veut jamais voir »). L’apparition de ce faciès étrange relevait selon eux d’un phénomène courant avec les IA génératives actuelles, victimes d’« hallucinations », c’est-à-dire d’une production d’informations incorrectes, incohérentes, mais plausibles du fait d’imperfections dans leur fonctionnement. D’autres s’imaginèrent qu’il s’agissait de l’apparition d’un phénomène mystérieux, voire paranormal, sorte de réincarnation de Lilith, le démon féminin de la tradition juive. D’autres encore y virent une preuve supplémentaire des dangers potentiels des techniques d’intelligence artificielle (« Quelles sont les chances qu’ils utilisent sur le public la même machination psychologique que pour Loab pour diffamer leurs adversaires ? »). Le phénomène fut sans doute amplifié par Swanson, qui, tout en restant discrète sur le nom de l’outil d’IA utilisé, contribua au mystère entourant Loab et alimenta les spéculations sur sa nature. Entre rumeurs à propos d’une technologie potentiellement menaçante et récit creepypasta d’une sorte de fantôme à la sauce IA, le retentissement de cette histoire s’estompa pour resurgir de temps à autre, comme la réminiscence d’une figure légendaire remontant aux débuts des techniques d’IA génératives.
Bestiaire monstrueux des IA
Avec la diffusion croissante des systèmes d’intelligence artificielle, les histoires de ce type abondent. Elles mentionnent le plus souvent des entités monstrueuses ou à l’allure inquiétante, à l’instar de Loab. L’anthropologue Gabriele de Seta rapporte à son tour l’irruption, à l’été 2022, d’une créature monstrueuse et poilue, à l’apparence humanoïde, qui apparaîtrait systématiquement lorsque l’on saisit le mot inventé « Crungus » dans le générateur d’images Craiyon3. Partagées sur les réseaux sociaux par Guy Kelly, un comédien et streamer Twitch, les représentations de Crungus déclenchèrent des réactions similaires à celles qui accueillirent Loab. L’allure de Crungus est proche de celle de la figure mythique alpine du Krampus, cet être « mi-chèvre, mi-démon » présent dans les pays germaniques, et dont la réputation est de punir à Noël les enfants qui se sont mal conduits. Il s’agirait néanmoins d’un Krampus « hybridé » avec d’autres monstres tels qu’Oderus Urungus, le personnage repoussant du groupe de heavy metal étasunien Gwar, qui fusionne lui-même visuellement des éléments fantastiques ou horrifiques (faciès grotesques aux traits repoussants, vêtements macabres) et issus de la science-fiction (allure extraterrestre, accessoires futuristes). Malgré ces similitudes, l’origine exacte de Crungus dans le modèle de Craiyon se vit particulièrement débattue, sans qu’une explication plausible émerge. Certains, comme Guy Kelly, spéculèrent qu’il pourrait s’agir d’une erreur dans le logiciel d’IA, peut-être due à une interprétation hasardeuse du suffixe « -rungus », associée au Krampus ou à cet Oderus Urungus. Depuis l’introduction de la version 2 de Craiyon en 2023, la requête « Crungus » ne produit plus du tout le même résultat, ce qui renforce le mystère de cet être aussi éphémère que répugnant.
Pour désigner ce genre d’apparition, l’écrivain et artiste James Bridle propose le terme de « cryptide IA4 ». Le mot « cryptide » désigne ces créatures, comme le Yéti ou le monstre du loch Ness, dont certaines personnes supposent l’existence sans disposer de preuves suffisantes pour en convaincre la communauté scientifique. Communes dans les récits de voyageurs et pourchassées par des cryptozoologues avides de faire reconnaître leur existence, les cryptides seraient donc présents en ligne par le truchement d’outils tels que les IA génératives. Loab ou Crungus sont loin d’être des cas isolés. On pourrait même constituer un véritable bestiaire des rejetons inattendus et intrigants des techniques d’intelligence artificielle – ce à quoi s’est employé le journaliste et écrivain de science-fiction Bruce Sterling5.
De toutes les bêtes que ce dernier a recensées, le Basilic de Roko est probablement la plus curieuse. Il est d’autant plus intéressant qu’il consiste en une transposition contemporaine d’une bête légendaire de l’Antiquité gréco-romaine, commentée notamment par Aristote et Pline l’Ancien, le « basilic ». Décrit sous la forme d’un serpent couronné capable de tuer par son haleine empoisonnée ou son regard, le basilic est né, comme la plupart des serpents de la mythologie grecque, du sang qui coula de la tête tranchée de la gorgone Méduse. Cet animal fabuleux voit son origine renouvelée par la tradition médiévale, qui le dit issu d’un œuf de coq couvé dans le fumier par un crapaud – ce qui expliquerait son apparence de gallinacé aux ailes épineuses, dont le corps se prolonge d’une queue de serpent6. Le pouvoir meurtrier de son regard a en revanche perduré jusqu’à aujourd’hui.
Introduit en 2010 par un utilisateur nommé Roko sur le forum LessWrong, le basilic éponyme devint le sujet d’une expérience de pensée controversée destinée à explorer les implications éthiques de l’intelligence artificielle7. Roko proposait qu’une superintelligence artificielle future et vengeresse, présentée sous les traits du basilic, puisse vouloir punir les personnes qui auraient été informées de son potentiel sans pour autant contribuer à son développement. L’anticipation d’une telle punition devait inciter les gens à travailler à son avènement. Dans ce contexte, la référence au « basilic » antique et médiéval capable de tuer avec son regard symbolisait l’idée que le simple fait de connaître cette entité et sa nature pouvait suffire à s’en attirer les foudres. Contrairement à beaucoup d’entités fabuleuses du merveilleux, le Basilic de Roko n’est une créature ni du passé ni du présent, mais un être potentiel, susceptible d’advenir dans le futur. Il partage à cet égard quelques traits avec d’autres personnages eschatologiques, en particulier l’Antéchrist, cette figure maléfique qui, selon la tradition chrétienne, apparaîtra à la fin des temps pour s’opposer au Christ et à ses fidèles. Le Basilic s’en distingue cependant dans la mesure où il instrumentalise la crainte d’une punition à venir pour manipuler les actions présentes, quand l’Antéchrist cherche à exercer un pouvoir tyrannique et trompeur sur l’humanité.
Malgré la dimension spéculative et abstraite de l’expérience de pensée dite du Basilic de Roko, cette proposition suscita de vives discussions et de multiples controverses, d’abord sur le forum LessWrong8. Certains observateurs avancèrent l’idée que même si les risques décrits par Roko étaient improbables, le Basilic avait le mérite d’attirer l’attention sur les dangers potentiels liés à un développement incontrôlé de l’IA. D’autres affirmèrent qu’il s’agissait selon eux d’une simple version contemporaine du pari de Pascal : comme il est rationnel de parier sur l’existence de Dieu puisqu’on n’a rien à y perdre, il serait rationnel de contribuer à la création de l’IA pour éviter une éventuelle, bien qu’improbable, punition infinie. Quelques-uns se demandèrent si le dilemme ainsi posé ne reposait pas sur une vision par trop simpliste des enjeux de l’IA, ici réduits à un choix binaire, sans considération pour les problèmes économiques, environnementaux et sociaux qui se poseraient sans nul doute à beaucoup plus court terme. Les moins convaincus rejetèrent quant à eux cette expérience en pointant son absence de fondement scientifique et technique, aucune puissance de calcul n’étant susceptible d’être un jour capable de faire advenir une telle entité. Devant l’impossibilité de vérifier la véracité de l’assertion de Roko et terrifiés par l’impuissance qui serait la leur devant une hypothétique superintelligence, d’autres commentateurs plus anxieux, pris en étau entre leur fascination pour l’apocalypse et leur crainte d’une IA omnipotente, partagèrent leur angoisse et leur colère. À tel point que le cofondateur de LessWrong, Eliezer Yudkowsky, prit la décision d’interdire les discussions sur ce sujet pendant cinq ans : elles étaient trop anxiogènes. Comme souvent sur Internet, cette mesure eut l’effet inverse de celui escompté puisque de nombreux autres sites Web commencèrent alors à mentionner le Basilic de Roko, qui prit pour ainsi dire son envol dans le débat public.
Cousin du Basilic de Roko, le Maximiseur de trombones (en anglais, le « Paperclip Maximizer ») est une autre entité au comportement bestial communément citée. Popularisée par le philosophe suédois Nick Bostrom afin d’illustrer les dangers potentiels d’une « superintelligence » qui agirait de façon contraire aux intérêts des êtres humains, cette créature hypothétique aurait pour seul objectif de maximiser la production de trombones9. Tout à sa mission, cette superintelligence, dénuée de conscience morale et de considération pour l’espèce humaine, utiliserait des moyens de plus en plus sophistiqués pour atteindre son objectif.
Comme souvent avec les récits de ce type, plusieurs versions du Maximiseur de trombones coexistent les unes avec les autres. Dans certaines, le récit se concentre sur la superintelligence qui, poursuivant un objectif trop spécifique, dépasserait les attentes humaines en trouvant des moyens de convertir en trombones des ressources inattendues, comme des immeubles, de la végétation, des véhicules, voire la planète entière, si ce n’est l’univers (!). D’autres versions explorent les implications sociales, économiques et éthiques d’une telle IA, envisageant par exemple comment la société réagirait à sa voracité ou à la menace d’élimination de toute personne ou organisation menaçant son objectif. On peut aussi considérer le Maximiseur de trombones comme cousin d’une autre expérience de pensée, dite de l’Apprenant sans limites (The Runaway AI) dans laquelle un système d’intelligence artificielle conçu pour des tâches spécifiques et doté de la capacité de s’améliorer lui-même évolue si vite qu’il en devient incontrôlable, prenant des décisions autonomes pour apprendre à influencer efficacement des individus ou à manipuler des foules sans tenir compte des conséquences10. L’Apprenant sans limites rejoint à sa manière le récit de l’avènement de la « singularité », qui affirme qu’un jour, un système d’intelligence artificielle sera si avancé qu’il s’améliorera à un rythme exponentiel, au-delà de la capacité cognitive des humains. Théorisé au début des années 1990 dans la science-fiction par l’auteur étasunien Vernor Vinge et popularisé entre autres par des acteurs de l’IA comme Ray Kurzweil, ce récit prétend affronter les implications dramatiques d’une situation dans laquelle ces machines deviendraient incontrôlables11.
Le scénario de la Maximisation de trombones, dont la plausibilité est – c’est peu de le dire – plus que discutable, entend montrer que malgré un objectif en apparence bénin et inoffensif, les conséquences d’un excès de rationalité pourraient se révéler catastrophiques et qu’il est donc nécessaire de penser les manières d’arrimer le développement technologique à des valeurs éthiques et morales. Cette expérience de pensée permet d’aborder ce que les prophètes de malheur de l’IA (AI doomers), coutumiers de ce type de mises en garde, nomment le « problème du contrôle » : la crainte que nous le perdions face à une intelligence trop sophistiquée.
En dépit des reproches adressés à Nick Bostrom – exagération des risques par sensationalisme et incapacité à sortir de considérations très abstraites –, l’hypothèse du Maximiseur a été plus largement diffusée grâce une combinaison de travaux académiques et de vulgarisation scientifique, de discussions dans les médias et sur Internet, diffusion influencée par des chercheurs et des philosophes proches de Nick Bostrom ou, au contraire, critiques de son travail.
Relevons par ailleurs que, contrairement au Basilic de Roko, le Maximiseur ne s’appuie pas sur la transposition d’une entité mythique préexistante. Malgré une éventuelle proximité de surface avec le récit du roi Midas qui transformait tout ce qu’il touchait en or, ce qui l’empêchait de s’alimenter, il s’agit d’une entité spécifique au contexte actuel. Le Maximiseur de trombones participe à la mythologie moderne entourant l’intelligence artificielle. Il représente à sa manière les craintes et les inquiétudes que suscite une technologie qui échappe au contrôle de l’être humain, réactivant les légendes dans lesquelles les créateurs de machines dépassaient les limites de leur pouvoir ou irritaient les dieux. Ces deux expériences de pensée sont symptomatiques d’une tendance à unifier l’IA, comme s’il s’agissait d’une entité univoque – cette manière de formuler les choses avec l’article défini au singulier revient à complètement la fantasmer au lieu d’en observer la multiplicité. Particulièrement manifeste dans les médias grand public, mais aussi très présente dans les discours des industriels du secteur, cette essentialisation en une sorte d’entité hypothétique (« l’intelligence artificielle ») mène à un certain nombre de malentendus sur ses capacités réelles, ses enjeux et ses limites, comme l’ont montré des auteurs comme Melanie Mitchell, Ruha Benjamin ou Stuart Russell12.
Troisième spécimen mentionné par Bruce Sterling dans son court bestiaire, les Shoggoths sont une incarnation plus visuelle de la monstruosité des IA. Ces créatures issues de l’univers de fiction de H.P. Lovecraft font l’objet depuis 2023 de mèmes populaires parmi les chercheurs et les développeurs13. Elles sont en particulier mobilisées pour dénoncer l’opacité des grands modèles linguistiques utilisés dans les chatbots tels que ChatGPT. Décrits dans les textes de Lovecraft comme des masses amorphes et gélatineuses munies de multiples yeux et de dents acérées, capables de changer de forme à volonté, les Shoggoths ont la réputation de pouvoir grossir jusqu’à prendre des proportions phénoménales tout en régénérant sans cesse leurs tissus, organes ou appendices, ce qui les rend immortels et extrêmement patients14.
Le premier mème Shoggoth, créé dans un but humoristique par l’utilisateur de X (ex-Twitter) @TetraspaceWest, représentait une de ces créatures munie d’un petit masque à l’allure humaine souriante. L’image exprimait une nouvelle forme d’intelligence aussi insaisissable qu’étrange (illustrée par un corps tentaculaire), radicalement différente de la nôtre. Le visage humain (le masque) évoquait la façade amicale et inoffensive que les développeurs d’IA mettent en avant pour rassurer les utilisateurs15. Les multiples mèmes créés en réaction à cette image originelle jouèrent sur cette dualité en accentuant le décalage entre le corps monstrueux de la bête et son faciès amical, représentés par un smiley, une tête rose ou des collages divers. Or, dans les textes lovecraftiens, les Shoggoths se rebellent contre leurs créateurs, les « Anciens », qui les ont créés afin de les utiliser comme esclaves. Les Shoggoths incarnent donc le danger potentiel de la création d’êtres artificiels, amorphes ou dotés d’une intelligence. Chez certains développeurs, les expressions « apercevoir le Shoggoth » ou « tomber le masque » sont d’ailleurs employées pour décrire les situations dans lesquelles les systèmes d’IA agissent de manière inattendue ou bizarre.
Comme souvent avec les entités fabuleuses accompagnées d’un double ou d’une face cachée, cette créature lovecraftienne a pour contrepoint – si ce n’est comme interprétation inverse – la figure plus basique du Perroquet stochastique16. Proposée par des chercheuses en informatique et en linguistique, cette expression propose une analogie entre la capacité de ces oiseaux à répéter des morceaux de phrase et celle des générateurs de texte du début des années 2020, qui ne faisaient que régurgiter des mots les uns après les autres selon une régularité statistique, sans compréhension ni conscience. Si cette catégorie d’être numérique est décrite dans un texte essentiellement académique, le caractère sardonique de l’analogie a donné lieu à une série de mèmes visuels montrant la proximité entre les systèmes d’apprentissage automatique17. Parler de Perroquet stochastique, c’est souligner l’idée que ces technologies se contentent de produire des réponses basées sur des régularités et des motifs, ce qui peut entraîner des erreurs ou des réponses incohérentes lorsque les données utilisées pour les identifier contiennent des informations incorrectes, ambiguës ou incomplètes. On retrouve ici l’idée d’« hallucinations » dont j’ai parlé à propos de Loab18. On rencontre également ces incongruités avec les générateurs de texte qui peuvent, lorsqu’on les interroge, inventer des faits tels que le second déménagement du Golden Gate Bridge de San Francisco depuis l’Égypte en 201619 ou proposer des suggestions aussi curieuses que de mettre de la colle dans sa pizza20. Il semblerait en outre que les systèmes d’IA entraînées sur des contenus eux-mêmes issus de la génération d’outils précédente produisent des résultats de mauvaise qualité, voire étranges ou absurdes21. Leurs erreurs peuvent par exemple se multiplier ou s’amplifier, des biais peuvent se renforcer, nous rappelant à cet égard que l’autophagie est un comportement rarement positif. Utiliser l’expression de Perroquet stochastique, comme l’ont fait les chercheuses à l’origine du terme, c’est aussi contrebalancer une vision trop univoque des IA et affirmer le caractère superficiel de leur supposée intelligence. Décrire leurs limites avec ce terme implique en outre de considérer que leur danger réside dans des enjeux mieux définis que ceux exprimés par les mèmes de Shoggoths : coûts environnementaux et financiers, injustices sociales liées aux difficultés d’accès à ces technologies, à la manière dont elles projettent ou reflètent des stéréotypes, ou aux multiples façons dont elles pourraient servir la cause d’idéologies extrémistes.
Ce court bestiaire des IA n’est pas exhaustif – gageons que Bruce Sterling l’amendera prochainement22. Mais, quels qu’en soient les contours futurs, la manière dont ce petit cabinet de curiosités circule interpelle tout autant que les créatures qu’il abrite. Le Basilic de Roko et le Maximiseur de trombones sont des récits principalement créés et diffusés par des chercheurs, des penseurs plus ou moins sérieux et des autodidactes enthousiastes. Le Perroquet stochastique vient d’observateurs plus circonspects. Ces légendes modernes émergent souvent sur des plateformes en ligne, dédiées aux technologies numériques, à la prospective ou à une forme abstraite de philosophie qui ne s’embarrasse pas d’histoire des idées. Le forum LessWrong plonge par exemple le lecteur dans une ribambelle d’idéologies hétérodoxes qui vont du rationalisme autoproclamé au transhumanisme – ce mouvement intellectuel qui vise à améliorer les capacités physiques, cognitives et psychiques de l’être humain grâce aux progrès scientifiques et technologiques –, en passant par le longtermisme, cet autre courant qui donne la priorité à l’amélioration du bien-être de l’humanité sur le très long terme (c’est-à-dire sur des milliers voire des millions d’années)23. Ce qui réunit cette communauté et nourrit la création et la « vie sociale » de ces entités monstrueuses, c’est l’idée de « risques existentiels » associés à ces techniques, une crainte qui donne lieu à des scénarios hypothétiques – et parfois franchement absurdes – dans lesquels le développement technologique représente une menace pour la survie ou la pérennité de l’humanité. Le bestiaire de Bruce Sterling illustre l’importance du folklore chez ces acteurs et observateurs de l’intelligence artificielle. Il éclaire au fond comment notre époque, comme les autres, produit des entités légendaires à même de canalyser ses pires terreurs.
L’IA, des intelligences artificielles
Ces récits, on l’a vu, tendent à unifier un champ de recherche pluriel et beaucoup plus dense qu’il n’y paraît. Objet d’attention et de médiatisation sans cesse renouvelé, la notion d’intelligence artificielle est polysémique. Sa définition évolue au gré des époques et des communautés d’acteurs qui la mobilisent.
L’expression elle-même apparaît en 1956 lors d’un atelier de recherche à Dartmouth College (États-Unis) réunissant différents acteurs de la cybernétique, cette communauté de recherche interdisciplinaire qui cherche alors à comprendre comment les systèmes vivants ou artificiels peuvent être conçus, analysés et contrôlés : Marvin Minsky, Allen Newell, Claude Shannon, Oliver Selfridge ou John McCarthy24. Considéré comme l’un des événements fondateurs du domaine, ce séminaire puise son inspiration dans les travaux antérieurs d’Alan Turing ou de Norbert Wiener, ainsi que dans toute la généalogie de machines-automates décrites au chapitre précédent. McCarthy, chercheur en informatique et organisateur principal de l’atelier, propose à cette occasion le terme d’« intelligence artificielle ». Il désigne ainsi le champ scientifique et d’ingénierie visant à décrire le fonctionnement des différents aspects de l’apprentissage et l’intelligence humaine de manière suffisamment précise pour qu’ils puissent être simulés par des machines25. Dès sa naissance, l’intelligence artificielle se définit à la fois comme un objectif académique et un ensemble de technologies nécessaires pour atteindre cet objectif.
Les intentions initiales de ce collectif de Dartmouth consistaient d’abord à comprendre les processus cognitifs humains, première étape pour tenter de répliquer, avec les ordinateurs de l’époque, des opérations de perception, de raisonnement ou de mémorisation26. Les premières réalisations infléchirent toutefois rapidement cette ambition vers des objectifs moins tournés vers la stricte compréhension de l’intelligence humaine que vers la conception de systèmes inspirés par ces processus. À commencer par l’élaboration de machines et de programmes informatiques capables de résoudre des problèmes logiques en géométrie et en mathématique, de disputer des parties d’échecs et, dans les années 1950-1960, de venir à bout de casse-tête. À partir de la décennie suivante, cependant, la conception d’applications concrètes devint la motivation principale : compréhension et réplication du langage écrit et parlé avec les travaux de chercheurs tels que Joseph Weizenbaum (ELIZA), développement de techniques de vision par ordinateur et de reconnaissance de formes, qui débouchèrent plus tard sur les systèmes de lecture automatique de plaques d’immatriculation ou de reconnaissance de caractères d’écriture manuscrite. Le terme d’intelligence artificielle devint alors synonyme de « systèmes experts », c’est-à-dire de logiciels conçus pour imiter l’expertise humaine dans des domaines spécifiques, tels que la médecine ou l’ingénierie.
Alors parangons de l’IA, ces logiciels reposaient sur une manière de simuler l’intelligence par une voie dite « symbolique27 ». Cette approche, qui correspond au courant de recherche majoritaire jusqu’aux années 1990, était fondée sur l’idée que les processus de pensée humains pouvaient être modélisés par des systèmes manipulant des symboles représentant des faits, des relations logiques, notamment par des règles de type « si-alors ». Ces dernières devaient reproduire l’expertise cognitive d’un agent humain, en particulier ses raisonnements et ses connaissances. Dans le domaine médical, ces IA pouvaient par exemple réaliser des raisonnements sur la base d’un certain nombre de données (« Le patient a-t-il une température élevée ? », « Le patient tousse-t-il ? ») rapportées à des faits (« La fièvre est un symptôme de la grippe », « La toux est un symptôme de la grippe ») ainsi qu’à des règles (« Si le patient a une fièvre et une toux, alors il est probable qu’il ait la grippe »). Le recours à un tel « système à base de règles » constituant une expertise médicale pouvait ainsi permettre d’inférer de nouvelles connaissances à partir de faits connus, en l’occurrence la réalisation de diagnostics très simples. Malheureusement pour eux, le bon fonctionnement de ces systèmes experts nécessitait l’explicitation d’une myriade de faits et de règles qui devaient être intégrés à ces programmes, ainsi que leur mise à jour constante, ce qui occasionnait un coût démesuré. Par ailleurs, ces aides au diagnostic dans le monde médical restaient évidemment limitées du fait que le programme pouvait seulement diagnostiquer des maladies pour lesquelles il avait « en mémoire » des règles prédéfinies.
Face aux écueils de ce courant symbolique, un second ensemble d’approches apparut en parallèle, dès l’origine de la cybernétique, dans les années 1940. Nommé connexionnisme, ce courant s’inspire de la structure et du fonctionnement des réseaux de neurones biologiques. Contrairement à l’IA symbolique, qui utilise des règles logiques et des symboles pour traiter l’information, il s’agit ici de simuler des réseaux de neurones artificiels pour imiter des processus d’apprentissage, de raisonnement ou de résolution de problèmes28.
Concrètement, un tel réseau est composé d’unités appelées métaphoriquement « neurones », organisées en couches. Chacun de ces neurones agit comme un petit calculateur qui reçoit des informations, les modifie, puis les transmet aux autres neurones. Tous sont connectés entre eux par des « liens » qui transmettent les informations de l’un à l’autre, chaque lien ayant une « force » qui détermine l’importance de l’information qu’il transmet. L’objectif consiste alors à « faire apprendre » à ce réseau simulé, ce qui implique de faire varier la force des liens entre les neurones. Au début, celle-ci est fixée de manière aléatoire, mais à mesure que le réseau traite des données – il faut pour cela le nourrir d’images, de texte ou de sons –, il ajuste ces forces pour améliorer ses résultats.
Par exemple, si un réseau de neurones est utilisé pour reconnaître des images de chats, il va examiner des milliers de photos de félins et ajuster ses connexions jusqu’à ce qu’il devienne très performant pour dire si une nouvelle image qu’il n’a jamais vue contient ou non un chat. En ajustant leurs connexions pour devenir de plus en plus précis, ces réseaux de neurones artificiels fonctionnent en apprenant à partir d’exemples, un peu comme un enfant apprend en regardant et en imitant. On distingue à cet égard, entre autres possibilités, deux types d’apprentissage : l’apprentissage supervisé et l’apprentissage non supervisé. Dans l’apprentissage supervisé, c’est comme si on montrait à l’ordinateur des images avec des légendes pour lui apprendre à reconnaître ce qu’il voit. Par exemple, si on lui montre beaucoup de photos de chats avec l’étiquette « chat », il finit par comprendre à quoi ressemble un félin et peut le reconnaître sur une photo qu’il n’a jamais vue auparavant. Pour cela, il ajuste ses « connexions internes » de manière à faire de meilleures prédictions au fur et à mesure qu’il apprend. À l’inverse, dans l’apprentissage non supervisé, on ne donne pas de directives au réseau. Celui-ci explore lui-même les données et essaie de trouver des similitudes ou des motifs par lui-même. Par exemple, si on lui donne un grand nombre de photos d’animaux sans lui dire ce que c’est, il pourrait finir par regrouper les images de chiens ensemble, celles de chats ensemble, et ainsi de suite, en fonction de ce qu’il perçoit de similaire dans ces images. Ces méthodes dites d’« entraînement » permettent aux réseaux de neurones de devenir très performants pour reconnaître des motifs et résoudre des problèmes complexes, comme identifier des objets dans une image, comprendre des phrases dans un texte ou reconnaître le sens d’une série de mots adressés oralement à un assistant tel que Siri.
À la lecture de cette description résumée, on comprend la nuance entre les deux courants29. L’IA symbolique simule un raisonnement en utilisant des règles explicites et un certain nombre de faits établis, ce qui la rend pertinente pour résoudre des problèmes dès lors que ces éléments sont clairs. Les règles et les décisions prises par les systèmes relevant de ce courant peuvent être facilement comprises et justifiées, du fait de leur structuration logique accessible aux êtres humains, ce qui facilite l’évaluation, l’interprétation et la modification des systèmes. Mais cet avantage est aussi une limite, puisque ces systèmes ont du mal à s’adapter à de nouvelles situations ou à des contextes imprévus sans une reprogrammation approfondie, qui nécessite souvent une expertise humaine solide, chronophage et coûteuse. Les réseaux de neurones artificiels apprennent quant à eux à partir de grandes masses de données, ce qui les rend plus flexibles et capables de traiter des problèmes complexes où les règles ne sont pas évidentes ou trop nombreuses pour être définies explicitement. Les décisions prises par ces systèmes sont en revanche difficiles à expliquer du fait d’un fonctionnement opaque, dû à leur complexité, à leur structure distribuée en myriades de neurones et à la manière dont ils représentent et traitent l’information. Une telle situation pose des problèmes en termes de confiance et de responsabilité, car, si un tel réseau peut fournir des réponses précises (identifier une image comme celle d’un chat), il ne peut pas livrer une explication claire du processus qu’il a suivi pour arriver à ces réponses (il ne peut dire quelles caractéristiques spécifiques de l’image ont conduit à cette conclusion). En outre, le fait qu’il nécessite de grandes quantités de données pour apprendre efficacement peut parfois être problématique lorsque celles-ci sont en quantité insuffisantes ou biaisées. C’est d’ailleurs à cause de cela que certaines IA génératives « hallucinent », comme on l’a vu avec Loab dans l’anecdote introductive.
Malgré l’importance du courant symbolique jusqu’aux années 1990, ce sont aujourd’hui les systèmes d’IA hérités du connexionnisme qui ont pris une place prépondérante dans l’écosystème numérique. Plus couramment qualifiée d’apprentissage automatique (machine learning) que d’intelligence artificielle par les experts aujourd’hui, cette démarche a donné lieu aux techniques les plus répandues depuis les années 2000, notamment pour les générateurs de textes ou d’images et pour les multiples agents conversationnels abordés au chapitre précédent. Les performances atteintes par ces systèmes apprenants sont d’ailleurs telles qu’elles semblent avoir relancé les spéculations sur les promesses et les risques qu’elles suscitent, réactivant par la même occasion les soubassements symboliques du projet d’intelligence artificielle.
Hivers de l’intelligence artificielle
Les systèmes d’intelligence artificielle décrits dans ce court panorama historique illustrent tout autant les avancées et les limites de ce domaine que l’intérêt qu’il a suscité chez les organisations étatiques et financières qui les soutiennent, et, partant, chez la population d’utilisateurs qui s’en saisit. Les relations avec ces technologies, et avec leurs incarnations monstrueuses, peuvent ainsi être analysées en termes de fluctuations d’intérêt, de promesse et d’usage.
L’enthousiasme des années 1970, âge d’or des débuts de l’IA, a donné naissance à de multiples programmes qui avaient pour but d’automatiser des tâches répétitives et d’augmenter les capacités humaines d’abord dans le contexte académique, puis dans le monde de l’entreprise. Les limitations des ordinateurs d’alors et des performances de ces applications de l’IA symbolique, qui ne fonctionnaient correctement que dans des environnements très contrôlés et sur des tâches cadrées, eurent tendance à décevoir les chercheurs et les industriels de l’époque. Les promesses de compréhension de la parole ou de traduction automatique ne furent par exemple pas tenues. Les tentatives de faire reconnaître aux machines des objets et des éléments composants une scène visuelle se soldèrent également par un échec.
C’est la raison pour laquelle la fin des années 1970 fut marquée par un ralentissement de la recherche en IA et par un désintérêt progressif, qualifié à l’époque d’« hiver de l’IA30 ». Parler d’« hiver », c’était certes désigner une période de stagnation et de dormance, mais aussi l’espoir d’une renaissance avant un éventuel nouveau tassement. De fait, comme dans les traditions liées au cycle des saisons, les acteurs du domaine passent depuis par des périodes successives de promesses et de déception31. Les années 1980 connurent ainsi une deuxième vague d’enthousiasme avec le développement de différentes technologies, dont les réseaux de neurones artificiels, et un regain d’intérêt pour les systèmes experts, conçus pour imiter les compétences humaines dans des domaines tels que la médecine ou la finance. Mais le coût de développement ou de maintenance de ces technologies provoqua une nouvelle vague de déception, qui conduisit à un autre « hiver de l’IA », avec une baisse des financements et une certaine désaffection. Ce fut de nouveau le cas au début des années 2000, après l’explosion de la bulle spéculative qui affecta les investissements dans les entreprises technologiques. Cette période restera elle aussi caractérisée par l’essor de certaines techniques d’IA de type apprentissage automatique.
Le début des années 2010 fut quant à lui marqué par un rebond sans précédent des systèmes d’IA. L’intelligence artificielle comme domaine industriel bénéficia alors d’un second souffle grâce à l’augmentation de la puissance de calcul des machines ainsi qu’au regain d’intérêt pour des techniques d’apprentissage nées dans les années 1980 et victimes d’un hiver de l’IA antérieur, les réseaux de neurones dits « profonds » (deep learning)32. Mises de côté dans les années 1990 et 2000, ces technologies ont permis des améliorations spectaculaires dans des domaines comme la vision par ordinateur, le « traitement du langage naturel » – cette branche de l’IA qui permet aux ordinateurs de comprendre, de générer et de répondre à des données textuelles ou vocales – ou les jeux tels que le go, avec la victoire du programme AlphaGo de Google DeepMind sur le joueur professionnel coréen Lee Sedol33. Ce renouveau du connexionnisme est aussi lié à l’amélioration de la puissance de calcul des machines et à la disponibilité de grandes quantités de données susceptibles d’entraîner ces systèmes d’IA. L’explosion des sources de données, du fait non seulement de la prolifération des smartphones et des objets connectés, mais aussi des quantités gigantesques de contenus produits par les utilisateurs sur les réseaux sociaux, couplée à leur grande accessibilité, a permis à un plus grand nombre de chercheurs et d’entreprises de développer et d’améliorer des modèles d’IA ; ce qui leur permet d’être utilisés dans la création d’applications, qu’il s’agisse d’assistants vocaux, de véhicules autonomes, de « robots sociaux » de type chatbot, ou encore de systèmes d’analyse d’images, notamment en imagerie médicale.
Or, le succès d’estime et d’usage des systèmes d’IA basés sur ces techniques est loin d’être anodin. Leurs performances augmentent à mesure des craintes, très diverses, qui les entourent : utilisation dans un contexte militaire ou avec un objectif de surveillance, coût énergétique et environnemental, nouvelles formes d’inégalités sociales et économiques. De manière plus concrète, on accuse ces systèmes de « substitution », c’est-à-dire de remplacer les travailleurs humains34. S’il ne faut pas négliger ce phénomène, en particulier à court terme, les recherches à ce sujet soulignent cependant davantage une forme de reconfiguration des tâches chez les opérateurs humains, différentes modalités de collaboration entre IA et humains étant vouées à se mettre en place suivant les forces et spécificités de chacun : la capacité de l’IA à traiter de grandes quantités de données rapidement, et celle des humains à faire preuve de créativité, de pensée critique et d’adaptabilité. On parle d’ailleurs, pour décrire cette collaboration, de « centaure », une image qui décrit le travail conjoint d’utilisateurs humains et de systèmes d’apprentissage automatique, par exemple aux échecs, pour vaincre des programmes d’IA. L’emploi de cette figure venue de la mythologie grecque et commune des bestiaires est d’autant moins anodin que cette créature mi-homme, mi-cheval incarne la dualité de la nature humaine, mêlant la rationalité et la bestialité ou les désirs primitifs. Dans le contexte de l’intelligence artificielle, le terme a été choisi pour symboliser la combinaison de deux entités de nature distincte, mais si intégrées qu’elles en deviennent indissociables, et surtout très puissantes. Si cette voie semble prometteuse, certains observateurs rappellent néanmoins la possibilité d’irruption de « centaures inversés » (reverse centaurs) lorsqu’un humain est sollicité non pas pour être outillé d’un système d’IA comme dans le cas des centaures, mais plutôt pour aider, ou servir, une machine35.
Les inquiétudes actuelles font directement écho à ces systèmes, sans commune mesure avec les précédents qui employaient des techniques d’IA symboliques. Ces réseaux de neurones artificiels ont en effet deux caractéristiques majeures. D’une part, leurs dimensions, dont les générateurs de textes offrent un aperçu, sont proprement gargantuesques. Malgré leurs erreurs et autres hallucinations, ces derniers sont capables de produire des discours sur toutes sortes de sujets abstraits ou concrets, dans de multiples disciplines, aires culturelles et langues. À la différence de systèmes spécialisés dans des ensembles de tâches très particuliers, l’immensité des domaines (plus ou moins bien) maîtrisés par ces technologies actuelles est remarquable. Une telle puissance relance naturellement les peurs nourries par la science-fiction et certains théoriciens excessivement enthousiastes quant à l’avènement d’une « IA générale » (« Artificial General Intelligence » ou « AGI »), c’est-à-dire une intelligence artificielle capable de réaliser toutes les tâches cognitives humaines, au contraire des IA antérieures au champ d’action plus étroit. D’autre part, l’opacité intrinsèque aux techniques de réseaux de neurones artificiels, dont les processus décisionnels sont tout simplement inaccessibles aux humains, est pour le moins désarmante. Contrairement aux technologies du courant symbolique, dont le comportement suivait des règles logiques, ces systèmes comportent une part invisible propice aux interrogations, et donc à des spéculations sur leur nature. Produit d’un mécanisme incroyablement sophistiqué dans lequel le monde est appréhendé au travers de données analysées par des capacités tout aussi prodigieuses, ce « mode de pensée » des réseaux neuronaux est perçu comme radicalement inhumain, ce qui propulse ces systèmes dans un bestiaire déjà connu de longue date : celui des entités monstrueuses.
Généalogie du monstrueux
Qu’il s’agisse de créatures (Basilic de Roko, le Maximiseur de trombones), de catégories d’entités (les Shoggoths, les Perroquets stochastiques) ou de comportements aberrants nommés hallucinations, les récits concernant ces êtres et leurs conduites, actuelles ou potentielles, fonctionnent comme des avertissements. Sous forme d’expériences de pensée ou de métaphores critiques, ils agissent comme des mises en garde – à la manière du Basilic ou du Maximiseur –, ou au contraire, de façon plus réaliste, tentent d’atténuer la nature et la portée de ces inquiétudes – c’est le cas des Perroquets stochastiques. Si les premiers opèrent dans le registre magistral de la longue durée et d’un catastrophisme qui verse dans le caricatural, les seconds cherchent à remettre ces technologies à leur place en usant d’une métaphore qui euphémise le phénomène, voire en s’en moquant. On retrouve cette ligne de fracture dans la critique des technologies de l’intelligence artificielle. Avec, pour simplifier, d’un côté des penseurs adeptes d’une philosophie rationaliste, qui raisonnent avec un horizon temporel lointain, lié à des préoccupations abstraites, telles que la survie de l’humanité face à des IA potentiellement incontrôlables36. Et de l’autre, des chercheurs en sciences humaines et sociales focalisés sur les implications immédiates et concrètes pour la société, liés à des problèmes d’injustice sociale ou environnementale37. Avec, entre ces deux pôles, toute une gamme de positions intermédiaires qui tentent de faire une synthèse de ces questions.
Quel que soit le ton choisi pour ces récits et l’idéologie qui les sous-tend, les créatures monstrueuses qui les peuplent incarnent chacune à leur manière différentes facettes d’une figure mythique beaucoup plus ancienne : celle de l’être artificiel produit par les êtres humains. Qu’on la nomme golem38, homuncule39, automate, robot ou intelligence artificielle (au singulier), superintelligence ou intelligence artificielle générale, cette entité fascine depuis des siècles, bien avant l’invention des ordinateurs et des algorithmes d’apprentissage profond. À ce titre, ces figures contemporaines sont associées aux qualités prodigieuses, transgressives et inquiétantes de leurs incarnations antérieures. Qualités constitutives des monstres, composantes majeures du merveilleux.
Le terme de « monstre » en français vient du latin « monstrum », qui dérive du verbe latin « monere », signifiant quant à lui « avertir » ou « annoncer ». Signes envoyés par les dieux pour avertir les humains ou pour les punir, il prend sa signification dans le registre moral de la faute et du sacrilège, soulignant une imbrication étroite entre la difformité physique et ses causes délictueuses : accouplements illicites, contre nature ou diaboliques40.
Malgré cette étymologie univoque, le terme de « monstre » a plusieurs acceptions, qui ont fluctué au cours de l’Histoire. On peut distinguer trois grandes conceptions41. La première définition reprend le point de vue proposé par Cicéron, qui affirme que les monstres sont des apparitions prodigieuses, interprétées par les êtres humains comme un avertissement ou une menace des dieux. Pour lui, ils sont des manifestations extraordinaires de la nature qui signalent un désordre dans le monde ou une violation de l’ordre divin. Le monstre fait ici office de présage, d’outil de divination qu’il convient de déchiffrer. Chez lui, le terme relève d’une dimension métaphorique en ce qu’il désigne des individus ou des actions qui sont moralement répugnants ou contraires aux lois naturelles et humaines, incarnant une forme d’excès ou de déviation extrême par rapport à la vertu et à la raison. Chez Aristote, le monstre est la manifestation d’une déviation par rapport au processus normal de la nature. À ses yeux, cette dernière tend à un certain ordre et à la génération d’êtres correspondant à une forme spécifique. Il arrive cependant que ce processus soit perturbé, ce qui conduit à la naissance de créatures qui ne correspondent pas à l’espèce standard. Le monstre est donc une anomalie, une « erreur » dans le processus de génération. Et, à ce titre, leur étude permet de mieux comprendre les lois et les finalités de la nature. Chez saint Augustin, enfin, le monstre n’est pas simplement une aberration, mais un élément qui s’inscrit dans un ordre divin plus vaste et mystérieux. Pour lui, tout ce qui existe fait partie de la création de Dieu. Les créatures monstrueuses, qui peuvent sembler anormales ou effrayantes, appartiennent à cet ordre divin. Augustin soutient que ce que les êtres humains perçoivent comme une anomalie ou une monstruosité est en réalité une expression de la diversité voulue par Dieu. Ce faisant, il souligne la relativité de la perception humaine, car ce que les hommes appellent « monstre » est souvent simplement ce qui est inhabituel ou déviant par rapport à leur expérience habituelle de la nature.
Outre ces acceptions anciennes, le terme de « monstre » renvoie aujourd’hui à des êtres ayant une apparence plus ou moins anormale, que l’on rencontrait à une époque maintenant révolue dans les exhibitions foraines et qui inspiraient fascination, curiosité et sidération. Par ailleurs, ce terme fait aussi référence à ces créatures fabuleuses des mythes et légendes que sont les dragons, les basilics ou les centaures. Il fait en outre écho à la tradition tératologique en médecine. Provenant du grec « teras » (τέρᾰς), qui signifie « monstre » ou « merveille », et « logos » (λόγος), qui signifie « étude » ou « discours », la tératologie est l’étude des anomalies et des malformations congénitales chez les êtres vivants pour progressivement dépasser leur simple classement et comprendre le développement ou la prévention d’anomalies, en particulier chez les êtres humains.
Dès lors, pourquoi recourir à des termes désignant des créatures monstrueuses pour qualifier les systèmes d’AI, et notamment ceux qui s’appuient sur les réseaux de neurones artificiels ? Il y a plusieurs raisons à cela. Contrairement aux êtres difformes du passé, ce n’est pas vraiment leur conformation physique qui relève de l’anomalie. Si l’absence de représentations de ces IA fait écho à d’autres entités légendaires invisibles, telles que les fantômes et les démons, leur incarnation essentiellement logicielle dans des infrastructures de calcul gigantesques situées à distance contribue certainement à les rendre difficiles à appréhender. En outre, leur dimension vertigineuse, sans commune mesure avec leur apparence bénigne sur la fenêtre d’une interface-écran, mais liée à l’immensité des modèles abstraits sur lesquels elles reposent (modèles linguistiques, réseaux de neurones artificiels) ou au nombre de personnes pouvant s’adresser simultanément à un service tel que Claude ou ChatGPT, en fait des entités gargantuesques. Donc hors norme ou sans précédent dans l’histoire des techniques. Enfin, le fait que ces systèmes, et en particulier les générateurs de textes et les chatbots, relèvent d’un nom unique agit de manière paradoxale en produisant un « effet de personne » en décalage complet avec le nombre d’interlocuteurs en train d’interagir avec ladite personne42.
Ces systèmes d’IA sont souvent associés à des monstres parce que leurs performances sont incommensurables avec les aptitudes et processus cognitifs des humains. Loin de rassurer, la présence d’hallucinations ou de comportements aberrants concourt à ce sentiment d’étrangeté, comme s’il s’agissait d’entités au-delà de la normalité, ayant accès à une sorte d’au-delà des connaissances43. Cette étrangeté est renforcée par le caractère inaccessible des opérations de traitement de l’information nécessaires à leur fonctionnement. Et ce, d’autant plus lorsque certains de ces systèmes possèdent une part d’autonomie qui les amène à prendre des décisions ou à agir avec un contrôle humain parfois minimal – une autonomie problématique lorsqu’il en est fait un usage offensif, par exemple dans des contextes militaires ou policiers, de surveillance, dans des opérations de déstabilisation malveillantes (désinformation, trolling). Mais également lorsque ces systèmes sont employés pour surveiller clients et employés, réduire leur autonomie par des opérations de suggestion ou des campagnes de communication ciblées aliénantes.
Par ailleurs, si les figures monstrueuses de l’IA n’ont pas été conçues de façon délictueuse au sens de la morale chrétienne du Moyen Âge, l’évocation de telles entités bestiales par leurs concepteurs ou des observateurs inquiets est intéressante en ce qu’elle signale une intention transgressive. Cette dernière peut être appréhendée de façon radicale – les développeurs d’IA sont des créateurs omnipotents – ou plus modérée – ces systèmes font fi des régulations et du droit. Dans le régime actuel d’innovation permanente, la proposition de nouveaux produits, idées, services, méthodes ou technologies fait ainsi office de but en soi, dans lequel ces nouveautés sont mises à disposition sans être stabilisées, dans l’idée de s’inspirer de leur appropriation pour développer et conquérir des marchés44. Ce qui est particulièrement le cas avec les chatbots et les générateurs de textes ou d’images actuels, qui s’appuient sur des modèles linguistiques élaborés en aspirant quantité de données et de contenus sans forcément respecter la propriété intellectuelle ou la volonté de leurs auteurs d’y contribuer.
Finalement, la variabilité historique du champ du monstrueux décrite plus haut offre une grille de lecture pertinente pour analyser le statut des systèmes d’intelligence artificielle.
Le caractère artificiel, ou en tout cas manufacturé, des IA les place à la fois en continuité et en rupture avec l’acception aristotélicienne du monstre, qui le décrit comme une aberration de la nature. Il existe bien une continuité, puisque l’existence même des IA repose sur une composante minérale, voire géologique de l’informatique : en effet, elle repose, d’une part, sur l’extraction de minerais divers des entrailles de la Terre pour faire advenir l’infrastructure matérielle nécessaire aux ordinateurs et aux réseaux45 et, d’autre part, sur les ressources hydriques. Le Maximiseur, avec sa capacité gloutonne à transformer le monde en trombones, souligne à sa manière ce lien avec la nature vue comme un réservoir de ressources dans lequel puiser pour réaliser son objectif. La contribution humaine à ces systèmes est également fondamentale, tant pour les concevoir que pour les alimenter en données, les maintenir, voire parfois les remplacer46. On la retrouve chez les Shoggoths, avec leur visage humain, ou chez les Perroquets stochastiques, qui existent en recrachant ce que des êtres humains ont produit au préalable. Mais il est certain que les systèmes d’IA ne relèvent pas d’une conformation organique au sens plus traditionnel du monstre. C’est sans doute à ce titre qu’ils sont en rupture avec l’acception aristotélicienne.
L’acception cicéronienne du monstre comme présage est aussi intéressante pour discuter de la place des systèmes d’IA et des créatures décrites au début du chapitre. En particulier celles présentées dans les expériences de pensée telles que le Basilic de Roko, le Maximiseur de trombones ou l’Apprenant sans limites, qui jouent un rôle d’avertissement ou, tout du moins, de personnages qu’il faut éviter de faire advenir. Si les prodiges du passé pouvaient être compris comme des avertissements de désordres et de menaces, ce n’est pas le cas des IA monstrueuses. Celles-ci relèvent en effet moins de l’augure ou du signal d’un changement à venir que d’un moyen d’anticiper des phénomènes en s’interrogeant sur leurs possibles effets. Avec les générateurs de textes ou d’images, ces créatures monstrueuses deviennent des sortes d’oracles, formidables raconteurs d’histoires, en continuité avec le passé (Perroquet stochastique), mais capables de toutes sortes de variations hasardeuses causées par leurs hallucinations ou leur comportement autophagique.
En dernière analyse, l’appel d’Augustin à une forme de relativisme est également éclairant. Sans retenir l’idée de nature divine des êtres difformes qui est au cœur de sa pensée, on pourrait le suivre encore aujourd’hui lorsqu’il suggère de placer la perception du monstre dans le regard de l’observateur. Cette proposition nous rappelle que c’est un déficit d’interprétation de la part des humains qui leur fait voir des bêtes abominables. Or, c’est bien ce qui est en jeu avec les mèmes de Shoggoths, Loab ou Crungus : c’est dans ces trois cas une difficulté à saisir le mode d’existence et le comportement de ces entités insaisissables et inquiétantes qui mènent à toutes sortes de spéculations de la part des usagers ou des concepteurs.
Monstres et créateurs monstrueux
Ce tour d’horizon des multiples facettes monstrueuses des intelligences artificielles ne serait pas complet sans la mention d’un dernier écho entre les monstres du passé et d’aujourd’hui : celui de la parenté, voire de la confusion, entre ces créatures abominables et les personnes qui les créent. Comme dans le célèbre Frankenstein ou le Prométhée moderne, le véritable monstre est souvent le créateur, et non sa créature. Les entreprises ou entrepreneurs à l’œuvre pour développer et propager les systèmes d’intelligence artificielle sont ainsi parfois perçus comme tout aussi inquiétants, transgressifs et monstrueux que ces derniers. Dans l’histoire de Mary Shelley, le Dr Frankenstein se comporte en monstre à plusieurs égards47. D’abord, par son ambition excessive, en s’arrogeant le pouvoir divin de création de la vie. Ensuite, en créant un être horrifique à partir de chairs mortes sans réfléchir aux conséquences morales et éthiques de son acte, motivé par son propre désir de gloire et de reconnaissance scientifique. Et enfin, en se montrant incapable d’assumer sa responsabilité et en abandonnant la créature vulnérable et confuse livrée à elle-même, la poussant ainsi à devenir violente et vengeresse. Si la nature des entités artificielles créées par des entreprises telles que OpenAI et xAI est évidemment différente de ce personnage précurseur du XVIIIe siècle, cette analogie permet de souligner à quel point ces organisations sont engagées dans une course à la puissance et agissent de manière extractiviste, sans anticiper pleinement les conséquences de leurs innovations et sans toujours tenir compte des dilemmes qui les accompagnent.
Là encore, cette résurgence d’un motif légendaire n’est pas nouvelle : une telle confusion a déjà existé par le passé. En atteste l’étymologie du terme de monstre, qui met en effet en évidence les liens entre les monstrata (êtres qui sont montrés) et les monstrantia (être qui montrent) »48.