Tralalilalereu
salut
wola
bonjour
chepo
coucou
voila
Parmi les trois types d’activités identifiées par Hannah Arendt, l’action est la notion la plus large, et la plus vague : peut-on dire que prendre un raccourci pour aller au supermarché est une pause dans « l’automatisme fatidique de ce qui ne fait qu’advenir » ? Est-ce que la sortie d’un tout nouveau système d’exploitation correspond à un nouveau départ ? Difficile à dire. Et pourtant, je trouve que « l’action », avec sa connotation anti-comportementale négative, est un concept plus utile que celui qui est généralement utilisé pour décrire de façon positive le degré d’autonomie de quelqu’un : l’agentivité (agency). Celle-ci sert à mesurer la « capacité, la condition, ou l’action ou l’exercice d’un pouvoir’ » de quelqu’un ou de quelque chose. Très bien, mais comment pouvons-nous la mesurer si ce n’est en jaugeant le pouvoir même de changer de direction ou de créer une bifurcation dans un chemin ? Une planète qui sortirait soudainement de son orbite nous paraîtrait « douée d’action », voire même douée d’intention. Une action est en réalité un choix, et l’agentivité permet de mesurer la capacité à faire des choix. L’absence de choix, en revanche, constitue le comportement. Un toxicomane a peu de possibilité d’agentivité car il peut choisir d’interrompre son comportement toxique, mais ce choix est extrémement difficile. En résumé, je propose de définir l’agentivité comme la capacité d’agir, qui est elle-même la capacité d’interrompre un comportement.
Voici un exemple relatif à une plateforme. Nous pouvons présumer un manque d’action de la part de l’utilisateur des réseaux sociaux les plus utilisés. Ce qui limite l’action d’un utilisateur, c’est-à-dire sa capacité à arrêter d’utiliser de telles plateformes, est un mélange de techniques addictives et de pressions sociales. Il est difficile de bloquer l’automatisme générateur de dopamine consistant à faire défiler du contenu, et il est même encore plus ardu de supprimer votre compte alors que tous vos amis et collègues partent du principe que vous en avez un.
Dans ce cas, une action peu importante prend la forme d’une dépendance commerciale. Si l’action est synonyme de choix, le choix que nous qualifions d’authentique est de ne pas être sur Facebook (ou WeChat, par exemple).
Cette définition de l’action est pragmatique et il ne faut pas oublier qu’elle est aussi très réductrice : elle ne prend pas en compte l’opposition entre différentes actions à l’œuvre dans n’importe quel système, qu’il soit humain ou non-humain. Cet article se concentrera donc sur un unique ingrédient (l’utilisateur) de la soupe actionnelle qui mijote dans les ordinateurs, pour reprendre une expression de James Bridle.
Nous appelons « utilisateur » la personne qui se sert d’un
ordinateur. Toutefois, est-ce que « utilisation » est vraiment
la catégorie la plus indiquée pour décrire une telle activité ?
C’est plutôt vague, non ? Le théoricien des nouveaux médias Lev
Manovich a brièvement exposé que le terme « utilisateur »
était juste un terme bien pratique pour désigner quelqu’un qui peut être
considéré, selon les cas, comme un acteur, un joueur, un musicien, etc.
Cette terminologie variée vient du fait, décrit pour la première fois par
Alan Kay et Adele Goldberg, que l’ordinateur est un méta-médium,
c’est-à-dire un média capable de simuler tous les autres. Que pouvons-nous
dire d’autre de l’utilisateur ? Dans The Interface Effect,
Alexander Galloway relève au passage que l’une des principales dichotomies
concernant les logiciels est celle entre l’utilisateur et le
programmateur, ce dernier étant celui qui agit et le premier étant l’objet
de l’action. Pour Olia Lialina, la condition de l’utilisateur est un
rappel de l’existence d’un système programmé par quelqu’un d’autre.
Benjamin Bratton précise que « en pratique, l’Utilisateur-Usager
[user] n’est pas une sorte de créature, mais une catégorie
d’agents ; il s’agit d’un statut au sein d’un système sans lequel il
n’aurait aucun rôle ni identité propre [...] l’Utilisateur-Usager est à la
fois un initiateur et un résultat ». Aymeric Mansoux et Marloes de
Valk ont réfléchi à ce statut :
alors que sur des machines
fonctionnant avec UNIX, l’utilisateur a généralement un nom, un domicile
et une liste d’autorisations bien définies, avec Android et iOS,
l’utilisateur se trouve réduit à un processus aveugle sans nom ni domicile
doté d’un identifiant numérique. Christine Satchell et Paul Dourish
reconnaissent que l’utilisateur est une formation discursive visant à
exprimer la relation entre les humains et les machines. Ils considèrent
cependant que ce terme est trop restrictif car, selon eux, l’interaction
ne contient pas seulement des formes d’utilisation mais aussi des formes
de non-utilisation, comme le retrait, le désintérêt, le boycott, la
résistance, etcs. En gardant à l’esprit notre définition de l’action (la
capacité à interrompre un comportement et à briser des automatismes), il
se pourrait bien que nous parvenions à une conclusion surprenante :
au sein d’un système donné, le non-utilisateur est celui qui a le plus de
possibilité d’action, davantage que l’utilisateur normal et même que le
hacker. Dans une certaine mesure, cela ne devrait pas trop nous étonner,
car souvent, la capacité à refuser (opposer un veto) coïncide avec le
pouvoir. Très souvent, la possibilité même de briser un comportement ou de
ne pas l’adopter au départ traduit un certain privilège. Nous pensons par
exemple aux PDG des grandes entreprises technologiques qui remplissent
l’emploi du temps de leurs enfants avec des activités pour les tenir
éloignés des réseaux sociaux.
Dans son essai, Olia Lialina relève que l’utilisateur existait avant les ordinateurs tels que nous les concevons aujourd’hui. Il occupait l’esprit de ceux qui imaginaient à quoi des machines informatiques pourraient ressembler et quel serait leur lien avec les humains. Ces personnes se préoccupaient déja des problèmes liés à l’agentivité, à l’action et au comportement. Une distinction qui peut être reliée à des notions d’action et de comportement relève de la pensée créative et répétitive, cette dernière étant exposée à la mécanisation. On retrouve cette distinction chez Vannevar Bush.
En 1960, le psychologue et informaticien J.C.R.Licklider, anticipant ainsi
l’un des éléments au cœur de la critique de Ivan Illich, a remarqué que
l’automatisation voulait très souvent dire que des gens devraient être
présents pour aider la machine au lieu de se faire aider par elle. En
fait, l’automatisation était et est toujours souvent une
demi-automatisation, ce qui fait qu’elle n’atteint pas le but recherché.
Ce scénario de semi-automatisation produit tout juste des « hommes
prolongés mécaniquement ».
Le modèle opposé à celui-ci est
celui que Licklider nomme « Symbiose Homme-Ordinateur », une
véritable « interaction coopérative entre les hommes et les
ordinateurs électroniques ». L’Homme Prolongé Mécaniquement est un
modèle comportemental car les décisions, qui précèdent les actions, sont
prises par la machine. La Symbiose Homme-Ordinateur est un peu plus
complexe : l’action semble résider dans la boucle de feedback
évolutive entre l’utilisateur et l’ordinateur. La Symbiose
Homme-Ordinateur est censée « permettre aux hommes et aux
ordinateurs de prendre ensemble des décisions et de contrôler des
situations complexes sans dépendance inflexible ni programmes
prédéterminés ». Le comportement, entendu comme un travail
administratif et routinier, serait laissé aux ordinateurs et l’activité
créative impliquant plusieurs niveaux de prises de décision serait
partagée entre l’homme et la machine.
Le travail novateur d’Alan Kay sur les interfaces est guidé par l’idée selon laquelle l’ordinateur devrait être un outil plutôt qu’un véhicule et sa fonction non prédéfinie (comme celle de la voiture ou de la télévision) mais reformulable par l’utilisateur (comme dans le cas du papier ou de l’argile). Kay considère que l’ordinateur doit être un outil à tout faire. Il a aussi élaboré la notion de littératie informatique [computer literacy], c’est-à-dire la capacité à lire le contenu d’un outil (les outils et les contenus générés par d’autres) mais aussi celle d’écrire dans un médium. Écrire dans le médium informatique, selon lui, ne se résume pas à la production de contenus mais inclut aussi celle d’outils. Pour Kay, il s’agit de la véritable littératie de l’outil informatique : « Dans le cas de l’écriture sur un support classique [print writing], les outils que vous générez sont rhétoriques ; ils prouvent et ils convainquent. Dans le cas de l’écriture informatique, les outils que vous générez sont des processus : ils simulent et ils décident ».
Plus récemment, Shan Carter et Michael Nielsen ont créé le concept « d’augmentation de l’intelligence artificielle », à savoir l’utilisation de systèmes d’IA pour augmenter l’intelligence. Au lieu de limiter l’utilisation de l’IA à l’externalisation cognitive, elle servirait aussi à la transformation cognitive. Dans le premier cas, l’IA agit « comme un oracle, capable de résoudre un large éventail de problèmes bien mieux qu’un humain » ; dans le deuxième, elle change « les opérations et les représentations dont nous avions l’habitude ».
Pendant des décennies, l’action de l’utilisateur était synonyme de liberté par rapport à un comportement prédéterminé, de capacité à programmer la machine au lieu d’être programmée par elle, de prise de décision, de coopération, d’abandon de la répétition et d’autonomie fonctionnelle. Ces valeurs et les problèmes qui découlent de leurs limites existaient déjà depuis les débuts de la science qui a lancé le développement des ordinateurs. L’une des plus grandes peurs de Norbert Wiener, le père fondateur de la cybernétique, était le fascisme. Par ce mot, il ne faisait pas référence au type de pouvoir charismatique en place pendant les régimes dictatoriaux historiques, mais à quelque chose de plus subtil et large. Pour Wiener, le fascisme était « l’usage inhumain d’êtres humains », un monde prédéterminé, un monde sans choix, un monde sans action. Voici la description qu’il en fait en 1950 : « Chez les fourmis, chaque ouvrière remplit des fonctions propres. Il peut y avoir une caste séparée de soldates. Certains individus hyper spécialisés ont les fonctions de roi et de reine. Si les humains devaient adopter ces règles de vie en communauté, ils vivraient dans une société fasciste, dans laquelle, idéalement, chaque individu est conditionné à la naissance à effectuer certaines tâches, et dans laquelle les dirigeants seront toujours des dirigeants, les soldats des soldats, les paysans jamais plus que des paysans et les ouvriers seront condamnés à être des ouvriers. ».
En fait, le fascisme que craignait tant Wiener était le féodalisme. Sa description était celle d’un monde dépourvu de choix, où l’utilisation - l’exécution par quelqu’un d’une fonction prédéterminée - devient du pur labeur, et la non-utilisation devient impossible. Le fascisme se présente comme la prévention de la non-utilisation.
L’impraticité est un savoir-faire automatisé, des connaissances transformées en procédure silencieuse, une batterie de décisions prises à l’avance pour le compte de l’utilisateur. Souvent, ce type de facilité va de pair avec la suppression de la friction, c’est-à-dire des décisions pénibles qui interrompent un comportement. Prenons par exemple un ensemble d’éléments présentés sur plusieurs pages numérotées, comme les résultats d’une recherche Google ou DuckDuckGo. Dans ce contexte, les utilisateurs doivent consciemment cliquer sur un bouton pour afficher la page de résultats suivants. C’est une forme d’action minimale et donc de friction. Faire défiler des résultats de façon infinie, une technique interactive utilisée notamment par Google Images ou Reddit, supprime cette friction.
L’action consciente de tourner des pages est transformée en comportement fluide et homogène. Pourtant, ce type d’interaction semble quelque peu démodé. Faire défiler manuellement une page web infinie semble imparfait, accidentel, temporaire si ce n’est déjà vieillot, étrange même pour certains : c’est un geste mécanique qui correspond aux besoins et à la structure de la liste. C’est comme tourner une molette pour écouter la radio. C’est un automatisme qui n’a pas encore été automatisé. Cet automatisme ne produit aucun événement (comme cliquer sur un lien) mais module un rythme : c’est de l’analogique et non du numérique. Prenez par exemple le playlists de YouTube qui sont reproduites de façon automatique, ou les stories Instagram (un modèle qui vient de Snapchat et qui a été repris par Facebook et Twitter), où le comportement s’inverse : l’utilisateur n’alimente pas la machine, mais la stoppe de temps en temps. En mode playlist, « l’interaction active » (un pléonasme en théorie seulement) est une exception.
Nous sommes ici témoins d’une progression analogue à celle de la révolution industrielle : d’abord, certaines tâches n’ont simplement aucun lien entre elles (hyperliens et pagination, préindustriel), puis elles sont organisées de manière à demander du travail manuel et mécanique (défilement infini, industriel), avant d’être entièrement automatisées et de ne demander qu’une simple supervision (stories et playlists, usine connectée). Pagination, défilement infini, playlist. Manuel, semi-automatique, entièrement automatique. Clic, défilement, pause.
Le philosophe français Bernard Stiegler s’est intéressé à la notion de prolétarisation : selon lui, un prolétaire n’est pas simplement dépossédé de la forme et des fruits de son labeur, mais aussi et surtout de son savoir-faire. Les utilisateurs sont privés de la richesse et de la particularité de leurs gestes. Ces gestes sont ensuite reconfigurés pour correspondre à la logique du système avant d’être rendus complètement inutiles. L’action non-consciente de faire défiler est semblable à l’opération répétitive d’assemblage des pièces d’un produit dans une usine. L’ouvrier ne quitte pas son poste et l’utilisateur ne quitte pas la page. Les deux comportent un mouvement sans relocalisation. De plus, dans l’usine, les machines sont organisées selon un savoir-faire industriel qui en fait le seul à véritablement comprendre les relations fonctionnelles entre les pièces. Comment nommer un système informatique organisé comme une telle usine ? Nous pouvons l’appeler plateforme et la définir comme un système qui extrait et qui standardise les décisions de l’utilisateur avant de les rendre inintelligibles et immuables. Dans la plateforme, des algorithmes obscurs représentent la logique qui organise les données en listes qui sont ensuite présentées à l’utilisateur. L’usine-plateforme est intelligente et dynamique, l’utilisateur-ouvrier est rendu stupide et statique.
Oui ne s’est jamais aperçu qu’il révassait tout en faisant défiler du contenu ? Stiegler, appuyant la théorie du critique d’art Jonathan Crary, soutenait que les nouveaux environnements prolétarisés ont tendance à éliminer « ces intermittences qui sont les états de sommeil et de rêverie ». Pour le moment, il semble tout de même que l’attention, bien que menacée, n’a pas encore rendu les armes, et donc que lintermittence est encore possible. Un territoire qui relèverait complètement du comportement, avec sa répétitivité anesthésiante, pourrait en fait être idéal pour se perdre dans ses pensées. Tandis que le comportement se déroule sur l’écran, le contenu brouille la vision et l’action se déroule intérieurement. Ceci pourrait s’appliquer à l’interactivité prolétarisée. Après tout, la plupart des gens font des pauses dans leur travail cognitif en faisant défiler des fils ou en regardant des stories.
L’interactivité prolétarisée est hyperlinéaire. L’une des caractéristiques les plus typiques de la chaîne de montage (assembly line) est, comme son nom l’indique, la linéarité. L’équivalent en information de la chaîne de montage est la liste. Les ordinateurs, tant autonomes qu’organisés en réseaux, ont souligné, au début, la possibilité d’interrompre la linéarité de la liste, une qualité héritée de la presse d’imprimerie.
L’e-littérature a fêté cette révolution. Des romans concus avec HyperCard sont apparus, avec leurs multiples chemins sans origine unique ni conclusion. L’Internet des débuts pouvait être vu comme un hypertexte collaboratif géant. Tout maintenir ensemble constituait l’hyperlien, la pierre angulaire de la non-linéarité. Mais la non-linéarité (ou multilinéarité) demande une charge cognitive plus élevée, car la navigation ne se fond pas dans le décor.
L’utilisateur doit prendre de nombreuses décisions qui sont mises en œuvre par des clics. Avec le Web 2.0, les pages Internet sont devenues plus dynamiques, plus interactives, mais aussi davantage liées au comportement. La multilinéarité a été vaincue par une envie de praticité alimentée en Ajax, le résultat était l’hyperlinéarité. L’hyperlinéarité est la linéarisation en réseau de contenus, de sources et d’activités disparates dans des listes : photos personnelles, articles, discussions, sondages, publicités, etc. Bien sûr, un utilisateur peut toujours cliquer pour sortir, mais cela ressemble plus à du zapping sédentaire qu’à une exploration active de l’espace organisé en réseau. De Facebook à Instagram à Reddit, et on recommence. Voilà le zapping hyper-linéaire, particulièrement visible dans la structure compartimentée des ordinateurs mobiles.
De nos jours, on est nostalgique du bon vieux Web, de l’énorme ordinateur de bureau, du modem 56k et de ses bruits stridents. Nous vivons dans une époque de « netstalgie ». Cette ère de la nostalgie du Net existe peut-être même depuis une décennie. Les preuves sont nombreuses : succès de la notion déroutante de web design brutaliste, création de réseaux comme Neocities en 2013 et Tilde. Club en 2014, métaphores jardinières appliquées aux sites Internet, création d’un groupe aux principes new age vénérant « l’énergie HTML ». En 2015, l’artiste et écrivain J.R. Carpenter a employé « le terme "web fait main" (« handmade web » pour suggérer que la lenteur et une taille réduite [entre autres] étaient des formes de résistance. »
« Mais de quoi sommes-nous exactement nostalgiques ? La netstalgie a moins a avoir avec une esthétique particulière ou le symbole d’un âge de l’innocence (the internet was never innocent), qu’avec l’époque idéalisée par la mémoires à laquelle la contrepartie de la commodité n’était pas aussi stricte. Une époque à laquelle le « fardeau de la conception du système et de ses caractéristiques » ne semblait pas si lourds parce qu’il n’existait rien de plus rapide auquel le comparer, et parce que le mode speedrun n’était pas le mode par défaut de l’informatique. Tous ces aspects constituaient une expérience véritablement personnelle. »
Le risque, avec la netstalgie, est d’encourager le malentendu selon lequel, pour échapper au mode speedrun et à l’incommodité, il faut revenir au HTML à la main, sans aucune automatisation ni programmation. Conséquence d’un tel quiproquo : la « friction » est glorifiée, les choses qui ne fonctionnent pas ou qui prennent trop de temps sont bonnes parce qu’elles sont censées provoquer une épiphanie au cours de laquelle les interfaces lisses seraient démystifiées.
Ne vous méprenez pas : j’aime le HTML. Je suis capable d’apprécier un site tout simple fait main. Je comprends l’attrait de médias pauvres. Mais j’aime aussi voir un ordinateur commettre 10 000 fois la même erreur après lui avoir demandé de la faire via un programme (vérifier la console). Un certain degré d’automatisation est généralement intégré dans les outils que nous utilisons pour créer des sites faits main. Nous n’allons quand même pas refuser la saisie automatique pour sauvegarder le véritable DIY ? Je pense que nous ne devrions pas faire l’éloge de la friction simplement pour la friction, parce que la friction, en elle-même, est juste la frustration de l’utilisateur. Il faut que nous soyons capables de reconnaître l’élégance et de générer une praticité autonome pour nous-mêmes. Nous ne devrions pas nier la capacité de l’ordinateur à prendre des décisions à notre place, mais simplement savoir comment de telles décisions sont prises. La programmabilité est toujours au cœur de l’informatique, et c’est là que nous trouvons la véritable maîtrise de la lecture-écriture informatique.
D’une certaine façon, la netstalgie fait déjà allusion à cela. Étymologiquement, la nostalgie signifie la douleur causée par le fait de ne pas pouvoir rentrer chez soi. Le concept de chez-soi est crucial. En effet, nous organisons les choses chez nous de manière à créer nos routines (certains diraient programmer notre comportement). Ces routines apportent de la stabilité et de la longévité à notre vie de tous les jours. Vous vous rappelez du grille-pain? La netstalgie pourrait alors être la nostalgie d’un comportement informatique non prédéfini ou d’un ordinateur comme logement non meublé à l’avance.
Branchez-vous sur Internet : pratiquement chaque site visité enregistrera le but de votre recherche et sa durée. Ces renseignements peuvent être vendus – d’ailleurs ils le sont – à des sociétés de vente par correspondance ou à des boîtes de marketing qui les utiliseront ensuite pour vous bombarder d’incitations à la dépense.
Puis, il existe maintenant un tas de courtiers en informations, des sortes de détectives privés de l’électronique qui passent leur temps à fouiller Internet pour y glaner des informations personnelles sur les gens, renseignements qu’ils cèdent ensuite moyennant finance. Si vous êtes citoyen américain et inscrit sur les listes électorales, ils obtiendront votre adresse et votre date de naissance, détails légalement disponibles sur la plupart des registres électoraux de tous les États.
Munis de ces deux éléments, ils peuvent (pour une somme allant de 8 à 10 dollars ils s’en feront même un plaisir !) vous fournir n’importe quel renseignement sur n’importe quel individu : casier judiciaire, dossier médical, infractions au code de la route, passe-temps favoris, emprunts bancaires, achats habituels, revenus annuels, numéros de téléphone (y compris ceux sur liste rouge), bref, tout ce que vous voulez.
Vous auriez sans doute pu obtenir tous ces renseignements autrefois, mais il vous aurait fallu des jours d’enquête et maintes visites aux différents services administratifs. Maintenant vous les obtenez en une minute, de façon parfaitement anonyme, grâce à Internet. De nombreuses sociétés mettent ces possibilités technologiques au profit d’une productivité impitoyable. Dans le Maryland, selon le magazine Time, une banque a fouillé les dossiers médicaux de ses clients, apparemment le plus légalement du monde, pour identifier ceux souffrant d’une maladie grave puis résilier leurs prêts. D’autres entreprises visent non pas leurs clients mais leurs salariés et cherchent par exemple à découvrir quels médicaments ils utilisent. L’une d’elles, une grosse boîte bien connue, s’est acoquinée avec un laboratoire pharmaceutique pour éplucher les dossiers de ses employés et déterminer si certains prenaient des antidépresseurs.
Selon l’American Management Association, les deux tiers des sociétés américaines espionnent leur personnel d’une façon ou d’une autre. 35 pour 100 surveillent les appels téléphoniques et 10 pour 100 les enregistrent – puis les écoutent. Environ un quart des entreprises reconnaissent fouiller dans les ordinateurs de leurs employés et lire leurs emails. D’autres boîtes admettent surveiller secrètement leur personnel. La secrétaire d’une université du Massachusetts a découvert qu’une caméra cachée filmait son bureau vingt-quatre heures sur vingt-quatre.
Dieu seul sait ce qu’ils espéraient y découvrir ! Tout ce qu’ils ont obtenu, en tout cas, ce sont des images de cette dame en train d’ôter chaque soir ses vêtements pour passer un survêtement de façon à rentrer à la maison en faisant un peu de jogging. Elle les a poursuivis et peut espérer recevoir une grosse somme d’argent. Mais en général les tribunaux soutiennent les droits des entreprises à espionner leur personnel. Ainsi, une femme travaillant pour une grosse société d’informatique appartenant à des Japonais s’est aperçue que cette compagnie lisait systématiquement les e-mails de ses salariés après avoir juré ne pas le faire. Elle l’a révélé et a été aussitôt renvoyée. Elle a porté plainte pour licenciement abusif et a perdu son procès. La cour a jugé qu’il était parfaitement légal pour un employeur de lire le courrier de ses employés et de mentir à ce sujet.
Bravo ! Dans un genre différent, pour en revenir à une question qui me tient à cœur, il y a toute la paranoïa autour de la drogue. Un de mes amis a été recruté par une grosse boîte de l’Iowa il y a un an. En face des bureaux se trouve une taverne où les gens de l’entreprise se rendent après le travail. Un soir où mon ami prenait un pot avec ses collègues, il a été accosté par une consœur lui demandant s’il connaissait un endroit où elle pourrait se procurer de la marijuana. Il lui a répondu qu’il n’en consommait pas lui-même mais, comme elle insistait vraiment et qu’il voulait s’en débarrasser, il lui a donné le numéro de téléphone d’une personne qui en vendait parfois. Le jour suivant, il était viré. Le seul boulot de cette femme consistait à espionner les employés pour dénoncer ceux qui avaient touché à la drogue. Pourtant mon copain ne lui en avait pas vendu. Il ne l’avait pas poussée à en consommer.
Il avait bien insisté sur le fait que personnellement il ne fumait pas. Il n’en a pas moins été licencié pour avoir « encouragé et facilité l’obtention d’une substance illégale ». 91 pour 100 des grandes entreprises – je trouve ce chiffre incroyable – font subir des examens à leurs employés pour dépister tout usage de drogue. Beaucoup d’entre elles ont introduit la réglementation TAD (abréviation de tabac, alcool, drogue), qui interdit à leur personnel de consommer ces substances en tout lieu et à tout moment. Il existe donc des sociétés qui interdisent à leurs salariés de boire ou de fumer, même le samedi soir, même dans leur foyer ! Pour s’assurer que ces règles sont bien respectées elles leur demandent des échantillons d’urine.
C’est révoltant mais c’est comme ça ! Les choses peuvent devenir parfois carrément alarmantes : on a mis au point un badge permettant de suivre les mouvements d’un employé. Ce badge émet toutes les quinze secondes un signal infrarouge perçu par un ordinateur qui enregistrera les moindres faits et gestes de l’individu pendant sa journée de travail. Si vous ne trouvez pas ça scandaleux, je ne sais pas ce qu’il vous faut ! Cependant il y a d’autres découvertes, je suis heureux de vous l’apprendre, qui me donnent de l’espoir. Une boîte du New Jersey a breveté un gadget permettant de déterminer si une personne travaillant dans la restauration se lave bien les mains après être allée aux toilettes. Là, franchement, je suis pour !
Félicitations ! Vous venez d’acheter un PC multimédia Anthrax/2000 615X avec un boosteur de bidule digital incorporé. Il vous assurera des années de bons et loyaux services si, par chance, vous arrivez à le faire fonctionner. En prime, nous vous offrons avec votre PC quelques logiciels gratuits préinstallés – Tondre sa pelouse sans peine, Comment gagner au morpion, Atlas des routes secondaires de l’Afrique de l’Est – qui vous fourniront des heures de distractions imbéciles tout en épuisant la mémoire de votre ordinateur. Maintenant tournez la page et commençons ! Préambule. – Félicitations ! Vous avez réussi à tourner la page, vous êtes donc prêt à commencer. Importante note totalement inutile : l’Anthrax/2000 est configuré pour utiliser un 80386, 214J10 ou tout autre processeur plus puissant correspondant à un cycle de 2 472 hertz à vitesse variable. Vérifiez votre installation électrique et les clauses de votre assurance incendie avant de poursuivre. Ne pas essorer !
Mise en route. – Félicitations ! Vous êtes prêt à effectuer la mise en route de l’appareil. Si vous n’avez pas passé votre diplôme de génie électrique, vous feriez bien de vous y mettre tout de suite. Connectez le câble du moniteur (A) à l’unité de sortie côté bâbord (D) ; attachez le sous-orbiteur déchargeur de tension (Xii) au servo-canal (G) du câble coaxial AC/DC. Branchez la fiche trois points de la souris dans le boîtier du clavier (percer un nouveau trou si nécessaire). Reliez le modem B2 au jack de la connexion parallèle audio/vidéo. À défaut, adoptez la procédure suivante : branchez les câbles dans les trous qui vous semblent vaguement appropriés, allumez l’appareil et attendez de voir ce qui va se passer.
Félicitations ! Vous êtes maintenant prêt à utiliser votre ordinateur. Voici maintenant quelques exercices très simples qui feront de vous, très rapidement, un utilisateur averti.
Perdu dans Cyberland lorsque nous sommes venus vivre en Amérique, le passage à un système électrique différent m’a contraint à changer tout mon équipement de bureau – ordinateur, télécopieur, répondeur, etc. En temps normal, je ne suis déjà pas très porté sur le shopping ni très disposé à y laisser de grosses sommes d’argent, mais cette fois la perspective d’avoir à arpenter toute une série de magasins en écoutant le boniment de toute une série de vendeurs me démoralisait franchement.
Aussi, imaginez mon ravissement lorsque dans le premier magasin d’informatique où j’ai mis les pieds j’ai trouvé une machine équipée de tout ce que je recherchais – répondeur, télécopieur, répertoire d’adresses électronique, liaison Internet, ainsi de suite. Présenté comme la « solution bureautique absolue », cet ordinateur promettait de tout faire, sauf le café. Je l’ai donc installé chez moi et j’ai pianoté allègrement un fax guilleret pour un ami de Londres. J’ai tapé son numéro de fax dans la case appropriée, selon les instructions, et j’ai appuyé sur envoyer.
Presque instantanément, des bruits de tonalités internationales ont été diffusés par les haut-parleurs de l’appareil, suivis d’une sonnerie et finalement d’une voix inconnue disant : « Allô ? Allô ? » « Hello ! » ai-je lancé en retour, mais je me suis très vite aperçu que je n’arriverais pas à parler à cette personne, quelle qu’elle soit. Mon appareil se contentait d’émettre un bourdonnement de fax. « Allô ! Allô ! » a repris la voix avec une nuance d’étonnement et d’inquiétude, puis on a raccroché. Mon ordinateur a aussitôt recomposé le numéro. Et cela a continué comme ça une partie de la matinée. La machine harcelait un correspondant inconnu dans un pays inconnu tandis que je feuilletais fébrilement le manuel pour trouver comment interrompre l’opération. Finalement, en désespoir de cause, j’ai débranché l’ordinateur, qui s’est éteint en affichant « Grosse erreur ! » et « Vous le regretterez ! ». Trois semaines plus tard – c’est authentique – nous avons reçu une facture de téléphone indiquant 68 dollars d’appels vers Alger. Une enquête ultérieure m’a révélé que les auteurs du logiciel de fax n’avaient pas prévu la possibilité de téléphoner ailleurs qu’aux États-Unis. Confronté à l’inconnu, l’ordinateur se mettait en mode dépression nerveuse. J’ai également découvert que mon répertoire électronique nourrissait une aversion particulière pour les adresses non américaines, ce qui le rendait totalement inutile, et que mon répondeur aimait se mettre en marche au milieu des conversations téléphoniques.
Vous imaginez ma perplexité en constatant qu’un outil aussi cher et aussi technologiquement avancé puisse être aussi nul. Et puis j’ai fini par comprendre qu’un ordinateur était une machine stupide capable de faire des choses incroyablement intelligentes tandis qu’un informaticien était un être intelligent capable de choses incroyablement stupides, et que la rencontre des deux formait un couple parfait mais potentiellement dangereux. Vous avez tous entendu parler du bug de l’an 2000, j’en suis sûr. Vous savez qu’au dernier coup de minuit, à la première seconde du 1 er janvier 2000, tous les ordinateurs du monde devaient se dire : « Bon, nous voici dans une année qui finit en 00. Je parie que c’est 1900. Mais si c’est 1900, les ordinateurs n’ont pas encore été inventés. Donc je n’existe pas. Je crois que je ferais mieux de m’arrêter et d’effacer toute ma mémoire. » Cela devait coûter des milliards de milliards de dollars pour rectifier tout ça. Car un ordinateur peut calculer le nombre pi, à la vingt millième décimale près, mais il ne peut pas calculer que les années vont en augmentant. De son côté, un programmeur peut écrire quatre-vingt mille lignes de systèmes codés hypercomplexes mais ignorer que tous les cent ans on change de siècle. Associez les deux, donc, et c’est la catastrophe. Lorsque j’ai lu que l’industrie informatique avait réussi à se créer un problème aussi trivial, aussi colossal et aussi bête, j’ai compris pourquoi mes fax et autres gadgets digitaux étaient de la camelote. Mais cela n’explique toujours pas la splendide incompétence, l’inutilité monstrueuse du correcteur d’orthographe de mon ordinateur. Comme tout ce qui touche aux ordinateurs, le correcteur d’orthographe est quelque chose de merveilleux. En principe. Quand vous terminez votre texte, vous activez une fonction et la traque aux fautes commence. En fait, comme un ordinateur est par essence incapable de reconnaître les mots, il cherche les groupes de lettres qui lui sont étrangers. Et c’est là que les choses se gâtent. D’abord, il ne reconnaît ni les noms propres – noms de personnes, de lieux ou de grandes sociétés – ni les orthographes non américaines comme centre ou colour. Il ne reconnaît pas non plus certains pluriels, ni les abréviations, ni les acronymes. Ni, bien évidemment, les mots inventés depuis l’élection d’Eisenhower à la présidence.
Il reconnaît donc spoutnik et beatnik, mais pas Internet, fax, ou cyberspace, parmi tant d’autres. Mais là ou les choses deviennent vraiment drôles – pour les gens qui n’ont vraiment rien d’autre à faire –, c’est que l’ordinateur est programmé pour vous suggérer des alternatives au mot inconnu. Elles sont parfois sublimes. Pour Internet, par exemple, il m’a proposé internat (un mot que je n’ai trouvé dans aucun dictionnaire américain ou anglais), internode, interknit et underneath. Le mot fax a fait apparaître pas moins de trentetrois possibilités, dont fuzz, feats, feaze, phase et deux substantifs inconnus de ma lexicographie : falx et phose. Cyberspace a laissé mon ordinateur en panne d’inspiration. Mais il s’est rattrapé avec cyber pour lequel il m’a proposé chubbier et scabbier. Je ne peux pas concevoir quelle logique a poussé le tandem ordinateurprogrammeur à établir que quiconque écrit f-a-x a pu vouloir dire p-h-a-s-e. Ni par quel processus ils sont passés de cyber à chubbier et scabbier plutôt qu’à, disons, dollar ou sofa, pour ne citer que deux exemples tout aussi incongrus. Et je ne comprends toujours pas comment des mots sans existence comme falx ou phose ont pu s’introduire dans le programme. Vous allez sans doute m’accuser de couper les cheveux en quatre, mais selon moi un ordinateur qui refuse un mot qui existe pour proposer à la place un mot qui n’existe pas devrait sérieusement être révisé avant toute mise sur le marché. D’autant que, non seulement le système propose des inepties comme solutions de rechange, mais il insiste carrément pour les insérer. Si vous acceptez par erreur sa proposition, il procédera au changement dans tout le fichier.
C’est ainsi que récemment j’ai produit un texte où woollens avait été remplacé à longueur de pages par wesleyans, Minneapolis par monopolists et – j’adore ! – Renoir par rainwear. S’il y a un moyen simple de parer à ces transformations involontaires, je ne l’ai pas encore trouvé ! J’ai lu dans le US News & World Report que cette même industrie qui a oublié de prévoir l’arrivée d’un nouveau millénaire n’a pas compris non plus que les matériaux sur lesquels on enregistre l’information – bandes magnétiques et autres – se dégradaient rapidement. Récemment, les experts de la NASA ont essayé d’accéder à des informations concernant la mission Viking de 1976. Ils ont découvert que 20 pour 100 des bandes s’étaient déjà effacées et que le reste n’allait pas tarder à en faire autant. Il semblerait donc que les informaticiens aient pas mal d’heures supplémentaires à fournir au cours des prochaines années. Et je suis le premier à crier Hourra ! Ou héroïne, hara-kiri, houla-hoop, comme mon ordinateur préférera.