Ce texte se veut un résumé de mes récentes observations que j’ai pu faire «sur le terrain » concernant l’arrivée soudaine du Machine Learning dans le domaine graphique (et aussi textuel). J’ai eu la possibilité de travailler et d’échanger avec beaucoup d’étudiants (Head de Genève, école Camondo, ESAD d’Orléans et l’école des Gobelins) sur ce sujet et j’ai ainsi pu voir leurs attitudes face à ces nouveaux et si puissants outils. Comme d’habitude de vais utiliser le terme IA pour parler de Machine learning (Deep learning…).
1-L’étonnement devant la facilité que procurent ces IA dans la production d’images (le prompt), la stupeur.
2-La peur (à qui appartiennent ces images, se faire copier ?…), c’est d’ailleurs une des première questions juridiques qui arrivent chez de nombreuses personnes au départ.
3-La pratique et le jeu avec ces IA (je vais faire un vélo en brocolis…), c’est un peu l’étape « grosse blague ».
4-Le début d’un projet avec un but précis (la conception d’un meuble, d’une police de caractères…) et la compréhension que ce n’est pas si évident de faire une image intéressante même avec ces outils si rapides.
5-Passer beaucoup plus de temps à sélectionner les images qu’à les produire (allons-nous tous devenir que des directeurs artistiques ou des commissaires d’exposition ?). Je n’ai jamais vu des étudiants réfléchir et discuter autant autours de leurs images.
6-Mélanger ces images artificielles avec d’autres types images (photo classique, illustration…) et intégrer les IA dans leur production et pratique; considérer que c’est un nouvel outil (qui peut s’utiliser en amont, comme un générateur de planche de style, et aussi lors de la production servant à produire un vivier d’images très importants, et s’utilisent un peu comme un Pinterest ou autre bases d’images).
1-Manier avec habileté les références culturelles dans le domaine graphique (et autres) afin de guider au mieux les IA.
2-Développer un imaginaire très personnel permettant de sortir de la normalisation imposée par ces IA.
3-Cacher ses productions des réseaux afin de rester invisible aux yeux de ces IA. Cela permettrait de se garder un jardin secret imperméable à l’insatiable prédation de ces gigantesques bases de données enrichissant les IA. Cela peut-être une stratégie intéressante, mais extrêmement complexe à mettre en œuvre (et aussi comment se faire connaitre, si on se cache ?).
4-Développer une IA personnelle centrée sur sa propre production (ou alors ses références personnelles) permettant de ne pas affaiblir la pertinence de sa propre production lissée par les millions d’autres références.
5-Se focaliser sur l’empathie, la politique et l’éthique, chose que les IA ne peuvent (pour le moment) pas appréhender.
6-Retourner à l’artisanat, le travail manuel…
7-Etre encore plus « intelligent » (sensible) que ces machines, être excellent dans sa pratique (on ne peut plus être « moyen »).
8-Se positionner, non plus en tant que simple exécutant, mais en tant qu’auteur.
9-Se radicaliser, au sens refuser d’utiliser la moindre IA, voir même outil numérique dans ses productions.
Les écoles vont devoir former de jeunes designers (mais aussi ingénieurs…) capables de gérer à la fois les enjeux écologiques et sociaux, et en même temps, apprivoiser cette arrivée massive des IA dans leur pratique. Ils vont devoir repenser le monde tout en essayant de comprendre de nouveaux outils (de nouveaux outils pour un Nouveau Monde !). Les IA sont là, il faut donc apprendre à les gérer. On peut, par la suite, ne pas les utiliser en connaissance de cause, mais on ne peut pas les ignorer. Personnellement, j’ai une grande confiance en la capacité des ces jeunes designers (et ingénieurs…) a s’adapter, à contourner, a apprivoiser, à questionner, à jouer, à trouver de nouveaux usages… et je suis même impatient de voir émerger de nouvelles formes, de nouvelle manière de travailler, de nouvelle manière de penser le monde avec ces outils.
Au sein de l’Internet Society, nous œuvrons au développement d’un Internet ouvert, connecté à l’échelle mondiale, sécurisé et digne de confiance. Ce travail consiste en grande partie à permettre à ceux qui en ont le plus besoin d’accéder à l’Internet, en réduisant la fracture numérique. En quoi consiste précisément cette fracture numérique ? A priori, une réponse simple semble s’imposer : « le fossé entre ceux qui ont et ceux qui n’ont pas accès aux ordinateurs et à l’Internet » . En approfondissant la question, on s’aperçoit qu’il existe de nombreuses façons de mesurer la fracture. D’ailleurs, il ne s’agit pas d’une fracture, mais de plusieurs. vous proposons ci-dessous une brève synthèse de quelques-unes des approches utilisées pour aborder la fracture numérique et la calculer. Il n’existe pas de définition unique, mais certains moyens efficaces permettent de connecter les laissés-pour-compte et de s’attaquer à la fracture. La création de réseaux communautaires et la mise en place de conditions propices à leur développement sont une des solutions.
1-La disponibilité : Existe-t-il un accès à l’Internet dans votre région ? Existe-t-il un point de connexion à Internet à proximité ? Si oui, ceci n’est que la première étape.
2-L’accessibilité financière : Cet accès est-il abordable ? Quel est le coût par rapport à d’autres marchandises essentielles ? Quel pourcentage de votre revenu devez-vous consacrer à ce service ?
3-La qualité du service :Les vitesses de téléchargement en amont et en aval sont-elles suffisantes pour les besoins locaux des utilisateurs d’Internet ?
4-La pertinence : La communauté connectée dispose-t-elle des compétences et des technologies nécessaires ? La communauté comprend-elle et s’intéresse-t-elle à la pertinence de l’accès à Internet ? Existe-t-il des applications mobiles disponibles localement ? Existe-t-il un contenu dans la langue locale et pertinent pour les personnes de la communauté ?
5-Autres facteurs de fracture : Parmi les autres domaines susceptibles de créer des inégalités numériques citons la sécurité, l’interconnectivité, la culture numérique et l’accès aux équipements.
Ces écarts en matière de disponibilité, d’accessibilité financière, d’intérêt et de culture numérique se retrouvent aussi bien au niveau international qu’au niveau local. Les pays qui affichent un taux de connectivité moyen élevé présentent néanmoins des inégalités flagrantes en zones rurales, reculées et même urbaines. Ces écarts vont souvent de pair avec d’autres disparités telles que les inégalités en matière de revenus et de genre. Aux États-Unis, par exemple, le taux de connectivité moyen est élevé, cependant les terres indigènes ne disposent pas d’un accès à l’Internet abordable et durable.
Il existe de nombreuses méthodes pour calculer les écarts d’accès à Internet. Chaque source utilise sa propre méthodologie en fonction de son champ d’application et de ses paramètres. Certaines sources s’intéressent à la saturation des appareils utilisés (comme les ordinateurs ou les smartphones) tandis que d’autres examinent les zones couvertes par les fournisseurs d’accès à Internet (FAI).
Toute méthodologie a ses limites, car les données ne peuvent rendre compte de la formidable complexité avec laquelle les gens utilisent l’Internet. En dépit de ces limites potentielles, plusieurs sources permettent de se faire une bonne idée des chiffres de la fracture numérique.
Selon la Commission des Nations unies sur le haut débit pour le développement durable, près de 3,6 milliards de personnes ne sont toujours pas connectées à l’Internet, quel que soit le critère utilisé. Cela représente quelque 4,1 milliards de personnes en ligne, soit près de 53,6 % de la population mondiale.
source : public.tableau.com
1-L’accès aux soins de santé et ses répercussions : L’accès à Internet est une question importante de santé publique. Le manque d’accès se traduit par l’exclusion d’informations et de ressources vitales en matière de santé. Les experts médicaux insistent désormais sur le fait que l’accès à l’Internet haut débit « doit être reconnu comme un facteur social déterminant pour la santé.»
2-Les perspectives économiques : Pour les employés et les chefs d’entreprise, ne pas disposer d’un haut débit de qualité se traduit par une réduction des perspectives économiques et de la compétitivité dans l’économie numérique.
3-Les perspectives pédagogiques : Le manque d’accès à Internet pour les enfants en âge scolaire signifie qu’ils sont privés des avantages éducatifs d’Internet. Ce fossé perpétue l’inégalité des résultats d’apprentissage et s’est avéré particulièrement difficile pendant la pandémie de COVID-19.
La fracture numérique n’étant pas binaire, il n’existe pas de solution unique pour y remédier. Pendant des décennies, grâce aux modèles classiques, les gouvernements et le secteur privé ont réussi à fournir un accès à Internet à un large public. Cependant, le reste de la population mondiale non connectée est la plus difficile à connecter à l’Internet. Elle vit souvent dans des zones à faible densité ou à faible revenu, où il n’est pas aussi rentable pour les grandes entreprises de fournir des services et de développer des infrastructures. Il en résulte un ralentissement de la croissance du nombre de connexions à l’Internet. Il est nécessaire de trouver des solutions innovantes pour améliorer la situation. Les réseaux communautaires permettent de relever les défis posés par les nombreuses fractures numériques, en offrant un accès abordable à l’Internet à ceux qui en ont le plus besoin. Au-delà de mettre l’Internet à la portée de tous et à un prix abordable, les réseaux communautaires contribuent à réduire certaines des autres fractures mentionnées ci-dessus. C’est ainsi que le fait d’apporter l’accès à l’Internet à une communauté atténue les disparités en matière de santé en mettant des options de télémédecine abordables à la disposition des zones rurales. C’est le résultat de l’initiative du projet Effective Broadband for Health de l’Internet Society au Népal. La connectivité a permis à d’autres communautés de constater des changements dans différents domaines à la fois, comme l’éducation, les soins de santé et l’agriculture dans le cas du réseau communautaire Murambinda au Zimbabwe. Le processus de déploiement des réseaux communautaires prouve également que les membres de la communauté qui participent à la construction de leurs réseaux renforcent également leurs compétences numériques communes. À Waimanalo, à Hawaï, le réseau a ouvert de nouvelles possibilités et a donné à la communauté la maîtrise de sa connectivité. John Garcia, membre de la communauté qui a joué un rôle clé dans le déploiement du réseau de Waimanalo, a déclaré : « De nombreux entrepreneurs ici peuvent désormais se connecter et travailler à domicile. Nous sommes passés de l’absence de connectivité à la connexion, puis à la possibilité de contrôler cette connexion et de l’étendre. »
La vérité, a un jour écrit l'immense Philip K. Dick, c'est ce qui perdure lorsque l'on cesse d'y croire. Ce sont les faits, têtus et inexpugnables, qui s'installent lorsque la psychose reflue et que l'hallucination se dissipe. Parfois, le retour au réel se fait en douceur. Parfois, seul un choc violent avec le réel peut desserrer l'emprise de l'illusion. Depuis le début de l'été, l'industrie de l'intelligence artificielle et le techno-capitalisme dans son ensemble vivent enfin un début de crise de foi. Après dix-huit mois à empiler les superlatifs jusqu'à l'absurde pour nous convaincre (et s'auto-convaincre) que des générateurs de texte améliorés étaient l'inévitable futur des sociétés, les voilà obligés d'admettre une possibilité encore impensable il y a six mois : l'IA censée révolutionner le monde ne sert en réalité à rien, et la bulle financière qui la soutient s'apprête à éclater. Les indices s'amoncellent, pour peu qu'on se force à regarder au-delà du brouillard médiatique hallucinogène qui entoure la technique depuis les premiers balbutiements de ChatGPT. Petit tour d'horizon. En 2023, le fonds d'investissement Sequoia Capital, pas exactement connu pour son agit-prop altermondialiste, écrivait que les "Sept Magnifiques", le surnom énamouré des sept plus grosses valeurs boursières de la tech (Alphabet, Amazon, Apple, Meta, Microsoft, Nvidia, Tesla) devaient répondre à "une question à 200 milliards de dollars". Une question toute simple : comment comptent-ils gagner de l'argent à court ou moyen terme avec l'IA lorsqu'elle nécessite des investissements gigantesques dans l'infrastructure - data centers, cartes graphiques et désormais centrales nucléaires pour alimenter le tout - tout en ne rapportant absolument rien? La seule réponse que l'industrie daigne fournir, par la voix de ses PDG prophètes : gardez la foi et laissez-nous faire. Mark Zuckerberg, un patron qui a un jour dépensé 36 milliards de dollars en 18 mois dans un métavers totalement inutile sans être une seconde inquiété par son conseil d'administration, explique par exemple que son prochain modèle d'IA nécessitera "10 fois plus" de puissance de calcul que l'actuel et affirme qu'il faudra "des années" avant que la technique ne soit rentable. Une foi aveugle partagée par Satya Nadella, Sundar Pichai et les autres, patrons de conglomérats devenus techno-prophètes aux poches sans fond, totalement détachés des impératifs de base de l'économie de marché - notamment celui de vendre un produit plus cher que ce qu'il coûte à produire, afin d'en tirer un bénéfice.
Dans la presse aussi, le discours a changé. Oubliés le messianisme et les prophéties techno-apocalyptiques de l'été dernier, quand grands patrons de la Silicon Valley, "parrains de l'IA" et experts autoproclamés promettaient alternativement transcendance et extinction de l'humanité à des journalistes en état de sidération. Depuis un an, la nullité constante de l'IA générative dans toutes les industries où elle a été implémentée a fracassé un à un les discours publicitaires contre le mur du réel. Dernier fiasco en date, celui d'une campagne présidentielle étasunienne "alimentée par IA", nous informe le New York Times. Dans le monde réel, personne n'a envie de parler politique avec un chatbot, qu'il bosse pour le camp démocrate ou républicain. Alors, depuis le décrochage boursier du Nasdaq fin juillet, conséquence de la publication des (mauvais) résultats des conglomérats de la tech, on s'autorise enfin à poser la question de la bulle financière. Les comparaisons se multiplient avec la bulle dot-com de l'an 2 000, qui a vu le Nasdaq perdre 70% de sa valeur après des années de survalorisation de jeunes entreprises du Web. Sur Google, les recherches du terme "bulle de l'IA" n'ont jamais été aussi nombreuses, reflet d'un zeitgeist médiatique et économique qui voit enfin l'industrie de la tech dans sa glorieuse absurdité. Car pendant que Zuckerberg, Nadella, Pichai, Altman et les autres brûlent des dizaines de milliards de dollars en riant, le nombre de faillites de start-ups a augmenté de 60% aux Etats-Unis l'année dernière. Ce n'est plus de la concentration de capital, c'est un siphonnage en règle. Tout le capital-risque disponible va directement dans la fournaise de l'IA générative.
Ainsi va Big Tech, en monopole ou duopole. Le cloud, c'est Microsoft et Amazon. La publicité en ligne, c'est Google et Meta. La recherche, c'est Google. Le commerce en ligne, Amazon. Le PC, Microsoft. Les applis mobiles : Apple, qui extorque une taxe exorbitante de 30% à tous les développeurs... excepté quelques privilégiés. Et le petit nouveau, Nvidia, déjà scruté par le Département de la Justice, truste le marché de la carte graphique. Et ainsi de suite, dans ce que Cory Doctorow baptise le "capitalisme d'étranglement" (chokepoint capitalism), devenu le système d'exploitation préférentiel d'une économie illibérale. Le seul avantage de cette hyper-concentration du capital, c'est qu'elle réduit le nombre d'ennemis à abattre et la diversité des tactiques à utiliser. Peu importe son secteur, un monopole est un monopole. On ne négocie pas avec, on le brise. Sans offensive de régulation, le devenir de la bulle financière de l'IA importe peu. Peu importe le scénario, les souverains arnaqueurs de la tech survivront à l'éclatement de leur délire, trébucheront sur les cadavres des victimes et reprendront leur lente marche de zombie vers la singularité capitaliste. Pour Amazon, Meta, Alphabet et Microsoft, ce sera une semaine comme une autre, quelques centaines de millions de dollars perdus jusqu'à la prochaine révolution bullshit. Pourquoi ? Car hype après hype, bulle après bulle, milliards après milliards, le cartel de la tech nous confisque la possibilité de penser l'avenir. Elle est là, la conséquence la plus terrifiante du monopole - un monde sans alternative à leur nullité.
L’intelligence artificielle existe depuis des années. On se souvient, en 1996, du jour où l’ordinateur a battu l’Homme aux échecs avec un match opposant Garry Kasparov contre l’ordinateur Deep Blue d’IBM. Ces Intelligences Artificielles émergentes (ou génératives) et nombreuses (Gemini de Google, ChatGPT, assistants intelligents, chatbot, etc.) ont permis de mettre en exergue les besoins de conformité des systèmes d’Intelligence Artificielle en leur sein mais également en matière de protection des données personnelles. En effet, beaucoup d’entre elles doivent sans cesse apprendre pour pouvoir performer, et cela passe également par un apprentissage avec nos données personnelles. Également, d’autres risques liés au SIA existent, notamment l’opacité autour de la manière dont les SIA sont développés. Ces SIA sont souvent considérés comme des vecteurs de discrimination ou des boites noires. En effet, et il est intéressant de le souligner, les biais de l’intelligence artificielle sont directement hérités de ceux qui la créent. Il est démontré que l’utilisation de l’IA peut avoir des impacts discriminatoires et que les flux d’informations échangés mettent en exergue les extrêmes, notamment dû au manque de transparence des algorithmes, de diversité au sein des équipes travaillant sur l’IA, d’intégration en amont de la nécessité de protéger les droits humains, etc. Plusieurs années se sont donc écoulées pour trouver un accord sur un règlement européen : l’IA ACT, entré en vigueur le 1ᵉʳ août 2024, et donc officiellement adopté par le Conseil de l’Union européenne. Le besoin de réglementer débute en 2021 avec une proposition par la Commission européenne d’un règlement établissant des règles harmonisées concernant l’intelligence artificielle au Parlement européen et au Conseil de l’Union européenne. Le 8 décembre 2023, le Parlement européen et le Conseil de l’Union européenne trouvent un accord sur la proposition, devenant ainsi la 1ʳᵉ loi sur l’intelligence artificielle dans le monde. Enfin, le 13 décembre 2023, les députés européens ont approuvé le texte sur l’intelligence artificielle (523 pour, 46 contre et 49 abstentions). La CNIL s’est, en parallèle, saisie du dossier. Elle a depuis un an, lancé un plan d’action promouvant une IA respectueuse des droits des personnes sur leurs données et sécurisant les entreprises innovant en la matière dans leur application du RGPD. Cependant, intelligence artificielle ne rime pas forcément avec données personnelles. Certaines intelligences artificielles fonctionnent sans collecter ni traiter de données personnelles. Dans ces cas-là, l’IA ACT différencie plusieurs systèmes selon une approche par les risques : SIA interdits, SIA à haut risque, et autres SIA comprenant les risques spécifiques et les risques minimes. Dans le second cas, lorsqu’il existe des données personnelles, l’IA ACT s’applique ainsi que le RGPD. Il existe donc trois enjeux à prendre en compte en matière de protection des données sur les SIA.
1-Quelle est la finalité du traitement des données ?
1-Existe-t-il une base légale autorisant le traitement de données ?
2-Des données personnelles, sensibles ou hautement personnelles sont-elles utilisées dans le SIA ?
3-Le SIA utilise-t-il les données personnelles saisies pour son apprentissage ?
4-Existe-t-il une option pour interdire ou restreindre l’utilisation des données personnelles saisies ?
5-Le SIA est-il hébergé en France ou a minima au sein de l’UE ?
6-Quelles sont les mesures techniques et organisationnelles mises en place pour protéger les données personnelles ?
Quelles sont les garanties contractuelles en matière de protection des données personnelles ?
Le SIA offre-t-il des garanties en matière de privacy ?
Il est donc très compliqué pour une entreprise de se mettre en conformité sur tous les aspects, notamment avec de nouvelles réglementations liées à de nouvelles technologies. En effet, il existe beaucoup de réglementations, qui doivent se combiner, se compléter, se superposer. A cela s’ajoutent des obligations, des exigences et des contraintes (nationales et européennes). L’articulation entre l’utilisation des systèmes d’intelligence artificielle et la conformité en matière de protection des données de ces SIA représente un enjeu majeur dans notre société numérique en constante évolution. Alors que les SIA offrent des opportunités pour améliorer l’efficacité et l’innovation, elles soulèvent également des préoccupations légitimes concernant la vie privée et la sécurité des données personnelles. Il est donc essentiel que les entreprises et les organisations adoptent une approche proactive en intégrant les principes de protection des données dès la conception de leur SIA, notamment en mettant en place des questionnaires et des grilles d’analyse de conformité. Cette approche proactive implique non seulement la mise en œuvre de procédures strictes au sein de l’organisme, mais aussi une sensibilisation accrue des utilisateurs. Pour conclure, il est également important de favoriser un dialogue ouvert entre les différents opérateurs d’IA, les régulateurs et les utilisateurs afin que l’innovation technologique se déroule dans le respect des droits fondamentaux, créant ainsi un environnement où l’Intelligence Artificielle peut prospérer tout en protégeant la vie privée des individus.