This is fine
Les publications présentes sur ce site amènent l'impact que peut avoir le déploiement des nouvelles technologies sur l'être humain.

Protection des données personnelles
Monopoly
Fracture numérique
Génération d'image par IA

This is fine
La génération d'image par intelligence artificielle et ses impacts (extrait d'article d'Étienne Mineur)

«Intelligences» artificielles et design dans les écoles en 2022

Ce texte se veut un résumé de mes récentes observations que j’ai pu faire «sur le terrain » concernant l’arrivée soudaine du Machine Learning dans le domaine graphique (et aussi textuel). J’ai eu la possibilité de travailler et d’échanger avec beaucoup d’étudiants (Head de Genève, école Camondo, ESAD d’Orléans et l’école des Gobelins) sur ce sujet et j’ai ainsi pu voir leurs attitudes face à ces nouveaux et si puissants outils. Comme d’habitude de vais utiliser le terme IA pour parler de Machine learning (Deep learning…).


les différentes étapes d’appropriation que j’ai pu observer chez les étudiants :

1-L’étonnement devant la facilité que procurent ces IA dans la production d’images (le prompt), la stupeur.
2-La peur (à qui appartiennent ces images, se faire copier ?…), c’est d’ailleurs une des première questions juridiques qui arrivent chez de nombreuses personnes au départ.
3-La pratique et le jeu avec ces IA (je vais faire un vélo en brocolis…), c’est un peu l’étape « grosse blague ».
4-Le début d’un projet avec un but précis (la conception d’un meuble, d’une police de caractères…) et la compréhension que ce n’est pas si évident de faire une image intéressante même avec ces outils si rapides.
5-Passer beaucoup plus de temps à sélectionner les images qu’à les produire (allons-nous tous devenir que des directeurs artistiques ou des commissaires d’exposition ?). Je n’ai jamais vu des étudiants réfléchir et discuter autant autours de leurs images.
6-Mélanger ces images artificielles avec d’autres types images (photo classique, illustration…) et intégrer les IA dans leur production et pratique; considérer que c’est un nouvel outil (qui peut s’utiliser en amont, comme un générateur de planche de style, et aussi lors de la production servant à produire un vivier d’images très importants, et s’utilisent un peu comme un Pinterest ou autre bases d’images).


Exemples de travaux avec les étudiants de l’école Camondo lors d’un WorkShop qui s’est déroulé en septembre 2022 (les images sont toutes issues de ce WorkShop).

Le groupe #04 Leelou Bruillot, Cléo Perrin et Jiao Mei Chen ont travaillé sur un jeu de cartes des sept familles (de designers). Les étudiantes ont choisi des objets que ces designers n’ont jamais réalisés, puis elles ont demandé à Dall-e de générer ces étranges objets. Elles ont dû utiliser des noms de designer extrêmement connus, mais aussi avec un style très démonstratif. En effet, des designers comme Jean Prouvé ou Dieter Rams ne marchent pas très bien (trop minimalistes et trop fin pour ces fameuses IA).


Le groupe #05 avec Elodie Jochmans, Roman Levy et Arthur Brettenacher, a proposé une exposition de photos d’Henri Cartier-Bresson totalement artificielle. Ils ont travaillé avec tous les outils disponibles de Dall-e et DreamStudio (Outpainting, variation, prompt, retouche de zone…). Pour la restitution de ce travail, ils ont proposé volontairement une scénographie très classique, faisant parfaitement illusion de loin et augmentant ce sentiment de surprise lors d’une observation plus attentive. Ils ont passé beaucoup plus de temps à choisir les bonnes images qu’à les produire. Nous passons du verbe à l’image, sans passer par la phase de production (ou alors très très vite), et une des pistes avec ces IA, serait donc de ne plus être que des directeur artistique (ou commissaire d’exposition), à suivre…


Comment gérer au mieux ce nouvel outil (quelques pistes provisoires)

1-Manier avec habileté les références culturelles dans le domaine graphique (et autres) afin de guider au mieux les IA.
2-Développer un imaginaire très personnel permettant de sortir de la normalisation imposée par ces IA.
3-Cacher ses productions des réseaux afin de rester invisible aux yeux de ces IA. Cela permettrait de se garder un jardin secret imperméable à l’insatiable prédation de ces gigantesques bases de données enrichissant les IA. Cela peut-être une stratégie intéressante, mais extrêmement complexe à mettre en œuvre (et aussi comment se faire connaitre, si on se cache ?).
4-Développer une IA personnelle centrée sur sa propre production (ou alors ses références personnelles) permettant de ne pas affaiblir la pertinence de sa propre production lissée par les millions d’autres références.
5-Se focaliser sur l’empathie, la politique et l’éthique, chose que les IA ne peuvent (pour le moment) pas appréhender.
6-Retourner à l’artisanat, le travail manuel…
7-Etre encore plus « intelligent » (sensible) que ces machines, être excellent dans sa pratique (on ne peut plus être « moyen »).
8-Se positionner, non plus en tant que simple exécutant, mais en tant qu’auteur.
9-Se radicaliser, au sens refuser d’utiliser la moindre IA, voir même outil numérique dans ses productions.

La responsabilité des écoles est immense.

Les écoles vont devoir former de jeunes designers (mais aussi ingénieurs…) capables de gérer à la fois les enjeux écologiques et sociaux, et en même temps, apprivoiser cette arrivée massive des IA dans leur pratique. Ils vont devoir repenser le monde tout en essayant de comprendre de nouveaux outils (de nouveaux outils pour un Nouveau Monde !). Les IA sont là, il faut donc apprendre à les gérer. On peut, par la suite, ne pas les utiliser en connaissance de cause, mais on ne peut pas les ignorer. Personnellement, j’ai une grande confiance en la capacité des ces jeunes designers (et ingénieurs…) a s’adapter, à contourner, a apprivoiser, à questionner, à jouer, à trouver de nouveaux usages… et je suis même impatient de voir émerger de nouvelles formes, de nouvelle manière de travailler, de nouvelle manière de penser le monde avec ces outils.


This is fine
La fracture numérique et ses impacts (extrait d'article de João Paulo & Charlie Muller )

Qu’est-ce que la fracture numérique ?

Au sein de l’Internet Society, nous œuvrons au développement d’un Internet ouvert, connecté à l’échelle mondiale, sécurisé et digne de confiance. Ce travail consiste en grande partie à permettre à ceux qui en ont le plus besoin d’accéder à l’Internet, en réduisant la fracture numérique. En quoi consiste précisément cette fracture numérique ? A priori, une réponse simple semble s’imposer : « le fossé entre ceux qui ont et ceux qui n’ont pas accès aux ordinateurs et à l’Internet » . En approfondissant la question, on s’aperçoit qu’il existe de nombreuses façons de mesurer la fracture. D’ailleurs, il ne s’agit pas d’une fracture, mais de plusieurs. vous proposons ci-dessous une brève synthèse de quelques-unes des approches utilisées pour aborder la fracture numérique et la calculer. Il n’existe pas de définition unique, mais certains moyens efficaces permettent de connecter les laissés-pour-compte et de s’attaquer à la fracture. La création de réseaux communautaires et la mise en place de conditions propices à leur développement sont une des solutions.



Qu’est-ce que la fracture numérique ?

1-La disponibilité : Existe-t-il un accès à l’Internet dans votre région ? Existe-t-il un point de connexion à Internet à proximité ? Si oui, ceci n’est que la première étape.
2-L’accessibilité financière : Cet accès est-il abordable ? Quel est le coût par rapport à d’autres marchandises essentielles ? Quel pourcentage de votre revenu devez-vous consacrer à ce service ?
3-La qualité du service :Les vitesses de téléchargement en amont et en aval sont-elles suffisantes pour les besoins locaux des utilisateurs d’Internet ?
4-La pertinence : La communauté connectée dispose-t-elle des compétences et des technologies nécessaires ? La communauté comprend-elle et s’intéresse-t-elle à la pertinence de l’accès à Internet ? Existe-t-il des applications mobiles disponibles localement ? Existe-t-il un contenu dans la langue locale et pertinent pour les personnes de la communauté ?
5-Autres facteurs de fracture : Parmi les autres domaines susceptibles de créer des inégalités numériques citons la sécurité, l’interconnectivité, la culture numérique et l’accès aux équipements.



Ces écarts en matière de disponibilité, d’accessibilité financière, d’intérêt et de culture numérique se retrouvent aussi bien au niveau international qu’au niveau local. Les pays qui affichent un taux de connectivité moyen élevé présentent néanmoins des inégalités flagrantes en zones rurales, reculées et même urbaines. Ces écarts vont souvent de pair avec d’autres disparités telles que les inégalités en matière de revenus et de genre. Aux États-Unis, par exemple, le taux de connectivité moyen est élevé, cependant les terres indigènes ne disposent pas d’un accès à l’Internet abordable et durable.



Dernières données en date concernant la fracture numérique

Il existe de nombreuses méthodes pour calculer les écarts d’accès à Internet. Chaque source utilise sa propre méthodologie en fonction de son champ d’application et de ses paramètres. Certaines sources s’intéressent à la saturation des appareils utilisés (comme les ordinateurs ou les smartphones) tandis que d’autres examinent les zones couvertes par les fournisseurs d’accès à Internet (FAI).
Toute méthodologie a ses limites, car les données ne peuvent rendre compte de la formidable complexité avec laquelle les gens utilisent l’Internet. En dépit de ces limites potentielles, plusieurs sources permettent de se faire une bonne idée des chiffres de la fracture numérique.
Selon la Commission des Nations unies sur le haut débit pour le développement durable, près de 3,6 milliards de personnes ne sont toujours pas connectées à l’Internet, quel que soit le critère utilisé. Cela représente quelque 4,1 milliards de personnes en ligne, soit près de 53,6 % de la population mondiale.

source : public.tableau.com



La fracture numérique aggrave d’autres fractures

1-L’accès aux soins de santé et ses répercussions : L’accès à Internet est une question importante de santé publique. Le manque d’accès se traduit par l’exclusion d’informations et de ressources vitales en matière de santé. Les experts médicaux insistent désormais sur le fait que l’accès à l’Internet haut débit « doit être reconnu comme un facteur social déterminant pour la santé.»
2-Les perspectives économiques : Pour les employés et les chefs d’entreprise, ne pas disposer d’un haut débit de qualité se traduit par une réduction des perspectives économiques et de la compétitivité dans l’économie numérique.
3-Les perspectives pédagogiques : Le manque d’accès à Internet pour les enfants en âge scolaire signifie qu’ils sont privés des avantages éducatifs d’Internet. Ce fossé perpétue l’inégalité des résultats d’apprentissage et s’est avéré particulièrement difficile pendant la pandémie de COVID-19.

Les réseaux communautaires sont une solution complémentaire pour réduire la fracture numérique

La fracture numérique n’étant pas binaire, il n’existe pas de solution unique pour y remédier. Pendant des décennies, grâce aux modèles classiques, les gouvernements et le secteur privé ont réussi à fournir un accès à Internet à un large public. Cependant, le reste de la population mondiale non connectée est la plus difficile à connecter à l’Internet. Elle vit souvent dans des zones à faible densité ou à faible revenu, où il n’est pas aussi rentable pour les grandes entreprises de fournir des services et de développer des infrastructures. Il en résulte un ralentissement de la croissance du nombre de connexions à l’Internet. Il est nécessaire de trouver des solutions innovantes pour améliorer la situation. Les réseaux communautaires permettent de relever les défis posés par les nombreuses fractures numériques, en offrant un accès abordable à l’Internet à ceux qui en ont le plus besoin. Au-delà de mettre l’Internet à la portée de tous et à un prix abordable, les réseaux communautaires contribuent à réduire certaines des autres fractures mentionnées ci-dessus. C’est ainsi que le fait d’apporter l’accès à l’Internet à une communauté atténue les disparités en matière de santé en mettant des options de télémédecine abordables à la disposition des zones rurales. C’est le résultat de l’initiative du projet Effective Broadband for Health de l’Internet Society au Népal. La connectivité a permis à d’autres communautés de constater des changements dans différents domaines à la fois, comme l’éducation, les soins de santé et l’agriculture dans le cas du réseau communautaire Murambinda au Zimbabwe. Le processus de déploiement des réseaux communautaires prouve également que les membres de la communauté qui participent à la construction de leurs réseaux renforcent également leurs compétences numériques communes. À Waimanalo, à Hawaï, le réseau a ouvert de nouvelles possibilités et a donné à la communauté la maîtrise de sa connectivité. John Garcia, membre de la communauté qui a joué un rôle clé dans le déploiement du réseau de Waimanalo, a déclaré : « De nombreux entrepreneurs ici peuvent désormais se connecter et travailler à domicile. Nous sommes passés de l’absence de connectivité à la connexion, puis à la possibilité de contrôler cette connexion et de l’étendre. »


This is fine
Monopoly (extrait d'article de Thibault Prévost )

Alors que les signes de l'éclatement de la bulle financière de l'IA s'amoncellent, le marché continue de dépenser comme jamais. Le signe d'un régime politique et économique délirant, dans lequel une poignée de monopoles s'exonère de la rationalité.

La vérité, a un jour écrit l'immense Philip K. Dick, c'est ce qui perdure lorsque l'on cesse d'y croire. Ce sont les faits, têtus et inexpugnables, qui s'installent lorsque la psychose reflue et que l'hallucination se dissipe. Parfois, le retour au réel se fait en douceur. Parfois, seul un choc violent avec le réel peut desserrer l'emprise de l'illusion. Depuis le début de l'été, l'industrie de l'intelligence artificielle et le techno-capitalisme dans son ensemble vivent enfin un début de crise de foi. Après dix-huit mois à empiler les superlatifs jusqu'à l'absurde pour nous convaincre (et s'auto-convaincre) que des générateurs de texte améliorés étaient l'inévitable futur des sociétés, les voilà obligés d'admettre une possibilité encore impensable il y a six mois : l'IA censée révolutionner le monde ne sert en réalité à rien, et la bulle financière qui la soutient s'apprête à éclater. Les indices s'amoncellent, pour peu qu'on se force à regarder au-delà du brouillard médiatique hallucinogène qui entoure la technique depuis les premiers balbutiements de ChatGPT. Petit tour d'horizon. En 2023, le fonds d'investissement Sequoia Capital, pas exactement connu pour son agit-prop altermondialiste, écrivait que les "Sept Magnifiques", le surnom énamouré des sept plus grosses valeurs boursières de la tech (Alphabet, Amazon, Apple, Meta, Microsoft, Nvidia, Tesla) devaient répondre à "une question à 200 milliards de dollars". Une question toute simple : comment comptent-ils gagner de l'argent à court ou moyen terme avec l'IA lorsqu'elle nécessite des investissements gigantesques dans l'infrastructure - data centers, cartes graphiques et désormais centrales nucléaires pour alimenter le tout - tout en ne rapportant absolument rien? La seule réponse que l'industrie daigne fournir, par la voix de ses PDG prophètes : gardez la foi et laissez-nous faire. Mark Zuckerberg, un patron qui a un jour dépensé 36 milliards de dollars en 18 mois dans un métavers totalement inutile sans être une seconde inquiété par son conseil d'administration, explique par exemple que son prochain modèle d'IA nécessitera "10 fois plus" de puissance de calcul que l'actuel et affirme qu'il faudra "des années" avant que la technique ne soit rentable. Une foi aveugle partagée par Satya Nadella, Sundar Pichai et les autres, patrons de conglomérats devenus techno-prophètes aux poches sans fond, totalement détachés des impératifs de base de l'économie de marché - notamment celui de vendre un produit plus cher que ce qu'il coûte à produire, afin d'en tirer un bénéfice.



Dans la presse aussi, le discours a changé. Oubliés le messianisme et les prophéties techno-apocalyptiques de l'été dernier, quand grands patrons de la Silicon Valley, "parrains de l'IA" et experts autoproclamés promettaient alternativement transcendance et extinction de l'humanité à des journalistes en état de sidération. Depuis un an, la nullité constante de l'IA générative dans toutes les industries où elle a été implémentée a fracassé un à un les discours publicitaires contre le mur du réel. Dernier fiasco en date, celui d'une campagne présidentielle étasunienne "alimentée par IA", nous informe le New York Times. Dans le monde réel, personne n'a envie de parler politique avec un chatbot, qu'il bosse pour le camp démocrate ou républicain. Alors, depuis le décrochage boursier du Nasdaq fin juillet, conséquence de la publication des (mauvais) résultats des conglomérats de la tech, on s'autorise enfin à poser la question de la bulle financière. Les comparaisons se multiplient avec la bulle dot-com de l'an 2 000, qui a vu le Nasdaq perdre 70% de sa valeur après des années de survalorisation de jeunes entreprises du Web. Sur Google, les recherches du terme "bulle de l'IA" n'ont jamais été aussi nombreuses, reflet d'un zeitgeist médiatique et économique qui voit enfin l'industrie de la tech dans sa glorieuse absurdité. Car pendant que Zuckerberg, Nadella, Pichai, Altman et les autres brûlent des dizaines de milliards de dollars en riant, le nombre de faillites de start-ups a augmenté de 60% aux Etats-Unis l'année dernière. Ce n'est plus de la concentration de capital, c'est un siphonnage en règle. Tout le capital-risque disponible va directement dans la fournaise de l'IA générative.



Ainsi va Big Tech, en monopole ou duopole. Le cloud, c'est Microsoft et Amazon. La publicité en ligne, c'est Google et Meta. La recherche, c'est Google. Le commerce en ligne, Amazon. Le PC, Microsoft. Les applis mobiles : Apple, qui extorque une taxe exorbitante de 30% à tous les développeurs... excepté quelques privilégiés. Et le petit nouveau, Nvidia, déjà scruté par le Département de la Justice, truste le marché de la carte graphique. Et ainsi de suite, dans ce que Cory Doctorow baptise le "capitalisme d'étranglement" (chokepoint capitalism), devenu le système d'exploitation préférentiel d'une économie illibérale. Le seul avantage de cette hyper-concentration du capital, c'est qu'elle réduit le nombre d'ennemis à abattre et la diversité des tactiques à utiliser. Peu importe son secteur, un monopole est un monopole. On ne négocie pas avec, on le brise. Sans offensive de régulation, le devenir de la bulle financière de l'IA importe peu. Peu importe le scénario, les souverains arnaqueurs de la tech survivront à l'éclatement de leur délire, trébucheront sur les cadavres des victimes et reprendront leur lente marche de zombie vers la singularité capitaliste. Pour Amazon, Meta, Alphabet et Microsoft, ce sera une semaine comme une autre, quelques centaines de millions de dollars perdus jusqu'à la prochaine révolution bullshit. Pourquoi ? Car hype après hype, bulle après bulle, milliards après milliards, le cartel de la tech nous confisque la possibilité de penser l'avenir. Elle est là, la conséquence la plus terrifiante du monopole - un monde sans alternative à leur nullité.


This is fine
Protection des données personnelles (extrait d'article de Manon Hottin )

Qu’est-ce que l’IA au sens de l’IA Act ? L’enjeu de la réglementation a été de définir des critères clairs ou suffisamment clairs pour distinguer l’IA des systèmes logiciels plus simples. La définition retenue est fondée sur les caractéristiques essentielles des SIA (Système d’intelligence artificielle) comme suit : le SIA est un système automatisé conçu pour fonctionner à différents niveaux d’autonomie, qui peut faire preuve d’une capacité d’adaptation après son déploiement et qui, pour des objectifs explicites ou implicites déduit, à partir de données d’entrée qu’il reçoit, la manière de générer des résultats tels que des prédictions, du contenu, des recommandations, des décisions, qui peuvent influencer les environnements physiques ou virtuels.

L’intelligence artificielle existe depuis des années. On se souvient, en 1996, du jour où l’ordinateur a battu l’Homme aux échecs avec un match opposant Garry Kasparov contre l’ordinateur Deep Blue d’IBM. Ces Intelligences Artificielles émergentes (ou génératives) et nombreuses (Gemini de Google, ChatGPT, assistants intelligents, chatbot, etc.) ont permis de mettre en exergue les besoins de conformité des systèmes d’Intelligence Artificielle en leur sein mais également en matière de protection des données personnelles. En effet, beaucoup d’entre elles doivent sans cesse apprendre pour pouvoir performer, et cela passe également par un apprentissage avec nos données personnelles. Également, d’autres risques liés au SIA existent, notamment l’opacité autour de la manière dont les SIA sont développés. Ces SIA sont souvent considérés comme des vecteurs de discrimination ou des boites noires. En effet, et il est intéressant de le souligner, les biais de l’intelligence artificielle sont directement hérités de ceux qui la créent. Il est démontré que l’utilisation de l’IA peut avoir des impacts discriminatoires et que les flux d’informations échangés mettent en exergue les extrêmes, notamment dû au manque de transparence des algorithmes, de diversité au sein des équipes travaillant sur l’IA, d’intégration en amont de la nécessité de protéger les droits humains, etc. Plusieurs années se sont donc écoulées pour trouver un accord sur un règlement européen : l’IA ACT, entré en vigueur le 1ᵉʳ août 2024, et donc officiellement adopté par le Conseil de l’Union européenne. Le besoin de réglementer débute en 2021 avec une proposition par la Commission européenne d’un règlement établissant des règles harmonisées concernant l’intelligence artificielle au Parlement européen et au Conseil de l’Union européenne. Le 8 décembre 2023, le Parlement européen et le Conseil de l’Union européenne trouvent un accord sur la proposition, devenant ainsi la 1ʳᵉ loi sur l’intelligence artificielle dans le monde. Enfin, le 13 décembre 2023, les députés européens ont approuvé le texte sur l’intelligence artificielle (523 pour, 46 contre et 49 abstentions). La CNIL s’est, en parallèle, saisie du dossier. Elle a depuis un an, lancé un plan d’action promouvant une IA respectueuse des droits des personnes sur leurs données et sécurisant les entreprises innovant en la matière dans leur application du RGPD. Cependant, intelligence artificielle ne rime pas forcément avec données personnelles. Certaines intelligences artificielles fonctionnent sans collecter ni traiter de données personnelles. Dans ces cas-là, l’IA ACT différencie plusieurs systèmes selon une approche par les risques : SIA interdits, SIA à haut risque, et autres SIA comprenant les risques spécifiques et les risques minimes. Dans le second cas, lorsqu’il existe des données personnelles, l’IA ACT s’applique ainsi que le RGPD. Il existe donc trois enjeux à prendre en compte en matière de protection des données sur les SIA.



Le 1ᵉʳ enjeu est donc de savoir quelle(s) réglementation(s) appliquer. En effet, l’IA ACT ne remplace en aucun cas le RGPD, il vient le compléter en édictant des exigences afin de développer et déployer des SIA de confiance. Le RGPD vient s’appliquer à tous les traitements de données personnelles. Dans le cadre d’un SIA avec données personnelles, le RGPD s’applique lors de la phase de développement du SIA et lors de la phase de déploiement de ce dernier. Pour une entreprise, il est donc compliqué, sans juristes spécialisé(e)s de savoir ce qu’il convient d’appliquer et à quel moment. Par exemple, pour les pratiques d’IA interdites, le RGPD va systématiquement s’appliquer puisqu’elles supposent le traitement de données personnelles ; pour les modèles d’IA à usage général, l’application du RGPD sera quasi-systématique puisque les modèles d’IA se fonde généralement sur l’utilisation des données personnelles pour leur apprentissage. Même si ces deux réglementations se complètent, elles ont de nombreuses différences, notamment : le champ d’application, les acteurs, l’approche, les sanctions et l’évaluation de la conformité. Prenons deux de ces différences : l’IA ACT a pour champ d’application le développement, la mise sur le marché ou le déploiement de systèmes et modèles d’IA alors que le RGPD a pour champ d’application tous les traitements de données personnelles. Ensuite, l’IA ACT possède une approche par les risques alors que le RGPD est fondé sur l’application de grands principes, l’évaluation des risques et la responsabilisation.

Le 2ᵉ enjeu est de savoir quels principes appliquer en fonction du rôle de l’opérateur. En effet, le développeur devra respecter le principe de privacy by design et by defaut, ce qui signifie qu’il devra, en amont du développement respecter les principes de protection des données, et ce par défaut. En cas d’utilisation de données personnelles pour entrainer le SIA, le développeur et le fournisseur devront répondre aux principes du RGPD : la licéité, la proportionnalité, la finalité et la minimisation, mais également utiliser le plus possible des données anonymisées.

Le 3ème enjeu en matière de protection des données sur les SIA est de connaître les différentes responsabilités. Si le fournisseur du SIA utilise les données saisies pour développer leurs modèles ou les performances du SIA, il sera considéré comme responsable de traitement et devra s’assurer du respect des règles en matière de protection des données. L’utilisateur final du SIA sera également considéré comme responsable de traitement s’il utilise une solution qui traite des données personnelles. Enfin, le fournisseur "lambda" sera considéré comme sous-traitant et sera soumis aux obligations de sous-traitance et aux instructions documentées du responsable de traitement. S’ajoute ensuite à cela les spécificités propres à l’IA ACT. En effet, selon la qualification du SIA, les exigences diffèrent. Il en va de même selon le rôle de l’opérateur où les obligations divergent, que l’on soit déployeur, fournisseur, distributeur ou encore importateur. Si l’on prend un SIA à haut risque, les exigences seront les suivantes : posséder un système de gestion des risques, mettre en place une gouvernance des données et une documentation technique, permettre l’enregistrement automatique d’évènements pour garantir la traçabilité, accompagner le SIA de notices d’utilisation et être transparent, permettre un contrôle humain et utiliser des solutions techniques pour assurer l’exactitude, la robustesse et la cybersécurité du SIA. Si l’opérateur est un distributeur de ce SIA à haut risque, il devra en plus, respecter les obligations suivantes : coopérer avec les autorités ; conserver la documentation de conformité ; vérifier le marquage CE, la documentation et la notice d’utilisation ; vérifier le respect des obligations par le fournisseur et l’importateur ; et mettre en place des mesures correctives pour les SIA non conformes. Prenons un exemple concret en entreprise : un service client a voulu mettre en place une solution afin d’améliorer la gestion de la relation client. Cette solution consistait en une plateforme alimentée par l’IA générative analysant les interactions clients et automatisant le flux de données exploitables pour ceux qui en auraient besoin. Dans ce cas, l’IA émettait une analyse vocale (sentiment négatif, ton) et une analyse cause profonde (intelligence conversationnelle). De ce fait, la solution était capable de déchiffrer les sentiments des clients pour faire ressortir un passage durant lequel il semblait mécontent par exemple, ou encore vérifier l’empathie des agents. L’entreprise s’est donc posée les questions suivantes : quelle est la qualification de la solution et donc du système (interdit, à haut risque, à risque minime, à risque spécifique) ? Quel est le rôle de l’entreprise quant à la solution dans la perspective d’utilisation de celle-ci ? Quel est le plan d’action de mise en conformité ? L’analyse de conformité a démontré que la solution était bien un système d’intelligence artificielle puisque les critères de définition étaient remplis mais également que la solution correspondait à un système d’IA de reconnaissance des émotions. La solution a par la suite été qualifiée de SIA interdit au regard de l’IA ACT, en ce qu’elle constitue un SIA de reconnaissance des émotions d’une personne physique (opérateurs et clients) sur un lieu de travail, non mis en œuvre à des fins de santé ou de sécurité. L’utilisation d’un SIA interdit exposait donc l’entreprise à des sanctions à compter de l’opposabilité des règles d’interdiction (a priori fin 2024). Le plan d’action était donc de limiter la solution à la reconnaissance des émotions des clients uniquement (sur la base du consentement). Pour aider les entreprises à se mettre en conformité par rapport au RGPD et l’IA Act, en cas d’utilisation d’un SIA traitant des données personnelles, la CNIL propose une grille d’analyse en 7 étapes permettant aux organismes d’évaluer eux-mêmes la maturité de leur SIA au regard des principes de protection des données personnelles, d’après les exigences du RGPD. De ce fait, le développement ou l’utilisation du SIA doit être basé sur une approche par les risques afin de s’assurer que les règles de protection des données sont respectées, notamment en rédigeant une analyse d’impact sur la protection des données (AIPD ou PIA).



Enfin, toutes les entreprises doivent se poser les questions suivantes :

1-Quelle est la finalité du traitement des données ?
1-Existe-t-il une base légale autorisant le traitement de données ?
2-Des données personnelles, sensibles ou hautement personnelles sont-elles utilisées dans le SIA ?
3-Le SIA utilise-t-il les données personnelles saisies pour son apprentissage ?
4-Existe-t-il une option pour interdire ou restreindre l’utilisation des données personnelles saisies ?
5-Le SIA est-il hébergé en France ou a minima au sein de l’UE ?
6-Quelles sont les mesures techniques et organisationnelles mises en place pour protéger les données personnelles ?
Quelles sont les garanties contractuelles en matière de protection des données personnelles ?
Le SIA offre-t-il des garanties en matière de privacy ?



Il est donc très compliqué pour une entreprise de se mettre en conformité sur tous les aspects, notamment avec de nouvelles réglementations liées à de nouvelles technologies. En effet, il existe beaucoup de réglementations, qui doivent se combiner, se compléter, se superposer. A cela s’ajoutent des obligations, des exigences et des contraintes (nationales et européennes). L’articulation entre l’utilisation des systèmes d’intelligence artificielle et la conformité en matière de protection des données de ces SIA représente un enjeu majeur dans notre société numérique en constante évolution. Alors que les SIA offrent des opportunités pour améliorer l’efficacité et l’innovation, elles soulèvent également des préoccupations légitimes concernant la vie privée et la sécurité des données personnelles. Il est donc essentiel que les entreprises et les organisations adoptent une approche proactive en intégrant les principes de protection des données dès la conception de leur SIA, notamment en mettant en place des questionnaires et des grilles d’analyse de conformité. Cette approche proactive implique non seulement la mise en œuvre de procédures strictes au sein de l’organisme, mais aussi une sensibilisation accrue des utilisateurs.
Pour conclure, il est également important de favoriser un dialogue ouvert entre les différents opérateurs d’IA, les régulateurs et les utilisateurs afin que l’innovation technologique se déroule dans le respect des droits fondamentaux, créant ainsi un environnement où l’Intelligence Artificielle peut prospérer tout en protégeant la vie privée des individus.