Lors de la 4ème édition du Conseil du commerce et des technologies, les Etats-Unis et l’Union européenne ont plaidé mercredi 31 mai pour la mise en place d’un « code de conduite » volontaire sur l’Intelligence Artificielle. Mais pourquoi réguler l’IA est important, et comment le faire exactement ? Retour sur un secteur en plein essor, qui n’a pas encore de limites juridiques.
C’est un domaine en pleine expansion. L’intelligence artificielle est déjà en train de révolutionner nos manières de vivre, de travailler, et peut-être bientôt : de penser. Arrivé tout droit de Californie, Chat GPT, ce robot conversationnel d’Open AI, a fait une percée fulgurante au niveau mondial en novembre dernier. Six mois plus tard, le patron de la start-up à l’origine du projet, Sam Altman, a indiqué aux Etats-Unis qu’il était « crucial » et « urgent » de réguler l’IA, au risque de s’exposer à des dangers futurs si aucune règle précise n’était définie.
Car l’intelligence artificielle suscite autant la fascination que la méfiance. Le 20 mai en direct d’Hiroshima au Japon, les dirigeants du G7 se sont réunis afin de penser une « utilisation responsable » de ces outils technologiques. Et aussi pour alerter sur les risques qu’ils présentent. Avec, comme principale crainte : celle de la désinformation. Chat GPT est l’outil le plus démocratisé, mais il est loin d’être le seul. En effet, de nombreux logiciels d’IA générative sont désormais capable de produire du code informatique, du texte, des images, du son, et même de la vidéo. C’est pourquoi les discussions du groupe du travail du G7 se sont focalisés sur la « gouvernance, la protection des droits de propriété intellectuelle », ainsi que sur les moyens de contrer « la manipulation d’informations ».
L’intelligence artificielle peut produire des deepfakes dangereuses pour les citoyens
Et l’enjeu n’est pas mince. Les deepfakes ne sont plus un fantasme digne d’un scénario de Black Mirror, mais bel et bien une réalité. Hier, un faux message d’urgence du président russe Vladimir Poutine a été transmis sur les antennes télévisuelles et radiophoniques du pays. Ce faux message a été diffusé largement en russe dans de nombreux pays qui composaient l’ancienne union soviétique.
Les antennes en question ont affirmé avoir perdu le contrôle de leurs programmes pendant près de quarante minutes. Plusieurs vidéos montrent cette diffusion : on y voit l’image de Vladimir Poutine, qui appelle les téléspectateurs à « la mobilisation générale et l’évacuation des citoyens » russes des zones de l’Ukraine. Si certains russophones ont pu noté des incohérences au niveau des accents et de la prononciation de certains mots, la voix du président était plutôt bien imitée, et donc crédible.
Si ce n’est pas la première fois qu’un deepfake a été diffusé (fausse vidéo de Barack Obama en 2018, ou faux Volodymyr Zelensky appelant à la reddition de l’Ukraine), l’ampleur de ce piratage russe annonce un tournant dans la nécessité de réguler les fausses informations.
L’Europe est la première mobilisée pour encadrer juridiquement les intelligences artificielles
C’est dans ce contexte bouillonnant que l’Union Européenne veut se doter du premier cadre juridique au monde dédié à limiter la casse. Elle espère adopter un règlement à la mi-2024, afin de mettre en application des règles précises fin 2025. « Nous sommes le premier continent à avoir bâti une réglementation pour l’intelligence artificielle. C’est un travail extrêmement compliqué », a expliqué Thierry Breton, commissaire européen. Il rappelle que la proposition européenne présente quatre niveaux de protection : « ce qui est interdit, ce qui est à haut risque, ce qui est à moyen risque et ce qui est autorisé ».
Les systèmes interdits
Il y a des systèmes que la commission juge « inacceptables », car contraires aux droits fondamentaux de l’Union européenne. Par exemple, l’exploitation des personnes vulnérables, comme une IA qui exploiterait d’« éventuelles vulnérabilités dues à l’âge ou au handicap physique ou mental d’un groupe de personnes », selon la docteure en droit Nathalie Devillier, experte pour la Commission européenne sur les problématique de l’IA et fondatrice de l’entreprise de conseils Influence Cyber.
Exit aussi l’identification biométrique à distance en temps réel dans des espaces publics, sauf pour des cas exceptionnels comme des recherches d’enfants disparus, ou encore la prévention d’une menace à l’ordre public.
Les systèmes de « note sociale » comme il en existe aujourd’hui en Chine seront également interdits sur le marché. Le règlement prévoit également de poser son véto sur les IA qui utilisent des techniques subliminales, pouvant porter préjudice à la santé physique ou psychologique des individus.
Les systèmes à haut risque
Nathalie Devillier indique que cette catégorie concerne « tous les systèmes qui devront faire l’objet d’une évaluation des agences nationales avant leur mise en application ». Comme par exemple le robot Watson, qui « permet de réaliser un pré-diagnostic puis un protocole de soin en analysant des symptômes, présente un risque attentatoire à la santé des personnes s’il n’y a pas de vigilance et de contrôle humains en parallèle. »
Les systèmes à moyen risque
Chat GPT entre dans cette catégorie. Ici, l’UE prévoit la mise en place d’un code couleur, ou d’un symbole pour signaler aux utilisateurs qu’il s’agit bien d’une IA, dans un souci de transparence. L’exploitant devra obligatoirement expliquer comment le système fonctionne.
Les systèmes autorisés
Tous les objets connectés du quotidien, de la montre au frigo en passant par la machine à laver, n’auront pour leur part aucune autorisation ni de transparence spécifique à présenter.
Ambition du prochain règlement : un contrôle total des objets et secteurs liés à l’IA
Aujourd’hui, aucune autorisation n’est requise, et il n’y a pas d’évaluation nécessaire à la commercialisation d’une intelligence artificielle. Il n’existe pas non plus de règlement général sur les systèmes IA. La règlementation reste centrée de manière sporadique sur certains jouets connectés, ou encore certains secteurs comme le biomédical. L’ambition du prochain règlement européen est de contrôler tous les objets liés à l’IA, en passant chaque secteur au crible. En France, un service dédié de la Cnil (Commission nationale de l’informatique et des libertés), sera chargé de ces contrôles, et s’assurera de la transparence du système. Tout cela reste une théorie, mais au vu de l’ampleur des intelligences artificielles au niveau international, la mise en pratique de ce règlement s’avère extrêmement compliquée.