Clément Perrin et Bastien Enjalbert pour la RPP : « Intelligence artificielle : cherchons à réguler mieux qu’à réguler plus »

La polémique des deepfakes de Taylor Swift a embrasé la société américaine. La plateforme X a été contrainte de temporairement interdire les recherches sur Taylor Swift pour contenir la diffusion de fausses images. Ce nouveau scandale lié à l’intelligence artificielle (IA) risque de donner du crédit aux partisans de la folie régulatrice qui dominent en Europe. Pourtant, plutôt que de chercher à réguler plus, nous devons chercher à réguler mieux. En effet, la régulation doit être un outil défensif et offensif pour lutter contre les concurrences chinoise et américaine et non un instrument restreignant le progrès.

L’IA, nouvel arbitre de la démocratie

L’IA modifie la communication politique et publique. Si les faux contenus ont toujours existé sur internet, il n’a jamais été aussi facile d’étendre leur diffusion. D’une part, la volumétrie de contenus rend la tâche de modération manuelle difficile. En complément, lors du rachat de X, Elon Musk s’est séparé de plus de 1 000 collaborateurs dédiés à cette tâche. D’autre part, l’engagement sur les faux contenus est souvent plus important que les vrais. Les plateformes sont réticentes à prendre davantage de mesures contraignantes, excepté lorsque les politiques se saisissent des affaires telles que les deepfakes de Taylor Swift ou encore lors des campagnes électorales.

Les IA perturberont les élections présidentielles, notamment américaine. Plusieurs techniques d’IA génératives ont déjà été utilisées dans le cadre de la campagne pour les primaires. Au New Hampshire, lors de la primaire des Démocrates, une IA basée sur le text to speech a déjà réalisé des milliers d’appels téléphoniques reproduisant la voix de Joe Biden pour inciter ses électeurs à ne pas aller voter. Ainsi, les faux de contenus « qualitatifs » produits par des IA ont renforcé leur rôle d’arbitre de la démocratie.

Une régulation inefficace et contre-productive

Face à la création et à la diffusion de contenus manipulés par l’IA, les régulations existantes sont inefficaces. Bien que certaines lois existent, comme l’article 226-8 du code pénal, le cadre actuel constitue un flou juridique sur la responsabilité du contenu généré par IA, la responsabilité légale des données d’apprentissage du modèle, la responsabilité des modèles open source mis à disposition, des usages, ou bien des biais le constituant. Contrairement aux modèles dits open-source, les applications LLMs les plus populaires ont moins de contrainte du fait de leur caractère fermé. Les acteurs technologiques actuels n’ont aucun intérêt économique à partager trop d’information sur leurs meilleurs modèles. Ce flou juridique profite donc aux acteurs aux détriments des individus ou institutions. De plus, l’utilisation malveillante de l’IA n’est finalement que le prolongement d’une société marquée par une augmentation et une diversité des phénomènes de violence (délinquance sexuelle, violence gratuite, escroqueries, etc.). Ainsi, la seule régulation de l’IA ne vaincra pas son utilisation malveillante, la question se joue surtout sur le terrain judiciaire et policier.

Les régulations existantes sont aussi contre-productives pour trois raisons. Tout d’abord, l’Europe campe sur ses principes idéologiques s’agissant des frontières (1). Or, si la révolution numérique n’abolit pas les frontières, elle participe à leur remise en question sur le fond. En effet, un monde sans frontière est gouverné par la logique des rapports de force. Pourtant, les pays européens n’investissent pas suffisamment pour assurer leur souveraineté sur l’IA, moins de 20 milliards du total des dépenses privées et publiques contre 95 milliards en Chine et près de 250 milliards aux Etats-Unis, selon le AI Index Reports 2023. De plus, les Etats-membres avec l’AI Act se dotent d’un arsenal réglementaire supplémentaire régulant l’IA sans mesures d’extraterritorialité (2). En effet, le vieux continent n’étant pas doté de réseaux sociaux aussi populaires que les alternatives américaines, nous devons leur imposer des règles et contraintes. Enfin, l’Europe a plusieurs trains de retard sur les évolutions de l’IA (3). Par exemple, les capacités de l’IA en 2024 ont été décuplées avec l’avènement des “Large Language Models” et les plus grandes évolutions de l’IA sont devant nous avec les perspectives de l’IA générative.

Cherchons à régulier mieux

La France sera déclassée si elle adopte une politique trop prudente à l’égard de l’IA. Le secteur du numérique se démarque par une concurrence féroce entre les superpuissances américaine et chinoise, les Etats-plateformes comme les pays est-asiatiques ainsi que des acteurs privés comme les GAFAM. Chaque acteur cherche à prendre les devants pour profiter des avantages économiques, géostratégiques et militaires qui découlent de cette technologie émergente. En effet, les estimations des impacts de l’IA varient d’une étude à l’autre, mais toutes convergent vers la conclusion que l’IA sera un vecteur de développement économique conséquent au cours de la prochaine décennie.

La France doit opérer une double rupture philosophique si elle souhaite gagner la bataille technologique. D’une part, nous devons arrêter de privilégier le principe de précaution au principe d’action de test and learn. Cela dissuade les entrepreneurs et les investisseurs de s’engager pleinement dans des projets innovants en IA. L’Europe, et la France, sont le berceau de l’innovation et du progrès, mais nous sommes désormais paralysés par la peur et le risque. D’autre part, nous devons arrêter notre passion pour les réglementations. Tous les derniers mouvements sociaux français (crise des agriculteurs, grèves aux urgences, etc.) réprouvent cette culture technocratique les dépossédant de leur destin. Or, la régulation doit être adaptative pour suivre le rythme rapide des avancées technologiques. Ces mécanismes doivent être conçus de manière à encourager la créativité et la recherche, tout en garantissant un cadre éthique et sécurisé pour le déploiement de l’IA.

Une perception de régulation trop rigide et non adaptée pourrait être destructive pour notre attractivité et brider les énergies. La mise en open source des modèles et des systèmes d’IA offre la possibilité d’un examen plus rigoureux, favorisant une meilleure compréhension et une utilisation plus sûre des modèles. Ces mesures de bon sens peuvent être prises sans être complétées par une cascade de normes à la fois européenne et française qui ne pourront qu’être négatives à long terme.

Clément Perrin, Directeur des Etudes du Millénaire

Bastien Enjalbert, analyste du Millénaire

Add a Comment

Your email address will not be published. Required fields are marked *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.