Nos propositionsDans la presse2025

Tribune

Démystifier l'IA et en dessiner une éthique pour sortir de la confusion ambiante

Alors que le Sommet pour l’action sur l’IA se poursuit à Paris les 10 et 11 février, les contours de l’IA restent flous. Dans ces conditions, comment développer une éthique applicable en pratique ?

Démystifier l'IA et en dessiner une éthique pour sortir de la confusion ambiante
Artificial Intelligence And Virtual Reality Background

Depuis la mise sur le marché de ChatGPT en novembre 2022, le discours politique, économique et médiatique est saturé de références à l’intelligence artificielle, dont il est devenu banal d’affirmer qu’elle doit être « responsable » et « éthique ». Volontiers décrite comme une révolution technologique inédite et une source infinie d’opportunités pour l’humanité par les uns, l’IA est en même temps décriée par les autres, tant ses impacts sociaux, énergétiques et économiques questionnent.

Je propose, dans ce flou discursif, de dégager trois piliers d’une éthique de l’IA simplifiée : l’intégrité, la dignité et la durabilité. Plutôt que de multiplier les lignes directrices complexes combinant parfois une dizaine de principes éthiques, pour certains peu opérationnels, un modèle à trois entrées paraît, en effet, aisément mobilisable.

On aurait pu espérer qu’une approche aussi simplifiée et donc claire soit portée par le Règlement sur l’intelligence artificielle de l’Union européenne (« IA Act ») du 13 juin 2024. Celui-ci n’a toutefois pas dissipé le flou conceptuel qui règne, en dehors des cercles académiques, à propos de l’éthique de l’IA. Ce texte pose un certain nombre de conditions minimales à l’autorisation des systèmes d’IA sur le marché européen, mais n’impose pas de cadre éthique général – sinon l’interdiction, dans la limite du champ d’application du règlement – de certains systèmes d’IA considérés comme inacceptables, à l’instar de ceux permettant la notation sociale à grande échelle.

Même s’il n’entre en vigueur que progressivement depuis le 2 février 2025, l’IA Act alimente depuis des mois un bruit de fond médiatique binaire : soit la régulation est une bonne chose, car elle protège des valeurs européennes (qui ne sont pas toujours aisément identifiables), soit elle est une folle décision car elle « bride » l’innovation et la compétitivité et empêche l’Union européenne de se positionner dans les courses technologiques qui font rage.

Ces débats sont attisés par les prises de position d’entrepreneurs américains comme européens réticents à l’idée d’une régulation européenne, et convaincus de leur légitimité à porter une vision au nom de l’humanité. Pour autant, les données fiables quant aux conséquences économiques de l’IA manquent cruellement pour trancher la question de savoir si sa régulation est, ou non, un danger pour le Vieux Continent. On voit, à vrai dire, transparaître une course au numérique sans bases ni objectifs clairs, jusque dans l’administration.

En témoigne le rapport de la Cour des comptes du 5 décembre 2024 « Mieux suivre et valoriser les gains de productivité de l’État issus du numérique », dans lequel la Cour note que la productivité des projets numériques de l’État est une « préoccupation secondaire » (page 20), ou encore que le « retour sur investissement des projets numériques [est] insuffisamment suivi » (page 35). S’agissant de l’IA générative en particulier, la Cour cite des projections de productivité dans le secteur public si diamétralement opposées qu’elles en deviennent aberrantes (page 60).

En bref : personne ne sait vraiment si l’IA apportera vraiment quelque chose à l’humanité, faute d’indicateurs et de réflexion globale sur le sens de la trajectoire fixée par les géants du numérique.

Deux éléments sont en revanche de plus en plus certains.

« Détechniciser » et démystifier l’IA

Le premier élément est qu’il est indispensable de « détechniciser » et de démystifier l’IA, en particulier générative, pour favoriser l’indispensable réflexion politique qui l’accompagne.

Si l’IA est d’abord un objet informatique dont la compréhension parfaite n’est pas aisée pour les non-spécialistes, il n’est plus possible de se borner à énoncer des banalités sur son caractère « révolutionnaire » et « disruptif » pour l’humanité.

L’IA n’est pas un système technique insondable, mais un objet politique qui doit être traité comme tel. Le législateur doit ainsi se saisir en profondeur, au-delà des enjeux de propriété intellectuelle, de concurrence et de droit des données, de ses aspects sociaux, culturels et environnementaux.

Le Conseil économique, social et environnemental (Cese) ne s’y trompe d’ailleurs pas en définissant « l’intelligence artificielle comme le résultat de choix politiques, réalisés d’abord par des êtres humains, faisant de cette technologie un objet politique » dans son avis Pour une intelligence artificielle au service de l’intérêt général de janvier 2025 (page 28).

Prendre en compte le coût environnemental élevé des systèmes actuels d’IA

Le second élément de certitude réside dans le coût environnemental des systèmes d’IA actuels qui est, pour sa part, chaque jour, davantage mesuré et connu.

L’Agence de l’environnement et de la maîtrise de l’énergie (Ademe) vient ainsi de publier, en janvier 2025, une mise à jour de son étude sur l’empreinte carbone de nos activités numériques.

Cette étude établit, avec de nouveaux indicateurs, qu’en 2022, le secteur du numérique était responsable de 4,4 % de l’empreinte carbone nationale, se rapprochant du total des émissions du secteur des poids lourds en France. En outre, 11 % de la production nationale d’électricité était consacrée au secteur numérique, le tout étant en accélération constante et massive. Si l’impact des terminaux numériques dans ces chiffres reste un enjeu majeur, l’Ademe conclut même que le poids de l’IA générative dans ces résultats invite à « la remise en question de la nécessité de ces usages ».

Pour sortir de la confusion ambiante et des discours creux sur la nécessité d’une « IA responsable », ou sur les effets prétendus d’une réglementation qui n’est pas encore entrée en vigueur, deux éléments sont, sur ces bases, nécessaires : des chiffres fiables et un questionnement éthique profond.

Afin d’obtenir des chiffres sur la base desquels raisonner, il faut d’urgence financer des recherches complémentaires de celles qui émergent pour développer des « IA frugales », ou fondées sur l’impératif de sobriété numérique, et les diffuser.

À cet égard, le financement des universités et de la recherche, en France, est un enjeu stratégique et éthique majeur : la production de chiffres et de données fiables ne peut être exclusivement –- austérité budgétaire oblige – déléguée au secteur privé, lui-même promoteur de certains modèles d’IA.

Trois piliers éthiques : intégrité, dignité, durabilité

Quant au questionnement éthique lui-même, de solides fondements peuvent être trouvés dans les acquis de l’éthique des affaires, dont l’éthique de l’innovation (cadre auquel s’intègre l’éthique de l’IA) peut-être vue comme une sous-branche.

Le matériau commun entre l’éthique des affaires et l’éthique de l’IA, voire la filiation entre les deux notions, réside essentiellement dans le questionnement sur la compatibilité entre l’innovation économique et un certain nombre de valeurs, évolutives, selon les territoires et les époques – le lien entre éthique de l’innovation et la responsabilité sociale et environnementale (RSE) de l’entreprise est d’ailleurs fait par les travaux s’intéressant à l’éthique de l’innovation.

En s’appuyant sur les grandes orientations de l’éthique des affaires, on peut alors proposer de considérer qu’une « IA éthique » est un système d’IA dont la conception et l’usage reposent sur trois piliers : l’intégrité, la dignité et la durabilité.

Selon moi, ces trois éléments donnent une assise à une réflexion éthique simplifiée mais sérieuse, et à la construction d’indicateurs permettant de questionner – car l’éthique est d’abord un processus de questionnement – les systèmes d’IA en fonction des valeurs que notre société, qu’elle l’exprime directement ou par l’intermédiaire de ses représentants élus, souhaite aujourd’hui protéger.

Le développement de systèmes d’IA serait, dans ce modèle, intègre, à condition d’être transparent ; que ses avantages comme ses inconvénients soient publiquement connus ; et que ses biais fassent l’objet de communication et de tentatives de corrections respectueuses des deux autres piliers. On peut ajouter aux conditions d’intégrité d’un système d’IA son développement respectueux du droit applicable et l’interrogation de ses concepteurs, sans nécessairement pouvoir tous les anticiper, à propos des mésusages possibles de leur création.

Un système IA respecterait le principe de dignité si son développement et son usage profitaient au développement humain et que ses coûts sociaux étaient acceptables dans une société donnée – en considérant l’ensemble de sa chaîne de valeur, à commencer par les conditions d’extraction des matériaux nécessaires à la construction des centres de données et des infrastructures.

Liens

Publié le 11/02/2025 ∙ Média de publication : The conversation

L'auteur

Raphaël Maurel

Raphaël Maurel

Directeur Général