AI Act : Quel impact pour la défense ?

AI Act : Quel impact pour la défense ?

Le Parlement européen a adopté ce mercredi 13 mars le texte de l’AI Act, première réglementation contraignante et détaillée régissant l’IA, avec 523 voix pour, 46 contre et 49 abstentions, établissant ainsi un précédent mondial et affirmant le leadership de l’Europe dans la réglementation de l’intelligence artificielle.

Chez Sierra Tango, nous avons scruté avec attention les mesures prévues dans le texte, les observations des institutions européennes et les réactions émanant de spécialistes afin de saisir les implications de l’AI dans le secteur de la défense.

Une approche par le risque

Mais avant tout chose, un peu de contexte. Cette initiative proposée en 2021 par la Commission définit des lignes directrices pour l’introduction, le déploiement et l’utilisation de systèmes d’intelligence artificielle au sein de l’Union. Elle classe les systèmes d’IA en fonction du niveau de risques qu’ils sont susceptibles d’engendrer et impose des exigences différentes en conséquence. 

 

Les systèmes à haut risque doivent respecter des normes strictes pour garantir la sécurité des personnes et leurs droits fondamentaux. La mise en place de protocoles de cybersécurité, de surveillance humaine et de mesures d’atténuation des risques est exigée. Tandis que les systèmes à risque minimal ont des obligations de transparence moins contraignantes. 

La loi interdit certaines utilisations préjudiciables de l’IA, comme l’identification biométrique en temps réel dans les espaces publics, la catégorisation biométrique basée sur des traits personnels tels que la race ou les opinions politiques, la police prédictive individuelle, et la collecte non ciblée d’images faciales. 

 

Les entreprises enfreignant ces règles seront soumises à des amendes, allant jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial pour les violations graves, 15 millions d’euros ou 3 % pour d’autres violations.

Large exemption pour la sécurité nationale

L’AI Act prévoit dans son article 2 §3, une exemption à son application pour les « systèmes d’IA qui sont exclusivement destinés à des fins militaires, de défense ou de sécurité nationale, quel que soit le type d’entité menant ces activités », y compris les entreprises chargées de developper ces systèmes ou les sous-traitants externes. 

En effet, l’AI Act ne s’applique pas aux domaines ne relevant pas de la législation de l’UE et la sécurité nationale reste de la seule responsabilité des États membres conformément à l’article 4, §2 du TUE et aux spécificités de la politique de défense des États membre et de l’UE visées au chapitre 2 du titre V du TUE.

Une certaine ambiguïté pour les systèmes à double-usage

Malgré cette exclusion, l’application de l’AI Act aux systèmes d’IA pourrait tout de même amener des complications et des défis supplémentaires pour les entreprises de défense et les organisations militaires. 

 

En effet, comme mentionné par Rosanna Fanni du CEPS, la clé de l’interprétation de cette exclusion de l’Article 2 réside dans le terme « exclusivement », qui suggère donc que les systèmes d’IA utilisés à des fins duales peuvent toujours relever de l’AI Act.

Si un système d’IA, initialement développé et utilisé à des fins militaires, de défense ou de sécurité nationale, est utilisé pour d’autres usages (civils ou humanitaires) temporairement ou de manière permanente, il serait alors soumis aux réglementations de l’AI Act, les obligeant ainsi à se conformer aux exigences et au classement des risques attribué à ce système, et aux conséquences qui en découlent.

Intérêt et préoccupations des industriels

L’intérêt est certain. Pour preuve, dès 2021, plus de 50 partenaires dont Airbus, Naval Group, Safran, Thales et Sopra Steria s’unissaient au programme français Confiance.ai pour se pencher sur la question.

Cette initiative témoigne d’une volonté de favoriser le développement responsable de l’intelligence artificielle en Europe. Aujourd’hui, ils s’engagent à faciliter la mise en œuvre de l’Al Act par les industriels.

Cependant, l’inquiétude existe. Elle a notamment été exprimée par 150 entreprises (dont Dassault, Airbus et Safran) dans une lettre ouverte publiée dans le Financial Times en juin 2023.

Les signataires pointaient la potentielle menace que représente l’Al Act pour la compétitivité et la souveraineté technologique de l’Europe.

En conclusion, bien que l’adoption de l’AI Act par le Parlement européen représente une avancée significative dans la réglementation de l’intelligence artificielle, des préoccupations subsistent quant à son application dans le domaine de la défense.

 

L’exemption accordée aux systèmes d’IA à des fins militaires ou de sécurité nationale soulève encore un certain nombre de questions, en particulier en ce qui concerne les applications à double usage.

Le vote au Parlement européen constitue l’avant-dernière étape de l’adoption de l’AI Act avant le vote du Conseil de l’Union Européenne attendu dans les prochaines semaines.

RGPD*