Réguler le déploiement de l'intelligence artificielle

Vous pouvez faire confiance aux capteurs bio-inspirés de Benoît Miramond pour éviter d’emboutir la voiture qui vient de freiner brusquement devant vous. Cependant, bien que l’intelligence artificielle comme aide à la conduite promette de prévenir quantité d’accidents, d’importants enjeux juridiques voient le jour. Effectivement, son potentiel de transformation important dans nos sociétés demande l’élaboration d’un cadre de régulation adapté. Mais comment faire pour légiférer les systèmes d’intelligence artificielle lorsqu’ils se transforment et évoluent en permanence ?   

LE RÈGLEMENT EUROPÉEN SUR L’INTELLIGENCE ARTIFICIELLE 
Marina Teller est juriste et enseignante-chercheuse à Université Côte d’Azur. Elle s’intéresse notamment au développement de solutions pour normer et contrôler la commercialisation des systèmes d'intelligence artificielle. Elle explique : « le règlement européen va mettre en place un dispositif de conformité obligatoire afin de réguler cette technologie en fonction de la nature des risques. Ainsi, pour qu’un système d’intelligence artificielle puisse être mis sur le marché de l'Union européenne, il devra bénéficier d’un marquage CE. »  
 

La nature des risques induits par ces technologies sera notamment évaluée selon plusieurs catégories dont découleront des mesures adaptées. En bas de l’échelle se trouvent les systèmes d’intelligence artificielle avec un risque minimum n’ayant pas besoin d’être régulés. Puis se positionnent les technologies avec un risque limité, tels les agents conversationnels, qui doivent faire preuve de transparence. Au-dessus nous avons les systèmes à haut risque, comme les véhicules autonomes, soumis à une mise en conformité, des évaluations et l’obligation d’apporter des documents techniques. Enfin, tout en haut se trouvent les intelligences artificielles au risque inacceptable, prohibées car allant à l’encontre des valeurs de l’Union européenne. Il s’agirait par exemple d’une notation sociale basée sur l’intelligence artificielle déployée par les autorités publiques.  

UN DROIT STRATÉGIQUE 

Ces nouvelles obligations découlant du règlement européen sur l'intelligence artificielle ont des intérêts multiples. Il s'agit de garantir la sécurité des utilisateurs et des fournisseurs tout en anticipant les conséquences sociétales. Quels seront les effets d’une technologie à anticiper sur le plan économique, éthique, politique ou juridique ? « Effectivement, souligne la chercheuse, l'intelligence artificielle bouleverse de nombreux piliers de nos sociétés contemporaines. Pour n'évoquer que la dimension juridique, les questions de responsabilité seront cruciales pour assurer son déploiement à grande échelle. » 

Une autre difficulté concernant la régulation des systèmes d’intelligence artificielle demeure dans le caractère souvent extraterritorial des acteurs : les géants de la Tech américains et chinois ne tombent pas sous le coup de la réglementation européenne. Marina Teller souligne qu’il ne faut pas non plus oublier les pressions politiques et économiques particulièrement fortes dans ce domaine qui sont perçues comme stratégiques par les États. « La tentation d’un moins-disant normatif, pour ne pas freiner le déploiement industriel et économique, serait la plus mauvaise des stratégies. Pour preuve, le cas du règlement européen sur la protection des données personnelles (RGPD) est un bon exemple. Bien qu'il fût très décrié au moment de son adoption, ce texte est devenu un standard mondial, copié aujourd’hui par de nombreux législateurs étrangers, y compris en Chine et aux Etats-Unis. » 

Ainsi, afin de soutenir le développement d’une intelligence artificielle digne de confiance, 1le Bureau européen de l’IA a été créé en février 2024. Il supervisera l’application et la mise en œuvre des règlementations sur cette technologie, favorisant l’innovation, la recherche et les collaborations. N’oublions pas que le droit est un instrument d’influence très important qui jouera un rôle central dans le développement de l’intelligence artificielle. 

 

Article réalisé dans le cadre du premier numéro d'INTERVALLE, le magazine du service Science et Société, grâce à la participation de :

  • Marina Teller, professeure des universités à Université Côte d’Azur au laboratoire Groupe de Recherche en Droit Économie Gestion - GREDEG d’Université Côte d’Azur et du CNRS. Elle est aussi titulaire de la chaire « Droit & IA » de l'Institut Interdisciplinaire d'Intelligence Artificielle Côte d'Azur.