Les experts européens du droit travaillent pour développer des règlementations pour encadrer l’usage de l’intelligence artificielle (IA). Une question les préoccupe : les machines qui prennent des décisions pourront-elles accéder à un statut de personnalité juridique ?

Par Iole de Angelis

Aujourd’hui, l’IA est porteuse de toutes les espérances dans des domaines divers. Elle consiste en la mise en œuvre de techniques capables de permettre aux machines d'imiter l’intelligence humaine, d’organiser le réel en catégorie, de tirer des conséquences et des conclusions et de faire des prédictions à partir de l’analyse de données (calculs de probabilités, séquençage, etc.). Pour le moment, les machines n’arrivent pas à avoir de sentiments, même si certains robots peuvent réagir à des mots clés et imiter des expressions humaines telles que rire, pleurer ou sourire. C’est la raison pour laquelle certaines conceptualisations de l’IA relèvent du fantasme et de la science-fiction. En même temps, des études sociologiques montrent que les humains peuvent s’attacher aux robots dotés d’une intelligence artificielle et de la capacité d’imitation des sentiments.

Pour l’Europe, l’innovation doit se développer dans la sécurité et le respect des droits fondamentaux des êtres humains tout en garantissant la liberté de pensée et d’invention. Comme l’objectif de l’IA est de créer des machines capables de prendre des décisions, l’éthique joue aussi un rôle essentiel dans la production des règles juridiques dans ce domaine. Par exemple, l’un des sujets clés dans les discussions aux Nations Unies est la question des armes autonomes. Même si « Terminator » reste de la science-fiction, des tourelles robotiques capables de détecter une cible, de l’identifier et décider s’il faut tirer ou non sont déployées par la Corée du Sud dans le « no-man’s land » qui la sépare de la Corée du Nord. Dans ce cadre, l’UE est très attentive à la question de la responsabilité de vie ou de mort sur un être humain.

En même temps, l’IA représente un marché à forte rentabilité par rapport à ses possibilités d’utilisation dans des domaines très variés : santé, transport, énergie, agriculture, tourisme, etc... Dans ce cadre, l’UE souhaite que l’industrie européenne joue un rôle majeur dans le marché mondial sans oublier le respect des droits des personnes, la sécurité des infrastructures critiques et le respect des processus démocratiques.

Au demeurant, l’objectif de l’UE est de concilier les enjeux économiques et diplomatiques de l’IA avec une bonne maîtrise des risques : c’est pourquoi la règlementation joue un rôle fondamental dans l’innovation technologique.

Une nouvelle réglementation

Le 21 avril 2021, la Commission européenne a publié le « Artificial Intelligence Act » : un projet qui vise à proposer des normes pour les chercheurs et les industriels afin que la technologie soit respectueuse des droits de l’Homme tels que définis par la Charte de l’ONU. Ces nouvelles règles ne sont pas encore entrées en vigueur, car le Parlement européen et les États membres doivent les adopter, mais c’est un premier pas pour faire en sorte que l’évolution de l’IA puisse se faire dans un cadre qui respecte certaines valeurs qui minimisent les risques de dérapage technologique.

Outre l’ « Artificial Intelligence Act », la Commission européenne a publié la proposition d’un plan coordonné décrivant les orientations et les investissements nécessaires pour renforcer l’ambition européenne de devenir le leader mondial de l’IA et de se positionner en rival de la Chine. Il est prévu de favoriser le partenariat public-privé, de former de nouvelles compétences dans les technologies de l’intelligence artificielle et d’établir un leadership technologique dans les secteurs de la santé, de l’agriculture et du développement durable. En parallèle, la CE a annoncé le remplacement de la Directive Machine de 2006 par une nouvelle Directive capable d’intégrer les systèmes d’IA dans tout sorte de technologie sans danger pour l’humain. Le financement serait assuré par des programmes comme Horizon Europe, le fonds pour une Europe numérique et une dotation issue du plan de relance économique européen suite à la COVID-19.

Les étapes successives prévoient l’adoption par le Parlement européen et les États membres de ces propositions et l’établissement de règles directement applicables dans l’ensemble de l’UE. Jusqu’à présent, il n’existe qu’une résolution du Parlement qui porte sur le ban de la « prise de décision automatisée » (automated decision-making processes) dans un contexte qui peut porter préjudice à la personne et l’exclusion de l’attribution d’une personnalité-robot qui avait été envisagée sur un plan juridique.

La problématique du statut juridique des machines concerne tous les pays et deux exemples ont récemment marqué l’actualité : le cas du robot humanoïde Sophia, dont la fonction est d’accueillir les visiteurs à l’entrée des parcs de Riyad, qui a acquis la citoyenneté saoudienne. On ne connait pas quels droits ont été octroyés au robot en vertu de cette citoyenneté.

Pour sa part, l’Estonie souhaite introduire un statut hybride entre celui de personne physique et de personne morale qui s’appliquerait aux entités dotées d’IA.

La question juridique sur l’IA sera au cœur des débats juridiques à venir avec des enjeux commerciaux de plusieurs centaines de millions de dollars tels que l’exploration spatiale à des fins minières, la protection et la sécurisation des données, les objets connectés ou les armes autonomes.

24/06/2021 - Toute reproduction interdite


Un membre du personnel regarde un robot sur le site de la Conférence mondiale sur l'intelligence artificielle (WAIC) à Shanghai, le 9 juillet 2020.
©Aly Song /Reuters
De Iole De Angelis