Intelligence artificielle et santé : quelle responsabilité ?

Après quelques errements de la Commission européenne sur l’éventuelle personnalité juridique d’une IA (résolution contenant des recommandations à la commission concernant des règles de droit civil sur la robotique du 16 février 2017), la Commission est plus sagement revenue aux fondamentaux et a publié tout récemment 2 projets de règlement

1. / Une Proposition de RÈGLEMENT DU PARLEMENT EUROPÉEN ET DU CONSEIL sur les principes éthiques relatifs au développement, au déploiement et à l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes

Citons à cet effet, que le texte précise que « L’intelligence artificielle, la robotique et les technologies connexes, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, sont développées, déployées et utilisées d’une manière axée sur l’homme afin de contribuer à l’existence d’une société démocratique, pluraliste et équitable en préservant l’autonomie et les prises de décision humaines et en garantissant le facteur humain. »

Il définit l’intelligence artificielle comme étant « les systèmes logiciels qui, entre autres choses, collectent, traitent et interprètent des données structurées ou non structurées, identifient et établissent des modèles afin de tirer des conclusions ou prennent des mesures dans une dimension physique ou virtuelle sur la base de ces conclusions »;

Un avis de la commission de l’environnement, de la santé publique et de la sécurité Alimentaire précise d’ailleurs « que la santé numérique ne devrait pas déshumaniser les soins de santé ni affaiblir la relation entre un médecin et son patient, mais offrir aux médecins une assistance en matière de diagnostic et/ou les aider à traiter plus efficacement les patients; (…) et met en garde contre les tentatives d’imputation aux machines d’une forme quelconque de personnalité», susceptible de déresponsabiliser l’humain des erreurs de traitement;

2. / Une proposition de RÈGLEMENT DU PARLEMENT EUROPÉEN ET DU CONSEIL relatif à un régime de responsabilité pour l’exploitation des systèmes d’intelligence artificielle précisant notamment

« Qu’Il importe de souligner ici que les avantages du déploiement de systèmes d’IA l’emporteront de loin sur les inconvénients. L’IA permettra de lutter plus efficacement contre le changement climatique, d’améliorer les examens médicaux, de mieux intégrer les personnes handicapées à la société et de fournir des cours sur mesure à tous types d’étudiants. Pour exploiter tout son potentiel technologique et gagner la confiance du public dans son utilisation, tout en prévenant d’éventuels dommages, la meilleure solution est de fixer des normes éthiques strictes et de prévoir une juste et robuste indemnisation »

(…) qu’avant tout examen des changements requis dans le cadre juridique existant, il convient de préciser que les systèmes d’IA n’ont ni la personnalité juridique ni la conscience humaine, et que leur seul rôle est de servir l’humanité ». Ce texte propose donc un cadre sur la responsabilité des IA et des acteurs recourant à cette dernière en fixant les règles et définitions suivantes. Un «système d’IA» est un système qui présente un comportement intelligent en analysant certaines opérations et en prenant des mesures, avec un certain degré d’autonomie, pour atteindre des objectifs spécifiques. Les systèmes d’IA peuvent être fondés sur des logiciels, agissant dans le monde virtuel, ou peuvent être intégrés dans des dispositifs matériels;

Il peut être :

• «autonome», c’est-à-dire qu’il procède à l’analyse de certaines opérations sans devoir suivre un ensemble d’instructions prédéterminées, bien que son comportement soit limité par l’objectif qui lui a été assigné et d’autres choix de conception opérés, le cas échéant, par son déployeur;

• à «haut risque», c’est à un dire présentant un risque important, de causer un préjudice ou un dommage à une ou plusieurs personnes d’une manière aléatoire et imprévisible; l’importance de ce risque dépend du lien entre la gravité de l’éventuel préjudice ou dommage, la probabilité que le risque se concrétise et Un « déployeur» est alors la personne qui décide de l’utilisation du système d’IA, exerce le contrôle sur le risque associé et tire profit de son exploitation.

En application de ces définitions, le projet de règlement fixe donc un principe de responsabilité suivant lequel le déployeur d’un système d’IA à haut risque est strictement responsable de tout préjudice ou de tout dommage causé par une activité, un dispositif ou un procédé physique ou virtuel piloté par un système d’IA. Saluons ces projets de textes, qui mériteront probablement encore de nombreux échanges, mais qui ont le mérite, (enfin !) d’exclure toute notion de personnalité juridique d’une IA et de sa responsabilité autonome associée. Il reste que ces textes devront éviter de remettre en cause les principes légaux suivants :

• Aucune personne ne peut faire l'objet de discriminations dans l'accès à la prévention ou aux soins.

• Toute personne a le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé

• Toute personne a, compte tenu de son état de santé et de l'urgence des interventions que celui-ci requiert, le droit de recevoir, sur l'ensemble du territoire, les traitements et les soins les plus appropriés et de bénéficier des thérapeutiques dont l'efficacité est reconnue et qui garantissent la meilleure sécurité sanitaire et le meilleur apaisement possible de la souffrance au regard des connaissances médicales avérées

Ces textes devront donc concilier la froideur calculée de l’IA avec l’empathie nécessaire du médecin et son serment d’Hippocrate : « Que les hommes et mes confrères m’accordent leur estime si je suis fidèle à mes promesses ; que je sois déshonoré(e) et méprisé(e) si j’y manque. »

A suivre ….