Intelligence artificielle dans le secteur de la santé : des enjeux de responsabilité et d’éthique
< Actualités - Publié le 28 juin 2018

Intelligence artificielle dans le secteur de la santé : des enjeux de responsabilité et d’éthique

Comment concilier régulation et innovation pour garantir une utilisation sécurisée de l’intelligence artificielle en santé ?

 

Le développement de l’intelligence artificielle crée de nouvelles opportunités pour la médecine 4P (Prédictive, Préventive, Personnalisée et Participative). Le récent rapport Villani a désigné la santé comme l’un des quatre domaines prioritaires pour le développement de l’IA. Toutefois, ce secteur est aussi celui pour lequel les questions éthiques et juridiques sont les plus délicates.

Le terme d’intelligence artificielle regroupe diverses technologies avec des enjeux juridiques et éthiques différents. En effet, les technologies utilisant l’IA vont de l’aide au diagnostic et imagerie (neurocell), aux objets connectés et aux outils de gestion de parcours patient et hospitalier (deepor) [1].  Pour le moment, il n’existe aucune définition légale de l’intelligence artificielle.

C’est le passage progressif d’une intelligence faible à une intelligence forte via ces technologies qui génère de plus en plus de craintes au sein de la société civile. L’intelligence forte est celle qui se rapproche de l’intelligence humaine et suppose une autonomie décisionnelle.

Pour l’heure, les différents rapports ne permettent pas de voir émerger une définition unanime de l’IA. Le sujet reste donc toujours en débat.

 

Quel statut applicable aux technologies intégrant l’IA en santé ?

Le statut juridique applicable à ces technologies est complexe. Hormis les Dispositifs Médicaux (DM) qui font l’objet d’une réglementation européenne spécifique, les autres technologies sont tenues de respecter les règles générales qui s’appliquent aux produits commerciaux. La qualification en DM entraîne un meilleur contrôle des autorités sanitaires et une garantie de sécurité pour les utilisateurs. Par ailleurs, une zone grise demeure quant au « quantified self », les objets intelligents de bien-être, dont la frontière avec le domaine de la santé reste floue. La HAS a publié en 2016 un guide de bonnes pratiques applicables aux objets connectés et applications mobiles pour renforcer leur fiabilité [2]. Toutefois ce guide n’est pas de nature contraignante.

Afin d’accompagner les usages (patients/médecins) des objets connectés intelligents en santé, un statut juridique clair doit progressivement émerger garantissant à la fois la fiabilité et la sécurité de l’objet en question.

 

Quelles conditions pour l’accès aux données de santé ?

L’accès aux données de santé constitue le préalable au développement de l’intelligence artificielle. Le « machine Learning » repose sur l’analyse et l’apprentissage à partir d’une base massive de données. Or, ces données qui constituent « l’or noir de l’économie numérique » sont de plus en plus la cible de cyberattaques. L’open Data suppose de garantir une haute protection des données. Dans cette optique, le nouveau règlement européen sur la protection des données harmonise les normes et renforce les droits des citoyens sur la protection de leurs données personnelles de santé. Une politique dite de « Privacy by design » devra permettre de s’assurer que, dès la conception, la technologie intègre les principes de sécurité des données.

Dans le prolongement du rapport Villani, la ministre de la santé a lancé une mission de préfiguration de la création d’un laboratoire d’exploitation des données de santé dit « Health data hub ». Cette mission devrait conclure à l’élargissement du SNDS. Ses conclusions seront rendues fin septembre 2018.

 

Quels régimes de responsabilité ?

La responsabilité civile des technologies de l’intelligence artificielle suscite également de vifs débats. En effet, l’autonomie décisionnelle dont seront capables les robots dans le futur pose la question de la responsabilité civile, surtout dans le domaine médical où les risques sont élevés : qui sera responsable pour les dommages occasionnés par les objets connectés intelligents et les robots ? Quel pouvoir décisionnel accorder aux algorithmes ? Quelle répartition des responsabilités entre le professionnel de santé et l’algorithme dans le cadre d’une décision médicale ?

Les régimes juridiques existants semblent insuffisants pour répondre à ces questions sur le long terme. Aussi les juristes s’interrogent sur la nécessité d’adapter les régimes existants aux nouveaux enjeux des technologies de l’IA, voire de créer un nouveau régime juridique spécifique aux machines intelligentes.

A court terme, les réponses aux différentes questions posées peuvent être obtenues dans le cadre des régimes existants dans la responsabilité du fait des choses ou la responsabilité du fait des produits défectueux. Toutefois, bon nombre d’acteurs suggèrent qu’à long terme, l’évolution robotique ne pourra plus se contenter d’une simple adaptation. En ce sens, certains avocats, spécialisés en droit des technologies avancées, proposent la création d’un véritable droit des robots, c’est à dire une personnalité juridique accordée au robot et un patrimoine alloué lui permettant d’avoir une responsabilité propre, à l’image de la personnalité morale des entreprises.

L’évolution constante des technologies empêche de se prononcer ex ante sur un régime juridique spécifique. Pour l’instant, l’Europe et la France semblent avoir fait le choix « d’une soft Law pour réguler un soft power ». Les États généraux de la bioéthique, qui se sont terminés très récemment, ont inclus des questions éthiques et juridiques sur la place des robots dans le domaine médical. Le sujet a également fait l’objet d’une proposition de résolution européenne qui contenait des recommandations à la commission concernant des règles de droit civil sur la robotique [3].

Nul doute que les prochaines années seront l’occasion de débattre et de trouver une solution aux nouveaux enjeux que font naître ces technologies disruptives. Une réglementation claire et souple sera certainement une condition sine qua non du développement de l’IA dans le secteur de la santé.

 

Regard d’expert by proxicare

De nouveaux usages appuyés sur l’intelligence artificielle émergent et vont révolutionner progressivement le quotidien des patients et des médecins.
Société d’expertise et de conseils dédiée à l’innovation en santé et au numérique, Proxicare vous accompagne dans vos réflexions stratégiques et la mise en œuvre de vos projets de transformation et de création de nouveaux services.

 

 

[1] https://blog.lehub.bpifrance.fr/panorama-startups-sante-francaises-ia/

[2] https://www.has-sante.fr/portail/jcms/c_2682685/fr/applis-sante-la-has-etablit-101-regles-de-bonne-pratique

[3] http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+REPORT+A8-2017-0005+0+DOC+XML+V0//FR

Les autres actualités by Proxicare

 
 
 

Décryptage du Projet de Loi de Financement de la Sécurité sociale (PLFSS) 2025

L’examen par le Parlement du PLFSS pour l’année 2025 arrive à son terme. Les députés et...

 
 
 

La baisse du salaire de référence pour le calcul des Indemnités Journalières (IJ), levier de réduction des arrêts de travail ou outil de soutenabilité du budget de la Sécurité Sociale ?

 
 
 

Les usages de l’intelligence artificielle dans l’assurance santé : entre opportunités conjoncturelles et défis d’innovation

Les complémentaires santé pourraient également être bouleversées par l'IA. Proxicare vo...