Quelle éthique pour protéger les données de santé ?

Quelle éthique pour l’IA en santé ?

Les avancées de l’intelligence artificielle dans le domaine médical créent de nouveaux défis éthiques. La mathématicienne Cathy O’Neil va jusqu’à évoquer la nécessité d’un « Serment d’Hippocrate* » pour la datascience. Le symbole est fort ! À l’aune de quels critères éthiques évaluer l’utilisation des données de santé et l’équité, la loyauté des algorithmes qui s’en nourrissent ? Quel rôle pour les professionnels de santé à l’heure de la médecine numérique ?

Entretien avec Jérôme Béranger, chercheur (PhD) associé en éthique du numérique à l'unité Inserm de l'Université Paul Sabatier de Toulouse et cofondateur d’ADEL (Algorithm Data Ethics Label), pionnier dans la certification des traitements de données dans le secteur de la santé.

Qu’est-ce que l’éthique ? Quelle différence faites-vous avec la morale ?

JB.- Le jugement moral vise à discriminer le bien du mal, le juste de l’injuste. L’éthique ne se réduit pas à un ensemble de valeurs humaines. Il s’agit d’une réflexion argumentée qui interroge nos actions et leur finalité. L’objectif est de donner du sens et d’agir conformément à nos principes éthiques, tant au niveau individuel que collectif, en créant du consensus.

C’est une démarche qui mêle les disciplines, faisant dialoguer les sciences humaines et les sciences dites «dures». L’éthique est surtout une réflexion en mouvement : elle évolue dans le temps, bousculée par l’irruption d’innovations techniques, à l’instar des technologies numériques, et nous guide pour savoir ce qu’il est acceptable, souhaitable d’en faire.

Jérôme Béranger, chercheur (PhD) associé en éthique du numérique à l'unité Inserm de l'Université Paul Sabatier de Toulouse et cofondateur d’ADEL (Algorithm Data Ethics Label)

Quels sont les risques éthiques autour des données de santé et de l’IA ?

JB.- L’intelligence artificielle soulève beaucoup d’espoirs. Naturellement, elle est aussi l’objet d’inquiétudes et de fantasmes. Personne ne redoute l’IA lorsqu’elle permet de réaliser des diagnostics plus précis et plus rapides : elle fait alors gagner du temps pour les cas simples et en libère aux médecins pour les cas plus difficiles, qui réclament une analyse humaine approfondie.

Le risque majeur est la perte du libre arbitre face à un système expert susceptible de prendre une décision qui n’est pas adaptée au patient, ou ne lui garantit pas un traitement équitable, parce que son analyse est erronée ou biaisée. Il est nécessaire pour les soignants de comprendre comment l’algorithme fonctionne, sur quelles données se fonde son analyse, et de conserver un esprit critique – que l’IA n’a pas. Ce n’est pas seulement un moyen de se rassurer, c’est aussi une obligation déontologique : le médecin doit être capable d’expliquer à son patient le raisonnement qui a conduit à poser tel diagnostic, la stratégie thérapeutique qu’il préconise. Sans parler de l’importance de la relation humaine dans la médecine, qui doit perdurer. Une machine n’est pas capable d’empathie.

Un autre risque est celui de la déresponsabilisation, ou plutôt de la dilution de la responsabilité entre les différents acteurs. En cas d’erreur, à qui incombe la faute : à l’éditeur de la solution logicielle, au développeur, à l’acheteur (le laboratoire d’analyses par exemple), à l’utilisateur (le médecin) ?

Quelle est votre vision de l’éthique des données de santé ?

JB.- « Les données brutes sans algorithmes sont une masse inerte et les algorithmes sans données sont des processus creux », disait récemment Nozha Boujemaa, anciennement coordonnatrice de la plateforme scientifique nationale TransAlgo, qui développe outils et méthodes pour la transparence et la responsabilité des systèmes algorithmiques. Cela implique que la réflexion éthique doit d’une part s’intéresser aux algorithmes eux-mêmes, pour éviter qu’ils ne constituent des boîtes noires, et d’autre part à l’intégrité des données, car elles sont susceptibles d’introduire des biais dans un algorithme a priori « loyal » vis-à-vis de l’usager.

Concernant les algorithmes, il s’agit de questionner leur robustesse et l’absence de biais de construction, reproduisant inconsciemment des préjugés humains. L’éthique des données se préoccupe quant à elle des risques pour la sécurité et la confidentialité de ces données personnelles particulièrement sensibles. Mais la réflexion doit aussi porter sur la qualité des données : la façon dont elles ont été collectées (collecte sélective ou non), leur nature, leur traçabilité et leur structuration notamment. Il est évident qu’en mélangeant des données qui sont des causes, et d’autres des conséquences, l’algorithme risque d’établir des corrélations non pertinentes. Il faut enfin se demander si l’ergonomie du système est adaptée à l’usage, et si les usages réels ne divergent pas de la finalité initiale.

Comment concilier progrès scientifique et éthique ?

JB.- Établir un cadre de régulation est nécessaire, mais difficile. La course à l’innovation technologique dans le domaine de la santé est mondiale, avec le risque que des approches américaines ou asiatiques supplantent demain notre conception de la médecine. Aux États-Unis, il y a une médecine à plusieurs vitesses, selon que l’on soit riche ou pauvre. Souhaitons-nous importer cela en Europe et en France ? L’éthique permet de bâtir une régulation positive ou soft regulation. Légiférer prend du temps, ne serait-ce qu’à cause du processus d’élaboration et d’adoption des lois. Par nature, le juridique accuse toujours un certain retard sur l’innovation. L’éthique est plus rapide, plus flexible : elle permet d’anticiper les dérives, sans entraver le progrès, grâce à la recherche du meilleur compromis possible.

Quel rôle les entreprises doivent-elles jouer dans la recherche d'une utilisation de l'IA plus éthique ?

JB.- La priorité pour les entreprises est d’intégrer une culture de la gouvernance des données, qui encadre la collecte des données et leur utilisation. L’éthique est un outil de cette gouvernance, qui nécessite une vision transversale (du marketing à la RSE, en passant par les RH) et doit être portée au plus haut niveau de l’entreprise. On devrait voir fleurir les postes de Chief Ethic Officer dans les prochains mois. Surtout, les entreprises qui verraient dans l’éthique un frein doivent considérer qu’elle est devenue une valeur économique, en ce sens qu’elle permet d’établir et de conserver la confiance entre l’entreprise et ses clients et partenaires.

D’ailleurs, si les nouvelles technologies donnent naissance à des risques éthiques inédits, elles constituent aussi une partie de la solution. Car l’éthique peut s’implémenter directement dans le code des algorithmes, dans la conception des interfaces : c’est l’« ethic by design ».

L’éthique en pratique : au 39BIS, Sanofi intègre la réflexion éthique dès la conception de ses projets

Fin 2017, Sanofi ouvrait sur son campus de Gentilly un laboratoire dédié à l’innovation en e-santé : le 39BIS. C’est naturellement au sein de ce lieu d’échanges et d’intelligence collective que la réflexion de Sanofi France autour de l’éthique en e-santé se concrétise aujourd’hui. Isabelle Vitali, Directeur Innovation & Business Excellence de Sanofi France, a fait appel à Jérôme Béranger et à ADEL (Algorithm Data Ethics Label) pour accompagner l’élaboration d’un cadre éthique qui s’appliquera aux solutions e-santé développées et expérimentées au 39BIS. « Les initiatives autour de l’éthique du numérique se sont multipliées, depuis le rapport de Cédric Villani, AI for Humanity, jusqu’à l’initiative citoyenne et académique Ethik IA. Le moment est venu pour les entreprises d’agir concrètement pour répondre à cette préoccupation légitime. » Une recherche d’éthique qui peut aussi s’entendre comme une quête de sens, dans un monde bousculé par de vertigineuses ruptures technologiques. 

Directeur Innovation & Business Excellence de Sanofi France

Si l’éthique peut s’implémenter dans le code, comme le suggère Jérôme Béranger, les méthodes de design thinking sont également un excellent moyen de faire surgir des questionnements d’ordre éthique et de tendre vers cet idéal de l’ethic by design.

« Deux projets sont actuellement en gestation au sein du 39BIS : UniR, qui vise à réduire l’errance dans le diagnostic des maladies rares, et un projet de chabot qui serait destiné à accompagner sur le bon usage des médicaments. Les différentes parties prenantes, soignants et associations de patients, sont impliquées. Dès que l’on dispose d’un MVP (prototype, ndr) du service, des débats surgissent spontanément. » Et sont parfois inattendus : des médecins ont ainsi suggéré que le chatbot puisse être interrogé à travers un assistant vocal, plutôt que discrètement, à travers le clavier. Mais le choix de l’interface n’est pas anodin : si le médecin sollicite un assistant vocal pendant une consultation, cela affecte-t-il sa crédibilité et donc sa légitimité vis-à-vis du patient ? « L’éthique, c’est parfois très pragmatique. Du moins, c’est de cette manière que nous contribuons à ce nécessaire débat de société : en faisant se rencontrer les principes et les problématiques réelles, on construit des solutions. Et de nouvelles façons de travailler. » Comme aime à le répéter Jérôme Béranger, convoquant Léonard de Vinci : il s’agit de « faire pour penser, et penser pour faire ».

Prochaine étape, la création par Sanofi France d’un conseil consultatif sur l’éthique en e-santé : « Nous souhaitons impliquer sur cette question une pluralité de disciplines et d’acteurs, y compris en dehors du monde médical : juristes, datascientists, experts en cybersécurité, anthropologues, designers, philosophes… Mais aussi des économistes et des spécialistes de l’écologie. Car les modèles économiques et l’impact environnemental des technologies numériques posent également d’évidentes questions éthiques. » L’objectif ? Que les futures e-solutions de santé de Sanofi profitent aux patients et aux professionnels de santé, et soient acceptables pour tous.

 

* L’appel de la mathématicienne à créer l’équivalent d’un Serment d’Hippocrate pour la science des données a été suivi d’effet en France : https://hippocrate.tech/

Ce site utilise des cookies pour mesurer son audience et nous permettre d’améliorer votre expérience utilisateur. En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de ces cookies. En savoir plus.

OK