Intelligence artificielle en santé : un risque pour la liberté individuelle ?

28 mars 2018

Une machine qui apprend toute seule ou encore un ordinateur capable de se faire passer pour un humain* ? L’intelligence artificielle (IA) est partout mais sa définition semble encore bien floue. Toutefois, les enjeux éthiques qu’elle soulève doivent être interrogés. Aurélien Dutier, philosophe et chargé d’étude à l’espace Ethique des Pays de la Loire, en évoque les contours, en particulier en matière de médecine et de santé.

« Il est difficile de définir le terme d’intelligence artificielle, dans la mesure où la définition même de l’intelligence fait l’objet de débats », explique Aurélien Dutier. S’agit-il d’une simple somme de connaissances ? De la capacité à prendre une décision en fonction de plusieurs critères ? Ou encore celle d’interagir avec un environnement ? Comment déterminer qu’une machine possède une forme d’intelligence, qu’elle est davantage qu’une machine surpuissante ?

Malgré ces questions toujours en suspens, l’intelligence artificielle va entrer de plain-pied dans plusieurs domaines en France. C’est ce qu’a annoncé Cédric Villani, mathématicien et député pour le mouvement La République en marche, sur France Inter ce matin du 28 mars 2018. Avant de rendre public un rapport qu’il a lui-même rédigé sur le sujet. Il a notamment révélé que l’IA avait vocation à être développée dans 4 secteurs : la santé, le transport, la défense et l’environnement.

La médecine, un secteur sensible ?

Dans le secteur de la santé donc, l’IA recouvre actuellement de manière concrète plusieurs compétences. Les algorithmes concernés ont notamment pour but de simuler les facultés cognitives humaines afin d’aider à la décision médicale. Exemple, le logiciel informatique Watson, développé par la firme IBM, est capable d’analyser toutes les données d’un patient (ses symptômes, les consultations médicales, ses antécédents familiaux, ses résultats d’examen…) afin de lui appliquer un savoir scientifique pour déterminer le meilleur traitement.

Selon Aurélien Dutier, la machine dotée d’une forme d’intelligence peut en effet aider à la décision. « Sur des éléments d’arbitrage, la machine peut aider à raisonner de façon plus objective », note Aurélien Dutier. Certains algorithmes pourraient ainsi améliorer la prise de décision, par exemple pour une greffe. En matière de prise en charge du diabète, des scores sont en outre actuellement élaborés pour déterminer quels patients bénéficieraient d’une opération de chirurgie bariatrique en fonction de nombreux facteurs de risque et critères de bénéfices.

Mais peut-on pour autant envisager de déléguer tous les choix et les diagnostics médicaux à l’IA ?

Prévention en santé contre liberté ?

Autre problématique, celle de la liberté individuelle. Dans le but de développer la médecine personnalisée, de nombreuses données de santé vont être et sont déjà compilées par des ordinateurs puissants mais exposés au risque de piratage ou de détournement d’usage. « Si on détient une foule d’infos sur une personne, on a un pouvoir, une toute puissance sur elle », souligne Aurélien Dutier. « La protection du secret médical, le risque d’intrusion dans vie privée, dans l’intimité sont autant de problématiques soulevées par ces big data en santé. » Ainsi la sécurité des données est-elle un enjeu majeur, dans le contexte d’expansion des dispositifs associés à l’intelligence artificielle.

A ce sujet, Cédric Villani estime la France et l’Europe plus protectrices et plus conscientes des risques que les États-Unis sur le sujet. Pays où ont éclaté des scandales concernant l’exploitation des données personnelles par les géants du web comme Facebook avec la société de communication stratégique Cambridge Analytica. Ce qui n’écarte pour autant pas tout risque à ce sujet.

Enfin, le totalitarisme guette peut-être là où on ne l’attend pas. Avec à l’esprit un but louable, celui de protéger les personnes âgées des chutes par exemple, la santé connectée pénètre de plus en plus dans leurs maisons. Objectif, le maintien à domicile. Mais « n’est-ce pas aller trop loin dans la surveillance au quotidien, risquant ainsi de remettre en question liberté de la personne de vivre en dehors de normes médicales imposées » ?

*Le test de Türing (Alan Turing) a pour but de déterminer si une machine est capable d’imiter suffisamment l’intelligence humaine pour se faire passer pour un humain. Ce fut le cas d’ELIZA, un algorithme mis au point dans les années 1960.

  • Source : interview d’Aurélien Dutier, philosophe et chargé d’étude à l’espace Ethique des Pays de la Loire, 22 février 2018

  • Ecrit par : Dominique Salomon - Edité par : Vincent Roche

Aller à la barre d’outils