Approche juridique des gouttières d’alignement dentaire (aligneurs) depuis l’apport de l’outil numérique

Éric D. Sarfaty

Dossier Les Experts - AO News #65 Mars Avril 2024

Télécharger
Eric SARFATY AO News 65.pdf
Document Adobe Acrobat 1.1 MB


 

Introduction

 

Tout praticien en exercice, inscrit régulièrement au tableau de l’ordre des CD, a une obligation de moyen vis à vis de ses patients (arrêt mercier 20 mai 1936, 1ere chambre civile CC) dans le cadre du contrat de soins qui les unit. Le contrat de soins est un contrat civil, non commercial, tacite, à titre personnel (intuitu personae), synallagmatique, consensuel, onéreux ou gratuit, d’exécution continue qui engage le praticien et son patient avec des obligations réciproques.

Actuellement, l’obligation de moyen du praticien fait face à une exigence grandissante des patients et s’orienterait davantage vers une « quasi- obligation de résultat »

 

La demande des patients

 

La plupart des patients passe beaucoup de temps sur Internet et les réseaux sociaux à la recherche d’informations et subissent en retour une forte pression« marketing » des laboratoires qui prônent sans aucun contrôle scientifique, les avantages de leurs dispositifs médicaux. Dans cet article nous aimerions évoquer, entre autres, le cas particulier des gouttières amovibles transparentes d’alignement dentaire. Deux situations différentes sont apparues pour les gouttières d’alignement utilisées par les patients.

 

Gouttières d’alignement vendues directement au public

 

Cas particulier des laboratoires étrangers qui vendent directement les gouttières d’alignement orthodontiques au public sans aucun contrôle. De fait, la réglementation actuelle n’interdit pas la publicité pour ce type de dispositif médical faisant partie des exceptions énoncées à l’article L. 5213-3 du CSP. Ils sont considérés, par un arrêté du 21 décembre 2012 comme présentant un faible risque pour la santé humaine. Ce n’est pas la position du Conseil National de l’Ordre qui a déjà alerté le ministère de la santé et l’assurance maladie pour tenter de stopper cette dérive (lettre N° 20, ONCD sept-oct. 2022). En l’état actuel de la législation, aucun recours n’est envisageable par le patient en cas de dommage lié à l’utilisation de ces gouttières sans aucun contrôle clinique directe d’un professionnel de santé.

 

Gouttières d’alignement par Chirurgien-Dentiste (CD)

 

L’utilisation de ces gouttières d’alignement orthodontique par des CD suppose qu’ils se sont formés de façon adéquate à la prévention, au diagnostic et aux traitements orthodontiques par gouttières d’alignement conformément aux obligations de formation continue (obligatoire depuis le 1/01/2016) qui leur permet avec leur expérience clinique d’avoir les compétences préalables nécessaires à leur utilisation dans le meilleur intérêt du patient et de son traitement.

 

De préférence, pour rester objectif sur les qualités et défauts intrinsèques des Dispositifs Médicaux (DM), il faudrait idéalement que la formation soit assurée par des organismes neutres et objectifs et pas directement par les fabricants eux-mêmes dont le seul but affiché est de vendre le plus possible. Les praticiens doivent garder tout leur sens critique en gardant à l’esprit qu’ils se retrouvent seuls responsables de tous leurs actes cliniques et qu’ils sont seuls engagés avec une obligation de moyen face à leur patient. En pratique, ils ont la capacité de réaliser tous les actes de soins dans la cavité buccale dans les limites définies par le code de déontologie des CD et le code de la santé publique.

 

La multiplication et la complexité croissante des actes diagnostics, cliniques et de prévention en chirurgie dentaire rend impossible de savoir tout faire et de maitriser toutes les techniques. Faire le mieux possible pour son patient implique de savoir déléguer et adresser le patient à un autre confrère plus expérimenté dans le domaine si besoin (art.4127-204 du code de déontologie des chirurgiens-dentistes et art. R 4127-32 du CSP). Il y a aussi et surtout un devoir d’information qui permette aux patients d’émettre un consentement éclairé préalable au traitement (arrêt Teyssier, cour de cass 28/01/1942, loi Kouchner du 4/03/2002).

 

En matière d’esthétique ce consentement éclairé se retrouve renforcé : il faudra expliquer tous les risques possibles et pas seulement les plus courants. En cas de dommage et de mise en cause du praticien par son patient, ce sera au chirurgien-dentiste d’apporter la preuve qu’il a bien informé son patient (arrêt Hedreul, cour de cass, 25/02/1997) en lui donnant non seulement toutes les informations concernant les gouttières d’alignement mais aussi toutes les autres alternatives thérapeutiques avec leurs conséquences (loi Kouchner 4/03/2002).

 

Le patient doit pouvoir choisir en son âme et conscience : consentement éclairé du patient (arrêt Teyssier 28/01/1942 cour de cass et article 16-3 du CC) après une information complète du CD qui doit être simple, intelligible, loyale, claire et appropriée (loi Kouchner du 4/03/02 et code de déontologie des CD). L’information délivrée au patient porte notamment sur les risques fréquents ou graves normalement prévisibles (l’article L. 1111-2 du Code de la santé publique). Depuis 2010, le patient peut aussi évoquer le préjudice moral autonome d’impréparation qui est de plus en plus utilisé par les avocats et les magistrats et qui indemnise le patient (par une somme forfaitaire) du défaut de préparation aux conséquences du risque qui s’est réalisé (Cour de Cass, 1ère chambre civile, 3/06/2010, 09-13.591, Legifrance).

 

Jusqu’à présent, la position des juridictions était divergente quant à l’étendue de l’indemnisation pour défaut d’information. Par un arrêt du 25 janvier 2017, la première chambre civile de la Cour de cassation a tranché sur la question : deux indemnités cumulatives peuvent être accordées, l’une au titre d’une perte de chance et l’autre au titre d’un préjudice moral autonome d’impréparation.

 

Pour rappel, l’article L. 1111-2 du Code de la santé publique précise que :

- l’information délivrée au patient porte notamment sur les risques fréquents ou graves normalement prévisibles ;

- en cas de litige, il appartient au professionnel […] d’apporter la preuve que l’information a été délivrée […]. (Arrêt Hedreul 25/02/1997 cour de cassation). Cette preuve peut être apportée par tous moyens.

 

Fourniture des gouttières par le laboratoire au CD ou à l’orthodontiste

 

En revanche, le laboratoire qui fournit les gouttières aux praticiens (dispositif médical) est soumis à une obligation de résultats (cass 1ere CC du 29/10/1985). Si la responsabilité du CD est mise en cause, il pourra engager une action récursoire contre le laboratoire si le DM est défectueux. Dans le cas particulier des gouttières, le défaut éventuel de fabrication des gouttières ne pourra être constaté que quelques mois après le début du traitement ; ce qui altérera la confiance du patient vis à vis du traitement et du praticien.

 

Le futur des gouttières d’alignement orthodontique et déjà le présent pour certaines est d’être fabriquées à partir d’empreinte classique ou d’empreinte numérique du patient et d’une intelligence artificielle (IA). Cette I.A. va simuler à l’avance l’ensemble des futures étapes du traitement avec les gouttières, avec toutes les étapes intermédiaires du futur traitement orthodontique, qui seront soumises à la validation préalable du chirurgien- dentiste qui n’a pas toujours la formation adéquate ou l’expérience clinique pour valider le plan de traitement proposé et surtout nul ne peut contrôler l’IA utilisée. Ceci pose le problème évident de responsabilité en cas de défaut de l’IA et de mise en cause de la responsabilité du praticien. Avec un traitement « fixe multibagues », le praticien peut immédiatement intervenir dans la bouche du patient et procéder aux corrections qui s’imposent. Avec les gouttières d’alignement, le praticien devra reprendre des empreintes, les renvoyer au laboratoire, attendre la fabrication des gouttières ou de gouttières supplémentaires pour résoudre (si possible) le problème. A ce stade, si l’information préalable du praticien n’était pas suffisante pour préparer le patient psychologiquement ou si l’IA utilisée par le laboratoire est défectueuse pour les prédictions de traitement attendues, qui sera responsable pour la partie IA ?

 

Qu’est-ce que l’intelligence artificielle ?

 

Définition de l’intelligence artificielle

 

C’est un ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence humaine. L’intelligence artificielle dans la santé consiste à utiliser des modèles d’apprentissage automatique pour rechercher des données et découvrir des informations permettant d’améliorer les résultats en matière de santé. Elle collecte, trie et analyse les données, apprend et s’ajuste de manière autonome La santé est un domaine de prédilection pour l’utilisation et le développement de l’intelligence artificielle. L’accumulation des données (Data), la puissance accrue des ordinateurs et l’avènement des techniques d’apprentissage ouvrent déjà des possibilités considérables d’application sur la pratique des professionnels de santé : aide au diagnostic, aide à la prescription médicamenteuse, techniques d’apprentissage par reconnaissance d’images etc…

 

Définition du Machine Learning

 

Le Machine Learning grâce aux algorithmes, est une technologie d’intelligence artificielle permettant aux ordinateurs d’apprendre sans avoir été programmés explicitement à cet effet. Pour apprendre et se développer, les ordinateurs ont toutefois besoin de données (datas) à analyser et sur lesquelles s’entraîner. De fait, la Data (donnée) est l’essence du Machine Learning, et c’est la technologie qui permet d’exploiter pleinement le potentiel des Datas.

L’algorithme sans données (data) est aveugle et les données (data) sans algorithme sont muettes.

Mais il faut garder à l’esprit que les Datas dans le secteur de la santé sont la propriété exclusive des patients et que nul ne peut les utiliser sans l’accord explicite des patients après information préalable (article L 1110-4 du CSP). Aujourd’hui l’intelligence artificielle est en développement dans presque tous les secteurs : du système bancaire à la justice prédictive, la médecine, la médecine dentaire, etc... Avec l’utilisation des algorithmes, plus les datas (données) seront nombreuses, exactes et bien labellisées, plus l’intelligence artificielle sera qualitative, performante et exacte dans ses analyses et prédictions.

 

Exemple d’IA dans le domaine de la justice

 

En ce qui concerne la justice prédictive, le projet « data Just » avait vu le jour en France par un décret du 27 mars 2020. Ce décret avait autorisé la création d’un algorithme pouvant évaluer l’indemnisation des préjudices corporels à la disposition des magistrats et du public. L’expérimentation de ce projet a duré deux ans. Cependant ce projet complexe a été sujet à de nombreux débats et réflexion : il a finalement été annulé en janvier 2022 suite à une décision du ministère de la justice. Dans cet exemple représentatif, l’utilisation de cette IA a été finalement refusée par l’ensemble des acteurs (magistrat et ministère de la justice). Ce qui prouve bien que la mise en place et l’utilisation de l’IA sont des sujets très controversés

 

Discussion sur l’IA et la responsabilité

 

Niveau Européen

 

Le parlement européen demande que les citoyens disposent d’un droit de savoir, d’un droit de recours et d’un droit d’obtenir réparation lorsque l’Intelligence Artificielle est utilisée pour des décisions touchant des personnes, ce qui peut poser un risque important pour les droits et les libertés des individus ou porter préjudice à ces derniers. L’IA est une évolution incontournable, mais quid en termes de responsabilité ? Qui sera responsable en cas de dommages liés à l’intelligence artificiel ? Qui devra indemniser la victime en cas de dommage ? Selon l’article 1240 du Code Civil : « tout fait quelconque de l’individu qui cause à autrui un dommage oblige celui par la faute duquel il est arrivé à le réparer », c’est l’obligation d’un individu à réparer un dommage dont il est la cause.

 

Est-ce que l’IA pourra réparer un dommage ? Celui qui la possède et l’a mise en place ? Autre ? La question est fondamentale car il ne peut y avoir de dommage sans réparation dans le code civil.

 

La responsabilité du fait des choses rend responsable le praticien qui possède l’objet, au cas où l’objet est responsable du dommage. Lorsqu’on utilise de l’intelligence artificielle dans l’élaboration d’une prévention, d’un diagnostic ou d’un plan de traitement, il existe alors comme une sorte de délégation du praticien vers l’intelligence artificielle pour réaliser des choses en dehors de son contrôle. S’il y a erreur de l’IA, qui est responsable dans ce contexte : le praticien ? L’intelligence artificielle ? Existe-t-il un statut juridique particulier pour l’intelligence artificielle ?

 

Le sujet est en plein débat au niveau de la cour européenne de justice qui semble avoir statué vers le refus d’attribuer un statut juridique particulier à l’intelligence artificielle dans le domaine de la responsabilité. Il y a toujours un triptyque indissociable : faute, dommage et lien de causalité non discutable entre les deux. La responsabilité du praticien n’est reconnue qu’en cas de faute et de dommage avéré avec un lien de causalité non discutable entre les deux et ensuite, conformément au code civil, il faudra dédommager la victime : réparer le dommage.

 

Le parlement européen a finalement émis une résolution sur la politique industrielle européenne globale sur l’intelligence artificielle et sur la robotique le 12 février 2019. L’idée de reconnaître une personnalité juridique à L’intelligence artificielle a été abandonnée pour se placer maintenant dans une position d’observation afin de pouvoir dans le futur adapter le droit et la responsabilité civile pour tenir compte de l’intelligence artificielle. Dans le projet de règlement sur ce sujet de l’union Européenne présenté en avril 2021, le règlement n’a pas retenu sa personnalité juridique.

 

Ce règlement vient poser les grands principes en matière d’intelligence artificielle avec la distinction de quatre niveaux d’intelligence artificielle classés par ordre de risques décroissants : risques inacceptables, élevés, faibles et risques minimes.

  • Les IA avec un risque inacceptable sont interdites
  • Les IA avec un risque élevé ou faible devront pouvoir être contrôlées et respecter un code de conduite
  • Les IA avec un risque minime ne feront l’objet d’aucune exigence

La commission européenne a rendu un rapport le 19 février 2020 portant sur les conséquences de l’intelligence artificielle et elle considère que la responsabilité du fait des choses ne devrait pas s’appliquer dans le cas de l’intelligence artificielle. En effet, personne ne dirige ou possède l’IA : elle est intrinsèquement évolutive dans le temps.

 

Le régime qui semble plus favorable semble être le régime de la responsabilité sans faute, celle du fait d’autrui (pas du fait des choses), permettant d’imputer les frais du dommage à celui qui était le mieux placé, avant le dommage, pour contracter l’assurance destinée à garantir le risque.

 

La responsabilité sans faute : responsabilité du fait d’autrui (art. 1242 du CC). On est responsable non seulement du dommage que l’on cause par son propre fait, mais encore de celui de fait de personnes dont on doit répondre.

 

Pour bien comprendre de quoi il s’agit, voici un exemple de responsabilité du fait d’autrui : le plus classique, ce sont les parents vis-à-vis des enfants. Les parents n’ont pas fait de faute et pourtant ils doivent répondre des actes commis par leur enfant.

 

En France

 

La loi N° 2021-1017 du 2 aout 2021 relative à la bioéthique a introduit une obligation d’information à la charge des professionnels utilisant une intelligence artificielle (IA) en matière de santé (article L 4001-3 CSP).

 

Elle vise en premier à protéger le professionnel de santé dans sa responsabilité : s’il n’avait pas suivi les recommandations d’une IA, sa responsabilité ne pourrait être engagée qu’en cas de faute avérée de sa part (tryptique : faute, dommage et lien de causalité non discutable entre les deux), et après avoir vérifié l’absence de défaut de l’algorithme (IA). C’est un point essentiel.

 

Elle introduit le principe d’une garantie humaine en santé, défini comme la garantie d’une supervision humaine de toute utilisation du numérique en santé, et l’obligation d’instaurer pour toute personne le souhaitant et à tout moment, la possibilité d’un contact humain en mesure de lui transmettre l’ensemble des informations la concernant dans le cadre de son parcours de soins. Ce qui implique que le praticien soit compétent et formé dans le domaine où il choisit d’utiliser l’intelligence artificielle pour la prévention, le diagnostic ou le traitement de son patient.

 

Ce principe défend la nécessité de préserver la maîtrise finale du professionnel de santé, en interaction avec le patient, pour prendre les décisions appropriées en fonction de chaque situation spécifique et permettre d’obtenir un deuxième avis médical en cas de doute sur les recommandations thérapeutiques de l’algorithme (IA).

 

Elle met en place l’exigence d’explicabilité de l’algorithme dans le but de préserver le rôle du professionnel de santé dans le parcours de soins d’un patient et de son autonomie décisionnelle qui passe par sa capacité à comprendre comment et pourquoi une proposition a été faite par un algorithme. L’explication pourrait être différenciée selon le public visé, en particulier pour le patient comme l’impose en France la loi sur le devoir d’information du patient préalable à tout acte médical : information simple, loyale, intelligible, claire et appropriée (loi Kouchner du 4/03/2002, article 1111-4 du CSP, article 16-3 du CC).

 

S’il existe une responsabilité du fournisseur de la solution mettant à disposition la solution d’intelligence artificielle, cela sous-entend aussi de développer la formation des professionnels de santé sur les apports de l’intelligence artificielle en santé et l’utilisation des données de santé générées au cours du parcours de soins. Elle prévoit que le patient ou son représentant légal soit informé préalablement au recours à un algorithme d’aide à la décision médicale dans son parcours de soins et que soit garantie l’effectivité du recueil du consentement d’un individu à l’utilisation de ses données de santé (art L1110-4 du CSP) : le non-respect du secret médical d’un patient est une infraction pénale en France

 

Il y a aussi la problématique de la certification des algorithmes dans le domaine de la santé qui est actuellement soumise en France et à l’échelle européenne aux règles de droit commun applicables aux dispositifs médicaux. La difficulté est que cette certification s’adresse habituellement à un produit final délivré sous une forme constante alors que les technologies d’intelligence artificielle sont par nature évolutives dans le temps. Quand bien même une législation serait adoptée, quid des IA utilisées par des laboratoires localisés à l’étranger ? Quelle cour de justice serait compétente ? Cette certification pourrait s’appuyer sur des normes mixtes de qualité sur la façon dont un système doit être conçu et dont le code doit être rédigé par les développeurs. Cette certification devrait évoluer mais elle n’existe pas aujourd’hui d’où la nécessité d’une utilisation très prudente et très contrôlée de l’IA par des professionnels de santé compétents et formés qui ne devraient pas utiliser l’IA sans procédure de contrôle humain systématique.

 

Cas particulier des gouttières prescrites par les orthodontistes ou CD pratiquant l’ODF

 

En accord avec le sujet de cet article, il faut apporter une attention aux validations à l’aveugle des propositions thérapeutiques de fabrication des gouttières d’alignement orthodontiques fortement suggérées par les laboratoires fabricants (souvent à l’étranger) et générées par une IA dont nous n’avons aucune connaissance, aucun contrôle et pour laquelle aucun recours n’est possible. Pour nos patients en demande de traitement ODF par gouttière, nous devons rester prudents et éthiques pour pouvoir prodiguer des soins diligents, attentifs et conformes aux données acquises de la science en accord avec notre obligation de moyen.

 

Conclusion

 

La responsabilité civile peut être engagée lorsque trois conditions sont réunies : un dommage, un fait générateur et un lien de causalité certain, direct et exclusif entre le dommage et le fait générateur (Code civil). L’objectif principal de la responsabilité civile étant de permettre la réparation suite à un dommage, les enjeux en matière de réparation du dommage avec l’apparition et l’utilisation extensive de l’Intelligence Artificielle (IA) sont considérables et plein de conséquences pour l’avenir. Nous ne sommes qu’au début d’une saga juridique, pleine de rebondissements potentiels avec des enjeux financiers hors du commun.

 

La cour de justice européenne est au milieu d’une réflexion globale sur l’intelligence artificielle qui conclue aujourd’hui à l’impossibilité d’attribuer un statut juridique classique à l’IA comme la responsabilité du fait des choses qui impliquerait automatiquement la responsabilité de celui ou celle qui dirige ou possède la chose : personne ne dirige ou possède l’IA.

 

Pour les magistrats, on fait plutôt face à une situation de « délégation » de l’homme vers l’Intelligence artificielle qui implique d’utiliser le modèle juridique de la responsabilité sans faute celle du fait d’autrui (pas du fait des choses). C’est une opinion qui devra ensuite être discutée et peut-être ratifiée par chacun des pays européens. La législation Française avec la loi N° 2021-1017 du 2 aout 2021, relative à la bioéthique, évolue en introduisant une obligation d’information à la charge des professionnels utilisant une intelligence artificielle (IA) en matière de santé (article L 4001-3 CSP). Le législateur tente aussi de comprendre la nouvelle situation en accord avec les professionnels de santé et de légiférer au mieux pour la meilleure protection possible des patients : l’enjeu est considérable en matière de santé publique pour le présent et surtout l’avenir.

 

Avec l’Intelligence Artificielle non contrôlée en matière de santé, nous prenons le risque d’entrer dans une ère où le praticien pourra potentiellement déléguer une partie de ses soins à l’IA et perdre partiellement le contrôle des soins prodigués à ses patients. Le corolaire à cette évolution est une interrogation légitime sur les conséquences en termes de responsabilité et de réparation du dommage.

 

Bibliographie

-Larousse : intelligence artificielle https://www.larousse.fr/encyclopedie/divers/intelligence_artificielle/18725 7

- Acteurs publics :

https://acteurspublics.fr/articles/exclusif-le-ministere-de-la-justice-renonce- a-son-algorithme-datajust

- Résolution du Parlement européen du 12 février 2019 sur une politique industrielle européenne globale sur l’intelligence artificielle https://www.europarl.europa.eu/doceo/document/TA-8-2019-0081_FR.html

- ONCD La lettre N° 200 septembre-octobre 2022

- Article 1242 alinéa 1 du code civil, version en vigueur depuis le 1/10/2016, Légifrance

- Article 1240 du code civil, version en vigueur depuis le 1/10/2016, Légifrance

- Loi N° 2021-2017 du 2/08/21 relative à la bioéthique et art L. 4001-3 du code de la Santé Publique

- Article L. 1111-2 du Code de la santé publique, Légifrance

- Expertise Dentaire et Maxillo-Faciale : principes, conduite, indemnisation. Alain Béry, Daniel Cantaloube, Laurent Delprat, 2ème édition, 2018 Parresia

- Recommandations de bonnes pratiques en odonto-stomatologie, Patrick Simonet, Patrick Missika, Philippe Pomarède et collaborateurs, Id réédition 2020