• Accueil
  • Législation
  • Justice
  • Intelligence artificielle en pharmacie : les assureurs attendent la première jurisprudence
Intelligence artificielle en pharmacie : les assureurs attendent la première jurisprudence

© Getty Images

Intelligence artificielle en pharmacie : les assureurs attendent la première jurisprudence

Réservé aux abonnés
Publié le 26 mars 2026
Par Emmanuelle Serrano
Mettre en favori

L’intelligence artificielle s’immisce de façon croissante dans les officines. Entre exigences réglementaires croissantes, responsabilité du pharmacien et prudence des assureurs, les professionnels avancent à tâtons dans un paysage en construction.

Quel premier réflexe avoir quand on veut déployer une solution IA dans son officine ? « Le point de départ, c’est le Code de déontologie : le pharmacien doit s’assurer que l’outil est conforme à l’ensemble des règles applicables », souligne Bastien Pavec, avocat en droit de la santé chez Clifford Chance. Depuis mars 2026, la nouvelle mouture du Code impose explicitement que « tout outil numérique soit utilisé dans le respect des règles déontologiques, des exigences du numérique en santé et de la protection des données », rappelle l’avocat.

L’article R. 4235-10 précise désormais que « le recours par le pharmacien à des outils et services numériques s’effectue dans le respect des règles de déontologie de la profession et des règles d’identification, de sécurité et d’interopérabilité des services numériques en santé définies aux articles L. 1470-1 et suivants. Il n’altère pas la qualité de la prise en charge du patient, ni celle des actes professionnels réalisés ». De plus, « le pharmacien s’assure auprès du patient que celui-ci a la capacité d’utiliser ces outils et services numériques », détaille également le Code.

Le cadre général : la directive européenne sur les produits défectueux

Les pharmaciens évoluent dans une « constellation de textes » mêlant droit dur et recommandations : IA Act, nouveau règlement sur les dispositifs médicaux (MDR), règlement général sur la protection des données (RGPD) ou encore Code de déontologie récemment révisé, comme évoqué plus haut.

À l’échelle européenne, le texte important à garder en tête est celui de la directive du 25 juillet 1985 relative aux produits défectueux, qui a été révisée et abrogée par la directive (UE) 2024/2853 du Parlement européen et du Conseil du 23 octobre 2024. Cette nouvelle version intègre les spécificités des technologies à base d’IA dans le droit commun des produits défectueux. Entrée en vigueur le 9 décembre 2024, elle s’appliquera aux produits mis sur le marché ou mis en service à partir du 9 décembre 2026.

« En février 2025, un projet de directive sur la responsabilité du fait de l’utilisation d’une IA avait été étudié mais Bruxelles avait décidé de retirer le texte de façon unilatérale », rappelle Bastien Pavec. Ce retrait était intervenu dans un contexte de critiques croissantes contre l’Union européenne, accusée de trop encadrer les nouvelles technologies. Lors du Sommet de l’IA à Paris, qui savait eu lieu les 10 et 11 février de la même année, plusieurs acteurs ont dénoncé un pouvoir réglementaire jugé excessif et susceptible de freiner l’innovation.

Publicité

Un socle qui place la responsabilité du pharmacien au cœur du dispositif

En l’absence de régime spécifique à l’IA — le projet européen ayant été abandonné —, par conséquent, le droit commun s’applique avec une responsabilité pour faute du professionnel, sauf à prouver un défaut du produit. Autrement dit, le pharmacien demeure en première ligne. Son obligation ? Vérifier la conformité des outils, encadrer leur usage, assurer un contrôle humain et garantir la traçabilité.

Dès lors qu’elle est utilisée dans un contexte de soin — analyse d’antécédents, détection de contre-indications ou encore aide au diagnostic — une solution d’IA peut être qualifiée de dispositif médical (DM) ou de dispositif médical de diagnostic in vitro (DMDIV). En pratique, une large majorité de chatbots santé relèverait de cette qualification, selon l’Association française des affaires réglementaires (AFAR).

Une logique transposable à l’IA

Si un titulaire ne respecte pas son obligation de vérifier le marquage CE d’une solution à base d’IA, sa documentation technique et ses conditions d’utilisation, il risque de s’exposer non seulement à un manquement réglementaire, mais aussi à un risque assurantiel majeur. Un arrêt du 12 février 2026 de la Cour de cassation illustre cette exigence. Un ophtalmologiste, qui avait posé sur plusieurs patientes des implants intraoculaires « New Iris », destinés à modifier la couleur de l’iris, s’est vu opposer une non-garantie par son assureur. Le motif ? Avoir réalisé un acte prohibé par la réglementation, acte exclu de la garantie comme le prévoyait une clause de son contrat d’assurance de responsabilité civile professionnelle (RCP). En effet, les implants en question ne bénéficiaient pas du marquage CE, pourtant indispensable en France.

Les hauts magistrats ont justifié leur arrêt en s’appuyant sur trois arguments principaux :

  • Une clause d’exclusion valable et précise : la clause excluait « les actes prohibés par la réglementation en vigueur ». La Cour a jugé qu’elle était formelle, car elle visait clairement des actes interdits, sans ambiguïté ;
  • L’utilisation d’un dispositif illégal : les implants utilisés ne disposaient pas du marquage CE, pourtant obligatoire. Leur utilisation était donc interdite par la réglementation, ce qui entrait directement dans le champ de l’exclusion ;
  • Une faute consciente du médecin : l’ophtalmologue utilisait ces implants en connaissance de cause, alors qu’ils n’étaient pas autorisés en France. La Cour a donc considéré qu’il avait commis un acte prohibé.

En bref, l’assureur était en droit de refuser sa garantie, car le sinistre résultait d’un acte illégal explicitement exclu du contrat.

Assurance : un angle mort encore assumé

Du côté des assureurs, le constat est clair : l’IA n’est pas encore un critère structurant dans les contrats. En pratique, tout ce qui n’est pas explicitement exclu reste couvert. « Si l’utilisation de l’IA n’est pas mentionnée dans le questionnaire de souscription, elle est couverte par défaut. Nous attendons surtout les premiers contentieux pour voir comment la jurisprudence va se positionner », explique Nicolas Gombault, directeur de l’indemnisation et de la communication médicale, chez MACSF. Cette posture attentiste traduit un certain pragmatisme. Face à une technologie en constante évolution, les assureurs préfèrent observer plutôt que d’anticiper des risques encore mal identifiés.

Entre innovation et vigilance

En conclusion, l’intégration de l’IA en officine ouvre des perspectives considérables, mais impose une vigilance accrue. Vérification du marquage CE, conformité réglementaire, gestion des données de santé et clarification contractuelle deviennent des réflexes indispensables. Dans ce contexte, pharmaciens, juristes et assureurs avancent ensemble, à mesure que les usages se développent. C’est une construction progressive, où la jurisprudence jouera un rôle déterminant pour fixer les lignes de responsabilité. En attendant, une certitude s’impose : l’IA ne dispense pas du jugement professionnel. Elle le redéfinit.