Aller au fond des choses - résumé de la documentation en ligne de l'ACPM sur l'utilisation de l'IA
Principales leçons à tirer
- L'obtention du consentement éclairé du patient est nécessaire lors de l'utilisation d'outils d'IA
- Les médecins doivent être ouverts et avoir une discussion expliquant l'outil d'IA et la manière dont leurs données peuvent être utilisées.
- Les outils d'IA doivent respecter toutes les réglementations en matière de protection de la vie privée et de sécurité
- Les médecins restent responsables de la fiabilité de leur travail et doivent toujours vérifier leurs notes AI.
- Les médecins doivent s'assurer qu'ils utilisent des outils précis, mais ils doivent également veiller à ne pas se fier uniquement à l'outil.
Principales considérations de l'ACPM
L'intelligence artificielle (IA) continue de s'intégrer de plus en plus dans le domaine de la santé. L'ACPM a commencé à donner des conseils sur les aspects importants à prendre en compte par les cliniciens qui envisagent d'intégrer l'IA dans leur pratique. Les orientations réglementaires sur l'utilisation des technologies de l'IA commencent seulement à surgir.
Transparence et consentement
La transparence avec les patients est fondamentale, surtout lorsqu'il s'agit d'intégrer des outils d'IA dans la pratique médicale. L'ACPM souligne l'importance d'obtenir le consentement éclairé des patients avant d'utiliser des outils d'IA, tels que les scribes médicaux.
Pour obtenir un consentement éclairé, il convient d'expliquer clairement l'objectif de l'outil d'IA, son fonctionnement et les utilisations potentielles des données enregistrées. Pour s'assurer que le consentement est éclairé, l'enregistrement de toute conversation doit être précisé dans un langage compréhensible, et l'objectif et les utilisations de cet enregistrement doivent être expliqués. Un formulaire ne doit pas être considéré comme un substitut à une discussion avec le patient pour expliquer l'outil d'IA si nécessaire - les utilisations et les risques doivent être discutés. Les patients doivent savoir comment leurs données seront utilisées et si elles seront dépersonnalisées et utilisées pour améliorer les algorithmes d'IA. Par exemple, si un médecin utilise un scribe d'IA qui utilisera les données du patient pour améliorer les versions futures du modèle d'IA, cela doit être expliqué au patient. Le consentement éclairé à l'utilisation d'outils d'IA est essentiel pour maintenir la confiance dans la relation médecin-patient et garantir que les médecins respectent les normes éthiques.
Confidentialité
Les outils d'IA doivent être conformes à la loi sur la protection des renseignements personnels sur la santé (LPRPS). Lorsqu'ils choisissent un outil d'IA, les médecins doivent évaluer si l'outil a mis en place des garanties appropriées pour assurer la confidentialité et la protection des données des patients. En Ontario, afin d'assurer une meilleure pratique il est recommandé qu'une entreprise procède à une évaluation formelle de l'impact sur la vie privée avant de collecter des informations et des données personnelles. Une évaluation de l'impact sur la vie privée est une analyse du traitement des informations personnelles identifiables afin d'assurer la conformité avec les réglementations appropriées, de déterminer les risques pour la vie privée associés aux systèmes d'information ou aux activités, et d'évaluer les moyens de réduire ces risques.
Les médecins et les autres membres du personnel ayant accès aux outils d'IA doivent être correctement informés et formés sur les politiques de confidentialité de leur clinique et sur la politique de l'outil d'IA.
Les médecins doivent également se demander si les enregistrements des consultations avec les patients seront conservés et, si c'est le cas, s'assurer qu'ils sont en sécurité dans le dossier du patient pendant la période de conservation requise. S'ils ne conservent pas ces enregistrements, les médecins doivent mettre en place une politique définissant le moment et la procédure de destruction et s'assurer de l'exactitude du rapport contenu dans le dossier avant cette destruction.
Responsabilité en matière de qualité et de fiabilité
Les médecins et les praticiens doivent rester responsables de l'exactitude, de la qualité et de la fiabilité de leurs outils d'IA. Les médecins doivent toujours revoir les notes et les suggestions transcrites par l'IA afin d'éviter toute erreur. L'IA peut se tromper, introduire des biais ou mal interpréter les informations et les données. Les outils d'IA doivent donc être considérés comme des outils de soutien et ne doivent jamais être utilisés seuls. Il incombe au médecin de contrôler et de corriger toute inexactitude et de veiller à ce que les données soient complètes. La vérification de l'exactitude des outils d'IA réduit les risques potentiels pour les patients ainsi que les risques médico-légaux.
Contrôles supplémentaires
L'ACPM précise qu'il est également important de se poser les questions suivantes (extrait de l'article de l'ACPM ici) :
- Existe-t-il des garanties appropriées pour la collecte, le transfert et l'utilisation des données relatives aux patients ?
- Des procédures appropriées sont-elles respectées et le consentement est-il acquis si le développeur d'IA prévoit de stocker ou d'utiliser des données de patients pour adapter l'outil d'IA ?
- Des mesures sont-elles en place pour maintenir des normes élevées en matière de sécurité et de fiabilité des patients, notamment si l'outil d'IA est adaptatif et qu'il est appelé à évoluer en fonction des nouvelles données relatives aux patients ? Ces normes doivent être maintenues tout au long du cycle de vie de l'outil d'IA.
- Quels sont le but et l'objectif déclarés de la technologie d'IA et son utilisation est-elle appropriée dans les circonstances de votre pratique ? Il s'agit notamment de bien comprendre quelles sont les populations de patients visées et les conditions d'utilisation clinique.
Pour plus d'informations, consultez les ressources officielles de l'ACPM sur comment aborder l'utilisation de l'IA dans le domaine de la santé :
Pour voir comment Pippen s'aligne sur les directives de l'ACPM, cliquez ici.
Contribution de : Charlotte Chen
Charlotte Chen est étudiante en deuxième année de droit à la Lincoln Alexander School of Law de l'Université métropolitaine de Toronto et a participé à un stage d'été avec Pippen.