Naming and Diffusing the Understanding Objection in Healthcare Artificial Intelligence

Auteurs-es

DOI :

https://doi.org/10.7202/1114958ar

Mots-clés :

intelligence artificielle, éthique clinique, consentement, prise de décision clinique, radiologie, compréhension, humain dans la boucle

Langue(s) :

Anglais

Résumé

Le consentement éclairé est souvent considéré comme l’un des problèmes potentiels les plus importants pour la mise en œuvre et l’intégration généralisée de l’intelligence artificielle (IA) et de l’apprentissage automatique dans la prise de décision en matière de soins de santé. En effet, on se demande si, et dans quelle mesure, les patients peuvent comprendre ce qui contribue au processus de prise de décision lorsqu’un algorithme est impliqué. Dans cet article, j’aborde ce que j’appelle l’objection de la compréhension, c’est-à-dire l’idée que les systèmes d’IA causeront des problèmes pour les critères d’information impliqués dans un consentement éclairé approprié. Je démontre que la collaboration avec les cliniciens dans le cadre d’un partenariat humain dans la boucle peut atténuer ces préoccupations concernant la compréhension, quelle que soit la manière dont on conceptualise la portée de la compréhension. Surtout, je soutiens que les cliniciens humains doivent être le deuxième lecteur dans le partenariat afin d’éviter la déférence institutionnelle envers la machine et de promouvoir au mieux les cliniciens en tant qu’experts dans le processus.

Téléchargements

Publié

2024-12-02

Comment citer

[1]
Wadden JJ. Naming and Diffusing the Understanding Objection in Healthcare Artificial Intelligence. Can. J. Bioeth 2024;7:57-63. https://doi.org/10.7202/1114958ar.