L’intelligence artificielle (IA) transforme en profondeur la pratique médicale, notamment en introduisant des usages prédictifs. Si ces innovations ouvrent de nouvelles perspectives pour les patients et les soignants, elles soulèvent également des questions médico-légales majeures. Quelle place pour les référentiels face à ces outils ? Quelle responsabilité pour le professionnel de santé ?
L’IA en santé est une réalité désormais bien actée même si son appropriation au quotidien par les professionnels de santé reste hétérogène et sans doute surestimée. Néanmoins, le mouvement est en marche et les domaines d’application se multiplient. Des algorithmes sont désormais utilisés – ou tendent à l’être en routine – afin d’optimiser la pratique médicale, aider au diagnostic ou fluidifier la prise en charge des patients, permettant d’engager une réflexion sur le temps médical disponible et l’apport de ces solutions au quotidien.
Divers applicatifs permettent, par exemple, d’orienter le radiologue en routine de manière extrêmement efficace, sécurisant le diagnostic final et réduisant ainsi le risque d’erreur de lecture. Dans le domaine du diagnostic clinique, des innovations démontrent que la partie clinique peut également bénéficier de ces technologies. Ainsi, les LLM (Large Language Model) sont de plus en plus utilisés pour enrichir des questionnaires médicaux ou créer des synthèses médicales de plus en plus prisées des professionnels de santé. Certains vont plus loin en proposant d’enrichir les questionnements diagnostiques médicaux, à l’image de la solution AMIE (Automated Medical Inquiry Engine) proposée par Google Research, apportant une réelle pertinence diagnostique dans l’évaluation clinique,
tout en conservant – fort heureusement ! – une « forme d’empathie » lors du recueil de l’information la plus pertinente.