Modèles de langage de grande taille dans le secteur de la santé : Entre promesses et limites
Découvrez comment les LLM comme GPT transforment l'IA dans le domaine de la santé – et les limites essentielles que les dirigeants doivent comprendre avant leur mise en œuvre.

Introduction : La révolution des LLM dans le secteur de la santé
Les modèles de langage de grande taille (LLM) sont une catégorie de systèmes d'intelligence artificielle entraînés sur de vastes corpus de texte pour prédire et générer du langage. En termes pratiques, ils peuvent rédiger des récits, résumer des informations complexes, extraire des faits clés et interagir de manière conversationnelle – des capacités qui ont accéléré leur adoption dans tous les secteurs. Dans le domaine de la santé, l'attrait est immédiat : le travail clinique est dense en informations, lourd en documentation et complexe sur le plan opérationnel, créant un terrain fertile pour que l'IA dans la santé réduise les frictions et améliore le débit.
Des modèles tels que GPT et les architectures connexes sont rapidement passés de démonstrations expérimentales à des projets pilotes dans des applications médicales, notamment la documentation clinique ambiante, la synthèse de dossiers, le support de messagerie patient et l'aide au codage. Pourtant, la santé n'est pas « un domaine comme les autres » pour l'IA générative. Les enjeux sont plus élevés, les données sont plus sensibles et les attentes réglementaires sont plus strictes. Les dirigeants du secteur de la santé – cliniciens, opérationnels, conformité et informaticiens – doivent donc comprendre à la fois les opportunités et les risques des LLM avant d'étendre leur mise en œuvre.
Le défi central n'est pas de savoir si les grands modèles de langage peuvent générer des résultats utiles ; ils le peuvent souvent. La question est de savoir si ces résultats peuvent être intégrés de manière fiable et sûre dans les flux de travail cliniques sans introduire de risques inacceptables. Cela nécessite d'équilibrer l'innovation avec la sécurité des patients, l'éthique médicale et la conformité réglementaire. Un déploiement efficace dépend de la gouvernance, de la validation et d'une responsabilité claire – ainsi que d'une compréhension réaliste de ce que les LLM font bien (le langage) et de ce qu'ils ne garantissent pas intrinsèquement (la vérité, le raisonnement clinique et la responsabilité).
Cet article décrit où les LLM créent déjà de la valeur dans l'IA de la santé, les limites qui doivent être abordées et une approche pratique pour une adoption responsable – fondée sur les meilleures pratiques actuelles et le paysage réglementaire en évolution.
La promesse : Comment les LLM transforment les applications médicales
Les LLM sont avant tout des moteurs linguistiques, mais le langage est un substrat essentiel des soins de santé : les antécédents, les évaluations, les plans, les instructions de sortie, les autorisations préalables et les réclamations dépendent tous du texte. Lorsqu'ils sont déployés de manière réfléchie, les grands modèles de langage peuvent améliorer l'efficacité, la cohérence et l'accès – en particulier lorsqu'ils sont associés à des données cliniques structurées, à l'intégration des flux de travail et à une supervision humaine appropriée.
1) Réduction de la documentation clinique et de la charge administrative
L'épuisement professionnel des cliniciens est fortement associé à la charge administrative, en particulier aux tâches liées à la documentation et aux EHR. Les outils basés sur les LLM peuvent :
- Rédiger des notes de consultation à partir d'invites de cliniciens ou de transcriptions ambiantes (avec des garanties)
- Générer des résumés concis de dossiers pour la continuité des soins
- Suggérer des listes de problèmes, des médicaments et des plans de suivi basés sur le contexte disponible
- Soutenir le codage médical en proposant des candidats ICD-10-CM, CPT et HCC, puis en mettant en évidence les preuves dans le dossier
- Rédiger des récits d'autorisation préalable et des lettres d'appel conformes aux exigences des payeurs
Ces fonctions sont attractives car elles relèvent souvent des tâches de « transformation du langage » : convertir les conversations cliniques et le contenu du dossier en documentation structurée. Lorsqu'elle est mise en œuvre correctement, cela peut libérer du temps pour les cliniciens et améliorer l'exhaustivité des notes. Pour les organisations qui déploient l'examen de dossiers et le support de codage, les LLM peuvent également aider à standardiser l'extraction des preuves, réduisant la variabilité et aidant les équipes d'intégrité de la documentation clinique (CDI) à se concentrer sur un travail à plus forte valeur ajoutée.
Dans cet espace opérationnel, des entreprises telles qu'Arkangel AI positionnent l'examen de dossiers et le support de codage assistés par LLM comme faisant partie d'une stratégie plus large d'IA dans le domaine de la santé – où la valeur ne provient pas seulement de la génération, mais aussi de la traçabilité, de l'auditabilité et de l'intégration dans le flux de travail.
2) Aide au diagnostic et assistance à la prise de décision clinique
Les LLM sont de plus en plus explorés pour l'aide à la décision – en résumant les diagnostics différentiels, en suggérant les prochaines étapes et en synthétisant l'historique du patient avec des recommandations basées sur des lignes directrices. Les exemples incluent :
- Rédaction de diagnostics différentiels à partir d'un récit de symptômes
- Synthétiser les recommandations pertinentes des lignes directrices pour un scénario clinique
- Assister avec les récits de conciliation médicamenteuse et les rappels de contre-indications (lorsqu'ils sont associés à des bases de données fiables sur les médicaments)
- Traduire les antécédents fournis par les patients en représentations structurées de problèmes cliniques
Utilisés de manière responsable, les LLM peuvent fonctionner comme des « copilotes cliniques » qui réduisent la charge cognitive et aident les cliniciens à envisager des possibilités négligées. Cependant, ces cas d'utilisation nécessitent des garanties plus strictes car ils influencent les décisions cliniques. Des résultats très performants dépendent de l'accès à des sources de connaissances précises et à jour et de la capacité à citer des preuves – idéalement via la génération augmentée par récupération (RAG) liée à des références cliniques fiables plutôt qu'à une génération libre.
3) Engagement du patient : chatbots, vérificateurs de symptômes et communication personnalisée
L'engagement du patient est un autre domaine où les LLM peuvent apporter une valeur immédiate – en particulier pour les organisations confrontées à des contraintes de personnel, des volumes de messages élevés et des lacunes en matière de littératie en santé. Les applications courantes incluent :
- Rédaction automatisée de réponses aux messages du portail pour examen par le clinicien
- Instructions post-sortie adaptées au régime du patient et à son niveau de compréhension
- Préparation des rendez-vous et résumés post-consultation
- Triage symptomatique de base avec des garde-fous clairs et des règles d'escalade
- Éducation aux maladies chroniques (par exemple, diabète, asthme, insuffisance cardiaque) avec une messagerie culturellement et linguistiquement appropriée
Lorsqu'ils sont correctement conçus, ces outils peuvent améliorer la réactivité et l'expérience du patient tout en maintenant la sécurité grâce à un triage conservateur, des clauses de non-responsabilité et des voies d'escalade. Les meilleurs déploiements traitent les LLM comme des assistants de communication, et non comme des cliniciens autonomes.
4) Accélération de la recherche médicale : revue de la littérature, synthèse de données et génération d'insights
Les connaissances médicales doublent rapidement, et les cliniciens et les chercheurs sont confrontés à une surcharge d'informations. Les LLM peuvent aider à accélérer :
- Le criblage et la synthèse de la littérature pour les revues systématiques (avec vérification humaine)
- L'extraction des principales conclusions et limitations à travers des ensembles de documents
- La rédaction de protocoles de recherche, de plans d'étude et de plans d'analyse statistique (avec la supervision d'experts du domaine)
- La génération d'hypothèses et les insights de découverte de médicaments en phase précoce lorsqu'ils sont associés à la chimio-informatique et à des ensembles de données biomédicales structurées
- La synthèse de récits de preuves du monde réel à partir de jeux de données anonymisés
Ces flux de travail bénéficient des points forts des LLM – synthèse, regroupement de concepts et rédaction de récits cohérents – tout en nécessitant des contrôles méthodologiques rigoureux. Dans les contextes de recherche, la transparence concernant les invites de modèle, les versions et la validation est essentielle pour la reproductibilité.
5) Améliorations de l'accessibilité : support multilingue et amélioration de la littératie en santé
Les LLM peuvent élargir l'accès en traduisant le contenu médical dans plusieurs langues et en adaptant les supports pédagogiques à différents niveaux de lecture. Les avantages potentiels incluent :
- Instructions de sortie multilingues et conseils médicamenteux
- Explications en langage clair des diagnostics et des procédures
- Matériels d'éducation sanitaire adaptés culturellement
- Amélioration de l'accessibilité pour les patients ayant une littératie en santé limitée
Ces capacités peuvent soutenir les objectifs d'équité, mais les organisations doivent valider les traductions et les productions éducatives pour leur exactitude, leur pertinence culturelle et les normes de soins locales. Un langage « fluide » n'est pas synonyme d'un langage « cliniquement correct ».
Les limites : Défis critiques que les dirigeants du secteur de la santé doivent relever
Les mêmes caractéristiques qui rendent les LLM si attractifs – la génération de texte flexible et les interfaces conversationnelles – introduisent également des risques non évidents. Les dirigeants ne devraient pas considérer ces limites comme des raisons d'éviter complètement les LLM, mais plutôt comme des contraintes de conception nécessitant une gouvernance, une validation et des contrôles de flux de travail.
1) Hallucinations et préoccupations concernant la précision
Une limitation bien documentée des LLM est l'hallucination : la génération d'affirmations plausibles mais incorrectes. Dans un contexte clinique, les hallucinations peuvent devenir des événements de sécurité si elles influencent les décisions de soins, la documentation ou les instructions aux patients.
Les exemples de risques d'hallucinations pertinents pour la santé incluent :
- La fabrication de citations, de lignes directrices ou de contre-indications
- Le « comblement » de faits cliniques manquants qui n'ont jamais été documentés
- L'énoncé erroné des dosages, des durées ou des exigences de surveillance
- La surestimation de la certitude diagnostique basée sur des informations incomplètes
Même lorsqu'un LLM est souvent correct, le risque d'événements extrêmes compte. Les organisations de santé doivent partir du principe que des erreurs se produiront et concevoir des systèmes de manière à ce que ces erreurs soient détectables, contenables et peu susceptibles de nuire aux patients – en particulier dans les cas d'utilisation d'aide à la décision clinique et en contact avec les patients.
Les approches d'atténuation comprennent la RAG avec des sources fiables, la génération contrainte, la signalisation de confiance (avec une interprétation prudente), l'examen humain obligatoire et les vérifications automatisées par rapport aux données structurées (par exemple, listes de médicaments, allergies, résultats de laboratoire).
2) Limites des données d'entraînement : biais, informations obsolètes et lacunes spécialisées
Les LLM apprennent des modèles à partir des données d'entraînement. Si les données sous-jacentes reflètent des inégalités historiques, une représentation incomplète ou des normes obsolètes, les résultats peuvent perpétuer ces lacunes. Les risques clés incluent :
- Des biais dans les recommandations cliniques ou le ton de la communication entre les groupes démographiques
- Des performances médiocres pour les maladies rares, les populations pédiatriques, la grossesse ou les comorbidités complexes
- Des directives cliniques obsolètes (par exemple, des intervalles de dépistage plus anciens ou des thérapies dépréciées)
- Un contexte limité sur les formulaires locaux, les règles des payeurs ou les protocoles institutionnels
Les dirigeants du secteur de la santé devraient traiter les résultats des LLM comme des hypothèses à vérifier, et non comme une vérité clinique faisant autorité. Les LLM médicaux spécialisés, entraînés sur des corpus cliniques curatés, peuvent réduire certains problèmes, mais les biais et la dérive restent des préoccupations – en particulier à mesure que les normes cliniques évoluent.
3) Risques liés à la confidentialité et à la conformité HIPAA
De nombreux flux de travail LLM impliquent le traitement d'informations de santé protégées (PHI) : récits de consultation, résultats de laboratoire, diagnostics et identifiants. Les risques de confidentialité et de sécurité incluent :
- Le partage inapproprié de données avec des fournisseurs de modèles tiers
- Des contrôles insuffisants sur la rétention des données et l'entraînement des modèles sur les données des clients
- La fuite d'invites (données sensibles exposées via les journaux, l'analyse ou les outils du fournisseur)
- L'exposition de données inter-locataires dans des environnements multi-locataires si l'isolation est défectueuse
- Des contrôles d'accès, des pistes d'audit et une surveillance inadéquats
Pour maintenir la conformité HIPAA, les organisations ont besoin de solides garanties contractuelles et techniques, y compris des accords d'associé commercial (BAA) le cas échéant, le chiffrement, un accès basé sur les rôles, la minimisation des données et des politiques claires en matière de rétention. La dé-identification peut aider pour certains cas d'utilisation, mais de nombreux flux de travail cliniques nécessitent des données identifiables, ce qui rend une architecture de sécurité robuste non négociable.
4) Manque de raisonnement clinique : reconnaissance de formes vs. compréhension
Les LLM peuvent émuler le raisonnement dans le texte, mais ils ne « comprennent » pas la médecine de la même manière que les cliniciens. Ils génèrent des résultats basés sur des relations statistiques apprises entre les tokens, ce qui peut créer l'illusion d'une compréhension profonde.
Cette limitation se manifeste lorsque :
- Un cas nécessite un raisonnement causal nuancé (par exemple, distinguer corrélation et causalité)
- La bonne réponse dépend d'informations manquantes qui devraient déclencher un comportement de « poser une question »
- Le modèle fournit des recommandations trop confiantes malgré l'incertitude
- La sécurité dépend de la stratification des risques, du raisonnement temporel ou de l'adhérence précise aux lignes directrices
Dans les décisions cliniques à enjeux élevés, les LLM doivent être traités comme des assistants capables de résumer et de proposer, et non d'arbitrer. Lorsque cela est possible, associer les LLM à des vérifications basées sur des règles, des calculateurs validés ou des moteurs de lignes directrices peut fournir une structure de sécurité supplémentaire.
5) Responsabilité : qui est responsable lorsque l'IA commet une erreur ?
Les organisations de santé doivent définir les voies de responsabilité avant de déployer les LLM à grande échelle. Des questions de responsabilité peuvent survenir lorsque :
- Un clinicien suit un conseil incorrect généré par l'IA
- Un patient est lésé après avoir reçu des instructions générées par l'IA
- Des erreurs de documentation entraînent des inexactitudes de facturation ou des constats de non-conformité
- Les résultats de l'IA contribuent à un diagnostic tardif ou à un traitement inapproprié
Les régulateurs et les tribunaux rechercheront des garanties raisonnables : un étiquetage clair, une formation du personnel, des pistes d'audit, une supervision humaine et des preuves que l'organisation a validé le système pour l'utilisation prévue. Les dirigeants devraient collaborer avec les équipes juridiques, de conformité et de gestion des risques pour définir :
- L'utilisation prévue et les cas d'utilisation interdits
- Le niveau d'examen humain requis
- Les politiques de documentation pour le contenu assisté par l'IA
- Les procédures de réponse aux incidents et de surveillance
- Les responsabilités du fournisseur et l'indemnisation le cas échéant
Points clés pratiques : Mettre en œuvre les LLM de manière responsable dans votre organisation
Une mise en œuvre responsable consiste moins à « activer » un modèle qu'à concevoir un système socio-technique : gouvernance, flux de travail, formation et surveillance continue. Les actions suivantes sont des points de départ pratiques pour les dirigeants du secteur de la santé qui évaluent les déploiements de type LLM et GPT.
Définir l'utilisation prévue avec des limites claires (et les documenter). Préciser si le LLM est utilisé pour la rédaction de documentation, la synthèse de dossiers, le support de codage, les brouillons de messages aux patients ou l'aide à la décision clinique. Interdire explicitement les comportements autonomes à haut risque (par exemple, les recommandations de prescription sans supervision).
Établir la gouvernance avant le déploiement. Créer une structure de gouvernance de l'IA qui inclut la direction clinique, la conformité, la confidentialité/sécurité, l'informatique, la qualité/sécurité et les parties prenantes opérationnelles. Définir les portes d'approbation, le contrôle des changements de modèle et la cadence d'examen périodique.
Commencer par des cas d'utilisation administratifs et de documentation à faible risque. Prioriser les flux de travail où les erreurs sont peu susceptibles de causer un préjudice direct aux patients et où l'examen humain est standard (par exemple, rédaction de notes, suggestions de codage, synthèse de dossiers pour le personnel). Étendre à l'aide à la décision clinique seulement après avoir démontré la fiabilité et la sécurité.
Intégrer une supervision humaine dans le flux de travail – et non comme une réflexion après coup. Exiger l'attestation du clinicien ou du codeur pour le contenu généré par l'IA qui entre dans le dossier médical ou la réclamation. Concevoir des interfaces utilisateur qui facilitent la vérification des preuves sources, et pas seulement l'acceptation d'un texte fluide.
Valider sur les données locales et les flux de travail locaux. Tester les performances sur des populations de patients représentatives, des mélanges de spécialités et des styles de documentation. Évaluer non seulement les performances moyennes, mais aussi les modes de défaillance (maladies rares, pédiatrie, scénarios de données limitées). Inclure des tests axés sur l'équité lorsque cela est faisable.
Utiliser la génération augmentée par récupération (RAG) et des résultats contraints pour le contenu clinique. Lorsque des recommandations cliniques ou des résumés de lignes directrices sont générés, baser le modèle sur des références curatées et actuelles (protocoles institutionnels, bases de données de médicaments, règles des payeurs). Préférer les résultats qui citent des sources et limitent la génération libre.
Mettre en œuvre des contrôles de confidentialité dès la conception et alignés sur HIPAA. Appliquer la minimisation des données, des contrôles d'accès robustes, le chiffrement, les journaux d'audit, les limites de rétention et des contrats de fournisseur sécurisés (y compris les BAA si nécessaire). S'assurer que le traitement des PHI est cartographié de bout en bout – de la capture de l'invite au stockage des résultats.
Former le personnel à l'utilisation appropriée, aux limites et à l'escalade. La formation devrait couvrir les hallucinations, les biais et le moment où il faut ignorer les suggestions de l'IA. Fournir des directives spécifiques aux rôles (cliniciens, infirmiers, codeurs, CDI, personnel d'accueil) et intégrer la formation dans l'intégration et les rappels annuels.
Surveiller les performances en continu et planifier la réponse aux incidents. Établir des KPI (délai d'exécution, qualité de la documentation, précision du codage), des métriques de sécurité (quasi-incidents, suggestions nuisibles) et des boucles de rétroaction des utilisateurs. Créer un processus clair pour signaler les problèmes, la reconversion, les mises à jour d'invites ou le retour en arrière des fonctionnalités.
Sélectionner les fournisseurs en fonction de la transparence et de la préparation pour les soins de santé – et non des démonstrations. Évaluer l'explicabilité, l'auditabilité, la posture de sécurité, le versionnement du modèle et les preuves de validation. Demander comment les résultats sont fondés, comment les PHI sont traitées et comment le fournisseur prend en charge la surveillance et la gestion des changements. Des solutions comme Arkangel AI sont généralement évaluées sur ces critères opérationnels – la qualité de leur intégration dans les flux de travail d'examen des dossiers et de conformité – et pas seulement sur la fluidité générative.
Perspectives d'avenir : Où va l'IA dans le secteur de la santé
La prochaine phase de l'IA dans le secteur de la santé sera probablement définie par la spécialisation, l'intégration et la réglementation – s'éloignant du chat à usage général pour s'orienter vers des capacités intégrées et validées, étroitement alignées sur les flux de travail cliniques.
LLM médicaux spécialisés entraînés sur des ensembles de données curatés
Les LLM généraux sont impressionnants, mais les soins de santé exigent une spécificité de domaine et une fiabilité. Le domaine s'oriente vers :
- Des LLM médicaux entraînés sur des textes cliniques et de la littérature biomédicale curatés
- Un affinage pour les spécialités (radiologie, oncologie, cardiologie, médecine d'urgence)
- Une adaptation institutionnelle utilisant des modèles, des politiques et des normes de documentation locaux
- Un ancrage amélioré pour réduire les hallucinations et améliorer la traçabilité
Même avec la spécialisation, les organisations doivent s'attendre à des besoins d'évaluation continus. Les connaissances cliniques évoluent, et les modèles peuvent dériver à mesure que les flux de travail évoluent.
Intégration plus poussée avec les EHR et les flux de travail cliniques
Les interfaces de chat autonomes ne seront probablement pas l'état final à long terme. La valeur augmente lorsque les LLM sont intégrés dans :
- Les flux de travail de notes EHR (rédaction, synthèse, mise en évidence des éléments manquants)
- Les boîtes de réception et la messagerie patient (brouillons avec des voies d'escalade)
- Les outils de codage et de CDI (suggestions de codes liées aux preuves)
- La gestion des soins et la gestion de l'utilisation (synthèses, cartographie des critères)
- Le rapport de qualité et l'abstraction des mesures
Cependant, l'intégration élève les exigences en matière de gouvernance : les résultats du modèle doivent être attribuables, auditables et cohérents avec les politiques de documentation. La conception du flux de travail déterminera de plus en plus le succès, plus que la sélection du modèle.
Évolution réglementaire et normes émergentes
La réglementation de l'IA dans le secteur de la santé est en évolution. Aux États-Unis, la surveillance par la FDA des logiciels en tant que dispositif médical (SaMD) et de l'aide à la décision clinique continue de se développer, parallèlement à des initiatives politiques plus larges pour une IA digne de confiance. Les organisations de santé devraient anticiper :
- Des attentes accrues en matière de transparence, de déclarations d'utilisation prévue et de surveillance des performances
- Des exigences pour la gestion des mises à jour des modèles et le contrôle des changements
- Un examen plus approfondi des performances réelles et des biais
- Des meilleures pratiques plus formalisées pour la validation et la gestion de la sécurité
Les dirigeants devraient suivre les directives de la FDA et les efforts de normalisation pertinents, et aligner la gouvernance interne sur ces attentes émergentes – même lorsqu'un cas d'utilisation particulier n'atteint pas le seuil pour être un SaMD réglementé par la FDA.
IA multimodale combinant texte, imagerie, formes d'onde et génomique
La santé est intrinsèquement multimodale : les images radiologiques, les lames d'histopathologie, les formes d'onde ECG, les tendances de laboratoire et les données génomiques contribuent toutes à la prise de décision. L'avenir inclura probablement des systèmes qui combinent :
- Le texte (notes, lignes directrices, messages aux patients)
- L'imagerie (radiologie, dermatologie, pathologie)
- Les données EHR structurées (laboratoire, signes vitaux, médicaments)
- Les données omiques (génomique, protéomique) lorsque disponibles
Les modèles multimodaux pourraient permettre des résumés cliniques plus riches et un support de décision plus conscient du contexte. En même temps, ils introduisent de nouveaux défis de validation : il devient plus difficile de comprendre pourquoi un modèle a produit un résultat, et les erreurs peuvent se propager à travers les modalités. Cela intensifiera le besoin de transparence, d'auditabilité et de supervision humaine.
Conclusion : Tracer une voie réfléchie pour l'avenir
Les LLM et les systèmes de type GPT transforment l'IA dans le secteur de la santé en rendant les tâches linguistiques – documentation, synthèse, communication avec les patients et extraction de preuves – plus rapides et plus évolutives. Dans les meilleures implémentations, les grands modèles de langage réduisent la charge administrative, améliorent la cohérence et aident les cliniciens à naviguer dans la surcharge d'informations. Ils offrent également des opportunités significatives d'améliorer l'accessibilité grâce à la communication multilingue et à l'optimisation de la littératie en santé.
En même temps, les limitations sont importantes : hallucinations, biais et connaissances obsolètes, risques liés à la confidentialité et à HIPAA, et l'absence de véritable raisonnement clinique. Ce ne sont pas des cas marginaux ; ce sont des comportements prévisibles des modèles de langage probabilistes opérant dans un environnement à enjeux élevés. Les dirigeants du secteur de la santé devraient donc traiter les LLM comme des outils puissants – mais pas comme des substituts au jugement clinique, au soutien à la décision clinique établi ou à des systèmes de qualité rigoureux.
Les organisations qui seront leaders dans ce domaine seront celles qui équilibrent innovation et prudence : définir l'utilisation prévue, établir une gouvernance, valider sur les populations locales, maintenir une supervision humaine et s'associer à des fournisseurs qui priorisent la conformité et la transparence de niveau médical. La prochaine étape est la préparation organisationnelle – évaluer où les LLM peuvent apporter de la valeur en toute sécurité dès maintenant, quelles garanties sont nécessaires et comment développer la capacité opérationnelle de surveillance continue à mesure que la technologie évolue.
Citations
- U.S. Food & Drug Administration (FDA) — Clinical Decision Support Software Guidance
- U.S. Department of Health & Human Services (HHS) — HIPAA Privacy Rule
- National Institute of Standards and Technology (NIST) — AI Risk Management Framework
- World Health Organization — Ethics and Governance of Artificial Intelligence for Health
- Peer-Reviewed Overview of Hallucinations in Large Language Models
- Review on Bias and Fairness in Healthcare AI
- Guidance on Good Machine Learning Practice (GMLP)
Related Articles

Alertes Cliniques et IA : Concilier Sensibilité et Fatigue des Alertes

Modèles d'évaluation des risques : Comment l'IA identifie les patients à haut risque plus rapidement

Examen des dossiers assisté par l'IA : Transformer les flux de travail cliniques pour de meilleurs soins
