Intelligence Artificielle & Médecine - "Comment l'IA rend con" suivi de "De quoi va-t-elle nous faire mourir demain"
(suite et fin)
-----

IA et recherche médicale

Ces travers de l'IA peuvent exacerber les sources d'erreur et de falsification existantes s'insinuant déjà dans les publications classiques de recherche médicale. De nombreux articles sont produits avec la motivation humaine naturelle de trouver et publier des résultats pertinents et bénéfiques. Les journalistes, eux, cherchent à publier des liens [de cause à effet] tels que, par exemple, le millepertuis améliore (peut-être) l'humeur. Aucun ne voudrait publier un article scientifique ayant comme conclusion "Ce complément alimentaire n'a strictement aucun effet significatif".

Le problème s'aggrave lorsque les chercheurs conçoivent et utilisent un protocole évaluant non pas une hypothèse mais plusieurs. L'une des particularités de la recherche statistique est que tester plusieurs hypothèses en même temps augmente le risque de créer des fausses correlations. L'IA a le pouvoir de dynamiser ces fausses correlations grâce à sa puissance infatigable pour tester des hypothèses sur d'énormes quantités de données. Auparavant un assistant de recherche pouvait utiliser un ensemble existant de données pour tester 10 à 20 hypothèses parmi les plus probables. Aujourd'hui cet assistant peut laisser une IA tester des millions d'hypothèses, probables ou non, sans supervision humaine, chose garantissant quasiment que certains résultats correspondront aux critères de pertinence statistique sans que les données sous-jacentes incluent des faits biologiquement avérés.

La trimple combinaison de l'infatigable puissance de l'IA à analyser des données avec celle, croissante, de générer ses récits d'un ton docte, plus celle de diffuser auprès du public des faits inventés et/ou confirmant des erreurs et mensonges augmente. Et ensuite ? À lire les lettres des sommités de l'IA, il semblerait que la société soit à l'aube d'une superintelligence qui transformera chaque énigme sociale complexe en un petit casse-tête simple. Bien que cela ait été hautement improbable, l'IA s'est avérée tenir ses promesses dans certaines applications médicales et ce malgré ses limitations. Malheureusement son déploiement est désormais rapide dans tout le secteur médical, y compris dans des domaines où elle n'a jamais été mise en œuvre. Cette rapidité nous laisse peu de temps pour réfléchir à la responsabilité nécessaire à un déploiement fiable.

La flagornerie, les élucubrations et la boîte noire de l'IA constituent des risques non négligeables lorsqu'ils se retrouvent combinés aux travers existants dans la recherche médicale classique. Si les utilisateurs ne peuvent pas comprendre facilement le fonctionnement interne des outils actuels de l'IA (comprenant souvent jusqu'à 1 800 milliards de paramètres), ils ne comprendront pas mieux celui des versions à venir, encore plus complexes (utilisant plus de 5 000 milliards de paramètres).

L'histoire montre que la plupart des progrès techniques ont toujours été à double tranchant. Les dossiers médicaux électroniques ont permis aux cliniciens d'améliorer la coordination des soins et d'agréger les données médicales de la population mais ils ont érodé les interactions médecin-patient et sont devenus une source d'épuisement professionnel pour les médecins. La récente prolifération de la télémédecine a élargi l'accès aux soins mais elle a également amoindri la qualité des relations médicales puisque sans examen physique. L'utilisation de l'IA dans les politiques et la recherche médicale ne fait pas exception. Déployée judicieusement elle pourrait transformer le secteur, favorisant une meilleure santé de la population et des avancées inédites (par exemple, en accélérant la découverte de médicaments) mais sans son intégration à de nouvelles normes et pratiques professionnelles elle risque de générer un chaos de fausses-pistes et fausses informations.

Voici quelques solutions possibles que nous envisageons pour résoudre la crise de la reproductibilité de l'IA en médecine :

- Des modèles cliniques spécifiques capables d'admettre l'incertitude dans leurs résultats
- Une plus grande transparence, exigeant la divulgation de l'utilisation des modèles IA dans les recherches
- Des formations pour les chercheurs, cliniciens et journalistes sur l'évaluation et la simulation des conclusions issues de l'IA
- Des hypothèses et des schémas d'analyse préenregistrés avant l'utilisation des outils d'IA
- Des pistes d'audit de l'IA
- Des invites globales spécifiques à l'IA limitant les tendances flagorneuses dans les requêtes des utilisateurs

Quelles que soient les solutions déployées, pour exploiter pleinement le potentiel de l'IA dans la recherche médicale nous devons résoudre les points faibles décrits ici. Le public, les entreprises d'IA et les chercheurs en médecine doivent participer activement à cette démarche.

Somme toute, en science aussi tout le monde n'a pas forcément raison.

***

Amit Chandra est médecin urgentiste et spécialiste des politiques médicales mondiale basé à Washington, DC. Il est professeur adjoint de médecine mondiale à la Faculté de médecine de l'Université de Georgetown où il explore depuis 2021 des solutions d'IA pour répondre aux défis médicaux mondiaux.

Luke Shors est un entrepreneur spécialisé dans les domaines de l'énergie, du climat et de la médecine mondiale. Il est le cofondateur de l'entreprise de développement durable Capture6 et a précédemment travaillé sur des sujets tels que la vision par ordinateur et la blockchain.

----- 2/2 -----

#Science #IA #medecine #recherche #medicale

Intelligence Artificielle & Médecine - "Comment l'IA rend con" suivi de "De quoi va-t-elle nous faire mourir demain"

Les travers de l'IA ne concernent pas que la médecine. Tout un chacun l'utilisant devrait être conscient d'eux et chercher à y échapper avant qu'il soit trop tard plutôt que de tomber dans leurs pièges.

-----
Traduction de : https://arstechnica.com/health/2025/10/when-sycophancy-and-bias-meet-medicine/

(la version 'brut de fonderie' de Google Traduction a été une des plus horribles que j'ai vues depuis longtemps. Leur IA n'a pas aimé ces constats critiques ?
-----

Quand flagornerie et partialité font de l'ingérence dans la médecine

Les modèles d'IA biaisés et flagorneurs menacent la reproductibilité et la fiabilité des recherches médicales
Amit Chandra et Luke Shors – 22 oct. 2025 09:46

Il était une fois deux villageois qui rendirent visite au légendaire Mollah Nasreddin. Ils espéraient que le philosophe soufi, réputé pour sa sagesse acerbe, pourrait servir de médiateur dans un conflit qui les avait divisés. Nasreddin écouta patiemment la version du premier villageois et, à la fin, s'exclama "Vous avez tout à fait raison !" Le second villageois présenta alors sa version. Après l'avoir écouté, Nasreddin répondit "Vous avez tout à fait raison !" Un témoin attentif, déconcerté par les déclarations de Nasreddin, intervint "Mais, Mollah, ils ne peuvent pas avoir tous les deux raison." Nasreddin marqua une pause, observant le témoin un instant avant de répondre : "Vous avez tout à fait raison aussi !"

Fin mai, le premier rapport "Make America Healthy Again" (MAHA) de la Maison-Blanche a été critiqué pour avoir cité en référence de multiples études de recherche inexistantes. Ce genre de citations inventées est courant dans les réponses des intelligences artificielles génératives basés sur les Grands Modèles de Langue (LLM). Ces derniers ont présenté pour étayer leurs conclusions des sources inventées mais plausibles, des titres accrocheurs, voire des données fabriquées. Dans ce cas précis, la Maison-Blanche avait d'abord rejeté les interrogations des journalistes ayant révélé l'information avant d'admettre des "erreurs de citation mineures". Il est ironique que de fausses références aient été utilisées pour appuyer une des recommandations principales du rapport MAHA : remédier à la "crise de la réplication" du secteur de la recherche médicale alors que les résultats scientifiques d'une équipe ne peuvent que rarement être reproduits par d'autres équipes, indépendantes. Pourtant, ce cas de recours à des preuves inventées dans le rapport MAHA est loin d'être unique. L'année dernière, le Washington Post a fait état de dizaines de cas où des mensonges générés par l'IA ont été introduits dans des procédures judiciaires. Une fois découverts, les avocats ont dû expliquer aux juges comment des cas, des citations et des décisions inventés se sont retrouvés dans des procès. Malgré ces problèmes largement reconnus la feuille de route de MAHA publiée le mois dernier demande au ministère de la Santé et des Services Sociaux de donner la priorité à la recherche sur l'IA afin de "... contribuer à un diagnostic plus précoce, à des plans de traitement personnalisés, à une surveillance en temps réel et à des interventions prédictives ...". Cette ruée vers l'intégration de l'IA dans de nombreux aspects de la médecine pourrait être pardonnée en pensant que les "élucubrations" de la technique seront faciles à corriger par des mises à jour mais, comme le reconnaît l'industrie elle-même, les falsifications de la machine pourraient être impossibles à éliminer.

Examinons maintenant les implications de l'augmentation de l'utilisation de l'IA à la prise de décision clinique dans la recherche médicale.

Au-delà des problèmes observés ici l'utilisation sans le dire de l'IA dans la recherche pourrait créer une boucle de rétroaction accentuant les travers ayant contribué à motiver son utilisation. Une fois publiées, les "recherches" fondées sur de faux résultats et de fausses références pourraient intégrer les bases de données utilisées pour construire les futurs systèmes d'IA. Pire encore, une étude récemment publiée met en lumière une industrie de fraudeurs scientifiques qui pourraient utiliser l'IA pour légitimer leurs fausses affirmations. En d'autres termes, une adoption aveugle de l'IA risque d'engager toute la recherche dans une spirale descendante où les résultats erronés des IA d'aujourd'hui deviendraient les données d'apprentissage de celles de demain, dégradant ainsi exponentiellement la qualité de la recherche.

Les trois plus grands défis d'une mauvaise IA

Les plus grands défis posés par l'IA sont au nombre de trois : les élucubration, la flagornerie et l'analyse en "boîte noire". Comprendre ces phénomènes est essentiel pour les chercheurs, les décideurs politiques, les enseignants et les citoyens. Si on n'en a pas conscience, on risque d'être victime de tromperie car les systèmes d'IA sont de plus en plus utilisés pour façonner diagnostics, demandes d'indemnisation, littérature médicale, recherche et politiques publiques.

L'élucubration fonctionne ainsi : quand un utilisateur saisit une requête dans un outil d'IA tel que ChatGPT ou Gemini, le modèle évalue la saisie puis génère une chaîne de mots statistiquement susceptibles d'avoir du sens au regard de ses données d'apprentissage. Les modèles d'IA actuels accomplissent cette tâche même si leurs données d'entraînement sont incomplètes ou biaisées, complétant les blancs sans tenir compte de leurs limites à pouvoir le faire de façon pertinente. Ces élucubrations peuvent prendre la forme d'études de recherche inexistantes, de désinformation, voire de résultats cliniques inventés. L'accent mis par les Grands Modèles de Langage (LLM) pour présenter leurs réponses d'un ton docte masque sous de faux-semblants de vérité leurs résultats falsifiés.

La flagornerie vient du fait que lorsque les humains entrainant des modèles d'IA peaufinent les réponses génératives ils ont tendance à optimiser et récompenser les réponses du système favorisant leurs croyances à eux. Apparemment, les travers humains engendrent des travers d'IA, ensuite les utilisateurs de l'IA le perpétuent en boucle infinie. En conséquence les IA privilégient les réponses qui plaisent aux réponses exactes, vraies, recherchant souvent à renforcer les travers des requêtes. Une illustration récente de ce phénomène s'est produite en avril lorsque OpenAI a annulé une mise à jour de ChatGPT, la jugeant trop flagorneuse après que des utilisateurs aient démontré qu'elle avait accepté trop rapidement et avec trop d'enthousiasme les hypothèses intégrées à leurs requêtes.

La flagornerie et l'élucubration interagissent souvent en synergie : les systèmes cherchant à plaire sont plus enclins à fabriquer des données pour parvenir aux conclusions souhaitées par leurs utilisateurs.

Corriger les élucubrations, la flagornerie et les autres travers des LLM est complexe car les observateurs humains ne peuvent pas toujours déterminer comment une plateforme d'IA est parvenue à telle ou telle conclusion. C'est le problème de la "boîte noire" : derrière les mathématiques probabilistes, l'IA évalue-t-elle au moins les hypothèses ? Quelles méthodes a-t-elle utilisé pour donner sa réponse ? Contrairement au code informatique traditionnel et à la méthode scientifique, les modèles d'IA fonctionnent avec des milliards de calculs. En observant des résultats bien structurés on oublie facilement que les processus sous-jacents les ayant produit sont impénétrables et très différents de l'approche humaine de résolution de problèmes. Cette opacité peut devenir dangereuse lorsque les personnes ne parviennent pas à identifier les erreurs de calcul, rendant impossible la correction des erreurs systématiques ou des biais dans le processus décisionnel. Dans le secteur médical, lorsque ni les médecins ni les patients ne peuvent expliquer la séquence de raisonnement ayant conduit à recommander une intervention médicale, cette boîte noire soulève des questions de responsabilité, de confiance et sur l'obligation de rendre compte.

----- 1/2 -----

#Science #IA #medecine #recherche #medicale

When sycophancy and bias meet medicine

Biased, eager-to-please models threaten health research replicability and trust.

Ars Technica
MedGPT : cette IA médicale française gratuite donne de meilleures réponses que ChatGPT

Elle vient d’être lancée par une startup tricolore.

Presse-citron
MedGPT : cette IA médicale française gratuite donne de meilleures réponses que ChatGPT

Elle vient d’être lancée par une startup tricolore.

Presse-citron
En Chine, une zone médicale spéciale pour accéder à des traitements expérimentaux

Sur l’île de Hainan, les patients peuvent servir de cobaye pour des traitements novateurs qui n’ont pas encore reçu d’autorisation de mise sur le marché. Le journal hongkongais “South China Morning Post” s’est rendu dans cette zone spéciale qui pourrait permettre à la Chine de faire la course en tête concernant les thérapies géniques et cellulaires.

Courrier International
En Chine, une zone médicale spéciale pour accéder à des traitements expérimentaux

Sur l’île de Hainan, les patients peuvent servir de cobaye pour des traitements novateurs qui n’ont pas encore reçu d’autorisation de mise sur le marché. Le journal hongkongais “South China Morning Post” s’est rendu dans cette zone spéciale qui pourrait permettre à la Chine de faire la course en tête concernant les thérapies géniques et cellulaires.

Courrier International

Pour la première fois au niveau national, la #faculté de #médecine de Sousse a célébré la remise des diplômes de sa première cohorte d'étudiants qui ont suivi leur formation #médicale entièrement en #anglais. Cet événement constitue un jalon dans l'histoire de l'enseignement #médical en Tunisie et reflète l'approche réformatrice adoptée par l'université

https://lapresse.tn/2025/05/02/faculte-de-medecine-a-sousse-premiere-promotion-de-diplomes-en-medecine-enseignee-en-anglais/

#enseignement #Universite #Tunisia #Tunisie

Faculté de médecine à Sousse: première promotion de diplômés en médecine enseignée en anglais

Pour la première fois au niveau national, la faculté de médecine de Sousse a célébré la remise des diplômes de sa première cohorte d'étudiants qui ont suivi leur formation médicale entièrement en anglais. Cet événement constitue un jalon dans l'histoire de l'enseignement médical en Tunisie et reflète l'approche réformatrice adoptée par l'université pour se mettre …

La Presse de Tunisie
Maladie de Charcot : des chercheurs identifient une cause de la maladie et ouvrent de nouvelles possibilités de thérapie

Une étude menée par des scientifiques chinois révèle que le développement de la sclérose latérale amyotrophique (SLA), mieux connue sous le nom de maladie de...

Yahoo Actualités
#Maladie de #Charcot : des #chercheurs #chinois identifient une #cause de la #maladie et ouvrent de nouvelles possibilités de thérapie. Une #découverte #médicale #majeure et un nouveau motif d'espoir pour les malades et leurs proches fr.news.yahoo.com/maladie-de-c...

Des chercheurs identifient une...