La récente histoire virale affirmant que ChatGPT a « guéri » le cancer d’un chien est un exemple classique de promesses technologiques excessives dépassant la réalité. Alors qu’un entrepreneur australien, Paul Conyngham, a effectivement recherché un vaccin expérimental à ARNm pour sa chienne Rosie, le récit selon lequel l’IA résoudrait de manière indépendante un problème médical complexe est profondément trompeur. Cette affaire montre avec quelle facilité le potentiel de l’IA est confondu avec les avancées réelles, en particulier dans le domaine de la santé, où la recherche rigoureuse et l’expertise humaine restent primordiales.
L’histoire et sa diffusion
Conyngham, ayant épuisé les options vétérinaires conventionnelles pour le cancer de sa chienne Rosie, s’est tourné vers des outils d’IA comme ChatGPT et AlphaFold de Google pour explorer des traitements potentiels. Il a exploité ces plateformes pour identifier l’immunothérapie comme une possibilité et se connecter avec des chercheurs de l’Université de Nouvelle-Galles du Sud (UNSW). Là, un vaccin personnalisé à ARNm a été conçu sur la base des mutations tumorales de Rosie. Bien que les tumeurs de Rosie aient rétréci après le traitement, l’affirmation selon laquelle ChatGPT l’a « guérie » est inexacte et non étayée.
L’histoire s’est répandue rapidement, alimentée par des titres sensationnels provenant de médias comme Newsweek et le New York Post. Même des personnalités de premier plan telles qu’Elon Musk et Greg Brockman d’OpenAI ont amplifié le récit, Musk soulignant le rôle de Grok de xAI, un détail initialement absent d’une grande partie de la couverture. Ce battage médiatique exagéré ignore le rôle crucial des scientifiques humains et les limites de l’IA dans les applications médicales complexes.
Le rôle réel de l’IA : l’assistance, pas l’innovation
ChatGPT n’a pas conçu le traitement de Rosie ; il a contribué à la recherche en analysant la littérature médicale et en suggérant des pistes potentielles. AlphaFold, une IA à structure protéique, a peut-être proposé des hypothèses structurelles, mais n’est pas un système de conception de vaccin « clé en main ». La contribution de Grok reste vague, Conyngham affirmant avoir « conçu » la version finale du vaccin, mais manquant de détails clairs. En réalité, les trois outils d’IA ont servi d’assistants de recherche plutôt que d’innovateurs indépendants.
Le problème principal est de considérer l’IA comme une solution autonome. Les chercheurs humains ont piloté le traitement personnalisé, en l’administrant parallèlement à l’immunothérapie existante. Il n’est pas clair si le vaccin à lui seul a provoqué la réduction de la tumeur, ce qui rend le récit du « remède » prématuré. Comme l’a souligné un scientifique impliqué, des tests supplémentaires sont nécessaires pour déterminer l’impact réel du vaccin.
Vue d’ensemble : l’expertise, pas les algorithmes
Le cas de Rosie est une preuve de concept et non un modèle reproductible. Cela nécessitait une main d’œuvre spécialisée, des équipements spécialisés et des ressources financières importantes. L’IA n’a fait qu’accélérer la recherche ; cela n’a pas remplacé le travail physique de production, de test et de délivrance du traitement. L’idée selon laquelle n’importe qui peut reproduire cela avec un chatbot ignore les complexités de la médecine réelle.
L’affaire sent vaguement un coup de pub destiné à attirer des financements. Les vaccins à ARNm restent largement non éprouvés contre le cancer chez les humains et les chiens, et l’histoire passe sous silence les dizaines de milliers de dollars et l’expertise approfondie nécessaires pour transformer une idée en un traitement viable. Le profil de Conyngham sollicite désormais des investissements et des intérêts en matière de recherche, ce qui suggère en outre un motif commercial.
En conclusion, même si les outils d’IA peuvent améliorer l’exploration scientifique, ils ne remplacent pas l’expertise humaine ou une recherche rigoureuse. L’histoire de Rosie est précieuse car elle démontre le potentiel de l’IA en tant qu’assistante, mais la présenter faussement comme une percée risque d’induire le public en erreur et de saper la confiance dans le véritable progrès scientifique.















