La recente storia virale secondo cui ChatGPT ha “curato” il cancro di un cane è un classico esempio di promesse tecnologiche che superano la realtà. Sebbene un imprenditore australiano, Paul Conyngham, abbia sviluppato un vaccino sperimentale a mRNA per il suo cane Rosie, la narrazione dell’intelligenza artificiale che risolve in modo indipendente un problema medico complesso è profondamente fuorviante. Il caso evidenzia la facilità con cui il potenziale dell’intelligenza artificiale viene confuso con le scoperte reali, in particolare nel campo della salute, dove la ricerca rigorosa e la competenza umana rimangono fondamentali.
La storia e la sua diffusione
Conyngham, dopo aver esaurito le opzioni veterinarie convenzionali per il cancro del suo cane Rosie, si è rivolto a strumenti di intelligenza artificiale come ChatGPT e AlphaFold di Google per esplorare potenziali trattamenti. Ha sfruttato queste piattaforme per identificare l’immunoterapia come una possibilità e connettersi con i ricercatori dell’Università del New South Wales (UNSW). Lì, è stato progettato un vaccino personalizzato a mRNA basato sulle mutazioni del tumore di Rosie. Sebbene i tumori di Rosie si siano regrediti dopo il trattamento, l’affermazione secondo cui ChatGPT l’ha “curata” è inaccurata e non supportata.
La storia si diffuse rapidamente, alimentata da titoli sensazionali di testate come Newsweek e The New York Post. Anche figure di alto profilo come Elon Musk e Greg Brockman di OpenAI hanno amplificato la narrazione, con Musk che ha evidenziato il ruolo di Grok di xAI, un dettaglio inizialmente mancante in gran parte della copertura. Questa esagerata pubblicità ignora il ruolo cruciale degli scienziati umani e i limiti dell’intelligenza artificiale nelle complesse applicazioni mediche.
Il ruolo effettivo dell’intelligenza artificiale: assistenza, non innovazione
ChatGPT non ha progettato il trattamento di Rosie; ha aiutato la ricerca analizzando la letteratura medica e suggerendo potenziali strade. AlphaFold, un’intelligenza artificiale con struttura proteica, potrebbe aver offerto ipotesi strutturali ma non è un sistema di progettazione di vaccini “chiavi in mano”. Il contributo di Grok rimane vago, con Conyngham che afferma di aver “progettato” la struttura finale del vaccino, ma manca di dettagli chiari. In realtà, tutti e tre gli strumenti di intelligenza artificiale sono serviti come assistenti di ricerca piuttosto che come innovatori indipendenti.
Il problema principale è inquadrare l’intelligenza artificiale come una soluzione autonoma. I ricercatori umani hanno guidato il trattamento personalizzato, somministrandolo insieme all’immunoterapia esistente. Non è chiaro se il vaccino da solo abbia causato la riduzione del tumore, rendendo prematura la narrazione della “cura”. Come ha osservato uno scienziato coinvolto, sono necessari ulteriori test per determinare l’impatto reale del vaccino.
Il quadro più ampio: competenza, non algoritmi
Il caso di Rosie è una prova di concetto, non un modello replicabile. Richiedeva notevole manodopera specializzata, attrezzature specializzate e significative risorse finanziarie. L’intelligenza artificiale ha semplicemente accelerato la ricerca; non ha sostituito il lavoro fisico di produzione, test e somministrazione del trattamento. L’idea che chiunque possa replicarlo con un chatbot ignora le complessità della medicina del mondo reale.
Il caso odora vagamente di una trovata pubblicitaria progettata per attirare finanziamenti. I vaccini a mRNA rimangono in gran parte non provati per il cancro sia negli esseri umani che nei cani, e la storia sorvola sulle decine di migliaia di dollari e sulla vasta esperienza necessaria per trasformare un’idea in un trattamento praticabile. Il profilo di Conyngham ora sollecita investimenti e interesse nella ricerca, suggerendo ulteriormente un motivo commerciale.
In conclusione, sebbene gli strumenti di intelligenza artificiale possano migliorare l’esplorazione scientifica, non sostituiscono la competenza umana o la ricerca rigorosa. La storia di Rosie è preziosa nel dimostrare il potenziale dell’intelligenza artificiale come assistente, ma presentarla falsamente come una svolta rivoluzionaria rischia di fuorviare il pubblico e minare la fiducia nel vero progresso scientifico.
