Niedawna wirusowa historia psa „wyleczonego” z raka za pomocą ChatGPT jest klasycznym przykładem technologicznej przesady wyprzedzającej rzeczywistość. Chociaż australijski przedsiębiorca Paul Conningham opracował eksperymentalną szczepionkę mRNA dla swojego psa Rosie, pogląd, że sztuczna inteligencja samodzielnie rozwiązała złożony problem medyczny, jest głęboko mylący. Ten przypadek pokazuje, jak łatwo potencjał sztucznej inteligencji łączy się z przełomowymi osiągnięciami w świecie rzeczywistym, szczególnie w opiece zdrowotnej, gdzie najważniejsze są rygorystyczne badania i wiedza ludzka.
Historia i jej rozpowszechnianie
Conningham, po wyczerpaniu tradycyjnych metod weterynaryjnych leczenia raka u swojego psa Rosie, zwrócił się do narzędzi sztucznej inteligencji, takich jak ChatGPT i AlphaFold firmy Google, aby zbadać możliwe metody leczenia. Wykorzystał te platformy, aby zidentyfikować immunoterapię jako możliwą opcję i skontaktować się z badaczami z Uniwersytetu Nowej Południowej Walii (UNSW). Tam opracowano spersonalizowaną szczepionkę mRNA opartą na mutacjach w guzie Rosie. Choć guzy Rosie naprawdę zmniejszyły się po leczeniu, twierdzenie, że ChatGPT ją „wyleczyła”, jest niedokładne i bezpodstawne.
Sprawa rozeszła się szybko, podsycana sensacyjnymi nagłówkami w takich publikacjach, jak Newsweek i The New York Post. Nawet wpływowe osobistości, takie jak Elon Musk i Greg Brockman z OpenAI, wzmocniły to przesłanie, a Musk podkreślił rolę xAI Grok – szczegółu początkowo brakującego w wielu publikacjach. W tym przesadnym szumie ignoruje się kluczową rolę ludzkich naukowców i ograniczenia sztucznej inteligencji w złożonych zastosowaniach medycznych.
Prawdziwa rola sztucznej inteligencji: pomoc, a nie innowacja
ChatGPT nie opracowało leczenia Rosie; pomagał w badaniach, przeglądając literaturę medyczną i sugerując możliwe kierunki. AlphaFold, sztuczna inteligencja zajmująca się strukturą białkową, może sugerować hipotezy strukturalne, ale nie jest „gotowym” systemem do opracowywania szczepionek. Wkład Groka pozostaje niejasny, a Conningham twierdzi, że „opracował” ostateczny projekt szczepionki, ale nie podaje jasnych szczegółów. W rzeczywistości wszystkie trzy narzędzia AI służyły raczej jako asystenci naukowi niż niezależni innowatorzy.
Głównym problemem jest przedstawienie AI jako rozwiązania autonomicznego. Naukowcy zajmujący się człowiekiem przodowali w spersonalizowanych terapiach, wykorzystując je wraz z istniejącymi immunoterapiami. Nie jest jasne, czy sama szczepionka spowodowała zmniejszenie guza, przez co narracja o „leczeniu” stała się przedwczesna. Jak zauważył jeden z naukowców biorących udział w badaniu, potrzebne są dalsze badania, aby określić rzeczywisty wpływ szczepionki.
Ogólny obraz: wiedza specjalistyczna, a nie algorytmy
Sprawa Rosie to dowód koncepcji, a nie powtarzalny szablon. Wymagało to znacznej pracy ekspertów, specjalistycznego sprzętu i znacznych zasobów finansowych. Sztuczna inteligencja jedynie przyspieszyła badania; nie zastąpił pracy fizycznej polegającej na wytwarzaniu, testowaniu i podawaniu leków. Twierdzenie, że każdy może to odtworzyć za pomocą chatbota, ignoruje złożoność medycyny w świecie rzeczywistym.
Ta sprawa przypomina trochę chwyt PR mający na celu przyciągnięcie funduszy. W dużej mierze nie udowodniono, że szczepionki mRNA leczą raka u ludzi i psów, a w tej historii pominięto fakt, że przekształcenie pomysłu w realną terapię wymaga dziesiątek tysięcy dolarów i dużego doświadczenia. W profilu Conninghama wskazano obecnie na zainteresowanie inwestycjami i badaniami, co dodatkowo wskazuje na motyw komercyjny.
Podsumowując, chociaż narzędzia sztucznej inteligencji mogą usprawnić badania naukowe, nie zastępują one ludzkiej wiedzy ani rygorystycznych badań. Historia Rosie jest cenna, ponieważ ukazuje pomocny potencjał sztucznej inteligencji, jednak błędne przedstawianie jej jako przełomu grozi wprowadzeniem opinii publicznej w błąd i podważeniem zaufania do prawdziwego postępu naukowego.
