La reciente historia viral que afirma que ChatGPT “curó” el cáncer de un perro es un ejemplo clásico de cómo las promesas tecnológicas superan la realidad. Si bien un empresario australiano, Paul Conyngham, buscó una vacuna experimental de ARNm para su perra Rosie, la narrativa de que la IA resuelve de forma independiente un problema médico complejo es profundamente engañosa. El caso pone de relieve con qué facilidad se combina el potencial de la IA con avances reales, particularmente en la salud, donde la investigación rigurosa y la experiencia humana siguen siendo primordiales.

La historia y su difusión

Conyngham, después de haber agotado las opciones veterinarias convencionales para el cáncer de su perra Rosie, recurrió a herramientas de inteligencia artificial como ChatGPT y AlphaFold de Google para explorar posibles tratamientos. Aprovechó estas plataformas para identificar la inmunoterapia como una posibilidad y conectarse con investigadores de la Universidad de Nueva Gales del Sur (UNSW). Allí se diseñó una vacuna de ARNm personalizada basada en las mutaciones del tumor de Rosie. Si bien los tumores de Rosie se redujeron después del tratamiento, la afirmación de que ChatGPT la “curó” es inexacta y no está respaldada.

La historia se difundió rápidamente, impulsada por titulares sensacionalistas de medios como Newsweek y The New York Post. Incluso figuras de alto perfil como Elon Musk y Greg Brockman de OpenAI amplificaron la narrativa, y Musk destacó el papel de Grok de xAI, un detalle que inicialmente faltaba en gran parte de la cobertura. Esta exageración ignora el papel crucial de los científicos humanos y las limitaciones de la IA en aplicaciones médicas complejas.

El papel real de la IA: asistencia, no innovación

ChatGPT no diseñó el tratamiento de Rosie; ayudó en la investigación analizando la literatura médica y sugiriendo posibles vías. AlphaFold, una IA con estructura proteica, puede haber ofrecido hipótesis estructurales, pero no es un sistema de diseño de vacunas “llave en mano”. La contribución de Grok sigue siendo vaga: Conyngham afirma que “diseñó” la vacuna final, pero carece de detalles claros. En realidad, las tres herramientas de IA sirvieron como asistentes de investigación en lugar de innovadores independientes.

El problema central es encuadrar la IA como una solución independiente. Los investigadores humanos impulsaron el tratamiento personalizado, administrándolo junto con la inmunoterapia existente. No está claro si la vacuna por sí sola provocó la reducción del tumor, lo que hace que la narrativa de la “cura” sea prematura. Como señaló un científico involucrado, se necesitan más pruebas para determinar el impacto real de la vacuna.

El panorama más amplio: experiencia, no algoritmos

El caso de Rosie es una prueba de concepto, no un modelo replicable. Requirió una importante mano de obra experta, equipo especializado e importantes recursos financieros. La IA simplemente aceleró la investigación; no reemplazó el trabajo físico de producir, probar y administrar el tratamiento. La idea de que cualquiera pueda replicar esto con un chatbot ignora las complejidades de la medicina del mundo real.

El caso huele ligeramente a un truco de relaciones públicas diseñado para atraer financiación. Las vacunas de ARNm aún no han sido probadas en gran medida para el cáncer tanto en humanos como en perros, y la historia pasa por alto las decenas de miles de dólares y la amplia experiencia que se necesitan para convertir una idea en un tratamiento viable. El perfil de Conyngham ahora solicita inversiones e interés en investigación, lo que sugiere además un motivo comercial.

En conclusión, si bien las herramientas de IA pueden mejorar la exploración científica, no sustituyen la experiencia humana ni la investigación rigurosa. La historia de Rosie es valiosa para demostrar el potencial de la IA como asistente, pero presentarla falsamente como un gran avance corre el riesgo de engañar al público y socavar la confianza en el progreso científico genuino.