Una startup de California, Kintsugi, cerró después de siete años de desarrollo y lanzó su software de detección de depresión y ansiedad basado en inteligencia artificial como de código abierto. La empresa no logró obtener la autorización de la FDA, lo que pone de relieve los desafíos de navegar por la regulación médica para las tecnologías de inteligencia artificial en rápida evolución. Esto marca un revés para las primeras etapas de la IA en la salud mental, pero también abre un camino para la investigación continua y un posible uso indebido fuera de los entornos clínicos.

La promesa y los obstáculos de las pruebas de detección de salud mental basadas en IA

La tecnología de Kintsugi analizó los patrones del habla (pausas, estructura de oraciones y velocidad) para identificar cambios sutiles indicativos de problemas de salud mental. A diferencia de las evaluaciones tradicionales de salud mental que se basan en cuestionarios, la IA tenía como objetivo proporcionar una señal más objetiva, ampliando las capacidades de detección para los sistemas de salud, las aseguradoras y los empleadores. Sin embargo, el proceso de aprobación “De Novo” de la FDA para nuevos dispositivos médicos resultó lento e inflexible.

El marco regulatorio, diseñado para dispositivos tradicionales como implantes y marcapasos, lucha por adaptarse al aprendizaje y la optimización continuos de la IA. Mientras la administración Trump buscaba agilizar las aprobaciones de IA, la fundadora de Kintsugi, Grace Chang, dijo que la inercia regulatoria y los cierres gubernamentales paralizaron el progreso. La empresa se quedó sin financiación mientras esperaba la presentación final.

La publicación de código abierto plantea preocupaciones éticas

En lugar de aceptar ofertas de financiación desfavorables, Kintsugi optó por abrir el código fuente de su tecnología central. Esta decisión conlleva riesgos: el software podría implementarse fuera de entornos de atención médica (por ejemplo, por parte de empleadores o aseguradoras) sin las salvaguardias adecuadas. Si bien es poco probable que se haga un uso indebido debido a barreras logísticas, el potencial persiste.

Nicholas Cummins, experto en análisis del habla del King’s College de Londres, advierte que las publicaciones de código abierto a menudo carecen de la documentación que los reguladores exigen para su aprobación, lo que dificulta la aprobación futura de la FDA. Las empresas pueden utilizar el modelo como punto de partida, pero necesitarán sus propios procesos de validación.

De la salud mental a la detección de deepfake: un lado positivo

La investigación de Kintsugi reveló inesperadamente otra capacidad: detectar voces sintéticas o manipuladas. Mientras refinaba los modelos de salud mental, la IA distinguió entre el habla humana y la generada por la IA. Esta tecnología, a diferencia de los exámenes de salud mental, no requiere la supervisión de la FDA y presenta una oportunidad potencialmente lucrativa para aplicaciones de seguridad.

El fracaso de Kintsugi subraya una tensión más amplia entre los plazos de las startups y la regulación médica. Sin cambios sistémicos, pueden seguir casos similares. A pesar de esto, la compañía espera que otros se basen en su trabajo, incluso cuando la realidad actual desalienta a los fundadores a seguir caminos similares.