Uma startup da Califórnia, Kintsugi, fechou após sete anos de desenvolvimento, lançando seu software de detecção de depressão e ansiedade baseado em IA como código aberto. A empresa não conseguiu obter a autorização da FDA, destacando os desafios de navegar na regulamentação médica para tecnologias de IA em rápida evolução. Isto marca um revés para a IA precoce na saúde mental, mas também abre um caminho para a investigação contínua e potencial utilização indevida fora dos ambientes clínicos.
A promessa e os obstáculos da triagem de saúde mental baseada em IA
A tecnologia de Kintsugi analisou padrões de fala – pausas, estrutura de frases e velocidade – para identificar mudanças sutis indicativas de problemas de saúde mental. Ao contrário das avaliações tradicionais de saúde mental baseadas em questionários, a IA pretendia fornecer um sinal mais objectivo, expandindo as capacidades de rastreio para sistemas de saúde, seguradoras e empregadores. No entanto, o processo de aprovação “De Novo” da FDA para novos dispositivos médicos revelou-se lento e inflexível.
O quadro regulamentar, concebido para dispositivos tradicionais como implantes e pacemakers, tem dificuldade em acomodar a aprendizagem e a otimização contínuas da IA. Enquanto a administração Trump procurava agilizar as aprovações de IA, a fundadora da Kintsugi, Grace Chang, disse que a inércia regulatória e as paralisações governamentais paralisaram o progresso. A empresa ficou sem financiamento enquanto aguardava a apresentação final.
Lançamento de código aberto levanta preocupações éticas
Em vez de aceitar ofertas de financiamento desfavoráveis, a Kintsugi optou por abrir o código-fonte de sua tecnologia principal. Esta decisão acarreta riscos: o software pode ser implantado fora dos ambientes de saúde – por empregadores ou seguradoras, por exemplo – sem salvaguardas adequadas. Embora o uso indevido possa ser improvável devido a barreiras logísticas, o potencial permanece.
Nicholas Cummins, especialista em análise de discurso do King’s College London, adverte que as versões de código aberto muitas vezes não possuem a documentação exigida pelos reguladores para aprovação, dificultando a futura autorização da FDA. As empresas podem utilizar o modelo como ponto de partida, mas necessitarão dos seus próprios processos de validação.
Da saúde mental à detecção de deepfake: uma fresta de esperança
A pesquisa de Kintsugi revelou inesperadamente outra capacidade: detectar vozes sintéticas ou manipuladas. Ao refinar os modelos de saúde mental, a IA distinguiu entre fala humana e fala gerada por IA. Esta tecnologia, ao contrário do rastreio de saúde mental, não requer supervisão da FDA e apresenta uma oportunidade potencialmente lucrativa para aplicações de segurança.
O fracasso de Kintsugi sublinha uma tensão mais ampla entre os prazos de arranque e a regulamentação médica. Sem alterações sistêmicas, podem ocorrer casos semelhantes. Apesar disso, a empresa espera que outros desenvolvam o seu trabalho, mesmo que a realidade atual desencoraje os fundadores de seguirem caminhos semelhantes.















