Una startup californiana, Kintsugi, ha chiuso i battenti dopo sette anni di sviluppo, rilasciando come open source il suo software di rilevamento di depressione e ansia basato sull’intelligenza artificiale. La società non è riuscita a ottenere l’autorizzazione della FDA, evidenziando le sfide legate alla gestione della regolamentazione medica per le tecnologie di intelligenza artificiale in rapida evoluzione. Ciò segna una battuta d’arresto per le prime forme di intelligenza artificiale nel campo della salute mentale, ma apre anche la strada alla ricerca continua e al potenziale uso improprio al di fuori dei contesti clinici.

Le promesse e gli ostacoli dello screening della salute mentale basato sull’intelligenza artificiale

La tecnologia di Kintsugi ha analizzato i modelli del discorso – pause, struttura delle frasi e velocità – per identificare sottili cambiamenti indicativi di problemi di salute mentale. A differenza delle tradizionali valutazioni della salute mentale basate su questionari, l’intelligenza artificiale mirava a fornire un segnale più oggettivo, ampliando le capacità di screening per i sistemi sanitari, gli assicuratori e i datori di lavoro. Tuttavia, il percorso di approvazione “De Novo” della FDA per i nuovi dispositivi medici si è rivelato lento e inflessibile.

Il quadro normativo, progettato per dispositivi tradizionali come impianti e pacemaker, fatica a soddisfare l’apprendimento e l’ottimizzazione continui dell’intelligenza artificiale. Mentre l’amministrazione Trump cercava di semplificare le approvazioni dell’intelligenza artificiale, la fondatrice di Kintsugi, Grace Chang, ha affermato che l’inerzia normativa e le chiusure del governo hanno bloccato i progressi. La società ha esaurito i fondi in attesa della presentazione finale.

Il rilascio open source solleva preoccupazioni etiche

Piuttosto che accettare offerte di finanziamento sfavorevoli, Kintsugi ha scelto di rendere open source la sua tecnologia principale. Questa decisione comporta dei rischi: il software potrebbe essere utilizzato al di fuori degli ambienti sanitari, ad esempio da datori di lavoro o assicuratori, senza adeguate garanzie. Sebbene un uso improprio possa essere improbabile a causa delle barriere logistiche, il potenziale rimane.

Nicholas Cummins, esperto di analisi vocale presso il King’s College di Londra, avverte che le versioni open source spesso mancano della documentazione richiesta dalle autorità di regolamentazione per l’approvazione, rendendo difficile la futura autorizzazione della FDA. Le aziende possono utilizzare il modello come punto di partenza, ma avranno bisogno dei propri processi di convalida.

Dalla salute mentale al rilevamento dei deepfake: il lato positivo

La ricerca di Kintsugi ha rivelato inaspettatamente un’altra capacità: rilevare voci sintetiche o manipolate. Mentre perfezionava i modelli di salute mentale, l’intelligenza artificiale ha distinto tra linguaggio umano e parlato generato dall’intelligenza artificiale. Questa tecnologia, a differenza dello screening della salute mentale, non richiede la supervisione della FDA e rappresenta un’opportunità potenzialmente redditizia per le applicazioni di sicurezza.

Il fallimento di Kintsugi sottolinea una tensione più ampia tra le tempistiche di avvio e la regolamentazione medica. Senza cambiamenti sistemici, potrebbero verificarsi casi simili. Nonostante ciò, l’azienda spera che altri si basino sul suo lavoro, anche se la realtà attuale scoraggia i fondatori dal perseguire percorsi simili.