Une startup californienne, Kintsugi, a fermé ses portes après sept ans de développement, publiant son logiciel de détection de la dépression et de l’anxiété basé sur l’IA en open source. La société n’a pas réussi à obtenir l’autorisation de la FDA, soulignant les défis liés à la réglementation médicale pour les technologies d’IA en évolution rapide. Cela marque un revers pour les débuts de l’IA dans le domaine de la santé mentale, mais ouvre également la voie à la poursuite de la recherche et à une utilisation abusive potentielle en dehors du cadre clinique.
La promesse et les obstacles du dépistage de la santé mentale basé sur l’IA
La technologie de Kintsugi a analysé les modèles de parole (pauses, structure des phrases et vitesse) pour identifier les changements subtils révélateurs de problèmes de santé mentale. Contrairement aux évaluations traditionnelles de la santé mentale reposant sur des questionnaires, l’IA visait à fournir un signal plus objectif, en élargissant les capacités de dépistage des systèmes de santé, des assureurs et des employeurs. Cependant, le processus d’approbation « De Novo » de la FDA pour les nouveaux dispositifs médicaux s’est avéré lent et rigide.
Le cadre réglementaire, conçu pour les appareils traditionnels comme les implants et les stimulateurs cardiaques, a du mal à s’adapter à l’apprentissage et à l’optimisation continus de l’IA. Alors que l’administration Trump cherchait à rationaliser les approbations de l’IA, la fondatrice de Kintsugi, Grace Chang, a déclaré que l’inertie réglementaire et les fermetures du gouvernement freinaient les progrès. L’entreprise a manqué de financement en attendant la soumission finale.
La version open source soulève des préoccupations éthiques
Plutôt que d’accepter des offres de financement défavorables, Kintsugi a choisi d’ouvrir sa technologie de base en open source. Cette décision comporte des risques : le logiciel pourrait être déployé en dehors des établissements de santé – par des employeurs ou des assureurs, par exemple – sans garanties appropriées. Bien qu’une utilisation abusive soit peu probable en raison d’obstacles logistiques, le potentiel demeure.
Nicholas Cummins, expert en analyse vocale au King’s College de Londres, prévient que les versions open source manquent souvent de la documentation requise par les régulateurs pour leur approbation, ce qui rend difficile l’autorisation future de la FDA. Les entreprises peuvent utiliser le modèle comme point de départ, mais elles auront besoin de leurs propres processus de validation.
De la santé mentale à la détection des deepfakes : un côté positif
Les recherches de Kintsugi ont révélé de manière inattendue une autre capacité : détecter les voix synthétiques ou manipulées. Tout en affinant les modèles de santé mentale, l’IA a fait la distinction entre la parole humaine et celle générée par l’IA. Cette technologie, contrairement au dépistage de la santé mentale, ne nécessite pas de surveillance par la FDA et présente une opportunité potentiellement lucrative pour les applications de sécurité.
L’échec de Kintsugi souligne une tension plus large entre les délais de démarrage et la réglementation médicale. Sans changements systémiques, des cas similaires pourraient survenir. Malgré cela, l’entreprise espère que d’autres s’appuieront sur son travail, même si la réalité actuelle décourage les fondateurs de suivre des voies similaires.















