Ein kalifornisches Startup, Kintsugi, hat nach siebenjähriger Entwicklungszeit geschlossen und seine KI-basierte Software zur Erkennung von Depressionen und Angstzuständen als Open Source veröffentlicht. Dem Unternehmen gelang es nicht, die FDA-Zulassung zu erhalten, was die Herausforderungen bei der Bewältigung der medizinischen Vorschriften für sich schnell entwickelnde KI-Technologien verdeutlicht. Dies stellt einen Rückschlag für die frühe KI im Bereich der psychischen Gesundheit dar, eröffnet aber auch den Weg für weitere Forschung und möglichen Missbrauch außerhalb des klinischen Umfelds.
Das Versprechen und die Hürden eines KI-gesteuerten Screenings zur psychischen Gesundheit
Kintsugis Technologie analysierte Sprachmuster – Pausen, Satzstruktur und Geschwindigkeit –, um subtile Veränderungen zu identifizieren, die auf psychische Probleme hinweisen. Im Gegensatz zu herkömmlichen Beurteilungen der psychischen Gesundheit, die auf Fragebögen basieren, zielte die KI darauf ab, ein objektiveres Signal zu liefern und die Screening-Möglichkeiten für Gesundheitssysteme, Versicherer und Arbeitgeber zu erweitern. Allerdings erwies sich der „De Novo“-Zulassungsweg der FDA für neuartige Medizinprodukte als langsam und unflexibel.
Der regulatorische Rahmen, der für herkömmliche Geräte wie Implantate und Herzschrittmacher konzipiert ist, hat Schwierigkeiten, dem kontinuierlichen Lernen und der Optimierung der KI Rechnung zu tragen. Während die Trump-Administration versuchte, die Zulassung von KI zu rationalisieren, sagte Grace Chang, Gründerin von Kintsugi, dass regulatorische Trägheit und staatliche Schließungen den Fortschritt bremsten. Dem Unternehmen gingen die Mittel aus, während es auf die endgültige Einreichung wartete.
Open-Source-Veröffentlichung wirft ethische Bedenken auf
Anstatt ungünstige Finanzierungsangebote anzunehmen, entschied sich Kintsugi dafür, seine Kerntechnologie als Open-Source-Lösung bereitzustellen. Diese Entscheidung birgt Risiken: Die Software könnte ohne angemessene Sicherheitsmaßnahmen außerhalb des Gesundheitswesens eingesetzt werden, beispielsweise durch Arbeitgeber oder Versicherer. Obwohl ein Missbrauch aufgrund logistischer Hürden unwahrscheinlich ist, bleibt das Potenzial bestehen.
Nicholas Cummins, Experte für Sprachanalyse am King’s College London, warnt davor, dass Open-Source-Veröffentlichungen oft die Dokumentation fehlt, die die Aufsichtsbehörden für die Zulassung benötigen, was eine zukünftige FDA-Zulassung schwierig macht. Unternehmen können das Modell als Ausgangspunkt verwenden, benötigen jedoch eigene Validierungsprozesse.
Von der psychischen Gesundheit zur Deepfake-Erkennung: Ein Silberstreif am Horizont
Kintsugis Forschung enthüllte unerwartet eine weitere Fähigkeit: die Erkennung synthetischer oder manipulierter Stimmen. Bei der Verfeinerung der Modelle zur psychischen Gesundheit unterschied die KI zwischen menschlicher und KI-generierter Sprache. Diese Technologie erfordert im Gegensatz zum Screening der psychischen Gesundheit keine Aufsicht durch die FDA und stellt eine potenziell lukrative Möglichkeit für Sicherheitsanwendungen dar.
Das Scheitern von Kintsugi unterstreicht eine größere Spannung zwischen Startup-Zeitplänen und medizinischen Vorschriften. Ohne systemische Veränderungen können ähnliche Fälle folgen. Dennoch hofft das Unternehmen, dass andere auf seiner Arbeit aufbauen, auch wenn die aktuelle Realität Gründer davon abhält, ähnliche Wege einzuschlagen.















