Kalifornský startup Kintsugi se po sedmi letech vývoje zastavil a uvolnil svůj software pro deprese a úzkosti poháněný umělou inteligencí jako open source. Společnosti se nepodařilo získat schválení FDA, což zdůrazňuje obtížnost přijímání lékařských předpisů pro rychle se vyvíjející technologie umělé inteligence. To je překážka pro brzkou aplikaci AI v oblasti duševního zdraví, ale také otevírá cestu pro pokračující výzkum a potenciální zneužití mimo klinická prostředí.

Sliby a překážky screeningu duševního zdraví AI

Technologie Kintsugi analyzovala řečové vzorce – pauzy, strukturu vět a rychlost řeči – aby identifikovala jemné posuny, které indikují problémy s duševním zdravím. Na rozdíl od tradičních dotazníkových hodnocení duševního zdraví se AI snažila poskytnout objektivnější signál a rozšířila možnosti screeningu pro poskytovatele zdravotní péče, pojišťovny a zaměstnavatele. Cesta „de novo“ ke schválení nových zdravotnických prostředků FDA se však ukázala jako pomalá a nepružná.

Regulační rámec navržený pro tradiční zařízení, jako jsou implantáty a kardiostimulátory, se obtížně přizpůsobuje neustálému učení a optimalizaci AI. Zatímco Trumpova administrativa se snažila zefektivnit schvalování AI, zakladatelka Kintsugi Grace Chang uvedla, že regulační setrvačnost a vládní odstávky zastavily pokrok. Společnost vyčerpala své finanční prostředky do konečného podání žádosti.

Open Source Release vyvolává etické otázky

Namísto přijímání nevýhodných nabídek financování se Kintsugi rozhodl uvolnit svou základní technologii do open source. Toto řešení s sebou nese rizika: software by mohl být nasazen mimo zdravotnická zařízení – například zaměstnavateli nebo pojišťovnami – bez řádných záruk. Ačkoli je zneužití nepravděpodobné kvůli logistickým překážkám, potenciál zůstává.

Nicholas Cummins, odborník na analýzu řeči z King’s College London, varuje, že u verzí s otevřeným zdrojovým kódem často chybí dokumentace, kterou regulační orgány potřebují ke schválení, což ztěžuje budoucí schválení FDA. Společnosti mohou model použít jako výchozí bod, ale budou potřebovat vlastní validační procesy.

Od duševního zdraví k Deepfake Detection: Stříbrná podšívka

Kintsugiho výzkum nečekaně odhalil další možnost: detekce syntetizovaných nebo zmanipulovaných hlasů. V procesu zdokonalování modelů duševního zdraví umělá inteligence rozlišovala mezi lidskou řečí a řečí generovanou umělou inteligencí. Tato technologie, na rozdíl od screeningu duševního zdraví, nevyžaduje dohled FDA a představuje potenciálně lukrativní příležitost pro bezpečnostní aplikace.

Neúspěch Kintsugi podtrhuje širší napětí mezi načasováním spuštění a lékařskou regulací. Bez systémových změn se takové případy mohou opakovat. Bez ohledu na to společnost doufá, že ostatní na její práci navážou, i když současná realita odrazuje zakladatele od toho, aby se vydali podobnou cestou.