Каліфорнійський стартап Kintsugi закрився після семи років розробки, випустивши своє програмне забезпечення виявлення депресії і тривожності на основі штучного інтелекту у вигляді open source. Компанія не змогла отримати схвалення FDA, підкреслюючи труднощі проходження медичного регулювання для AI-технологій, що швидко розвиваються. Це є невдачею для раннього застосування ІІ в галузі психічного здоров’я, але також відкриває шлях для продовження досліджень та потенційного зловживання поза клінічними умовами.
Обіцянки та Перешкоди AI-скринінгу Психічного Здоров’я
Технологія Kintsugi аналізувала мовні патерни – паузи, структуру речень і швидкість мови – виявлення тонких зрушень, що вказують на проблеми з психічним здоров’ям. На відміну від традиційних оцінок психічного здоров’я, що ґрунтуються на анкетах, ІІ прагнув надати більш об’єктивний сигнал, розширюючи можливості скринінгу для медичних установ, страхових компаній та роботодавців. Однак шлях “De Novo” для схвалення FDA нових медичних пристроїв виявився повільним та негнучким.
Регуляторна база, розроблена для традиційних пристроїв, таких як імплантати та кардіостимулятори, важко адаптується до безперервного навчання та оптимізації ІІ. Хоча адміністрація Трампа прагнула спростити схвалення ІІ, засновник Kintsugi, Грейс Чанг, заявила, що регуляторна інерція та державні перерви у роботі загальмували прогрес. Компанія вичерпала фінансування в очікуванні остаточного подання заявки.
Open Source-Реліз Піднімає Етичні Питання
Замість прийняття невигідних пропозицій фінансування, Kintsugi вирішила випустити свою основну технологію в open source. Це рішення несе ризики: програмне забезпечення може бути розгорнуте поза медичними установами – наприклад, роботодавцями чи страховими компаніями – без належних гарантій. Хоча зловживання малоймовірне через логістичні бар’єри, потенціал залишається.
Ніколас Каммінс, експерт з аналізу промови з Королівського коледжу Лондона, попереджає, що Open source-релізи часто позбавлені документації, необхідної регуляторам для схвалення, що ускладнює отримання майбутнього схвалення FDA. Компанії можуть використовувати модель як відправну точку, але їм знадобляться власні процеси валідації.
Від Психічного Здоров’я до Виявлення Deepfake: Срібна Підкладка
Дослідження Kintsugi зненацька виявили ще одну можливість: виявлення синтезованих чи маніпульованих голосів. У процесі доопрацювання моделей психічного здоров’я ІІ розрізняв людську та згенеровану ІІ мовлення. Ця технологія, на відміну від скринінгу психічного здоров’я, не вимагає нагляду FDA і є потенційно прибутковою можливістю для додатків безпеки.
Провал Kintsugi підкреслює ширшу напругу між термінами стартапів та медичним регулюванням. Без системних змін такі випадки можуть повторитися. Незважаючи на це, компанія сподівається, що інші розвиватимуть її роботу, навіть якщо поточна реальність відштовхує засновників від прямування аналогічним шляхам.
