Калифорнийский стартап Kintsugi закрылся после семи лет разработки, выпустив свое программное обеспечение для обнаружения депрессии и тревожности на основе искусственного интеллекта в виде open source. Компания не смогла получить одобрение FDA, подчеркивая трудности прохождения медицинского регулирования для быстро развивающихся AI-технологий. Это является неудачей для раннего применения ИИ в области психического здоровья, но также открывает путь для продолжения исследований и потенциального злоупотребления вне клинических условий.

Обещания и Препятствия AI-Скрининга Психического Здоровья

Технология Kintsugi анализировала речевые паттерны – паузы, структуру предложений и скорость речи – для выявления тонких сдвигов, указывающих на проблемы с психическим здоровьем. В отличие от традиционных оценок психического здоровья, основанных на анкетах, ИИ стремился предоставить более объективный сигнал, расширяя возможности скрининга для медицинских учреждений, страховых компаний и работодателей. Однако путь «De Novo» для одобрения FDA новых медицинских устройств оказался медленным и негибким.

Регуляторная база, разработанная для традиционных устройств, таких как имплантаты и кардиостимуляторы, с трудом адаптируется к непрерывному обучению и оптимизации ИИ. Хотя администрация Трампа стремилась упростить одобрение ИИ, основатель Kintsugi, Грейс Чанг, заявила, что регуляторная инерция и государственные перерывы в работе застопорили прогресс. Компания исчерпала финансирование в ожидании окончательной подачи заявки.

Open Source-Релиз Поднимает Этические Вопросы

Вместо принятия невыгодных предложений о финансировании, Kintsugi решила выпустить свою основную технологию в open source. Это решение несет риски: программное обеспечение может быть развернуто вне медицинских учреждений – например, работодателями или страховыми компаниями – без надлежащих гарантий. Хотя злоупотребление маловероятно из-за логистических барьеров, потенциал остается.

Николас Камминс, эксперт по анализу речи из Королевского колледжа Лондона, предупреждает, что open source-релизы часто лишены документации, необходимой регуляторам для одобрения, что затрудняет получение будущего одобрения FDA. Компании могут использовать модель в качестве отправной точки, но им понадобятся собственные процессы валидации.

От Психического Здоровья к Обнаружению Deepfake: Серебряная Подкладка

Исследования Kintsugi неожиданно выявили еще одну возможность: обнаружение синтезированных или манипулированных голосов. В процессе доработки моделей психического здоровья ИИ различал человеческую и сгенерированную ИИ речь. Эта технология, в отличие от скрининга психического здоровья, не требует надзора FDA и представляет собой потенциально прибыльную возможность для приложений безопасности.

Провал Kintsugi подчеркивает более широкое напряжение между сроками стартапов и медицинским регулированием. Без системных изменений подобные случаи могут повториться. Несмотря на это, компания надеется, что другие будут развивать ее работу, даже если текущая реальность отталкивает основателей от следования аналогичным путям.