Kalifornijski start-up Kintsugi zakończył działalność po siedmiu latach prac, udostępniając oprogramowanie do leczenia depresji i lęków oparte na sztucznej inteligencji jako oprogramowanie typu open source. Firmie nie udało się uzyskać zgody FDA, co podkreśla trudności w przyjęciu przepisów medycznych dotyczących szybko rozwijających się technologii sztucznej inteligencji. Stanowi to przeszkodę we wczesnym zastosowaniu sztucznej inteligencji w zdrowiu psychicznym, ale otwiera także drogę do dalszych badań i potencjalnych nadużyć poza warunkami klinicznymi.
Obietnice i przeszkody w badaniach przesiewowych zdrowia psychicznego AI
Technologia Kintsugi przeanalizowała wzorce mowy – pauzy, strukturę zdań i tempo mówienia – aby zidentyfikować subtelne zmiany wskazujące na problemy ze zdrowiem psychicznym. W przeciwieństwie do tradycyjnych ocen zdrowia psychicznego opartych na kwestionariuszach, sztuczna inteligencja starała się zapewnić bardziej obiektywny sygnał, poszerzając możliwości badań przesiewowych dla podmiotów świadczących opiekę zdrowotną, firm ubezpieczeniowych i pracodawców. Jednakże droga „de novo” do zatwierdzenia przez FDA nowych wyrobów medycznych okazała się powolna i nieelastyczna.
Ramy regulacyjne zaprojektowane dla tradycyjnych urządzeń, takich jak implanty i rozruszniki serca, mają trudności z przystosowaniem się do ciągłego uczenia się i optymalizacji sztucznej inteligencji. Podczas gdy administracja Trumpa starała się usprawnić zatwierdzanie sztucznej inteligencji, założycielka Kintsugi Grace Chang stwierdziła, że inercja regulacyjna i przestoje rządów hamują postęp. Spółka wyczerpała środki finansowe w oczekiwaniu na ostateczne złożenie wniosku.
Publikacja oprogramowania typu open source rodzi pytania etyczne
Zamiast akceptować niekorzystne oferty finansowania, Kintsugi zdecydowało się udostępnić swoją podstawową technologię w wersji open source. To rozwiązanie niesie ze sobą ryzyko: oprogramowanie może zostać wdrożone poza placówkami służby zdrowia – na przykład przez pracodawców lub firmy ubezpieczeniowe – bez odpowiednich zabezpieczeń. Chociaż nadużycia są mało prawdopodobne ze względu na bariery logistyczne, potencjał pozostaje.
Nicholas Cummins, ekspert ds. analizy mowy w King’s College London, ostrzega, że w wydaniach open source często brakuje dokumentacji wymaganej do zatwierdzenia przez organy regulacyjne, co utrudnia przyszłe zatwierdzanie przez FDA. Firmy mogą wykorzystać ten model jako punkt wyjścia, ale będą potrzebować własnych procesów walidacji.
Od zdrowia psychicznego do wykrywania fałszywych treści: pozytywne strony
Badania Kintsugi nieoczekiwanie ujawniły inną możliwość: wykrywanie głosów syntetycznych lub zmanipulowanych. W procesie udoskonalania modeli zdrowia psychicznego sztuczna inteligencja rozróżniła mowę ludzką od mowy generowanej przez sztuczną inteligencję. Technologia ta, w przeciwieństwie do badań przesiewowych zdrowia psychicznego, nie wymaga nadzoru FDA i stanowi potencjalnie lukratywną szansę w zastosowaniach związanych z bezpieczeństwem.
Porażka Kintsugi podkreśla szersze napięcie między momentem uruchomienia a przepisami medycznymi. Bez zmian systemowych takie przypadki mogą się powtórzyć. Niezależnie od tego firma ma nadzieję, że inni będą czerpać z jej pracy, nawet jeśli obecna rzeczywistość zniechęca założycieli do podążania podobnymi ścieżkami.















