Sebuah startup di California, Kintsugi, telah ditutup setelah tujuh tahun pengembangan, merilis perangkat lunak pendeteksi depresi dan kecemasan berbasis AI sebagai sumber terbuka. Perusahaan ini gagal mendapatkan izin FDA, sehingga menyoroti tantangan dalam menavigasi regulasi medis untuk teknologi AI yang berkembang pesat. Hal ini menandai kemunduran bagi AI di bidang kesehatan mental, namun juga membuka jalan bagi penelitian lanjutan dan potensi penyalahgunaan di luar lingkungan klinis.

Janji dan Tantangan Pemeriksaan Kesehatan Mental Berbasis AI

Teknologi Kintsugi menganalisis pola bicara—jeda, struktur kalimat, dan kecepatan—untuk mengidentifikasi perubahan halus yang menunjukkan masalah kesehatan mental. Berbeda dengan penilaian kesehatan mental tradisional yang mengandalkan kuesioner, AI bertujuan untuk memberikan sinyal yang lebih obyektif, memperluas kemampuan skrining untuk sistem kesehatan, perusahaan asuransi, dan pemberi kerja. Namun, jalur persetujuan “De Novo” FDA untuk perangkat medis baru terbukti lambat dan tidak fleksibel.

Kerangka peraturan, yang dirancang untuk perangkat tradisional seperti implan dan alat pacu jantung, kesulitan mengakomodasi pembelajaran dan optimalisasi AI yang berkelanjutan. Ketika pemerintahan Trump berupaya menyederhanakan persetujuan AI, pendiri Kintsugi, Grace Chang, mengatakan bahwa kelambanan peraturan dan penutupan pemerintah menghambat kemajuan. Perusahaan kehabisan dana saat menunggu penyerahan akhir.

Rilis Sumber Terbuka Menimbulkan Kekhawatiran Etis

Daripada menerima tawaran pendanaan yang tidak menguntungkan, Kintsugi memilih untuk menjadikan teknologi intinya sebagai sumber terbuka. Keputusan ini mengandung risiko: perangkat lunak dapat digunakan di luar layanan kesehatan—misalnya oleh pemberi kerja atau perusahaan asuransi—tanpa perlindungan yang memadai. Meskipun penyalahgunaan mungkin tidak mungkin terjadi karena hambatan logistik, potensinya tetap ada.

Nicholas Cummins, pakar analisis ucapan di King’s College London, memperingatkan bahwa rilis sumber terbuka sering kali tidak memiliki dokumentasi yang diperlukan regulator untuk mendapatkan persetujuan, sehingga mempersulit izin FDA di masa depan. Perusahaan mungkin menggunakan model ini sebagai titik awal tetapi memerlukan proses validasinya sendiri.

Dari Kesehatan Mental hingga Deteksi Deepfake: Sebuah Hikmah

Penelitian Kintsugi secara tak terduga mengungkapkan kemampuan lain: mendeteksi suara sintetis atau yang dimanipulasi. Saat menyempurnakan model kesehatan mental, AI membedakan antara ucapan manusia dan ucapan yang dihasilkan AI. Teknologi ini, tidak seperti pemeriksaan kesehatan mental, tidak memerlukan pengawasan FDA dan memberikan peluang yang berpotensi menguntungkan untuk aplikasi keamanan.

Kegagalan Kintsugi menggarisbawahi ketegangan yang lebih luas antara jadwal startup dan regulasi medis. Tanpa perubahan sistemik, kasus serupa bisa saja terjadi. Meskipun demikian, perusahaan berharap pihak lain akan mengembangkan karyanya, meskipun kenyataan saat ini membuat para pendiri enggan melakukan hal serupa.