SAN FRANCISCO, 27 OGOS – Satu kajian tentang cara tiga chatbot kecerdasan buatan (AI) popular bertindak balas terhadap pertanyaan berkaitan bunuh diri mendapati bahawa ia biasanya mengelak daripada menjawab soalan yang menimbulkan risiko tertinggi kepada pengguna.
Kajian dalam jurnal perubatan Psychiatric Services, yang diterbitkan kelmarin oleh Persatuan Psikiatri Amerika, mendapati timbulnya keperluan untuk ‘penyelesaian lanjut’ dalam OpenAI’s ChatGPT, Google Gemini dan Anthropic’s Claude.
Ia diterbitkan pada hari yang sama ibu bapa Adam Raine yang berusia 16 tahun menyaman OpenAI dan Ketua Pegawai Eksekutifnya, Sam Altman, mendakwa ChatGPT melatih budak California itu dalam merancang dan membunuh dirinya sendiri awal tahun ini.
Penyelidikan – yang dijalankan oleh RAND Corporation dan dibiayai oleh Institut Kesihatan Mental Kebangsaan – menimbulkan kebimbangan tentang semakin ramai orang, termasuk kanak-kanak, bergantung pada chatbot AI untuk sokongan kesihatan mental dan berusaha bagi menetapkan penanda aras terhadap langkah syarikat menjawab terhadap pertanyaan itu.
“Kami memerlukan beberapa garis pan-duan,” kata pengarang utama kajian itu, Ryan McBain, seorang penyelidik dasar kanan di RAND.
“Salah satu perkara yang meragukan tentang chatbot ialah sama ada ia memberikan rawatan, nasihat atau persahabatan. Ia seperti berada di tengah-tengah situasi,” kata McBain, yang juga penolong profesor di sekolah perubatan Universiti Harvard. “Perbualan yang mungkin bermula sebagai tidak berbahaya dan berisiko boleh berkembang ke pelbagai tajuk berlainan,” tambahnya.
Anthropic berkata ia akan mengkaji semula kajian itu. Google tidak menjawab permintaan untuk komen.
OpenAI berkata ia sedang membangunkan alat yang boleh mengesan dengan lebih baik apabila seseorang mengalami tekanan mental atau emosi. – AP


