Gambar AFP
WASHINGTON – Suara di telefon itu kedengaran sangat nyata – seorang ibu dari Amerika mendengar anak perempuannya menangis teresak-esak sebelum seorang lelaki mengambil alih dan menuntut wang tebusan. Tetapi gadis itu adalah klon kecerdasan buatan (AI) dan penculikan itu adalah palsu.
Pakar mengatakan bahawa bahaya terbesar AI adalah keupayaannya untuk menghapuskan sempadan antara realiti dan fiksyen, memberikan penjenayah siber teknologi yang murah dan berkesan untuk menyebarkan maklumat yang salah.
Dalam sejenis penipuan baharu yang menggemparkan pihak berkuasa Amerika Syarikat (AS), penipu menggunakan alat pengklonan suara AI yang sangat meyakinkan yang tersedia secara meluas dalam talian, untuk mencuri daripada orang ramai dengan menyamar sebagai ahli keluarga.
“Tolong saya, ibu, tolong saya,” Jennifer DeStefano, seorang ibu yang tinggal di Arizona, mendengar suara berkata di hujung talian.
DeStefano ‘100 peratus’ yakin bahawa itu adalah suara anak perempuannya yang berusia 15 tahun dalam kesusahan yang serius semasa sedang bermain ski.
“Tidak pernah ada keraguan tentang siapa ini? Ia benar-benar suaranya. Itu adalah cara dia menangis,” kata DeStefano kepada stesen televisyen tempatan pada April. “Saya tidak pernah meragui untuk satu saat itu adalah dia.”
Penipu yang mengambil alih panggilan tersebut, yang datang daripada nombor yang tidak dikenali oleh DeStefano, menuntut wang tebusan sehingga AS$1 juta.
Muslihat yang dikuasakan AI itu telah berakhir dalam beberapa minit apabila DeStefano menghubungi anak perempuannya. Tetapi kes yang menakutkan itu, yang kini sedang disiasat oleh polis, menunjukkan potensi penjenayah siber menyalahgunakan klon AI.
Penipuan datuk nenek
“Pengklonan suara AI, yang kini hampir tidak dapat dibezakan daripada pertuturan manusia, membolehkan pelaku ancaman seperti penipu untuk mengekstrak maklumat dan dana daripada mangsa dengan lebih berkesan,” kata Wasim Khaled, Ketua Eksekutif Blackbird.AI, kepada AFP.
Carian Internet yang mudah menghasilkan pelbagai aplikasi, banyak daripadanya tersedia secara percuma, untuk mencipta suara AI dengan sampel kecil, kadangkala hanya beberapa saat, daripada suara sebenar seseorang yang boleh dicuri dengan mudah daripada kandungan yang disiarkan dalam talian.
“Dengan sampel audio yang kecil, klon suara AI boleh digunakan untuk meninggalkan mel suara dan mesej suara. Malah ia boleh digunakan sebagai pengubah suara secara langsung dalam panggilan telefon,” kata Khaled.
“Penipu boleh menggunakan loghat yang berbeza, jantina, atau bahkan meniru corak pertuturan orang yang disayangi. Teknologi ini membolehkan penciptaan deep fakes yang meyakinkan.”
Dalam satu tinjauan global terhadap 7,000 orang dari sembilan negara, termasuk AS, satu daripada empat orang berkata mereka pernah mengalami penipuan pengklonan suara AI atau mengenali seseorang yang pernah mengalami penipuan tersebut.
Tujuh puluh peratus daripada responden berkata mereka tidak yakin bahawa mereka boleh ‘membezakan antara suara yang diklon dan yang sebenar’, menurut tinjauan itu, yang diterbitkan bulan lalu oleh McAfee Labs yang berpangkalan di AS.
Pihak berkuasa AS telah memberi amaran tentang peningkatan dalam apa yang lebih dikenali sebagai ‘penipuan datuk nenek’, di mana seorang penipu menyamar sebagai cucu yang memerlukan wang segera dalam situasi yang menyedihkan.
“Awda menerima panggilan. Ada suara panik di talian. Itu adalah cucu awda. Dia berkata dia menghadapi masalah besar, dia merosakkan kereta dan dimasukkan ke dalam penjara.
Tetapi awda boleh membantu dengan menghantar wang,” kata Suruhanjaya Perdagangan Persekutuan (FTC) AS dalam satu amaran pada bulan Mac.
“Ia kedengaran seperti dia. Bagaimana mungkin ia boleh menjadi satu penipuan? Pengklonan suara, itulah caranya.”
Dalam komen di bawah amaran FTC tersebut, terdapat beberapa pengakuan daripada orang tua yang telah ditipu dengan cara itu.
Niat jahat
Perkara tersebut juga mencerminkan pengalaman Eddie, seorang remaja berusia 19 tahun di Chicago yang mana datuknya menerima panggilan daripada seseorang yang kedengaran seperti dia, yang mengatakan bahawa dia memerlukan wang selepas kemalangan kereta.
Penipuan itu, yang dilaporkan oleh McAfee Labs, sangat meyakinkan sehingga datuknya mula mencari wang dengan segera dan bahkan mempertimbangkan untuk menggadaikan semula rumahnya, sebelum pembohongan tersebut terbongkar.
“Oleh kerana sekarang mudah untuk menghasilkan klon suara yang sangat realistik, hampir semua orang yang mempunyai sebarang kehadiran dalam talian terdedah kepada serangan,” kata Hany Farid, seorang profesor di UC Berkeley School of Information, kepada AFP. “Penipuan ini semakin berkembang dan merebak.”
Pada awal tahun ini, syarikat startup AI, ElevenLabs mengakui bahawa alat pengklonan suaranya boleh disalahgunakan untuk ‘tujuan jahat’ selepas pengguna memuat naik audio palsu yang mengaku sebagai pelakon Emma Watson membaca biografi Adolf Hitler, Mein Kampf.
“Kita semakin menghampiri tahap di mana awda tidak boleh mempercayai perkara-perkara yang awda lihat di Internet,” kata Gal Tal-Hochberg, ketua pegawai teknologi kumpulan di firma modal usaha niaga, Team8, kepada AFP.
“Kita akan memerlukan teknologi baharu untuk mengetahui sama ada orang yang awda fikir awda sedang bercakap dengannya adalah benar-benar orang itu,” katanya. – AFP