TOKYO, 24 MAC – Imej pornografi kanak-kanak ditemui antara sejumlah besar data yang digunakan untuk melatih kecerdasan buatan (AI) generatif imej dan meningkatkan ketepatannya. Bahan-bahan itu termasuk sekurang-kurangnya satu daripada buku fotografi yang diharamkan oleh Perpustakaan Diet Negara kerana ‘kemungkinan pornografi kanak-kanak haram’.
Sejumlah imej lain kanak-kanak berbogel turut ditemui dalam data, yang dipercayai telah tergelincir ke dalam set data semasa dikumpulkan dari internet. Terdapat penapis untuk mengecualikan imej sedemikian semasa proses, tetapi dikatakan mustahil untuk menangkap kesemuanya.
AI penjanaan imej digunakan untuk menghasilkan ilustrasi atau imej seperti foto daripada teks. Salah satu model paling popular, Stable Diffusion, menggunakan set data latihan yang tersedia secara umum di internet.
Yomiuri Shimbun meneliti set data pada bulan Disember, dan menemui data daripada buku foto yang diterbitkan pada tahun 1993 yang termasuk seorang kanak-kanak perempuan berbogel.
Pada masa itu, tidak ada undang-undang yang mengawal penerbitan buku tersebut. Ia telah menjadi haram pada tahun 1999 dengan penggubalan undang-undang yang meliputi pelacuran kanak-kanak dan pornografi kanak-kanak, yang melarang penerbitan imej seksual kanak-kanak di bawah umur 18 tahun. Pada tahun 2006, Perpustakaan Diet Negara mengharamkan akses kepada buku foto atas alasan ia mungkin membentuk pornografi kanak-kanak.
Bersama-sama dengan imej dalam buku itu, set data mengandungi beberapa kanak-kanak lain yang berbogel.
Menurut Stability AI Ltd, syarikat permulaan British yang membangunkan Stable Diffusion, set data yang digunakan untuk melatih produknya disediakan oleh organisasi bukan untung Jerman yang secara mekanikal mengumpul kira-kira 5.8 bilion imej dari internet. Nampaknya begitulah cara bahan eksplisit, termasuk yang daripada buku foto, memasuki set data.
Set data mempunyai penapis untuk mengecualikan imej yang menyalahi undang-undang semasa penggunaan, dan Stability AI berkata ia menggunakan fungsi ini.
Walau bagaimanapun, pada bulan Februari, sebuah syarikat yang bergabung dengan Stability AI mendedahkan bahawa ia menemui imej kanak-kanak eksplisit yang tidak boleh ditapis. – ANN/The Japan News


