Penyebaran video deepfake yang menggunakan wajah dan suara selebriti terkenal menerusi teknologi kecerdasan buatan (AI) semakin berleluasa di Korea Selatan.
Lebih parah, kandungan yang dijadikan sebagai bahan tidak senonoh kemudiannya dimuat naik di platform media sosial untuk tatapan ramai.
Menurut mStar, kumpulan Twice dilaporkan antara mangsa terbaharu penyebaran video tersebut apabila wajah mereka disunting dengan memaparkan aksi seksual.
Memandang serius perkara itu, agensi Twice iaitu JYP Entertainment menegaskan bakal mengambil tindakan terhadap pihak tidak bertanggungjawab.
Jelasnya, perkara ini boleh diklasifikasikan sebagai jenayah seksual yang menjejaskan reputasi artis mereka.
“Kami sangat prihatin dengan penyebaran video deepfake baru-baru ini melibatkan artis kami iaitu Twice.
“Tindakan ini telah pun melanggar undang-undang secara terang-terangan dan kami sedang mengumpul bukti untuk mengambil tindakan undang-undang.
“Kami tidak akan berdiam dan akan mencari pelakunya sampai ke lubang cacing,” jelasnya.
Sekadar info, deepfake merupakan kandungan video yang disunting menggunakan teknologi AI dengan memaparkan wajah mangsa melakukan sebarang aksi yang kelihatan realistik. – Agensi