Gini jadinya kalo kemajuan teknologi disalahgunakan! Ini jangan ditiru ya. Jadi, mahasiswa Universitas Udayana (Unud) Bali, berinisial SLKDP, diduga bikin konten porno pake teknologi AI ‘deepfake’. FYI, Deepfake adalah aplikasi buat manipulasi video, foto, atau audio biar keliatan kayak asli. Dengan bantuan Deepfake, seolah-olah seseorang atau tokoh publik ngomong atau ngelakuin sesuatu. Padahal, dia nggak pernah ngomong atau ngelakuin itu.
Nah, modus yang dilakuin pelaku adalah nyolongin foto cewek-cewek dari Instagram. Terus, foto-foto itu diedit sedemikian rupa yang ujungnya produk konten porno. Saking canggihnya, hasil editannya mirip banget sama foto aslinya. Sejauh ini ada 35 mahasiswi Unud yang udah lapor ke rektorat. Ketua Unit Komunikasi Publik Unud, Ni Nyoman Dewi Pascarani, bilang kampus lagi serius mengusut kasus ini. Pengusutan dilakuin bareng fakultas dan Satgas Pencegahan dan Penanganan Kekerasan Seksual (PPKS) Unud.
Kampus lagi nunggu hasil sidang Dewan Etik Senat Universitas buat nentuin sanksi yang bakal dijatuhkan ke pelaku. Saat ini, pelaku udah diskors dari kuliah dan nggak bisa akses layanan administrasi kampus. Kasus penyalahgunaan Deepfake bukan kali ini aja terjadi. Di Korea Selatan, lebih dari 10 ribu orang minta bantuan pemerintah karena kena kejahatan seksual digital pada tahun 2023.
Menurut laporan The Straits Times, lonjakan kasus ini gara-gara makin banyak orang pake Deepfake buat bikin konten pornografi. Korbannya kebanyakan perempuan muda yang berumur 20-an. Konten-konten Deepfake ini nyebar cepet banget lewat platform kayak Telegram. Deepfake tuh ibarat pedang bermata dua. Di satu sisi, bisa dimanfaatin buat industri hiburan, edukasi, sampe riset. Tapi, di sisi lain, juga bisa dimanfaatin buat ngerusak hidup orang.
Menurut catatan SAFEnet, tahun 2024 aja udah ada 40 kasus Deepfake atau morphing di Indonesia. Kebanyakan korbannya perempuan. Kebanyakan nggak berani lapor karena takut stigma. Korban bisa kena tuduhan udah berbuat mesum, padahal yang dilaporin itu konten palsu. Begitu konten palsu itu nyebar, susah banget narik semuanya dari internet. Konten itu di-download, lalu di-reupload.
Nggak sedikit korban yang jadi bahan olok-olokan, dikucilkan, bahkan sampe jadi korban kekerasan. Reputasi korban di sekolah, kampus, dan kerjaan bisa ancur. Mental korban bisa drop banget. Mereka depresi, trauma, anxiety, bahkan kepikiran bunuh diri. Kebanyakan korban juga nggak berani lapor karena nggak yakin bakal dapet keadilan. Nggak gampang ngeyakinin orang bahwa konten yang mereka liat itu hasil Deepfake.
Bahkan ada pelaku yang sengaja bikin konten porno pake Deepfake buat memeras korban. Bikin konten porno pake Deepfake itu tindakan kriminal. Pelakunya nggak bakal kebal hukum. Pelakunya bakal dijerat pasal berlapis. UU ITE Pasal 27. Undang-Undang Tindak Pidana Kekerasan Seksual Pasal 14 dan 15. Kitab Undang-Undang Hukum Pidana (KUHP) Pasal 435.
Sanksinya kalo di kumulasi bakal berat banget. Kurungan penjara sampe belasan tahun dan denda uang sampe 1 miliar. Ingat ya, teknologi itu bisa bermanfaat banget kalo dipake bener. Tapi kalo dipake buat jahatin orang, itu tindakan kriminal! Dan siap-siap aja bakal diciduk aparat. Yuk, lawan penyalahgunaan AI!