Oleh :
Indah Gita Cahyani
Penulis adalah mahasiswi Ilmu Komunikasi Universitas 17 Agustus 1945 (Untag) Surabaya
Bayangkan sebuah video telah banyak beredar hanya dalam beberapa menit sebelum diadakannya pemungutan suara dalam pemilihan umum. Dalam tayangan tersebut, seorang kandidat pemimpin terlihat dengan jelas menyatakan dukungannya terhadap kebijakan yang sangat kontroversial dan tidak populer di masyarakat. Video tersebut akhirnya viral hingga menyebar dengan cepat ke seluruh platform media sosial, memberikan pengaruh kepada jutaan pemilih yang awalnya merencanakan untuk mendukung kandidat tersebut meski pada kenyataannya video tersebut hanya rekayasa digital yang diperoleh dari teknologi deepfake untuk memanipulasi wajah dan suara secara realistis sehingga sulit dibedakan dari aslinya.
Deepfake sendiri merupakan konten media palsu, baik berupa video, audio, maupun gambar yang digunakan dengan teknologi kecerdasan buatan atau artificial intelligence (AI) dengan tingkat keakuratan sekaligus realisme tinggi. Pada awal kemunculannya, teknologi ini hanya tersedia dalam lingkungan riset serta pengembangan khusus di laboratorium canggih (Dan, 2025). Namun, seiring dengan kemajuan algoritma pembelajaran mesin maupun ketersediaan perangkat keras yang semakin terjangkau, akses keterbukaan bagi siapa saja untuk dapat membuat deepfake melalui aplikasi dan software dapat dengan mudah diperoleh secara online.
Teknologi tersebut menggunakan teknik pembelajaran mendalam (deep learning) dan jaringan saraf tiruan (neural networks) untuk mempelajari pola wajah, ekspresi, dan suara target yang nantinya dapat mengganti konten asli dengan konten baru yang lebih terkonsep sedemikian rupa sehingga menciptakan ilusi realistis. Akibatnya, siapapun mulai dari pengguna awam hingga aktor jahat dapat menciptakan video sekaligus audio palsu yang sangat menyakinkan dan menyebarkannya di media sosial, forum daring, atau platform berita palsu tanpa kendali signifikan.
Deepfake mampu memberikan pengaruh pada proses demokrasi dengan menyebarkan disinformasi yang dapat memanipulasi adanya opini publik. Teknologi ini memberikan kemungkinan pada rekayasa pidato kandidat, penyebaran video palsu yang menuduh atau mendiskreditkan lawan politik, sekaligus mengintensifkan ketegangan sosial yang sengaja direkayasa. Menurut studi yang dilakukan oleh Stanford maupun artikel akademik yang menganalisis penggunaan deepfake dalam manipulasi pemilu, pengaruhnya dapat menurunkan kepercayaan masyarakat pada institusi demokrasi dan proses pemilihan umum, sehingga memperlemah partisipasi politik dan kapasitas kolektif dalam mengambil sebuah keputusan (Schiff et al., 2025). Tantangan yang cukup krusial dalam konteks sistem peradilan juga ikut terpengaruh dari adanya bukti berupa video maupun audio yang tampak otentik, tetapi palsu yang digunakan dalam menjatuhkan orang tidak bersalah atau membebaskan pelaku kejahatan. Kasus-kasus seperti audio rekayasa di ruang sidang telah meningkatkan kerumitan proses pembuktian dan kredibilitas saksi.
Di sisi lain, deepfake juga menjadi senjata untuk menyerang reputasi individu, baik figur publik maupun masyarakat biasa, peristiwa tersebut juga telah terjadi di kehiduapan nyata seperti pembuatan video pornografi balas dendam tanpa adanya persetujuan atau non-consensual deepfake porn, pemerasan berbasis konten palsu, dan perusakan nama baik secara sistematis. Di Indonesia sendiri, Undang-Undang ITE yang telah mencakup pasal dalam pengaturan tindakan pencemaran nama baik lewat teknologi elektronik termasuk deepfake yang dapat dipidana dengan hukuman penjara atau denda.
Melalui deepfake, muncul percepatan fenomena yang disebut sebagai ‘effect liar’s dividend’ atau dividen pembohong, di mana seseorang tertangkap basah melakukan kebohongan dapat menyangkal bukti otentik dengan mengklaim bukti tersebut adalah deepfake (Arvitto, 2025). Kondisi ini mampu berpotensi dalam merusak kebenaran objektif dan melemahkan sistem penegakan hukum maupun norma sosial karena munculnya keraguan mendalam akan bukti sekaligus fakta menjadi hal yang wajar. Deepfake juga memberikan posibilitas-posibilitas terbentuknya realitas alternatif di mana berbagai kelompok memiliki bukti videonya sendiri untuk mendukung narasi masing-masing. Situasi ini mampu membuat dialog terbuka dan rekonsiliasi sosial menjadi hampir tidak mungkin karena di setiap pihak memiliki keyakinan pada data digital yang mereka pegang meskipun saling bertentangan.
Banjirnya informasi yang sulit diverifikasi akibat deepfake inilah akhirnya membuat publik mengalami kelelahan informasi, mereka akan cenderung skeptis pada semua berita yang beredar, baik yang benar maupun palsu hingga pada akhirnya apatis terhadap pencarian kebenaran. Kondisi inilah yang membuka celah bagi penyebaran kebohongan yang merajalela tanpa hambatan karena tidak ada lagi kepercayaan dasar pada sebuah informasi (Boediman, 2025).
Rekomendasi tindakan yang dapat direaliasasikan untuk permasalahan deepfake dapat dilakukan dengan AI watermarking, di mana konten yang dihasilkan oleh AI diberikan tanda digital khusus berupa watermark yang tidak terlihat oleh mata manusia, tetapi tetap dapat dideteksi oleh algoritma. Watermark ini memberikan kemungkinan pada pelacakan asal-usul konten AI secara transparan dan menjadi bukti keaslian maupun untukk membedakan konten sintesis. Standar internasional juga harus didorong untuk menerapkan AI watermarking agar multimedia yang dihasilkan AI dapat dikenali dan mencegah penyebaran deepfake yang tidak jelas sumbernya.
Selain UU ITE yang telah mencakup aturan pada pencemaran nama baik dan penyebaran konten negatif, terdapat kebutuhan mendesak terkait undang-undang khusus yang mengkriminalisasi pembuatan maupun penyebaran deepfake berbahaya dengan sanksi berat, khususnya yang berpotensi mengganggu ketertiban umum, merugikan reputasi individu, maupun manipulasi proses demokrasi dan keadilan. Di Indonesia sendiri, pengesahan KUHP baru pada tahun 2026 yang nantinya mampu menguatkan ketentuan terhadap tindak kejahatan yang melibatkan rekayasa identitas dan penipuan digital, termasuk yang menggunakan teknologi deepfake.
—————– *** ——————–


