
CUKUP satu kata “halo”, dan suara kamu bisa direkam untuk disalahgunakan. Teknologi kecerdasan buatan (AI) kini mampu meniru suara manusia dalam hitungan detik, dan penipu sudah memanfaatkannya untuk menjebak korban.
Peringatan datang dari Bank DBS Indonesia, Otoritas Jasa Keuangan (OJK), Kementerian Komunikasi dan Digital (Komdigi), Kepolisian, hingga FBI Amerika Serikat. Mereka menyebut modus voice cloning dan deepfake telah menjelma jadi bentuk baru kejahatan digital yang sulit dideteksi.
70 Ribu Laporan Penipuan AI di Indonesia
Menurut data OJK, lebih dari 70 ribu laporan warga Indonesia masuk terkait penipuan berbasis AI.
Modus paling marak adalah kloning suara dan peniruan wajah orang terdekat.
Kepala Eksekutif Pengawas Perilaku Pelaku Usaha Jasa Keuangan OJK, Friderica Widyasari Dewi, menjelaskan, pelaku biasanya memanfaatkan rekaman suara dari media sosial. “Bahkan suara anak-anak bisa ditiru dan dipoles agar meyakinkan korban,” ujarnya.
Baca juga: Brad Pitt Palsu Gunakan AI, Perempuan Prancis Rugi Rp 14 Miliar
Begitu tiruan suara selesai dibuat, pelaku akan menghubungi teman, pasangan, atau keluarga korban dan berpura-pura dalam kondisi darurat. Dengan suara yang terdengar familiar, korban pun mudah panik dan mentransfer uang.
Klona Suara Semakin Sulit Dibedakan
Menurut CEO SocialProof Security, Rachel Tobac, kini hanya butuh kurang dari 15 detik suara bersih untuk menciptakan tiruan suara yang sulit dibedakan dari aslinya.
“Dulu butuh satu hingga dua menit. Sekarang, cukup beberapa detik,” ujarnya dikutip dari CNN International.
Baca juga: AI Jadi Senjata Baru Penipuan Siber, Begini Modus yang Harus Diwaspadai
Sementara Steve Grobman dari McAfee menegaskan, bahkan profesional keamanan siber bisa tertipu jika mendengar suara yang familiar. “Kita tak bisa lagi hanya mengandalkan insting,” katanya.
FBI: Selalu Verifikasi Identitas
FBI mencatat peningkatan kasus penipuan suara sejak awal 2025. Pelaku menyamar sebagai pejabat atau kerabat, lalu memancing korban untuk membuka akses akun digital.
FBI menyarankan masyarakat memverifikasi identitas pengirim pesan dan memeriksa nada bicara atau gaya bahasa sebelum menanggapi. “Konten buatan AI berkembang cepat, sering kali sulit dibedakan dari yang asli,” tegas lembaga itu.
Kerugian Capai Rp700 Miliar, Pemerintah Bergerak
Di Indonesia, kerugian akibat penipuan berbasis AI seperti deepfake dan klona suara telah mencapai Rp700 miliar.
Wakil Menteri Komdigi Nezar Patria menyebut pemerintah tengah menyiapkan Peraturan Presiden tentang keamanan pengembangan AI serta roadmap AI nasional.
“Pengembang AI harus akuntabel dan bertanggung jawab atas konten yang dihasilkan,” ujarnya dalam acara Connect for Change Summit 2025 di Jakarta.
Baca juga: AI Melaju, Hukum Masih Tertinggal: Jangan Ulangi Tragedi Robot Trading
Lima Cara Melindungi Diri dari Modus Kloning Suara AI
- Jangan langsung menjawab panggilan dari nomor tak dikenal.
- Aktifkan fitur blokir otomatis untuk nomor asing.
- Jika harus mengangkat, gunakan voice changer agar suara tak terekam jelas.
- Jangan mudah percaya dengan permintaan uang mendesak dari suara yang familiar.
- Verifikasi lewat video call atau pertanyaan pribadi yang hanya diketahui orang terdekat.
Dunia digital makin canggih dan makin berisiko.
Dalam era ketika suara bisa dipalsukan, waspada adalah perlindungan terbaik. ***
Dapatkan informasi menarik lainnya dengan bergabung di WhatsApp Channel Mulamula.id dengan klik tautan ini.