AI Bisa Tiru Suaramu, Jangan Asal Angkat Telepon!

Ilustrasi ancaman penipuan digital menggunakan teknologi AI untuk meniru suara manusia. Foto: Ilustrasi.

CUKUP satu kata “halo”, dan suara kamu bisa direkam untuk disalahgunakan. Teknologi kecerdasan buatan (AI) kini mampu meniru suara manusia dalam hitungan detik, dan penipu sudah memanfaatkannya untuk menjebak korban.

Peringatan datang dari Bank DBS Indonesia, Otoritas Jasa Keuangan (OJK), Kementerian Komunikasi dan Digital (Komdigi), Kepolisian, hingga FBI Amerika Serikat. Mereka menyebut modus voice cloning dan deepfake telah menjelma jadi bentuk baru kejahatan digital yang sulit dideteksi.

70 Ribu Laporan Penipuan AI di Indonesia

Menurut data OJK, lebih dari 70 ribu laporan warga Indonesia masuk terkait penipuan berbasis AI.
Modus paling marak adalah kloning suara dan peniruan wajah orang terdekat.

Kepala Eksekutif Pengawas Perilaku Pelaku Usaha Jasa Keuangan OJK, Friderica Widyasari Dewi, menjelaskan, pelaku biasanya memanfaatkan rekaman suara dari media sosial. “Bahkan suara anak-anak bisa ditiru dan dipoles agar meyakinkan korban,” ujarnya.

Baca juga: Brad Pitt Palsu Gunakan AI, Perempuan Prancis Rugi Rp 14 Miliar

Begitu tiruan suara selesai dibuat, pelaku akan menghubungi teman, pasangan, atau keluarga korban dan berpura-pura dalam kondisi darurat. Dengan suara yang terdengar familiar, korban pun mudah panik dan mentransfer uang.

Klona Suara Semakin Sulit Dibedakan

Menurut CEO SocialProof Security, Rachel Tobac, kini hanya butuh kurang dari 15 detik suara bersih untuk menciptakan tiruan suara yang sulit dibedakan dari aslinya.

“Dulu butuh satu hingga dua menit. Sekarang, cukup beberapa detik,” ujarnya dikutip dari CNN International.

Baca juga: AI Jadi Senjata Baru Penipuan Siber, Begini Modus yang Harus Diwaspadai

Sementara Steve Grobman dari McAfee menegaskan, bahkan profesional keamanan siber bisa tertipu jika mendengar suara yang familiar. “Kita tak bisa lagi hanya mengandalkan insting,” katanya.

FBI: Selalu Verifikasi Identitas

FBI mencatat peningkatan kasus penipuan suara sejak awal 2025. Pelaku menyamar sebagai pejabat atau kerabat, lalu memancing korban untuk membuka akses akun digital.

FBI menyarankan masyarakat memverifikasi identitas pengirim pesan dan memeriksa nada bicara atau gaya bahasa sebelum menanggapi. “Konten buatan AI berkembang cepat, sering kali sulit dibedakan dari yang asli,” tegas lembaga itu.

Kerugian Capai Rp700 Miliar, Pemerintah Bergerak

Di Indonesia, kerugian akibat penipuan berbasis AI seperti deepfake dan klona suara telah mencapai Rp700 miliar.

Wakil Menteri Komdigi Nezar Patria menyebut pemerintah tengah menyiapkan Peraturan Presiden tentang keamanan pengembangan AI serta roadmap AI nasional.

“Pengembang AI harus akuntabel dan bertanggung jawab atas konten yang dihasilkan,” ujarnya dalam acara Connect for Change Summit 2025 di Jakarta.

Baca juga: AI Melaju, Hukum Masih Tertinggal: Jangan Ulangi Tragedi Robot Trading

Lima Cara Melindungi Diri dari Modus Kloning Suara AI
  1. Jangan langsung menjawab panggilan dari nomor tak dikenal.
  2. Aktifkan fitur blokir otomatis untuk nomor asing.
  3. Jika harus mengangkat, gunakan voice changer agar suara tak terekam jelas.
  4. Jangan mudah percaya dengan permintaan uang mendesak dari suara yang familiar.
  5. Verifikasi lewat video call atau pertanyaan pribadi yang hanya diketahui orang terdekat.

Dunia digital makin canggih dan makin berisiko.
Dalam era ketika suara bisa dipalsukan, waspada adalah perlindungan terbaik. ***

Dapatkan informasi menarik lainnya dengan bergabung di WhatsApp Channel Mulamula.id dengan klik tautan ini.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *