Waspada! puluhan ribu kasus penipuan AI di bidang keuangan terjadi di Indonesia baru-baru ini

Menurut OJK hingga Juli 2025, terdapat lebih dari 70.000 laporan kasus penipuan yang menggunakan teknologi AI.

Redaksi Tekno
Penulis: Redaksi Tekno
Editor: Redaktur
Ilustrasi digenerate dengan AI.

ZONAUTARA.com – Bayangkan sebuah panggilan telepon dari keluarga yang meminta uang darurat, atau video rapat penting yang tiba-tiba muncul di layar Anda. Kedengarannya normal, bukan? Namun, bagaimana jika suara itu bukan suara keluarga Anda, dan wajah di video itu hanyalah topeng digital? Di Indonesia, skenario mengerikan ini bukan lagi fiksi ilmiah. Puluhan ribu warga telah menjadi korban penipuan berbasis kecerdasan buatan (AI) yang makin canggih dan meresahkan.

Fenomena ini bukan sekadar lonjakan kejahatan biasa, melainkan cerminan dari celah yang menganga antara pesatnya inovasi AI dan lambatnya adaptasi keamanan digital. Ironisnya, di tengah gempuran teknologi kloning suara (voice cloning) dan video deepfake yang kian realistis, banyak korporasi masih mengandalkan solusi keamanan yang dinilai usang dan tak lagi relevan dengan perkembangan zaman.

Lonjakan kasus dan modus canggih

Otoritas Jasa Keuangan (OJK) mencatat angka yang mengkhawatirkan: hingga Juli 2025, terdapat lebih dari 70.000 laporan kasus penipuan yang menggunakan teknologi AI. Para pelaku memanfaatkan teknik kloning suara dan video deepfake untuk meniru identitas korban atau pihak lain, sehingga penipuan tampak sangat meyakinkan.

Kecerdasan Buatan (AI) generatif dan model bahasa besar (LLM) seperti ChatGPT atau Gemini, telah memudahkan individu tanpa keahlian teknis tinggi untuk meluncurkan serangan siber yang kompleks dalam skala besar.

Reuben Koh, Direktur Teknologi & Strategi Keamanan APJ Akamai, menegaskan bahwa teknik pembuatan media deepfake (video, gambar, audio) makin lazim digunakan oleh penyerang karena hasilnya kian realistis dan sulit dideteksi.




Peningkatan kejahatan siber berbasis AI, khususnya yang melibatkan deepfake, tidak hanya terjadi di Indonesia tetapi juga secara global. Data dari Global Initiative Against Transactional Organized Crime (The Global Initiative) menunjukkan lonjakan kasus deepfake di kawasan Asia Pasifik mencapai 1.530% antara tahun 2022 dan 2023, menempatkannya sebagai wilayah kedua tertinggi di dunia setelah Amerika Utara.

Kelemahan solusi keamanan tradisional

Menurut Koh, akar masalahnya terletak pada ketidakmampuan solusi keamanan tradisional untuk membendung serangan siber berbasis AI yang makin masif ini. “Solusi-solusi keamanan tradisional tidak didesain untuk mendeteksi dan menghentikan ancaman AI,” kata Koh. Sistem yang ada saat ini tidak dirancang untuk menghadapi serangan yang memanfaatkan AI, baik itu deepfake, ransomware, maupun phising.

Ia menekankan bahwa perusahaan tidak bisa lagi hanya mengandalkan VPN tradisional. Penting bagi korporasi untuk beralih ke solusi yang dapat memberikan akses untuk setiap aplikasi berdasarkan identitas dan konteks, seperti lokasi, waktu, dan postur perangkat.

Selain itu, perusahaan juga perlu mempertimbangkan solusi unik untuk mendeteksi dan memitigasi beragam ancaman tersembunyi dan canggih yang biasanya menghindari pertahanan keamanan tradisional. Ini termasuk fokus pada taktik seperti gerakan lateral, eksekusi malware, dan komunikasi ke pusat komando serta kontrol untuk memutus rantai serangan.

“Organisasi/perusahaan dapat menghindari bencana, bahkan ketika kontrol keamanan gagal,” tambah Koh. Dari sisi infrastruktur, perusahaan perlu mulai mempertimbangkan solusi yang mencegah gerakan lateral berbahaya, sehingga pembobolan pada satu node tidak serta merta membuka seluruh jaringan AI terhadap serangan tersebut karena aplikasi-aplikasi AI penting telah terisolasi.

Kasus puluhan ribu penipuan AI ini menjadi peringatan keras bagi kita semua: dunia digital terus berevolusi, dan begitu pula ancaman di dalamnya. Pertanyaannya, seberapa cepat kita mampu beradaptasi? Apakah kita akan terus tertinggal dengan solusi yang usang, atau berani melangkah maju dengan inovasi dan relevansi, demi melindungi diri dan komunitas dari bayang-bayang AI yang disalahgunakan?


Artikel ini dibantu dengan alat AI untuk analisis data, dan seluruh isi telah diverifikasi oleh redaksi.

Leave a Comment

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.

WP2Social Auto Publish Powered By : XYZScripts.com