Awas! Penipuan dikombinasi dengan AI Bisa Bikin Perusahaan Bangkrut Miliaran
Penipuan lewat telepon yang dikombinasikan dengan AI menjadi ancaman fatal di era modern yang membahayakan jutaan orang di seluruh dunia, dengan kerugian mencapai Miliaran rupiah akibat teknologi AI kloning suara yang mampu meniru identitas siapa saja
Adez Aulia
9/4/20253 min read


Pelaku Organisasi Penipuan , Memanfaatkan AI Untuk Penipuan
Hati-Hati, Suara Atasan Anda Bisa Dipalsukan dengan AI
Bayangkan situasi ini, Sahabat AI. Anda sedang fokus bekerja di kantor, tiba-tiba telepon berdering. Suara di seberang telepon? Persis banget dengan suara atasan Anda yang sedang dinas ke luar negeri. Cara bicaranya mendesak, meminta Anda segera mentransfer uang perusahaan untuk keperluan bisnis yang sangat penting. Semua terdengar wajar, mulai dari cara bicara sampai logat khasnya. Tapi tahukah Anda, suara itu mungkin saja palsu, bahkan dibuat dengan teknologi AI.
Pada Artikel yang membahas cara penipuan dengan menirukan suara, saya membahas penipuan suara yang dilakukan dengan teknik sederhana tanpa menggunakan AI. Nah kali ini saya akan membahas teknik yang paling canggih yang bisa dilakukan komplotan penipu dengan teknologi AI canggih yang benar-benar bisa mengakibatkan kerugian hingga ratusan milyar rupiah. Jika penipuan pada artikel sebelumnya berkelas "gerobak", maka penipuan seperti ini kelasnya adalah "mercy".
Mungkin terdengar seperti cerita dalam film fiksi ilmiah, tapi ini benar-benar nyata. Di Hong Kong, seorang karyawan perusahaan desain ternama Arup kehilangan lebih dari 400 miliar rupiah karena tertipu suara palsu atasannya yang dibuat menggunakan AI atau peniruan suara dengan kecerdasan buatan. Yang lebih mencengangkan lagi, penipu bahkan membuat rapat video dengan beberapa "eksekutif" palsu.
Mungkin Anda berpikir, "Ah, itu kan kejadian di luar negeri, di Indonesia tidak mungkin terjadi." Jangan salah sangka, penipuan seperti ini bisa saja terjadi di Indonesia dalam waktu dekat ini. Karena bagi penipu, teknologi apapun bisa dengan cepat mereka pelajari.
Data yang saya dapat dari Komisi Perdagangan Federal Amerika menunjukkan kerugian akibat penipuan identitas mencapai hampir 50 triliun rupiah dalam setahun!


Investigasi Terhadap Penipaun Yang Terjadi Di Perusahaan
Membuat Suara Palsu Seperti Aslinya Dengan AI
Dahulu, untuk membuat suara palsu diperlukan peralatan canggih dan keahlian khusus. Sekarang? Cukup dengan rekaman suara selama beberapa detik saja, kecerdasan buatan bisa meniru suara siapa pun hingga tingkat kemiripan 85%. Bahkan, rekaman tersebut bisa diambil dari video yang Anda unggah di media sosial, percakapan telepon, atau obrolan sehari-hari.
Bayangkan betapa mudahnya penipu mendapatkan sampel suara dari unggahan Instagram Story Anda, video WhatsApp, atau rekaman telepon biasa. AI menganalisis semua detail: intonasi, cara berbicara, jeda, bahkan penekanan pada kata-kata tertentu.
Dalam kasus Arup di Hong Kong, penipu tidak hanya meniru suara, tetapi juga membuat video palsu yang sangat mirip dengan wajah dan gerakan tubuh Kepala Keuangan mereka. Korban bahkan mengikuti rapat video bersama dengan "eksekutif" palsu lainnya. Kombinasi suara dan video palsu yang sangat realistis ini membuat korban percaya sepenuhnya
Korban Penipuan Kecerdasan Buatan Ada di Mana-Mana
Di Amerika, masyarakat kehilangan hampir 50 triliun rupiah. Di Asia Pasifik, penipuan meningkat tajam sebesar 194%. Tidak hanya individu biasa, perusahaan raksasa seperti Ferrari juga hampir menjadi korban. Penipu mencoba meniru suara Direktur Utama mereka, Benedetto Vigna, lengkap dengan aksen Italia Selatan yang khas.
Beruntung, eksekutif Ferrari yang menerima telepon tersebut cukup cerdik. Dia mengajukan pertanyaan pribadi yang hanya diketahui oleh Direktur Utama asli, dan penipu langsung ketahuan. Saya merasa kejadian ini membuktikan bahwa bahkan perusahaan besar pun tidak luput dari ancaman ini
Video di atas memperlihatkan bagaimana orang bisa merubah wajah asli menjadi wajah yang diinginkan
Formula Mencegah Penipuan AI
Saya punya Fromula agar tidak menjadi korban, berikut cara jitu yang bisa Anda terapkan:
Berhenti dan Curigai Setiap Permintaan Mendesak - Jangan pernah terburu-buru meski suara terdengar familiar 100%
Ajukan Pertanyaan Verifikasi Pribadi - Siapkan 3-5 pertanyaan rahasia yang hanya diketahui orang terdekat
Tutup Telepon / Video Call dan Hubungi Kembali - Selalu akhiri percakapan dengan alasan akan menelepon balik dan Hubungi nomor resmi/tersimpan yang sudah diverifikasi sebelumnya.
Protokol Darurat dan Edukasi - Konfirmasi dengan pihak ketiga sebelum mengambil tindakan finansial dan Dokumentasikan semua detail percakapan mencurigakan. Lakukan edukasi kepada karyawan anda mengenai metode penipuan ini agar karyawan anda lebih waspada.
Waspadai Kejanggalan Berikut - Permintaan transfer dana mendadak dengan alasan darurat, Suara familiar tapi ada yang "aneh" atau tidak natural, Menghindari pertanyaan pribadi atau video call, Menekan dengan frasa "jangan beritahu siapa-siapa".
Jika ragu, maka anda bisa bertanya kepada teman-teman, salah satunya adalah Komunitas AI Belajar AI bersama Adez Aulia. Di komunitas ini banyak sekali anggota yang akan memberikan bantuan dan saran dan juga berbagi pengalaman mengenai penipuan jenis lain seperti apa yang pernah mereka alami atau orang terdekat mereka alami. Klik pada tombol untuk bergabung ke group Whatsapp



