Maraknya Deepfake Berbagai Rekayasa Sosial Berbasis AI

Deepfake merupakan masalah yang semakin meningkat bagi organisasi mana pun yang terhubung ke internet. Deepfake dapat menjadi sangat berbahaya ketika digunakan sebagai senjata oleh negara-negara dan penjahat siber.

“Ketika orang berpikir tentang deepfake, mereka sering membayangkan video palsu atau panggilan suara yang dikloning,” kata Arif Mamedov, CEO Regula Forensics , pengembang global perangkat forensik dan solusi verifikasi identitas. “Pada kenyataannya, risiko yang lebih besar jauh lebih dalam. Deepfake berbahaya karena menyerang identitas itu sendiri, yang merupakan fondasi kepercayaan digital.”

“Tidak seperti penipuan tradisional yang bergantung pada data yang dicuri atau bocor, deepfake memungkinkan penjahat untuk menciptakan kembali orang yang sudah ada atau menciptakan orang baru sepenuhnya — lengkap dengan wajah, suara, dokumen, dan perilaku yang meyakinkan,” katanya kepada TechNewsWorld. “Identitas ini dapat terlihat sah sejak interaksi pertama.”

Dia menjelaskan bahwa deepfake menimbulkan tiga risiko signifikan. Pertama, otentikasi gagal ketika pengenalan wajah, otentikasi suara, atau pemindaian dokumen bergantung pada sinyal statis atau yang dapat diputar ulang. Kedua, penipuan berkembang pesat. AI memungkinkan pembuatan ribuan identitas palsu secara bersamaan, mengubah penipuan menjadi proses industri. Dan ketiga, deepfake menciptakan rasa percaya diri yang palsu. Deepfake sering kali lolos dari kontrol yang ada, sehingga organisasi mengira mereka terlindungi sementara penipuan diam-diam terus berkembang.

“Riset kami tahun 2025 menunjukkan bahwa deepfake tidak menggantikan penipuan tradisional — melainkan memperkuatnya, mengungkap kelemahan lama dan membuatnya jauh lebih mahal,”

Bagaimana Deepfake Merusak Penilaian Manusia

Mike Engle, kepala strategi untuk 1Kosmos , sebuah perusahaan verifikasi identitas digital dan autentikasi tanpa kata sandi yang berkantor pusat di Iselin, NJ, menjelaskan bahwa keamanan tradisional mengasumsikan bahwa begitu seseorang diautentikasi, mereka sah. “Deepfake mematahkan asumsi itu,” katanya kepada TechNewsWorld.

“AI kini dapat secara meyakinkan meniru eksekutif, karyawan, kandidat pekerjaan, atau pelanggan menggunakan suara, wajah, dan dokumen sintetis, memungkinkan penyerang untuk melewati proses orientasi, layanan bantuan, dan alur kerja persetujuan yang tidak pernah dirancang untuk mendeteksi identitas palsu,” katanya. “Setelah identitas palsu didaftarkan, setiap kontrol selanjutnya — MFA, VPN, SSO — pada akhirnya melindungi penyerang, bukan organisasi.”

Deepfake tidak merusak sistem terlebih dahulu — mereka merusak penilaian manusia, demikian menurut David Lee, Field CTO dari Saviynt , sebuah perusahaan tata kelola identitas dan manajemen akses di El Segundo, California.

“Ketika suara atau video terdengar meyakinkan, orang-orang bertindak cepat, melewati verifikasi, dan menganggap otoritas tersebut sah,” katanya kepada TechNewsWorld. “Itulah yang membuat deepfake sangat efektif. Suara eksekutif yang meyakinkan dapat mengotorisasi pembayaran, mengesampingkan proses, atau menciptakan urgensi yang mempersingkat pengambilan keputusan rasional sebelum kontrol keamanan diterapkan.”

“Seperti halnya penipuan atau kejahatan lainnya, penipuan yang didorong oleh deepfake membahayakan bisnis apa pun, tetapi terutama bisnis kecil atau bisnis dengan margin keuntungan tipis, di mana dampak finansial dapat memiliki pengaruh yang tidak proporsional terhadap kesehatan dan kelangsungan entitas tersebut,” tambah James E. Lee, presiden Identity Theft Resource Center (ITRC), sebuah organisasi nirlaba yang didedikasikan untuk meminimalkan risiko dan mengurangi dampak dari pelanggaran identitas dan kejahatan, di San Diego.

“Deepfake dapat menyebabkan pelanggaran data; hilangnya kendali atas proses, sistem, dan peralatan; dan pada akhirnya dampak finansial berupa kerugian aktual, serta pengeluaran yang tidak dianggarkan,” katanya kepada TechNewsWorld.

Serangan Deepfake Semakin Meningkat

Perkembangan AI tampaknya telah meningkatkan aktivitas pihak lawan. “Laporan keamanan siber dan peringatan regulasi semuanya menunjukkan peningkatan eksponensial,” ujar Ruth Azar-Knupffer, salah satu pendiri VerifyLabs , pengembang teknologi deteksi deepfake, di Bletchingley, Inggris.

“Para pelaku ancaman semakin memanfaatkan alat AI yang mudah diakses, seperti generator deepfake sumber terbuka, untuk menciptakan gambar palsu yang meyakinkan secara efisien,” katanya kepada TechNewsWorld. “Meningkatnya komunikasi digital, seperti panggilan video dan media sosial, telah memperluas peluang serangan, menjadikan deepfake sebagai vektor yang berkembang untuk penipuan dan disinformasi.”

Mamedov dari Regula menambahkan bahwa alasan penggunaan deepfake semakin meningkat sangat sederhana. “Alat-alatnya murah atau gratis, modelnya tersedia secara luas, dan kualitas hasilnya sekarang melebihi kemampuan yang mampu ditangani oleh banyak sistem verifikasi,” jelasnya.

“Apa yang dulunya merupakan upaya individu untuk membuat deepfake yang meyakinkan, kini telah menjadi ekosistem plug-and-play,” lanjutnya. “Para penipu dapat membeli ‘perangkat persona’ lengkap sesuai permintaan: wajah sintetis, suara deepfake, latar belakang digital. Ini menandai pergeseran dari penipuan skala kecil dan manual ke fabrikasi identitas skala industri.”

Dia mengutip data Regula yang menunjukkan bahwa sekitar satu dari tiga organisasi telah mengalami penipuan deepfake. “Itu frekuensi yang sama dengan ancaman yang sudah lama ada seperti penipuan dokumen atau rekayasa sosial,” katanya. “Pemalsuan identitas, penipuan biometrik, dan deepfake kini telah menjadi bagian utama dari modus penipuan.”

Alat Baru, Tipuan Lama

Salah satu cara organisasi mengatasi masalah deepfake adalah melalui pelatihan. Misalnya, KnowBe4 , sebuah perusahaan pelatihan keamanan siber ternama yang berbasis di Clearwater, Florida, meluncurkan pelatihan baru pada hari Senin yang bertujuan untuk melindungi organisasi dari deepfake.

Perry Carpenter, Kepala Strategi Manajemen Risiko Manusia KnowBe4, menjelaskan bahwa pelatihan tersebut berfokus pada interaksi karyawan dengan deepfake.

“Hal terbaik yang dapat dilakukan siapa pun adalah jika mereka merasa ada emosi yang ditarik dengan cara tertentu, ada tuas emosional yang disentuh, apakah itu rasa takut, urgensi, otoritas, harapan, atau apa pun, itu seharusnya menjadi sinyal bagi mereka untuk memperlambat, dan mulai menganalisis cerita, hal yang diminta dari mereka, dan bertanya apakah itu menimbulkan tanda bahaya?” katanya kepada TechNewsWorld.

“Anda akan menyadari, saya tidak berbicara tentang melihat deepfake untuk mengatakan, apakah bentuk mulutnya terlihat benar atau apakah suaranya terdengar benar?” lanjutnya. “Itu semua adalah hal-hal yang dapat kita lakukan, tetapi hal-hal itu akan hilang dalam enam bulan hingga satu tahun ke depan, seiring dengan semakin baiknya teknologi.”

“Jadi, hal terakhir yang saya inginkan adalah seseorang percaya bahwa akan selalu ada petunjuk visual atau audio yang dapat mereka pahami,” katanya. “Hal terbaik adalah, apakah saya merasa dimanipulasi dengan cara tertentu? Apakah ini meminta saya untuk melakukan sesuatu yang tidak biasa? Apakah ini menyentuh emosi dengan cara tertentu? Lalu bagaimana saya dapat memverifikasi ini melalui saluran lain?”

“Deepfake hanyalah alat teknologi terbaru dalam perangkat penyerang,” tambahnya. “Modus penipuan, serangan naratif, dan emosi yang digunakan sudah ada sejak lama.”

Related Posts

Produk Teknologi Terbaik Tahun 2025 Pilihan Rob Enderle

Tahun ini penuh dengan perubahan besar, inovasi luar biasa, dan banyak sekali masalah. Jika kita menengok ke belakang pada tahun 2025, jelas bahwa industri teknologi akhirnya telah melampaui siklus “hype…

Gartner Merekomendasikan untuk Menghindari Browser AI

Jika Anda berpikir untuk mengizinkan karyawan Anda menggunakan peramban AI seperti Comet dan Atlas, pikirkan lagi. Itulah saran dalam laporan terbaru dari firma konsultan teknologi global berpengaruh, Gartner. “Peramban berbasis…

Leave a Reply

Your email address will not be published. Required fields are marked *

You Missed

Maraknya Deepfake Berbagai Rekayasa Sosial Berbasis AI

Maraknya Deepfake Berbagai Rekayasa Sosial Berbasis AI

Produk Teknologi Terbaik Tahun 2025 Pilihan Rob Enderle

Produk Teknologi Terbaik Tahun 2025 Pilihan Rob Enderle

Gartner Merekomendasikan untuk Menghindari Browser AI

Gartner Merekomendasikan untuk Menghindari Browser AI

Valuasi startup AI mеnіngkаtkаn kеkhаwаtіrаn gеlеmbung

Valuasi startup AI mеnіngkаtkаn kеkhаwаtіrаn gеlеmbung

Pеruѕаhааn chip AI Cеrеbrаѕ mеngаjukаn penarikan

Pеruѕаhааn chip AI Cеrеbrаѕ mеngаjukаn penarikan

Kеlоmроk peretas mеngklаіm hаmріr 1 miliar catatan Salesforce  

Kеlоmроk peretas mеngklаіm hаmріr 1 miliar catatan Salesforce