JURNAL IT - Pada Konferensi Regional Anti-Scam Conference 2023 di Kompleks Kepolisian Cantonment, Singapura, Menteri Negara Urusan Dalam Negeri Sun Xueling mengungkapkan bahwa para penipu atau scammer saat ini memanfaatkan alat kecerdasan buatan (AI) canggih untuk membuat rekaman suara dan video deepfake untuk memperdaya keluarga dan teman korban agar mentransfer uang.
Menurut Sun Xueling, scammer juga dapat menggunakan teknologi deepfake untuk mengkloning tokoh publik
"Kita telah melihat contoh di luar negeri di mana pelaku jahat memanfaatkan teknologi deepfake untuk membuat klon yang meyakinkan - baik suara maupun video tokoh publik - untuk menyebarkan disinformasi," ujarnya.
Komentar tersebut muncul seiring dengan meningkatnya penipuan yang didorong oleh kecerdasan buatan (AI) dan laporan mengenai negara-negara seperti China yang menerapkan aturan baru untuk membatasi penggunaan kecerdasan buatan generatif untuk mengubah konten online.
Pada bulan Mei 2023, polisi di wilayah Mongolia dalam, diberitahu tentang kasus di mana seorang penipu menggunakan teknologi pertukaran wajah untuk menyamar sebagai teman korban selama panggilan video.
Korban yang percaya bahwa temannya perlu membayar deposit untuk menyelesaikan proses penawaran, mentransfer 4,3 juta yuan (Rp 9.348.904.202) ke penipu.
Ia baru menyadari telah tertipu setelah temannya mengatakan bahwa ia tidak mengetahui situasi tersebut.
Sementara itu, di Eropa, semakin meningkat kekhawatiran tentang penipu yang menggunakan kecerdasan buatan untuk merekonstruksi suara anggota keluarga - yang juga dikenal sebagai audio deepfake - untuk memperdaya orang agar mentransfer uang.
Profesor Terence Sim dari National University of Singapore’s Centre for Trusted Internet and Community, yang terlibat dalam penelitian terkait deepfake, mengatakan, "Ketika seorang korban melihat video dari seorang teman atau orang yang dicintai, ia cenderung percaya bahwa itu nyata dan bahwa mereka membutuhkan bantuan. Ada peningkatan tingkat kepercayaan dan penipuan di balik penipuan semacam itu."
Teknologi deepfake semakin mudah digunakan dari tahun ke tahun, yang membuatnya semakin mengkhawatirkan, tambahnya. "Yang dibutuhkan penipu hanyalah beberapa foto wajah target, yang dapat diambil dari media sosial, untuk membuat deepfake. Itu menakutkan," katanya, menambahkan bahwa deepfake menggunakan audio saja juga dapat digunakan untuk memperdaya korban.
"Sebuah klip video suara target, yang bisa sependek 10 hingga 15 detik, dapat digunakan untuk membuat audio deepfake. Melalui pembelajaran mesin, teknologi ini mendapatkan contoh suara target dan mengekstrak karakteristiknya untuk membuat panggilan telepon darurat palsu. Itu benar-benar seperti menaruh kata-kata di mulut seseorang," ujarnya.
Adrian Hia, direktur manajemen cyber-security firma Kaspersky untuk Asia-Pasifik, mengatakan bahwa teknologi deepfake dapat digunakan untuk menipu orang di mana saja. "Kampanye deepfake, jika dilakukan dengan baik, dapat sangat meyakinkan karena bermain pada emosi manusia," katanya.
"Dalam sebagian besar serangan, korban akan menemukan diri mereka disesatkan dalam perilaku yang berpusat pada ketakutan, kegembiraan, rasa ingin tahu, rasa bersalah, dan kesedihan.
Dengan emosi yang tinggi, niatnya adalah membuat korban bertindak dengan cepat, mengabaikan pemikiran rasional," tambahnya.
Ada cara untuk mendeteksi gambar rekayasa.
Pencahayaan dalam video deepfake dapat berubah dari satu frame ke frame berikutnya, dan orang di dalamnya dapat menunjukkan gerakan yang canggung, misal berkedip dengan cara aneh atau sama sekali tidak berkedip, kata Hia.
Tanda lainnya adalah ketika bibir pembicara tidak disinkronkan dengan ucapan mereka.
Untuk audio deepfake, Prof Sim mengatakan bahwa masyarakat harus memperhatikan kata-kata yang digunakan.
"Penipu tidak akan tahu detail intim tentang orang yang Anda cintai. Jika Anda tahu itu bukan kalimat yang biasa mereka gunakan atau bagaimana cara mereka berbicara, itulah tandanya. Pada akhirnya, penipu melakukan ini untuk menciptakan rasa terdesak pada korban.
Selalu penting untuk melalui saluran lain dan mengkonfirmasi kepada orang yang Anda cintai sebelum melakukan sesuatu, karena kita berada pada era di mana melihat tidak selalu berarti percaya," kata Prof Sim.(*)
0 Komentar