Jutaan Orang Berpotensi Tertipu Kloningan Suara AI, Cek Cara Cegahnya
30 September 2024, 08:55:00 Dilihat: 179x
Penjahat siber semakin 'kreatif' untuk menjebak korbannya. Terbaru, para penjahat siber memanfaatkan kecerdasan buatan (AI) yang memungkinkan para pelakunya menggunakan suara tiruan.
Sebuah perusahaan pinjaman online asal Inggris, Starling Bank, beberapa waktu lalu memperingatkan metode penipuan terbaru ini berpotensi mengelabui jutaan orang.
Penipuan ini mengandalkan suara seseorang yang diposting di platform online. Lalu penipu membuat replika suaranya dan mencari kerabat-kerabat orang tersebut untuk ditipu.
Penipu akan menghubungi kerabat atau teman orang tersebut dengan suara replika AI dan meminta sejumlah uang.
"Orang-orang secara rutin mengunggah konten di platform online yang berisi rekaman suara mereka, tanpa membayangkan bahwa hal tersebut membuat mereka lebih rentan terhadap penipuan," ucap Lisa Grahame, kepala petugas keamanan informasi di Starling Bank, mengutip CNN, Rabu (25/9).
Starling Bank menyebut berdasarkan survei mereka, terdapat sekitar 750 orang yang tertipu dalam 12 bulan terakhir.
Hasil survei menunjukkan sebanyak 46 persen dari 3.000 responden bahkan tidak mengetahui bahwa metode penipuan tersebut ada. Sementara, 8 persen lainnya menyebut akan mengirimkan uang sebanyak yang diminta jika itu ke teman atau anggota keluarga.
Lalu, bagaimana caranya agar tidak jatuh dalam jebakan para penipu yang menggunakan kloningan suara tersebut?
Starling Bank menyarankan membuat "kata kunci" yang hanya keluarga atau teman dekat yang mengetahuinya. Kata kunci yang simple dan mudah diingat, lalu juga harus berbeda dari password yang biasa digunakan.
Hal ini bertujuan untuk membuktikan bahwa kita sedang berbicara dengan orang yang tepat.
Mereka juga menyarankan untuk membagikan kata kunci secara langsung. Sebab jika membagikan melalui teks, penipu dapat melacak kata kunci tersebut.
Misal jika harus membagikan lewat teks, jangan lupa untuk langsung menghapus pesan yang berisi kata kunci tersebut.
Sejumlah pihak selama ini juga sudah menyuarakan kekhawatiran mereka di tengah pesatnya perkembangan teknologi AI. Pasalnya, teknologi ini seperti dua belah mata pisau.
Di satu sisi dapat membantu kerja manusia, tapi di sisi lain AI dapat menjadi senjata para penjahat siber untuk membantu mereka mendapatkan informasi-informasi vital seperti akun bank dan menyebarkan misinformasi.
Awal tahun ini OpenAI, perusahaan pengembang ChatGPT, mengenalkan alat untuk mereplikasi suara yang bernama Voice Engine. Namun mereka tidak merilis alat tersebut ke publik, dengan alasan ancaman penyalahgunaan suara sintetik.
(wnu/dmi) https://www.cnnindonesia.com/teknologi/20240926095312-192-1148514/jutaan-orang-berpotensi-tertipu-kloningan-suara-ai-cek-cara-cegahnya.