WARTABANJAR.COM, BANJARMASIN – Penipuan yang memanfaatkan teknologi kecerdasan buatan atau artificial intelligence (AI) semakin meluas. Modus yang digunakan juga kian rumit, salah satunya melalui kloning suara.
Bayangkan, Anda tiba-tiba menerima telepon dari seseorang yang suaranya sangat familiar, mungkin dari seorang sahabat atau anggota keluarga.
Baca juga:Penangkapan CEO Telegram Picu Kecemasan Para Bos Perusahaan Teknologi
Mereka meminta bantuan finansial dalam situasi yang mendesak, sehingga Anda merasa perlu segera membantu. Namun, suara tersebut ternyata hanyalah hasil rekayasa AI.
Dilansir dari CNN International, Jumat (20/9/2024), penipuan berbasis AI yang mampu meniru suara kini menjadi ancaman serius.
Di Inggris, Starling Bank memperingatkan bahwa hanya dengan rekaman tiga detik dari suara seseorang, misalnya dari video yang diunggah di media sosial, penipu bisa menciptakan tiruan suara yang sangat meyakinkan.
Dengan suara buatan tersebut, para penipu bisa berpura-pura menjadi orang yang dekat dengan korban dan melakukan panggilan untuk meminta uang.
Dalam survei terhadap lebih dari 3.000 orang dewasa, Starling Bank menemukan lebih dari seperempat responden mengaku telah menjadi sasaran penipuan kloning suara AI dalam satu tahun terakhir.
Lebih memprihatinkan lagi, hampir setengah dari mereka tidak mengetahui adanya penipuan semacam ini.
Bahkan, 8% di antaranya menyatakan akan mentransfer uang apabila dihubungi oleh seseorang dengan suara yang terdengar seperti orang yang mereka kenal, meskipun situasinya tampak mencurigakan.