Ngerinya, sekarang sudah bukan hanya tentang tulisan atau suara saja yang memang menjadi salah satu cara untuk menipu lewat AI ini karena kita tahu bahwa suara sekarang sudah bisa diubah hanya dalam beberapa detik saja.
-snip-
Untuk mengubah suara, seharusnya perlu contoh suara dari orang yang akan ditiru. Mungkin, jika kita tidak sering melakukan livestream, membuat video dengan suara kita, seharusnya sih tidak akan bisa ditiru. Selain 2 metode ini, yang paling mungkin adalah via telepon, mungkin pernah ada nomor asing yang menelpon dan dijadikan kesempatan untuk merekamnya agar dapat ditiru. Saya pikir tidak mungkin bisa meniru suara jika tidak memiliki rekaman dari suara kita untuk dijadikan contoh. Sekalipun AI, tidak mungkin bisa tepat.
Beberapa hari kebelakang saya mendapatkan telepon dari 2 teman saya, mereka memberitahu saya bahwa ada seseorang yang mencoba menipu mereka melalui telepon seluler dengan mengatas namakan saya bahkan penipu tersebut mengetahui dengan detail informasi tentang saya agar mereka dapat memastikan kepada teman saya bahwa itu memang saya. Dan teman saya mengaku bahwa suara penipu tersebut sama persis dengan suara saya.
-snip-
Untuk detail informasi, kemungkinannya dari KYC atau membeli data, kita tahu sendiri jual beli data di Indonesia itu cukup marak