Ngerinya, sekarang sudah bukan hanya tentang tulisan atau suara saja yang memang menjadi salah satu cara untuk menipu lewat AI ini karena kita tahu bahwa suara sekarang sudah bisa diubah hanya dalam beberapa detik saja.
-snip-
Untuk mengubah suara, seharusnya perlu contoh suara dari orang yang akan ditiru. Mungkin, jika kita tidak sering melakukan livestream, membuat video dengan suara kita, seharusnya sih tidak akan bisa ditiru. Selain 2 metode ini, yang paling mungkin adalah via telepon, mungkin pernah ada nomor asing yang menelpon dan dijadikan kesempatan untuk merekamnya agar dapat ditiru. Saya pikir tidak mungkin bisa meniru suara jika tidak memiliki rekaman dari suara kita untuk dijadikan contoh. Sekalipun AI, tidak mungkin bisa tepat.
Justru inilah letak masalahnya mas

anak-anak generasi Z di indonesia selalu hobi dengan
snap video atau
livestream sehingga untuk mendapatkan sebuah sampel suara atau gambar wajah hal seperti ini sangan mudah untuk saat ini.
Sekalipun mungkin terkadang kita juga berhati-hati tetapi bukan berarti kita juga bisa terhindar sepenuhnya dari hal seperti ini karena bisa saja kita menjadi salah satu orang yang di incar dari si penipu sehingga kewaspadaan menjaga diri dan keluarga jelas sangat penting sekarang.
Jangankan dengan penipuan seperti ini, terkadang orang tua yang memang gaptek terkadang masih suka ketipu lewat pesan berantai ataupun telpon yang mengaku saudara yang sedang mengalami musibah apalagi dengan bukti video atau suara yang disamarkan sehingga ini bisa sangat berbahaya.
Tapi ane belum menemukan AI yang benar-benar bisa menirukan suara seseorang dengan suara serupa, sejauh ini saya mencoba belum ada yang benar-benar keakuratan miripnya hingga sama pemilik suara asli 90% lebih.
Jika benar ada, ini sangat berbahaya dan apalagi jika menggunakan telpon seluler biasa, yang pada posisinya kita di perantauan, sementara orang tua di kampung tidak menggunakan telpon android seperti ibu dan ayah saya, korban yang akan lebih banyak sepertinya pada kasus seperti keadaan saya ini, saya harus mengedukasi kedua orang tua saya sepertinya.
Ya saya akaui itu benar, karena ayah saya pernah mengalaminya, hanya karena SMS, dan penipu itu mengatas namakan saya, dan apalagi jika suara dan di tambah lagi sekarang muka juga bisa di manipulasi jika kita memiliki gambarnya, hal ini lebih sering saya temukan di beberapa live streamer dengan menggunakan muka aktor terkenal, mungkin hari ini benar-benar samar tampilannya, tetapi bagi orang tua yang sudah lama tidak bertemu dengan anaknya itu bisa saja percaya, atau kedepannya AI bisa memanipulasi wajah 99%, saya tidak bisa membayangkan bagaimana kedepannya.
Kecerdasan AI ini anugrah jika di manfaatkan dengan baik, tetapi potensi di pakai penipu lebih mengerikan.