Justru inilah letak masalahnya mas

anak-anak generasi Z di indonesia selalu hobi dengan
snap video atau
livestream sehingga untuk mendapatkan sebuah sampel suara atau gambar wajah hal seperti ini sangan mudah untuk saat ini.
Sekalipun mungkin terkadang kita juga berhati-hati tetapi bukan berarti kita juga bisa terhindar sepenuhnya dari hal seperti ini karena bisa saja kita menjadi salah satu orang yang di incar dari si penipu sehingga kewaspadaan menjaga diri dan keluarga jelas sangat penting sekarang.
Jangankan dengan penipuan seperti ini, terkadang orang tua yang memang gaptek terkadang masih suka ketipu lewat pesan berantai ataupun telpon yang mengaku saudara yang sedang mengalami musibah apalagi dengan bukti video atau suara yang disamarkan sehingga ini bisa sangat berbahaya.
bagaimana pun livestream juga sumber cuan mas, saya kalau lihat tiktoker, bisa dapat Rp7jutaan dalam beberapa jam live. Makanya banyak yang memilih untuk livestream. Saya sih ikut2an, namun nahas ga dapat cuan ngabisin data

cuma jarang ngomong sih ga sePD ngetik.
Memang, berhati-hati itu perlu, kalaupun kesandung itu adalah hal yang bukan bagian dari rencana kita. Setidaknya, kalau kita hati-hati ada langkah yang sudah dilakukan agar tidak tertipu ataupun dimanfaatkan penipu.
Tapi ane belum menemukan AI yang benar-benar bisa menirukan suara seseorang dengan suara serupa, sejauh ini saya mencoba belum ada yang benar-benar keakuratan miripnya hingga sama pemilik suara asli 90% lebih.
Bisa masuk akal mas untuk meniru 90%, kita tahu suara kita ini ada apa itu istilahnya "tone" gitu ya (koreksi), kita bisa ngerubah suara setelah digenerate AI menjadi suara yang lebih mirip melalui editing. Tak ada bedanya kan dengan ngedit video dari greenscreen. Ini menurut saya saja, jadi meskipun mas ga menemukan suara yang mirip, namun jika menemukan kombinasi suara, pasti bisa membuat kemiripan. Silakan dikoreksi jika teori saya ini salah.