Ngerinya, sekarang sudah bukan hanya tentang tulisan atau suara saja yang memang menjadi salah satu cara untuk menipu lewat AI ini karena kita tahu bahwa suara sekarang sudah bisa diubah hanya dalam beberapa detik saja.
-snip-
Untuk mengubah suara, seharusnya perlu contoh suara dari orang yang akan ditiru. Mungkin, jika kita tidak sering melakukan livestream, membuat video dengan suara kita, seharusnya sih tidak akan bisa ditiru. Selain 2 metode ini, yang paling mungkin adalah via telepon, mungkin pernah ada nomor asing yang menelpon dan dijadikan kesempatan untuk merekamnya agar dapat ditiru. Saya pikir tidak mungkin bisa meniru suara jika tidak memiliki rekaman dari suara kita untuk dijadikan contoh. Sekalipun AI, tidak mungkin bisa tepat.
Justru inilah letak masalahnya mas

anak-anak generasi Z di indonesia selalu hobi dengan
snap video atau
livestream sehingga untuk mendapatkan sebuah sampel suara atau gambar wajah hal seperti ini sangan mudah untuk saat ini.
Sekalipun mungkin terkadang kita juga berhati-hati tetapi bukan berarti kita juga bisa terhindar sepenuhnya dari hal seperti ini karena bisa saja kita menjadi salah satu orang yang di incar dari si penipu sehingga kewaspadaan menjaga diri dan keluarga jelas sangat penting sekarang.
Jangankan dengan penipuan seperti ini, terkadang orang tua yang memang gaptek terkadang masih suka ketipu lewat pesan berantai ataupun telpon yang mengaku saudara yang sedang mengalami musibah apalagi dengan bukti video atau suara yang disamarkan sehingga ini bisa sangat berbahaya.
Tapi ane belum menemukan AI yang benar-benar bisa menirukan suara seseorang dengan suara serupa, sejauh ini saya mencoba belum ada yang benar-benar keakuratan miripnya hingga sama pemilik suara asli 90% lebih.
Jika benar ada, ini sangat berbahaya dan apalagi jika menggunakan telpon seluler biasa, yang pada posisinya kita di perantauan, sementara orang tua di kampung tidak menggunakan telpon android seperti ibu dan ayah saya, korban yang akan lebih banyak sepertinya pada kasus seperti keadaan saya ini, saya harus mengedukasi kedua orang tua saya sepertinya.
Ya saya akaui itu benar, karena ayah saya pernah mengalaminya, hanya karena SMS, dan penipu itu mengatas namakan saya, dan apalagi jika suara dan di tambah lagi sekarang muka juga bisa di manipulasi jika kita memiliki gambarnya, hal ini lebih sering saya temukan di beberapa live streamer dengan menggunakan muka aktor terkenal, mungkin hari ini benar-benar samar tampilannya, tetapi bagi orang tua yang sudah lama tidak bertemu dengan anaknya itu bisa saja percaya, atau kedepannya AI bisa memanipulasi wajah 99%, saya tidak bisa membayangkan bagaimana kedepannya.
Saya rasa ketika bahkan itu berada di 50-70 persen mirip sekalipun itu akan sangat berbahaya karena memang melihat dari kondisi terutama untuk telpon bisa saja ketika kepanikan mulai muncul dari si korban terlepas dari suaranya mirip atau tidak ini akan sangat riskan dan bisa saja tertipu dalam hal ini.
Memang untuk hal seperti ini sepertinya kebanyakan dari korban adalah orang tua karena memang selain dari gaptek, mereka juga jelas menjadi sasaran empuk karena ada beberapa alasan seperti membuat mereka panik serta membuat cerita seolah-olah ada masalah yang terjadi kepada keluarga mereka tentu ini akan sangat rawan. Keluarga mas pernah merasakan penipuan seperti ini bahkan hanya melalui SMS sehingga memang berkaca dari hal ini, ketika sebuah SMS saja bisa menipu apalagi dengan suara atau wajah yang mirip atau sedikit mirip bisa saja ini akan menjadi sebuah senjata yang mematikan untuk mereka para pelaku yang tidak bertanggung jawab.
Kecerdasan AI ini anugrah jika di manfaatkan dengan baik, tetapi potensi di pakai penipu lebih mengerikan.
Ini poin yang bagus karena memang ketika sisi positif ada pasti sisi negatif juga dengan orang-orang yang menyalahgunakan hal seperti ini pasti banyak sehingga semakin teknologi berkembang maka mau tidak mau kita harus lebih mengupgrade diri kita sendiri agar lebih baik lagi supaya kita tidak tertinggal dalam segi pengetahuan dan teknologi serta kita juga tidak bisa dibodohi orang lain.
Selain dari penipuan, ada beberapa masalah lain lagi setelah saya mencoba mencari lebih banyak informasi tentang AI ini seperti dalam salah satu artikel dikatakan bahwa
seseorang bunuh diri karena berinteraksi dan terpengaruh oleh AI selain itu, pemberitaan lama Facebook (saat ini Meta) menghentikan projek AI mereka karena projek yang mereka kembangkan berhasi menciptakan bahasa mereka sendiri yang tidak dimengerti manusia.
https://www.grid.id/read/04138390/ai-buatan-facebook-dimatikan-karena-mulai-menciptakan-bahasa-sendiri-dan-ini-bukan-pertama-kalinya?page=all