-snip-
Ataupun ada cara lainnya untuk mengantisipasi dan meminimalisir dampak negatif dari suatu program, saya sangat menunggunya..?
Dampak negatif dari teknologi sejatinya minim mas, namun sesuai dengan yang mas katakan "perlunya literasi" agar tidak mudah percaya dengan apa pun yang diterima, baik itu surat fisik, pesan email dan sebagainya. Jika ini sudah dilakukan, saya yakin kita dapat terhindar dari penipuan baik yang menggunakan AI maupun teknologi tradisional lainnya. Saat ini ada banyak tools yang bisa digunakan untuk mengecek teks yang dihasilkan dari generated AI, mungkin bisa dicek terlebih dahulu. Bahkan, seandainya dari hasil pengecekan memiliki nilai 80%, artinya ada 20% kemungkinan itu palsu, solusi terbaiknya adalah dengan munghubungi institusi/organisasi/personal yang mengirimkan informasi tersebut.
Penggunaan teknologi untuk tujuan ilegal bisa dibilang cukup mengkhawatirkan, khususnya bidang AI dalam hal generative AI.
Penipuan menggunakan kloning suara seperti yang dibahas di atas merupakan salah satu dampaknya. Isu lain ada (spear) phising, disinformasi, dan NCII(Nonconsensual intimate imagery). Menumbuhkan digital literasi dan pengetahuan memang salah satu solusi inti untuk menanggulangi efek negatif tersebut. Namun, bergantung pada tools untuk mendeteksi hal tersebut masih kurang efektivitasnya.
Tool untuk ngecek apakah tulisan asli atau hasil AI masih kurang efektif.[1] Lalu perkembangan tools untuk mendeteksi generative AI, di sisi lain, akan memacu perkembangan generative AI text/visual yang jauh lebih baik.
Selain perlunya literasi, ada hal lainnya yang bisa dilakukan untuk meminimalisir dampak negatif tersebut. Contoh kecilnya, regulasi/moderasi yang jelas dari pemerintah maupun platform media sosial atau sistem watermark langsung dari hasil model AI-nya.
[1]
https://openai.com/blog/new-ai-classifier-for-indicating-ai-written-text