Bisakah Anda Membedakan Gambar Badai yang Dihasilkan oleh AI?
〈FOX WEATHER〉, penyedia prakiraan cuaca dan informasi di Amerika Serikat, memperingatkan tentang gambar palsu badai Idalia yang dihasilkan oleh AI. Serangkaian gambar yang dihasilkan AI diposting di akun Facebook dan Instagram dengan keterangan 'Idalia is here'. Postingan tersebut mendapat ratusan komentar pujian, dan banyak akun yang memuji 'Fotografer', yang cukup mengejutkan.
Amy Freeze, seorang ahli meteorologi dari 〈FOX WEATHER〉, menyatakan, 'Bulan lalu, ketika badai Idalia melanda, gambar yang dihasilkan AI yang diposting di Facebook dilihat 23 juta kali dan dibagikan 181 ribu kali. Ini adalah angka yang cukup besar.' Dia menambahkan, 'Karena National Weather Service menggunakan platform yang sama dengan berita palsu, yaitu media sosial, ada kemungkinan tinggi untuk membingungkan informasi yang benar,' menekankan bahaya gambar yang dihasilkan AI.
Kemungkinan AI Image Merusak Kepercayaan Publik
Dengan adanya kasus penyalahgunaan seperti berita palsu, pandangan skeptis terhadap teknologi gambar yang dihasilkan AI akan semakin meningkat. Tidak sulit untuk memahami keinginan untuk bersikap skeptis, terutama karena gambar tersebut terkait dengan bencana alam yang dapat mempengaruhi nyawa manusia, sehingga kritik keras tidak dapat dihindari.
Tidak ada masalah dalam berbagi gambar yang dihasilkan AI, tetapi penting bagi pengunggah untuk transparan bahwa itu bukan gambar asli melainkan dihasilkan oleh AI. Ini akan menjadi kesadaran etis kita di era AI. Kalimat sederhana 'Ini adalah gambar yang dihasilkan AI | Bukan' dapat mengubah makna foto, karena konteks bahasa sangat kuat dan gambar bersifat ambigu.
Belajar dari sejarah, kitalah manusia yang mengubah dinamit menjadi senjata. Bagaimana generasi mendatang akan menilai dan membahas teknologi AI juga bergantung pada kita yang hidup di masa kini.