AIが生成したハリケーンの画像、あなたは見分けられますか?
米国の天気予報と情報を提供する〈FOX WEATHER〉が、ハリケーン〈Idalia〉の偽のAI生成画像に対して注意を促した。 AIによって生成された一連の画像が、FacebookおよびInstagramのアカウントに「Idalia is here」というキャプションで投稿。投稿には数百件の賞賛のコメントがあり、そのアカウントの多くが「Photographer」をたたえていたことが衝撃的である。
〈FOX WEATHER〉の気象学者であるAmy Freeze氏は、「先月、ハリケーンIdaliaが襲来したとき、Facebookに投稿されたAI生成画像は、2300万回の閲覧と18.1万回のシェアされました。これはかなりの数です」と述べた。さらに続けて、「全国気象局がフェイクニュースと同じプラットフォームであるSNSを利用して気象情報を提供しているため、正しい情報と混同する可能性が非常の高い」とAI生成画像の危険性を強調した。
AIイメージが公共の信頼を損なう可能性
フェイクニュースのような悪用事例があると、AI生成画像の技術を色眼鏡で見る視線はより一層増えるだろう。色眼鏡をかけたくなる気持ちもわからないこともない。特に重要な論点として、人命に影響を与える危険性がある自然災害に関わる画像だったために、厳しく批判せざるを得ない。
AI生成画像を共有することには何も問題はないが、投稿者がそれを本物でなくAIによって生成されたものであることを透明にすることが、AI時代を生きる我々の倫理的意識として、今後も重要になってくるだろう。「AI生成画像である | ない」この一文のキャプションで、写真の意味が変わってしまうほど、言語というコンテクストは強力であり、イメージは曖昧なものであるからだ。
歴史から学ぶと、ダイナマイトを兵器に変えてしまったのは、私たち人間である。後世がAI テクノロジーのどのように評し論じるか、それもまた今を生きている私たちに委ねられているのだ。