AI生成コンテンツはどこにでもあるようになってきており、特に速報に関しては、事実とフィクションを見分けることがますます難しくなっています。イラン戦争を見ればわかります。米国とイスラエルが2月28日にイランを攻撃して以来、研究者たちは、人工知能を使って生成され、世界中の無数の人々に届いている、前例のない数の偽りの誤解を招く画像を特定しました。その中には、起きなかった爆撃のフェイク映像、捕らえられたとされる兵士の画像、そしてドナルド・トランプ大統領や他の人物をブロック状でレゴのようなミニチュアとして描く、イランによるプロパガンダ動画があります。 本日、第10回目のInternational Fact-Checking Day(国際フェクトチェックデー)は、こうした進化する課題を見つめ直す良い機会を提供します。 AIで作られた誤情報は、無数の情報源から前例のない速さで共有されています。イラン戦争の当初から、紛争のあらゆる陣営のアカウントが、こうしたコンテンツを宣伝していました。 Disinformation(偽情報)やオンラインの過激主義を追跡するInstitute for Strategic Dialogue(戦略対話研究所)は、イラン戦争をめぐるソーシャルメディアの投稿を調査しています。彼らの調査結果の中には、AI生成コンテンツを定期的に投稿しており、紛争が始まって以来、合計で10億回以上の再生(ビュー)を獲得したXアカウントのグループがありました。これは、およそ2ダース(約24)ものアカウントによって行われ、その多くは青いチェックの認証を持っていました。 ここでは、AI生成コンテンツを、今後ますます見分けにくくなるオンラインの現実から区別するためのヒントを紹介します。 関連ストーリー FACT FOCUS: トランプがイランについて国民に語ったときに行った誤った主張 4 MIN READ 24 オイルは上昇、トランプが「米国はイランを強く叩きつけ、‘仕事を片付ける’」と言った後、アジア株は下落 2 MIN READ トランプが国民に行った演説の全文トランスクリプトを読む 13 MIN READ AIのビジュアル上の手がかりを探す--------------------AI生成画像がオンラインで広く出回り始めた当初は、それらを「でっち上げ」として見分けるための、しばしば分かりやすい手がかりがありました。たとえば、ある人物の指が少なすぎる(または多すぎる)とか、声が口の動きと同期していないといったケースがありました。文章が支離滅裂なこともありました。物体が歪んでいたり、重要な構成要素が欠けていたりすることも頻繁でした。技術が進化し続けるにつれて、こうした手がかりは昔ほど一般的ではなくなっていますが、それでも見ておく価値はあります。たとえば、ある瞬間は動画に映っている車が次の瞬間には消えている、あるいは物理法則に照らして不可能な行動が起きているといった不整合に注目してください。また、画像が過度に磨き込まれていたり、不自然なテカりがあったりすることもあります。 出どころを探す-----------------AI生成画像は、何度も何度も共有されます。それらの信ぴょう性(または信ぴょう性の欠如)を判断する一つの方法は、出どころを突き止めることです。リバース画像検索は、そのための簡単な手段です。動画を見ている場合は、まずスクリーンショットを撮ってください。そこから、特にAIコンテンツを生成することを目的としたソーシャルメディアアカウント、誤って伝えられている古い画像、あるいはまったく予想外の何かが見つかることがあります。専門家を頼りにする---------------------画像を本物と裏付けるのに役立つ、複数の検証済みソースを探しましょう。たとえば、信頼できるメディアによるファクトチェック、著名人からの声明、誤情報の専門家によるソーシャルメディア投稿などがそれに当たります。こうしたソースは、AI生成コンテンツを特定するためのより高度な手法を持っていたり、一般の人々がアクセスできない画像に関する情報に接していたりする可能性があります。 テクノロジーを活用する----------------------AI検出ツールには、始めるうえで役立つものがたくさんあります。しかし、評価が常に正しいわけではないため注意してください。GoogleのGeminiアプリで、AIにより生成または加工された画像には、アプリが検出できる「SynthID」という目に見えないデジタル透かしのツールが含まれています。ほかのAI制作ツールでは、生成したコンテンツに目に見えるウォーターマークを追加しているものもあります。ただし、それらはしばしば簡単に取り除けるため、そのようなウォーターマークがないことは画像が本物である証拠にはなりません。 少し立ち止まる---------ときには、基本に立ち返るだけの話です。止まって、少し呼吸をして、ほんとうかどうか分からないものをすぐに共有しないでください。悪意のある人物は、人々が感情や既存の見方に導かれて、コンテンツへの反応を決めてしまうことにしばしば頼っています。コメントを見ることで、あなたが見ている画像が本物かどうかの手がかりが得られるかもしれません。別のユーザーが、あなたが気づかなかった点に気づいていたり、元の出どころを見つけられていたりすることもあります。しかし結局のところ、画像がAIによって生成されたものかどうかを100%の正確さで判定することは常に可能とは限らないため、それが本物ではない可能性に対して警戒を続けてください。偽に見える、または誤解を招くものを見つけましたか? [email protected] までメールしてください。___APのファクトチェックはこちら:
今日は国際ファクトチェックデーです。あなたのAI識別スキルをリフレッシュしましょう。
AI生成コンテンツはどこにでもあるようになってきており、特に速報に関しては、事実とフィクションを見分けることがますます難しくなっています。
イラン戦争を見ればわかります。米国とイスラエルが2月28日にイランを攻撃して以来、研究者たちは、人工知能を使って生成され、世界中の無数の人々に届いている、前例のない数の偽りの誤解を招く画像を特定しました。その中には、起きなかった爆撃のフェイク映像、捕らえられたとされる兵士の画像、そしてドナルド・トランプ大統領や他の人物をブロック状でレゴのようなミニチュアとして描く、イランによるプロパガンダ動画があります。
本日、第10回目のInternational Fact-Checking Day(国際フェクトチェックデー)は、こうした進化する課題を見つめ直す良い機会を提供します。
AIで作られた誤情報は、無数の情報源から前例のない速さで共有されています。イラン戦争の当初から、紛争のあらゆる陣営のアカウントが、こうしたコンテンツを宣伝していました。
Disinformation(偽情報)やオンラインの過激主義を追跡するInstitute for Strategic Dialogue(戦略対話研究所)は、イラン戦争をめぐるソーシャルメディアの投稿を調査しています。彼らの調査結果の中には、AI生成コンテンツを定期的に投稿しており、紛争が始まって以来、合計で10億回以上の再生(ビュー)を獲得したXアカウントのグループがありました。これは、およそ2ダース(約24)ものアカウントによって行われ、その多くは青いチェックの認証を持っていました。
ここでは、AI生成コンテンツを、今後ますます見分けにくくなるオンラインの現実から区別するためのヒントを紹介します。
24
AIのビジュアル上の手がかりを探す
AI生成画像がオンラインで広く出回り始めた当初は、それらを「でっち上げ」として見分けるための、しばしば分かりやすい手がかりがありました。たとえば、ある人物の指が少なすぎる(または多すぎる)とか、声が口の動きと同期していないといったケースがありました。文章が支離滅裂なこともありました。物体が歪んでいたり、重要な構成要素が欠けていたりすることも頻繁でした。技術が進化し続けるにつれて、こうした手がかりは昔ほど一般的ではなくなっていますが、それでも見ておく価値はあります。たとえば、ある瞬間は動画に映っている車が次の瞬間には消えている、あるいは物理法則に照らして不可能な行動が起きているといった不整合に注目してください。また、画像が過度に磨き込まれていたり、不自然なテカりがあったりすることもあります。
出どころを探す
AI生成画像は、何度も何度も共有されます。それらの信ぴょう性(または信ぴょう性の欠如)を判断する一つの方法は、出どころを突き止めることです。リバース画像検索は、そのための簡単な手段です。動画を見ている場合は、まずスクリーンショットを撮ってください。そこから、特にAIコンテンツを生成することを目的としたソーシャルメディアアカウント、誤って伝えられている古い画像、あるいはまったく予想外の何かが見つかることがあります。
専門家を頼りにする
画像を本物と裏付けるのに役立つ、複数の検証済みソースを探しましょう。たとえば、信頼できるメディアによるファクトチェック、著名人からの声明、誤情報の専門家によるソーシャルメディア投稿などがそれに当たります。こうしたソースは、AI生成コンテンツを特定するためのより高度な手法を持っていたり、一般の人々がアクセスできない画像に関する情報に接していたりする可能性があります。
テクノロジーを活用する
AI検出ツールには、始めるうえで役立つものがたくさんあります。しかし、評価が常に正しいわけではないため注意してください。GoogleのGeminiアプリで、AIにより生成または加工された画像には、アプリが検出できる「SynthID」という目に見えないデジタル透かしのツールが含まれています。ほかのAI制作ツールでは、生成したコンテンツに目に見えるウォーターマークを追加しているものもあります。ただし、それらはしばしば簡単に取り除けるため、そのようなウォーターマークがないことは画像が本物である証拠にはなりません。
少し立ち止まる
ときには、基本に立ち返るだけの話です。止まって、少し呼吸をして、ほんとうかどうか分からないものをすぐに共有しないでください。悪意のある人物は、人々が感情や既存の見方に導かれて、コンテンツへの反応を決めてしまうことにしばしば頼っています。コメントを見ることで、あなたが見ている画像が本物かどうかの手がかりが得られるかもしれません。別のユーザーが、あなたが気づかなかった点に気づいていたり、元の出どころを見つけられていたりすることもあります。しかし結局のところ、画像がAIによって生成されたものかどうかを100%の正確さで判定することは常に可能とは限らないため、それが本物ではない可能性に対して警戒を続けてください。
偽に見える、または誤解を招くものを見つけましたか? [email protected] までメールしてください。
APのファクトチェックはこちら: