こんにちは。弁護士の浅見隆行です。
現在、広告業界では生成AIの活用が急速に進んでいます。
AI広告・AIタレントの活用
博報堂プロダクツは「AIクラフトスタジオ」という専門チームを新設し、2030年には売上高100億円を目指すことが報じられています。
また、ベクトルはAIタレントによる動画制作で、制作時間を最大98%削減できるサービスを開始しています。
AIタレントなら、広告作成時にタレントの予定を抑える必要もなければ、不倫や薬物使用などのスキャンダルの心配もありません。
そのため、製作コストの削減や効率化の観点やタレントによるリスクを回避するために、今後、AIタレントを起用したAI広告が増えることはあっても減ることはありません。
Youtubeを見ていると、AIを利用した楽曲のアレンジなども活発です(最近見つけたチャンネルですが、完成度がすごいです)。
「不自然さ」が招く炎上と企業価値への影響
しかし、AI広告の普及に伴い、新たなリスクも顕在化しています。
以前にもこのブログで取り上げましたが、AIが生成した画像の不自然な描写や違和感が消費者の「不快感」を招き、SNSなどで炎上するケースが相次いで発生しています。
例えば、日本航空(JAL)では、画像内の不自然な表現(ポップコーンにストローが刺さっている、自社カードではないカードを使用している等)が指摘され、公開取り下げや謝罪に追い込まれました。
また、神戸風月堂ではAI画像を使用したことで、投稿内容の事実関係まで疑われる事態となりました。
オランダのマクドナルドではAIで生成した動画CMに批判が殺到して広告を取り下げるなど、海外でも同様にAI広告が炎上する事例が起きているようです。
こうした炎上を放置すれば、企業の信用は低下し、ブランド価値や企業価値に悪影響を及ぼします。
特に、不自然さを見抜けないまま公開したことが原因だとすれば、企業の「チェック体制・リスク管理体制の不備」が批判の対象となります。
リスクを回避するための3つの提案
企業は、AI広告のメリットとリスクとのバランスを確保するために、少なくとも以下の対策を講じることは必要だと思います。
リスクの認識と社内ルールの整備
AIで生成された画像や動画には「不自然さや違和感に対する批判」という特有のリスクがあることを組織の共通理解にすることが最低限必要です。
生成AIが登場した初期に比べると、だいぶ生成技術も向上してきましたが、未だにAIで生成された人物像は妙な照りがあったり、凹凸や表情の不自然さが残っていることがあります。
こうした不自然さは、AI広告を見た人に違和感と不快感を与えます。
また、動画だとなおさら違和感を覚えることが少なくありません。
その上で、生成してよい画像の基準や、AI利用時のガイドラインを社内で定めることが重要です。
多角的な人間によるチェック
AI任せにせず、複数の人間の目によるダブルチェックを実施することも必要です。
人間の指の数、製品の正確な描写、不自然な質感など、AI特有のミスがないかを確認するプロセスが不可欠です。
リスクを認識していたとしても1人がチェックするだけでは気がつきにくい違和感も、複数の人間が見ることで、「この画像、変じゃないか?」「ちょっと不気味なんだけど」という声が上がるかもしれません。
審査プロセスの浸透
ルールやガイドラインを作って終わりでなく、実際に、複数の人間がチェックする審査プロセスを浸透させ、実行してください。
JALの事例でも、審査体制はあったものの、現場まで周知・徹底されていなかったことが課題とされています。
最初は全件チェックを行い、意識が定着してから段階的に調整していく手法も有効です。
AIは画像や動画など広告を製作するには非常に便利ですが、生成された広告を見るのは人間です。
「人の目で見て違和感がないか」という基本を忘れないことが、企業の信頼を守ることに繋がります。