これまではゲームとわかる映像なら問題ありませんでした

Image:Pressmaster/Shutterstock

YouTubeは、ゲーム内の暴力描写やオンラインギャンブルに関するコミュニティガイドラインによる取り組みを強化すると表明した。

11月17日から適用されるこの変更により、18歳未満のアカウントおよびログアウト中のYouTube視聴者は「拷問シーンや非戦闘員に対する集団暴力シーンを中心とするリアルな人間キャラクター」の描写が含まれるビデオゲーム映像の動画視聴が制限される。

規制対象となるゲームコンテンツの具体的な判断材料のひとつは、問題とされるシーンが持続的であるかどうかが挙げられる。編集された動画の場合は、クリップ内の合計継続時間が判断材料とされる。

また、暴力的な映像にズームしていたり、そのシーンの主な焦点になっているなど、暴力的な部分をより目立たせるような映像も規制の対象になる。さらに、暴力描写が本物の人間のようにリアルに見えるキャラクターに対して起こっている場合もこの判断材料に含まれる。

これまでのYouTubeのポリシーでは「一般的に、コンテンツまたはメタデータからそのコンテンツが架空のものであることがわかる場合、またはアニメーションコンテンツやビデオゲームのようにコンテンツ自体からそれが明らかな場合」は規制の対象とはしないことが明記されていた。

しかし、YouTubeの広報担当者であるブート・ブルウィンクル氏は「YouTubeのポリシーは進化するデジタル世界に適応するように設計されており、今回のアップデートは若年層のユーザーを保護し、責任あるプラットフォームを育成するという当社の継続的な取り組みを反映するものだ」とThe Vergeに対し説明した。そしてクリエイターに向けて、暴力シーンをぼかしたり隠したりすることで規制を回避できるだろうと述べている。

海外産ゲームを中心に、メジャーなタイトルでも攻撃を受けた敵キャラクターが四肢損壊するなどの描写は珍しくない。また、ゲーム配信者の多くはライブで視聴者とコミュニケーションを取りながらゲームプレイを配信することが多く、そのような場合はぼかしや修正を映像に加えることは難しい。

最初から18歳以上のログインユーザーのみを対象として配信すれば良いかもしれないが、それだと新規視聴者の獲得が難しくなりそうだ。ゲーム配信者はプレイするゲームの選別が難しくなる可能性もあるかもしれない。

YouTubeは、2025年11月17日より前に投稿された既存のコンテンツが新しいガイドラインに違反している場合は、削除または年齢制限が課される場合があるものの、チャンネルへの違反警告対象にはならないとしている。

また既存のコンテンツに年齢制限が設けられたり、削除されたりした場合は、YouTubeはそのチャンネルのクリエイターに対してメールで通知する。さらにチャンネルに対象となるコンテンツがある場合、クリエイターは動画エディターでトリミングやぼかしなどのツールを用いて必要な変更を加えることができると説明している。

なお、YouTubeは今回ビデオゲームに関するポリシーを厳格化することに加えて、クリエイターがビデオゲームのスキン、コスメティック、NFTなどのデジタル商品を含むオンラインギャンブルコンテンツにユーザーを誘導することも禁止する。

これは、今年3月にGoogleの承認を得ていないオンラインギャンブルサービスに関して、クリエイターが口頭で言及したり表示したりすることを禁止したのに続く動き。今後はソーシャルカジノコンテンツにも年齢制限を設ける予定とのことだ。

ちなみに、ゲーム内容における表現やその販売規制については、日本ではコンピュータエンターテインメントレーティング機構(CERO)、米国ならエンターテインメントソフトウェアレイティング委員会(ESRB)、欧州では汎欧州ゲーム情報(PEGI)など、世界各国または地域のレーティング審査機関が、それぞれの市場における販売・貸与・鑑賞可能な年齢などを定めている。だが、YouTubeなど動画プラットフォームでの配信についてはプラットフォーム側のポリシーやガイドラインが適用されている。

関連キーワード:

Write A Comment