
未成年者がオンラインで直面する身体的・精神的な健康リスクをふまえて、欧州議会がソーシャルメディアプラットフォーム(≒SNS)の利用を最低でも16歳からに統一する案を賛成多数で採択しました。この案の他にも、未成年者保護を目的とした複数の措置を欧州委員会に対して要請しています。
Children should be at least 16 to access social media, say MEPs | News | European Parliament
https://www.europarl.europa.eu/news/en/press-room/20251120IPR31496/children-should-be-at-least-16-to-access-social-media-say-meps

EU域内市場・消費者保護委員会のクリステル・シャルデモース氏の報告によると、若者の97%は毎日何らかの形でオンラインになっており、特に13歳から17歳の若者の78%は少なくとも1時間ごとにスマホなどの端末を確認しているとのこと。4人に1人は「スマートフォン依存症」をうかがわせるような利用実態だそうです。
EUの世論調査である「Eurobarometer」では、EU市民の90%以上が、オンライン上の子どもの保護政策が緊急課題であると考えていて、「ソーシャルメディアによるメンタルヘルスへの悪影響」「ネットいじめ」「年齢に不適切なコンテンツへのアクセス制限の有効な対策」が求められています。
こうした状況を受ける形で、欧州議会は「未成年者をオンライン環境で適切に守っていくための提案」として、EU域内でSNS利用の最低年齢を16歳に統一する案を賛成483人、反対92人、棄権86人の賛成多数で採択しました。この案では、13歳から16歳の子どもは親の同意を得ればSNSの利用が可能です。
欧州委員会は先行する形で「EU年齢確認アプリ」の開発を進めています。また、「欧州デジタルIDウォレット」実現に向けた施策も進められています。
子どもをオンラインで保護するための年齢確認アプリのプロトタイプをEUが発表、フランス・スペイン・イタリア・デンマーク・ギリシャからテスト開始 – GIGAZINE

欧州議会は欧州委員会による取り組みを支持した上で、年齢確認システムの正確性と未成年者のプライバシー保護を強く求め、これらの施策は、プラットフォーム事業者に課せられた「製品設計段階での安全性・年齢適応性の確保」という責任を免除するものではないと釘を刺しました。
EUのデジタルサービス法(DSA)や関連法規を守ってもらうという観点からは、未成年者保護と年齢確認に関して、重大かつ継続的な法令違反が発生した場合、経営陣幹部の個人的責任を問うことも示唆されたとのことです。
なお、最低年齢制限のほかは、以下のような事項が要請されています。
・未成年者に対する中毒性の高い慣行の禁止、およびその他中毒性のある機能のデフォルトでの無効化。無限スクロール、自動再生、プル・トゥ・リフレッシュ(引っ張って更新)、有害なゲーミフィケーションを含む。
・EU規則に準拠しないサイトの禁止。
・近々施行される「デジタル公正法(Digital Fairness Act:DFA)」に基づく、ターゲティング広告、インフルエンサーマーケティング、中毒性のあるデザイン、ダークパターンなどの勧誘技術に対処する措置。
・未成年者向けのエンゲージメントベースのレコメンデーションシステムの禁止。
・オンライン動画プラットフォームへのDSA規則適用、およびルートボックスやその他ランダム化ゲーム機能の禁止。具体的にはアプリ内通貨、ガチャ、「Pay-to-Progress」(課金によるゲーム進行の高速化)など。
・未成年者の商業的搾取からの保護。キッズインフルエンサー活動への金銭的インセンティブ提供の禁止など。
・ディープフェイク、コンパニオンボットチャット、AIエージェント、ヌード画像生成AIアプリなど、生成AIツールによって起きる倫理的・法的課題への緊急対応。
この記事のタイトルとURLをコピーする

WACOCA: People, Life, Style.