ベルギー・ブリュッセル – EU規制当局は、Meta Platformsの Facebook とInstagramが4月29日(水)、EUの画期的なテクノロジー規制に違反したとして告発され、13歳未満の子どもたちがソーシャルネットワークにアクセスするのをブロックするためにさらなる措置を講じなければならないと発表した。
この告発、いわゆるデジタルサービス法(DSA)に基づく予備的調査結果は、大手テクノロジー企業がプラットフォーム上の違法・有害コンテンツへの対策を強化することを義務付けるものであり、欧州委員会による2年間の調査を経て発表された。
予備的調査結果に異議を唱えるとしたMetaは、欧州委員会が最終決定を下す前に告発に回答し、措置を講じることができる。DSA違反により、企業は世界年間売上高の最大6%の罰金を科される可能性がある。
EUのこの動きは、子ども、企業、政府に対するソーシャルメディアの影響に関する世界的な懸念の高まりを背景に、大手テクノロジー企業に対してより積極的かつ効果的な措置を講じるよう求める声が高まる中で行われた。
EUのテクノロジー規制当局は、Metaが13歳未満の子どもによる Facebook およびInstagramの利用制限を十分に執行しておらず、サービスにアクセスした際に子どもを特定・削除するための措置が不十分だったと指摘した。
ヨーロッパにおける13歳未満の子どもの10%〜12%が Facebook とInstagramを利用していると述べた。
「我々の予備的調査結果は、InstagramとFacebookがこの年齢未満の子どもたちのサービスへのアクセスを防ぐための取り組みがほとんどできていないことを示しています」と、EU技術担当最高責任者のHenna Virkkkunenは声明の中で述べた。
「利用規約は単なる書面上の記述であってはならず、ユーザー(子どもを含む)を守るための具体的な行動の基盤となるべきです」と彼女は述べた。
Metaは、13歳未満の子どものアカウントを検出・削除するための措置を講じており、来週追加措置を発表すると述べた。
「年齢の確認は業界全体の課題であり、業界全体での解決策が必要です。この重要な問題について欧州委員会と建設的に協議を続けていきます」とMetaの広報担当者は述べた。
欧州委員会は、両プラットフォームがリスク評価の方法論を変更し、サービスからの未成年者の参入防止、検出、削除のための措置を強化する必要があると述べた。
規制当局が依然として十分な対応がなされていないと判断した場合、罰金を科すことができるが、そのステップは数か月先になるとみられる。– Rappler.com


