インスタグラムとフェイスブックのオーナーであるメタ・プラットフォームズ・インク(NASDAQ:META)は、自社のプラットフォームにおける子どもの安全問題に取り組んでいます。
6月に設立されたタスクフォースなどの努力にもかかわらず、Metaは小児性愛者アカウントのネットワークを抑制するのに苦労しています。
関連記事:アルゴリズム対データ:Googleの独占禁止法裁判がオンライン支配をめぐる戦いを定義づける
Instagramのアルゴリズムは、未成年者のセックスコンテンツの作成と取引に関わるアカウントを結びつけたと報告されています。
ウォール・ストリート・ジャーナルとカナダ児童保護センターは、最近の調査結果を引用して、メタの推薦システムが引き続きこのようなコンテンツを宣伝していると述べています。
メタは問題のあるハッシュタグやアカウントを削除したが、その取り組みには一貫性がなく、禁止コンテンツの新たなバリエーションが出現している、とWSJは指摘する。
この問題はFacebookグループにも及んでおり、そこでは大規模なグループが子供を性的に扱っており、Metaのアルゴリズムは同様のグループを提案することが多い。
Metaの広報担当者はWJSに対し、同社は多数のグループを非表示にし、アカウントを無効化しているが、進展は期待以上に遅いと話した。
同社は、小児性愛者同士のアルゴリズム的なつながりを制限するためのツールを強化し、小児性愛者を引き付けるフォーラムをターゲットにしています。
しかし、より広範なコスト削減により、児童安全の専門家を含む安全スタッフの一時解雇につながっています。
WSJの以前のレポートによると、Instagramのアルゴリズムは、性的な動画を含む不適切なコンテンツを特定のユーザープロフィールに推奨していたことも示されていました。
価格動向:金曜日の最終チェックで、META株は市販前に325.29ドルで0.54%下落しました。
免責事項:このコンテンツの一部はAIツールの助けを借りて作成され、Benzinga編集者によってレビューおよび公開されました。
メ
メタ・プラットフォームズ Ordinary Shares Class A
576.74
-25.84 -4.29%