Blueskyのモデレーションレポート2023読んだ。 ・外部ベンダーに頼らず、フルタイムのモデレーターチームを直接雇用している ・現在は人間がすべてのレポートをレビュー。必要に応じて警告メール送信、ラベル付け、コンテンツやアカウントの削除などの介入を実施 ・2023年は35万件のレポートをレビュー、4667アカウントを削除 ・多数の自動検出ツール。特に児童の性的虐待には当局や外部の非営利ベンダーとも連携 ・モデレーションリストやセルフラベル、返信制限などの機能開発に取り組んだ ・自分についたラベルへの異議申し立て機能はベータ品質で提供 ・サポートツールはOzoneとしてオープンソース化予定
Safety is core to social media. Transparency is essential to building trust in moderation efforts, and the data we are providing here is a first step towards full transparency reports. We hope this provides some visibility, and we intend to deliver more granular data and reporting in the future.
We have hired and trained a full-time team of moderators, launched and iterated on several community and individual moderation features, developed and refined policies both public and internal, design...
えぇ、手動だったのか……AIかましてるって外国の人がいってたのに……