FaceItの新しいコミュニティ管理AIは,6週間で2万人のプレイヤーを追放

e-SportsトーナメントプラットフォームFaceItは,Counter-Strikeで有害メッセージ数を20%削減した。

 e-SportsトーナメントプラットフォームFaceItは,新しいコミュニティ管理AIを公開した。これは,すでに2万人の有害なプレイヤーを追放している。

 大規模な有害性に対処するために機械学習で訓練されたMinervaは,Counter-Strike:Global Offensiveの対戦で有害メッセージを取り締まり,その20%を削減した。

 Google CloudとJigsawの支援を受けて開発されたこのプログラムは,過去数か月で2億件以上のチャットメッセージを分析し,700万件を有害だと判定した。

 Minervaは,誤検知を最小限に抑えるためのトレーニングを数か月行ったあと,8月に完全に自動化された。FaceItは,Minervaが試合が終了してからわずか数秒で決定を下し,それに応じて警告または追放を発行できると報告している。

 活動の最初の6週間で,Minervaは口頭での虐待とSPAMに対して9万件の警告と2万件の追放を発行している。Minervaはまた,有害なメッセージを送信するユニークプレイヤー数を約8%削減したという。

 「ゲーム内チャットの検出は,Minervaの応用の初歩で最も単純なものにすぎません。どちらかといえば,このAIの将来像に向けた最初のステップとして役立つケーススタディとなるものです」とFaceItはBlog投稿で述べている(参考URL)。

 「我々は本当に興奮しています。この基盤は,非常に強力であり,リアルタイムであらゆる種類の不正行為を検出して対処するところまでMinervaを改善可能なのです」

※本記事はGamesIndustry.bizとのライセンス契約のもとで翻訳されています(元記事はこちら