要点

アイントホーフェン工科大学などの研究者らは、新しい研究で、協調フィルタリングに基づいた推薦システムにバイアスがかかっている証拠を発見した。彼らによると、ユーザーがレコメンデーションに基づいて行動し、その行動がシステムに追加されると(フィードバックループとして知られるプロセス)、バイアスが増幅され、集合的な多様性の低下、好みの表現の変化、ユーザー体験の均質化などの別の問題につながるという。


協調フィルタリングは、ユーザーとアイテムの相互作用に関する過去のデータ(例えばテレビ番組のユーザー評価など)を活用して、パーソナライズされたレコメンデーションを生成する技術である。「あなたに類似したグループの人はこの商品もチェックしています」と言う推薦文句に聞き覚えがあるだろう。しかし、協調フィルタリングで提供されるレコメンデーションは、通常、入力データのバイアスやアルゴリズムのバイアスから生じる、特定のユーザーやアイテムグループに対するバイアスに悩まされている。

ユーザーがレコメンデーションと相互作用すると、時間の経過とともにバイアスが強まる可能性があるというのが研究者の主張だ。この理論を検証するために、研究者らは、推薦リストを反復的に生成し、そのリストから項目を追加してユーザーのプロファイルを更新することで、推薦プロセスをシミュレートした。バイアスは、異なる項目についてユーザーが提供した評価と比較して、推薦の人気度が増加する割合を考慮に入れた関数でモデル化された。

実験では、GroupLens研究グループが収集した100万件以上の映画評価のコーパスであるMovieLensデータセットを用いて、レコメンダーシステムの性能を分析した。すでに見た映画を考慮して、最も人気のある映画を全員に推薦するアルゴリズムの場合でも、時間の経過とともにバイアスが増幅され、ユーザーの好みから逸脱してしまうことがわかった。推奨される映画は、ユーザーが興味を持っているものよりも多様なものになっていたり、いくつかの項目に過度に集中していたりする傾向があった。

さらに問題なのは、推奨事項が「強い」均質化の証拠を示したことだ。時間の経過とともに、MovieLensのデータセットには女性ユーザーよりも男性ユーザーからの評価が多く含まれているため、アルゴリズムは女性ユーザーのプロファイルを男性優位の人口に近づけ、結果として女性ユーザーの好みから逸脱した推奨度になった。

偏ったレコメンドシステムに関する別の研究の共著者と同様に、研究者たちはこの問題に対する潜在的な解決策を提案している。彼らは、平均的なプロフィールサイズと評価されたアイテムの人気度に基づいてユーザーをグループ化する戦略と、人気度の偏りを制御するさまざまなアルゴリズムを使用することを提案している。また、研究者らは、ユーザーのプロファイルにすでにあるアイテムの再グレーディングを制限せず、代わりに各反復でアイテムを更新することも提唱している。

「フィードバックループの影響は、一般的に少数派に属するユーザーほど強くなる」と研究者らは書いている。「これらの結果は、推薦システムの現状ではわずかなバイアスであっても、適切に対処しなければ、時間の経過とともに大きく増幅される可能性があるため、人気バイアスに取り組み、推薦の多様性を高めるためのアルゴリズムソリューションの重要性を強調している」。

協調フィルタリングに基づく推薦アルゴリズムは、主にAmazonのような電子商取引サービスで非常に広範に渡り利用されている。ネットフリックスやYouTubeの推薦システムは協調フィルタリングだけではなく、畳み込みニューラルネットを利用したより複雑な手法をとっているため、この研究によって、これらのサービスにも同様のバイアスがあるとは言い切れない。推薦システムがフィルターバブルを生じさせている事に関する研究では、DeepMindの研究者による研究がある。

参考文献

  1. Masoud Mansoury et al. Feedback Loop and Bias Amplification in Recommender Systems. arXiv. 2007.13019.
  2. Zuohui Fu et al. Fairness-Aware Explainable Recommendation over Knowledge Graphs. arXiv 2006.02046.

Photo by Eddy Billard on Unsplash