バイアスを取り除いた「より公平な」製品推薦アルゴリズム
ラトガース大学、カリフォルニア大学、ワシントン大学の研究者たちは、製品推薦アルゴリズムにおける「不公平問題」として特徴づけられているものを緩和するアプローチを提案した。彼らのアルゴリズムは、最先端の実世界のデータセット上で高品質の説明可能な推奨を提供し、いくつかの重要な側面で推奨の不公平性を軽減すると述べている。
要点
プレプリントサーバーarxiv.orgに公開された論文の中で、ラトガース大学、カリフォルニア大学、ワシントン大学の研究者たちは、製品推薦アルゴリズムにおける「不公平問題」として特徴づけられているものを緩和するアプローチを提案した。彼らのアルゴリズムは、最先端の実世界のデータセット上で高品質の説明可能な推奨を提供し、いくつかの重要な側面で推奨の不公平性を軽減すると述べている。
これは公然の秘密であり、AIシステムとそれらが訓練されているコーパスが、しばしば人種、性別、その他のステレオタイプやバイアスを反映していることは周知の事実である。研究者たちは、AIモデルのトレーニングデータの不均衡が原因だとしている。例えば、経済的に恵まれないグループは、不十分なユーザーアイテムの相互作用につながるAmazonやeBayのようなeコマースのプラットフォーム上で大量の商品購入を行うことには消極的である。レコメンデーションシステムは、これらのユーザーとアイテムのインタラクションから学習するため、システムは特定のユーザーを不公平に扱うバイアスを受けることになる。
研究者たちは、構造化された関係性のある知識を保存し、それによって推薦の理由を解明するナレッジグラフベースのシステムに特化してこの問題に対処しようとした。研究者らは、CDとビニール、衣類、携帯電話、美容の4つのカテゴリーについてAmazonのデータセットを調査し、非アクティブなユーザー(何も購入しない人)とアクティブなユーザー(購入者)の違いを分析した。その結果、非アクティブ派がデータセットの過半数(95%)を占めているにもかかわらず、ユーザー項目のデータパターンには多様性がないことがわかった。さらに、アクティブユーザーと比較して、非アクティブユーザーは、もともと生物多様性を評価するために開発され、現在では不公平感を定量化するために使用されているシンプソンの多様性指数(Simpson's Index of Diversity)のスコアがはるかに悪いことを発見した。
研究チームは、ナレッジグラフがユーザーのアイテムパスを適切な推薦信号として考慮しているという観察から、この問題を解決するために、説明可能な推薦のための「公平性を考慮した」ランキングアルゴリズムを提案している。例えば、ある人は同じキーホルダーを購入したので、別の人と同じブレスレットを購入したいと思うかもしれないし、セーターは以前に購入したブランドと一致するので、セーターを検討するかもしれない。異なるグループのユーザーがいる場合、チームのアルゴリズムの目標は、グループの公平性と個人の公平性の制約の下で、各ユーザーのパスをランキングすることで、推薦の品質を最大化することだ。この文脈では、グループの公平性とは、2つのグループのユーザーが同じ確率を維持することを意味し、個人の公平性とは、似たような個人が同じように扱われることを意味する。
研究者のアルゴリズムは以下を考慮しています。
- パススコアは、特にデバイアス加重を組み込むことで、歴史的なユーザーアイテムのインタラクションデータを支配する種類を超えて、より多様なパスのセットを考慮している。
- 多様性スコア:各ユーザーアイテムのペアについて、説明可能なパスの多様性に関する公平性を考慮した多様性スコア。
- レコメンデーションスコア ユーザーとアイテム間のプリファレンススコアを計算するレコメンデーションスコア。
- ランク付け スコア 推薦スコアとフェアネススコアに基づいて、項目を提示する順番を決定するためのランク付けスコア。
前述のAmazonのデータセットを用いた実験では、ベースラインの推薦システムと比較して、推薦効果と公平性の両方の面で向上したという。衣類のデータセットでは、ベンチマークとしたバニラシステムの2.856%に対し、正規化割引累積利得(正しく推奨されたアイテムの位置を考慮してランキングの質を評価する)で3.101%を達成し、グループの不公平感を1.410%から0.233%に減少させながら、より多くの正しい推奨を見つけることができた。
共著者たちは、自分たちのアルゴリズムが最もアクティブなユーザーのために性能を犠牲にしたことを認めているが、非アクティブなユーザーのために性能を向上させたことを考えると、これは許容できるトレードオフだと考えている。
「本研究では、ナレッジグラフ上の最新の説明可能な推薦アルゴリズムの文脈において、フェアネスという顕著な問題を研究しています...最近の2つの最新のベースライン手法にフェアネスを考慮したアルゴリズムを採用した後、元の手法よりも実質的に優れた推薦結果を得ることができたことは、かなり注目に値します」と共著者らは記述している。「我々のアルゴリズムは、より多様な推論経路をユーザーに提供できるように経路分布を適応させることで、現在の説明可能な推薦手法の可能性をよりよく利用していると推測しています。非活動的なユーザーは、ユーザーの可視性が低く同質なユーザーとのインタラクションのために偏見に満ちた扱いを受けるため、我々の公平性を考慮したアルゴリズムの下では、より多くの恩恵を受ける傾向があります」。
参考文献
- Masoud Mansoury et al. Feedback Loop and Bias Amplification in Recommender Systems. arXiv. 2007.13019.
- Zuohui Fu et al. Fairness-Aware Explainable Recommendation over Knowledge Graphs. arXiv 2006.02046.
Photo by Meghan Schiereck on Unsplash