
コロラド州の生命保険でAI規制が試練に直面
規制当局が差別や偏見から消費者を守ろうとする中、生命保険業界は人工知能を活用したアルゴリズムやモデルの使用に関する厳格な規則を適用される最初の分野の1つになる可能性がある。
(ブルームバーグ) -- 規制当局が差別や偏見から消費者を守ろうとする中、生命保険業界は人工知能を活用したアルゴリズムやモデルの使用に関する厳格な規則を適用される最初の分野の1つになる可能性がある。
コロラド州保険局は先月、州認可の生命保険会社に対し、使用するすべてのAIモデルの目録を提供し、アルゴリズムの展開方法について厳格な管理原則を確立し、重大な監視と報告義務を課す新しい規則を提案した。
「私たちの中心的な目標は、人々が差別されていないことを確認することだ」とコロラド州保険委員会のマイケル・コンウェイは述べている。「そのためには、保険会社がビッグデータ全般をどのように活用するかについて、保険会社自身の筋肉を鍛え上げる必要がある」
OpenAIのChatGPTのような生成型AIツールの急成長は、従業員の採用から賃貸の申し込みまで、企業がビッグデータをどのように利用できるのか、規則の作成にすでに苦慮している規制当局に火をつけた。欧州や米国では、アルゴリズムによる差別の問題に対処し、連邦レベルでAIツールに関するセーフガードを策定する機運が高まっている。しかし、専門家によれば、AIに関する最もきめ細かいルール、そして企業にとって重要な効果をもたらすルールは、州レベルで、業界ごとに行われることになるという。
「これは、保険だけでなく、一般的に思うに、AIガバナンスのための最初の包括的な規制ルールです」と、法律事務所Debevoise & Plimptonのデータ戦略およびセキュリティプログラムの共同議長であるAvi Gesserは述べている。「ChatGPTによって、一部の規制当局がAI問題により迅速に動き、誰がこのことについて熟考してきたのかと問われた。周囲を見渡すと、彼らがコロラドに目を向けたとしても、私は驚かない」
生命保険会社は、何年も前から引受プログラムに自動化ツールを活用してきた。Covid-19のパンデミックでは、顧客が対面での健康診断をほとんど受けられなかったため、保険会社は、クレジットカードの取引から裁判記録まで、顧客データを利用して保険の価格設定や販売を行う方法に興味を持った。
2021年までに、生命保険会社の91%が完全または部分的に自動化された引受プログラムを導入しており、2019年の62%から増加していると、保険業界調査会社Limraの広報担当者であるCatherine Therouxは述べている。マッキンゼーが2020年に調査した生命保険会社では、引受を含むサービスの特定の側面をデジタル化すると、2年以内に販売量が中央値で14%増加したという。

今年後半に採択が予定されているコロラド州の規制は、人種、宗教、性別、その他の社会的カテゴリーに基づく保険契約の不当な差別から消費者を保護するために2021年に制定された州法によって義務づけられたものである。この規制に関する公開の関係者会議では、保険会社は、過度に負担が大きく、より多くの保険が必要な人や希望する人にはほとんど利益をもたらさない政策であると説明して反発している。
調査会社リムラによれば、1億人以上のアメリカ人成人が生命保険に加入していることを認めているが、高騰するインフレが家計を圧迫しているため、個人向け保険の売上は大流行時の最高値から減少している。
業界ロビー団体American Council of Life InsurersのシニアアクチュアリーBrian Bayerleは、「今回の提案は、人々が保険にアクセスする機会を提供する技術の利用を妨げることになるだろう」とEメールで述べている。「これは、保険会社が独自に、あるいは第三者の貢献によってイノベーションを起こす能力を冷え込ませることになるだろう」。
保険業界を研究する人々は、この規制は、オンライン健康記録などの機密性の高いデータにアクセスする民間企業の説明責任に向けた重要な一歩であると言う。
「特にエンロン以降、何か問題が起きたときに誰が責任を負うかを決めること、つまりモデルや出力を証明するために誰かに名前を書いてもらうことが重要になりました」と、生命保険におけるAIを活用した引き受けについて研究しているペンシルベニア州のアメリカン・カレッジ・オブ・フィナンシャル・サービスのビジネスプランニング教授、ソフィア・ダフィは言う。
法律上、保険会社は人種、性別、民族性などのデータを使って保険を販売することはできない。しかし、規制当局は、膨大な数の電子顧客データを利用したアルゴリズムが、社会集団の代理人として機能する可能性のあるデータについても学習させることを懸念している。例えば、保険契約者が毎日タバコを買っていることを示すクレジットカードのデータは、企業が保険契約の価格を決めるために利用できる貴重な情報だ。しかし、そのタバコを購入した場所(例えば都市部か地方か)がアルゴリズムに入力されると、事実上、人種や民族の代わりとなり、その申込者に不当な偏見が生じる可能性がある。
専門家によると、コロラド州の規制は、何が差別となるかを正確に定義する上で重要なギャップを残しているとのことだ。保険会社が保険契約申込者の人種、民族、性別に関するデータを収集していない場合、それを判断することは困難だ。
「最も難しい課題は、不当な差別の基準を設定することです」と、アメリカン・カレッジ・オブ・フィナンシャル・サービスのビジネス倫理学教授で、保険引受におけるAIの役割についてダフィと共同執筆したアジッシュ・フィラビは語る。「あなたは(バイアスに対する)優れたテストプロセスを持っているかもしれないが、何に対してテストしているのでしょうか?」
機械学習プログラムは、そこに投入されるデータがあってこそのものであり、より多くの顧客データが様々なソースから採取される中、そのデータの収集と活用方法に関する倫理基準を策定することが最も重要であると専門家は述べている。
「保険会社は、過去に比べて非常に多くのデータにアクセスできるようになりました」とフィラビは述べている。「これはとても速いスピードで進んでいるのだ」
AI Regulation Faces Test on Life Insurance in Colorado
By Lucy Papachristou
© 2023 Bloomberg L.P.
翻訳:吉田拓史、株式会社アクシオンテクノロジーズ