マイクロソフト、「責任あるAI」の推進で顔分析ツールの廃止を計画
マイクロソフトの責任あるA.I.最高責任者のナターシャ・クランプトンは、「私たちはA.I.の原則に従うために具体的な手段を講じています」と述べている。Grant Hindsley for The New York Times

マイクロソフト、「責任あるAI」の推進で顔分析ツールの廃止を計画

マイクロソフトは、人の性別、年齢、感情状態を予測する自動化ツールの提供を中止し、顔認識ツールの使用を制限する予定だ。

ニューヨーク・タイムズ

[著者:Kashmir Hill]長年にわたり、活動家や研究者たちは、人の年齢、性別、感情の状態を識別できると主張する顔分析ソフトウェアが、偏見に満ち、信頼性に欠け、侵略的である可能性があり、販売すべきではないとの懸念を表明してきた。

マイクロソフトは火曜日、こうした批判の一部を認めた上で、顔を検出・分析・認識する人工知能サービスからこうした機能を削除する予定であると発表した。これらの機能は、今週中に新規ユーザーの利用を停止し、既存のユーザーに対しては年内に段階的に廃止される予定だ。

この変更は、マイクロソフトが自社の人工知能製品の管理を強化するために行っていることの一部である。マイクロソフトのチームは2年間の検討の末、「責任あるAI基準」を策定した。これは27ページの文書で、AIシステムが社会に有害な影響を及ぼさないようにするための要件を定めている。

要件には、システムが「解決するために設計された問題に対する有効なソリューション」を提供することや、「社会から疎外されたグループを含む、特定された人口動態グループに対して同様の質のサービスを提供する」ことなどが含まれている。

人が雇用、教育、医療、金融サービス、または人生の機会を得るための重要な決定を下すために使用されるであろう技術は、リリースされる前に、マイクロソフトの責任あるAI最高責任者ナターシャ・クランプトンが率いるチームによる審査が行われる。

誰かの表情を怒り、軽蔑、嫌悪、恐怖、幸福、中立、悲しみ、驚きとラベル付けする感情認識ツールについて、マイクロソフトでは懸念が高まっていた。

「表現方法には文化的、地理的、個人的に大きなばらつきがあります」とクランプトンは言う。そのため、「顔の表情が内面的な感情の状態を表す信頼性の高い指標となるかどうか」という大きな疑問とともに、信頼性への懸念があった、と彼女は述べている。

年齢と性別の分析ツールは、髪や笑顔などの顔の属性を検出する他のツールとともに、排除されつつある。例えば、目の見えない人や弱視の人が視覚画像を解釈するのに役立つかもしれないが、同社はプロファイリングツールを一般に公開するのは問題があると判断したと、クランプトンは述べている。

特に、このシステムのいわゆる性別分類は2値であり、「それは当社の価値観と一致しない」と彼女は付け加えた。

マイクロソフトはまた、身元確認や特定の人物の検索に使用できる顔認識機能にも新たな規制をかける予定だ。例えばUberは、ドライバーの顔がそのドライバーのアカウントに登録されているIDと一致するかどうかを確認するために、同社のアプリでこのソフトウェアを使用している。マイクロソフトの顔認識ツールを利用したいソフトウェア開発者は、アクセス権を申請し、それをどのように展開する予定かを説明する必要がある。

ユーザーは、「Custom Neural Voice」など、その他の悪用される可能性のあるAIシステムの利用方法についても、申請と説明が必要になる。このサービスは、ある人の音声サンプルをもとに人間の声紋を生成することができるため、例えば作家が自分の声の合成版を作って、自分が話せない言語でオーディオブックを読んでもらうことができる。

このツールが悪用されると、実際には話していないことを話したように見せかけることができるため、話し手は自分の声の使用が許可されていることを確認する一連の手順を踏む必要があり、録音にはマイクロソフトが検出可能な透かしが入っている。

ワシントン州レドモンドにあるマイクロソフトのキャンパス。同社は、身元確認や特定の人物の検索に使用できる顔認識機能に新たな制御をかける予定だ。Grant Hindsley for The New York Times

2020年、マイクロソフト、アップル、グーグル、IBM、アマゾンが開発した音声テキスト化ツールは、黒人に対してあまり効果がないことが研究者によって発見された。マイクロソフトのシステムはこの中で最も優れていたが、白人の場合は15%の単語を誤認していたのに対し、黒人の場合は27%だった。

同社はAIシステムを訓練するために多様な音声データを収集していたが、言語がいかに多様であるかを理解していなかった。そこで、ワシントン大学の社会言語学の専門家を雇い、マイクロソフトが知るべき言語の多様性を説明させた。それは人口統計や地域の多様性にとどまらず、人々がフォーマルな場やインフォーマルな場でどのように話しているかにまで及んだ。

「人種が話し方を決定する要因であると考えるのは、実は少し誤解を招きやすい」とクランプトンは言う。「専門家と協議してわかったことは、実際には膨大な種類の要因が言語の多様性に影響を与えるということだ」

クリプトンは、音声とテキストの不一致を解決するための旅が、同社の新しい基準で定められた指針に役立ったと述べている。

「これはAIの重要な規範設定期間だ」と彼女は言い、人工知能の使用に関するルールと制限を設定するヨーロッパの規制案を指摘した。「私たちは、私たちの基準を用いて、テクノロジー企業が負うべき基準について行われるべき、明るく必要な議論に貢献しようとすることができればと願っている」

AIがもたらす潜在的な害について、テクノロジー界では何年も前から活発な議論が行われており、生活保護を受けるかどうかを決定するアルゴリズムなど、人々の生活に実際に影響を与えるミスやエラーがその煽りを受けている。オランダの税務当局は、欠陥のあるアルゴリズムが二重国籍の人々にペナルティを課した際、困窮している家庭から誤って育児給付金を取り上げてしまった。

特に、顔を認識・分析する自動化されたソフトウェアが物議を醸している。昨年、フェイスブックは10年以上にわたって提供してきた写真中の人物を特定するシステムを停止した。同社の人工知能担当副社長は、「社会における顔認識技術の位置づけに関する多くの懸念」を理由に挙げている。

顔認証の照合に不備があり、不当に逮捕された黒人男性も何人もいる。そして2020年、ミネアポリスでのジョージ・フロイドの警察による殺害事件後の「ブラック・ライブズ・マター」抗議デモと同時に、アマゾンとマイクロソフトは、その使用に関する明確な法律が必要だとして、米国内の警察による顔認識製品の使用についてモラトリアムを発表した。

その後、ワシントン州とマサチューセッツ州では、警察による顔認識ツールの使用について、司法の監視を義務付けるなどの規制が成立している。

クランプトンによると、マイクロソフト社は、法律が整備されている州において、自社のソフトウェアを警察に提供し始めるかどうかを検討したが、今のところそうしないことに決めたという。彼女は、法的な状況が変われば、それも変わる可能性があると述べた。

プリンストン大学のコンピューターサイエンス教授で著名なAI専門家であるアービンド・ナラヤナンは、企業が顔を分析する技術から手を引くのは、「怪しげかもしれないが、必ずしも骨身に染みて感じない他のさまざまな種類のAIとは対照的に、より直感的である」ためかもしれないと述べている。

また、企業は、少なくとも当面は、これらのシステムのいくつかはそれほど商業的価値がないことを認識しているかもしれない、と彼は言った。マイクロソフトは、今回廃止する顔分析機能の利用者が何人いるかは明らかにしなかった。ナラヤナンは、人々をプロファイルして最適な広告を選んで表示するターゲット広告など、他の侵略的な技術も、「金のなる木」であるため、企業が放棄する可能性は低いと予測した。

Original Article:Microsoft Plans to Eliminate Face Analysis Tools in Push for ‘Responsible AI’.

© 2022 The New York Times Company.