Tagged

AI倫理

人工知能の倫理は、ロボットやその他の人工知能に固有の技術の倫理の一部です。 それは通常、人間が彼らを設計、構築、使用、治療する際の人間の道徳的行動に関する懸念であるロボ倫理と、人工的な道徳的行為者の道徳的行動に関する懸念である機械倫理に分けられます。

与信審査アルゴリズムの改善要求を飲んでも融資は得られない
ML

与信審査アルゴリズムの改善要求を飲んでも融資は得られない

ハーバード大学とマイクロソフトの研究者による最新研究では、リコース生成アルゴリズムが結果を改善しないという強い証拠が見つかった。それは、銀行や金融機関などの利害関係者がモデルを再教育して更新したり、データの新しいパターンに適応するためにフレームワークを使用したりすると、アルゴリズムによって生成されたリコースが無効になる傾向があるからだ。

GoogleのAI倫理研究者解雇は「不都合な真実」を隠蔽したいがためか?
AI倫理

GoogleのAI倫理研究者解雇は「不都合な真実」を隠蔽したいがためか?

GoogleがAI倫理学者Timnit Gebruを解雇したとされる係争で、Gebruらが執筆した大規模言語モデルのリスクを指摘する論文がその発端となったと彼女は主張している。論文はモデルが適用されているGoogleの検索やクラウド製品、また、Transformer、BERT等のAI研究チームの主要な業績に疑問を投げかけるものであり、Googleがビジネス上の利益を倫理に対して優先したかという疑問に回答しないといけない。

Google AI倫理チームの共同リーダー、AIのバイアスを強調する論文を投稿したため解雇されたと主張
AI倫理

Google AI倫理チームの共同リーダー、AIのバイアスを強調する論文を投稿したため解雇されたと主張

有名なAI倫理研究者の一人であり、GoogleのAI倫理チームの共同リーダーでもあるティムニット・ゲブル(Timnit Gebru)は、GoogleのAIのバイアスを強調する論文を執筆したせいで解雇されたと主張した。Google AI側は辞意を受理したと反論しており、双方の主張が食い違っている。

物議を醸すピーター・ティール出資の顔認識システム新興企業「Clearview AI」
コンピュータビジョン

物議を醸すピーター・ティール出資の顔認識システム新興企業「Clearview AI」

米国の主要な移民法執行機関である司法省、ベストバイやメイシーズなどの小売業者、アラブ首長国連邦の政府系ファンドは、ソーシャルメディアやウェブ上の数十億枚の写真をスクレイピングしてデータベース化し、物議を醸している顔認識スタートアップClearview AIの顧客として世界中の数千の政府機関や民間企業の中にリストアップされている。

言語モデルは倫理を学習できるか?
AI倫理

言語モデルは倫理を学習できるか?

モデルの倫理的な拙さを強調するための努力として、マイクロソフト、カリフォルニア大学バークレー校、コロンビア大学、シカゴ大学の研究者が、言語モデルの道徳的概念の知識を評価する論文を共著した。彼らが考案したベンチマーク(ETHICSと呼ばれる)は、人間の価値観に沿ったよりAIへの足がかりになると主張している。

米陸軍が兵士の意図を汲む会話型AIを開発
AI倫理

米陸軍が兵士の意図を汲む会話型AIを開発

米陸軍の研究部門は、兵士が特定のコマンドを使うのではなく、自然な会話をすることで小型ロボット車に命令を与えることができるシステムを開発している。ロボットは兵士の意図を理解し、与えられたタスクを完了させることができるようになるという。システムは、地域の偵察や捜索救助に使われるだろう。

研究者が顔の表情のデータセットにバイアスがある証拠を発見
AI倫理

研究者が顔の表情のデータセットにバイアスがある証拠を発見

研究者らは、幸福、怒り、驚きなどの表現を検出するためにAIシステムを訓練するためによく使用されるデータセットが、特定の人口集団に対して偏っていると主張している。ケンブリッジ大学と中東工科大学の共著者は、2つのオープンソースのデータセットでバイアス(偏り)の証拠を見つけました。

インペリアル・カレッジ・ロンドンの研究者ら、精度とプライバシーを両立させる音声解析フレームワークを提案
ML

インペリアル・カレッジ・ロンドンの研究者ら、精度とプライバシーを両立させる音声解析フレームワークを提案

インペリアル・カレッジ・ロンドンの研究者たちは、感情、性別、健康状態などのセンシティブな属性を除去しながら、音声認識や識別などのアプリケーションをサポートする音声分析手法を開発したと主張しています。このフレームワークは、音声データとプライバシー設定を補助情報として受け取り、その設定を使用して、録音された音声から抽出される可能性のある機密性の高い属性をフィルタリングします。

名前から性別を識別するAIサービスが炎上
AI倫理

名前から性別を識別するAIサービスが炎上

名前、メールアドレス、ユーザー名をAIの助けを借りて分析することで、誰かの性別を特定することを約束した新サービス、Genderifyが混乱を引き起こしている。同社は先週、Product Huntでローンチしたが、ユーザーがそのアルゴリズムに偏りや不正確さを発見したことから、ソーシャルメディア上で多くの注目を集めた。

バイアスを取り除いた「より公平な」製品推薦アルゴリズム
AI倫理

バイアスを取り除いた「より公平な」製品推薦アルゴリズム

ラトガース大学、カリフォルニア大学、ワシントン大学の研究者たちは、製品推薦アルゴリズムにおける「不公平問題」として特徴づけられているものを緩和するアプローチを提案した。彼らのアルゴリズムは、最先端の実世界のデータセット上で高品質の説明可能な推奨を提供し、いくつかの重要な側面で推奨の不公平性を軽減すると述べている。

協調フィルタリングの推薦アルゴリズムにバイアスを発見
ML

協調フィルタリングの推薦アルゴリズムにバイアスを発見

アイントホーフェン工科大学などの研究者らは、ストリーミングで映画を紹介するような推薦システムにバイアスがある証拠を発見した。ユーザーがレコメンデーションに基づいて行動し、その行動がシステムに追加されると、バイアスが増幅され、集合的な多様性の低下、好みの表現の変化、ユーザー体験の均質化などの別の問題につながる。