AI Ethics

人工知能の倫理は、ロボットやその他の人工知能に固有の技術の倫理の一部です。 それは通常、人間が彼らを設計、構築、使用、治療する際の人間の道徳的行動に関する懸念であるロボ倫理と、人工的な道徳的行為者の道徳的行動に関する懸念である機械倫理に分けられます。

与信審査アルゴリズムの改善要求を飲んでも融資は得られない
ML

与信審査アルゴリズムの改善要求を飲んでも融資は得られない

ハーバード大学とマイクロソフトの研究者による最新研究では、リコース生成アルゴリズムが結果を改善しないという強い証拠が見つかった。それは、銀行や金融機関などの利害関係者がモデルを再教育して更新したり、データの新しいパターンに適応するためにフレームワークを使用したりすると、アルゴリズムによって生成されたリコースが無効になる傾向があるからだ。

Google AI研究者ら、機械学習のデータセットには文化の変化が必要と主張
AI Ethics

Google AI研究者ら、機械学習のデータセットには文化の変化が必要と主張

機械学習コミュニティ、特にコンピュータビジョンと言語処理の分野では、データセットの収集と利用において深刻な文化の問題を抱えている、と今月初めに発表された、Google ResearchのリサーチサイエンティストEmily Dentonらが共著した論文は主張している。

GoogleのAI倫理研究者解雇は「不都合な真実」を隠蔽したいがためか?
AI Ethics

GoogleのAI倫理研究者解雇は「不都合な真実」を隠蔽したいがためか?

GoogleがAI倫理学者Timnit Gebruを解雇したとされる係争で、Gebruらが執筆した大規模言語モデルのリスクを指摘する論文がその発端となったと彼女は主張している。論文はモデルが適用されているGoogleの検索やクラウド製品、また、Transformer、BERT等のAI研究チームの主要な業績に疑問を投げかけるものであり、Googleがビジネス上の利益を倫理に対して優先したかという疑問に回答しないといけない。

Google AI倫理チームの共同リーダー、AIのバイアスを強調する論文を投稿したため解雇されたと主張
AI Ethics

Google AI倫理チームの共同リーダー、AIのバイアスを強調する論文を投稿したため解雇されたと主張

有名なAI倫理研究者の一人であり、GoogleのAI倫理チームの共同リーダーでもあるティムニット・ゲブル(Timnit Gebru)は、GoogleのAIのバイアスを強調する論文を執筆したせいで解雇されたと主張した。Google AI側は辞意を受理したと反論しており、双方の主張が食い違っている。

物議を醸すピーター・ティール出資の顔認識システム新興企業「Clearview AI」
Computer Vision

物議を醸すピーター・ティール出資の顔認識システム新興企業「Clearview AI」

米国の主要な移民法執行機関である司法省、ベストバイやメイシーズなどの小売業者、アラブ首長国連邦の政府系ファンドは、ソーシャルメディアやウェブ上の数十億枚の写真をスクレイピングしてデータベース化し、物議を醸している顔認識スタートアップClearview AIの顧客として世界中の数千の政府機関や民間企業の中にリストアップされている。

生体認証による市民監視は不可避
AI Ethics

生体認証による市民監視は不可避

「バイオメトリクスの規制」と題したAI倫理研究機関「AI Now」の新しい報告書では、「バイオメトリクスの規制。グローバルなアプローチと緊急の質問」と題された新しい報告書の中で、AI Now Instituteは、規制擁護派がバイオメトリクスの監視状態は避けられないと考え始めていると述べています。

GPT-3生成のブログ、ハッカーニュースで1位に
Fake News

GPT-3生成のブログ、ハッカーニュースで1位に

カルフォルニア大学バークリー校の大学生のLiam Porrが言語生成AIツール「GPT-3」を使って偽のブログ記事を作成したところ、ハッカーニュースで1位になった。Porrは、GPT-3によって生成されたコンテンツが人間によって書かれたものだと信じ込ませることができることを実証した。

言語モデルは倫理を学習できるか?
AI Ethics

言語モデルは倫理を学習できるか?

モデルの倫理的な拙さを強調するための努力として、マイクロソフト、カリフォルニア大学バークレー校、コロンビア大学、シカゴ大学の研究者が、言語モデルの道徳的概念の知識を評価する論文を共著した。彼らが考案したベンチマーク(ETHICSと呼ばれる)は、人間の価値観に沿ったよりAIへの足がかりになると主張している。

米陸軍が兵士の意図を汲む会話型AIを開発
AI Ethics

米陸軍が兵士の意図を汲む会話型AIを開発

米陸軍の研究部門は、兵士が特定のコマンドを使うのではなく、自然な会話をすることで小型ロボット車に命令を与えることができるシステムを開発している。ロボットは兵士の意図を理解し、与えられたタスクを完了させることができるようになるという。システムは、地域の偵察や捜索救助に使われるだろう。

研究者が顔の表情のデータセットにバイアスがある証拠を発見
AI Ethics

研究者が顔の表情のデータセットにバイアスがある証拠を発見

研究者らは、幸福、怒り、驚きなどの表現を検出するためにAIシステムを訓練するためによく使用されるデータセットが、特定の人口集団に対して偏っていると主張している。ケンブリッジ大学と中東工科大学の共著者は、2つのオープンソースのデータセットでバイアス(偏り)の証拠を見つけました。

インペリアル・カレッジ・ロンドンの研究者ら、精度とプライバシーを両立させる音声解析フレームワークを提案
ML

インペリアル・カレッジ・ロンドンの研究者ら、精度とプライバシーを両立させる音声解析フレームワークを提案

インペリアル・カレッジ・ロンドンの研究者たちは、感情、性別、健康状態などのセンシティブな属性を除去しながら、音声認識や識別などのアプリケーションをサポートする音声分析手法を開発したと主張しています。このフレームワークは、音声データとプライバシー設定を補助情報として受け取り、その設定を使用して、録音された音声から抽出される可能性のある機密性の高い属性をフィルタリングします。

名前から性別を識別するAIサービスが炎上
AI Ethics

名前から性別を識別するAIサービスが炎上

名前、メールアドレス、ユーザー名をAIの助けを借りて分析することで、誰かの性別を特定することを約束した新サービス、Genderifyが混乱を引き起こしている。同社は先週、Product Huntでローンチしたが、ユーザーがそのアルゴリズムに偏りや不正確さを発見したことから、ソーシャルメディア上で多くの注目を集めた。

バイアスを取り除いた「より公平な」製品推薦アルゴリズム
AI Ethics

バイアスを取り除いた「より公平な」製品推薦アルゴリズム

ラトガース大学、カリフォルニア大学、ワシントン大学の研究者たちは、製品推薦アルゴリズムにおける「不公平問題」として特徴づけられているものを緩和するアプローチを提案した。彼らのアルゴリズムは、最先端の実世界のデータセット上で高品質の説明可能な推奨を提供し、いくつかの重要な側面で推奨の不公平性を軽減すると述べている。

協調フィルタリングの推薦アルゴリズムにバイアスを発見
ML

協調フィルタリングの推薦アルゴリズムにバイアスを発見

アイントホーフェン工科大学などの研究者らは、ストリーミングで映画を紹介するような推薦システムにバイアスがある証拠を発見した。ユーザーがレコメンデーションに基づいて行動し、その行動がシステムに追加されると、バイアスが増幅され、集合的な多様性の低下、好みの表現の変化、ユーザー体験の均質化などの別の問題につながる。

活況を呈する中国の医療AI市場に隠された課題
AI Ethics

活況を呈する中国の医療AI市場に隠された課題

問診において人間の医師を上回る可能性を示すなど、中国の医療AIシステム開発は活況を呈している。医療業界は積極的な政府資本の投入と雨後の筍のような新興企業の参入という中国的状況の最中だ。AI倫理やデータ保護に関する規制が未整備で成長の機運に水を指しかねない。

デトロイト警察の顔認識システムが二度目の黒人男性の誤認逮捕を招く
AI Ethics

デトロイト警察の顔認識システムが二度目の黒人男性の誤認逮捕を招く

デトロイト警察が使用した顔認識ソフトによって窃盗犯と間違えられた男が起訴された。デトロイトに住むマイケル・オリバーは、昨年、犯してもいない犯罪で逮捕された。彼は車の窓に手を伸ばし、携帯電話をひったくり破壊したと告訴された。

全米の警察が"誤ったデータ"から犯罪予測AIを訓練していた
AI Ethics

全米の警察が"誤ったデータ"から犯罪予測AIを訓練していた

犯罪予測アルゴリズムは、アメリカ全土の都市で一般的になってきている。大手ベンダーの製品である「PredPol」は不釣り合いなほどに、人種的マイノリティ、英語を母国語としない人、LGBTQの人を標的にし、女性に対する暴力への対処を怠っていた。汚れたデータによるAIのトレーニングが誤った思想を警察に植え付けていた。

マイクロソフト、OpenAI、OECDがAI倫理原則をどう実践しているか
AI Ethics

マイクロソフト、OpenAI、OECDがAI倫理原則をどう実践しているか

5月上旬に発表されたUC Berkeley Center for Long-Terminal Cybersecurity (CLTC)のケーススタディでは、組織がAIの倫理原則をどのように実践しているかを検証している。倫理原則はしばしば漠然とした言い回しのルールだが、原則を実践に転換することが急務となっている。

DeepMind研究者が"反植民地的AI"の概念を提唱
AI Ethics

DeepMind研究者が"反植民地的AI"の概念を提唱

グーグルのDeepMindとオックスフォード大学の研究者たちは、AIの実践者たちが脱植民地主義に基づいて業界を改革し、アルゴリズムによる更なる搾取や抑圧を回避することを推奨する。「反植民地的AI」の概念は、AIによって影響を受けた人々からのフィードバックを含めることの重要性を強調する研究の増加に基づくものだ。

欠陥のある顔認識システムが黒人男性の誤認逮捕を引き起こした
AI Ethics

欠陥のある顔認識システムが黒人男性の誤認逮捕を引き起こした

欠陥のある顔認識システムが黒人男性の誤認逮捕を引き起こした。デトロイト警察の顔認識システムの運用方法が、規定のルールから外れており、「一致」したことだけを根拠に誤った人物を逮捕・起訴してしまった。米国での顔認識の社会実装のモラトリアムを決定づける出来事のひとつとなった。

You've successfully subscribed to Axion デジタル経済メディア!
Could not sign up! Invalid sign up link.