
AI倫理
顔から犯罪性を「予測」するアルゴリズムが非難轟々
ハリスバーグ科学技術大学の教授と大学院生は顔を基に人の犯罪性を「予測」するアルゴリズムを提案し非難轟々となった。彼らのような「人種科学」を行う試みは、機械学習の分野で散見されており、社会への影響は、研究の際の必要不可欠なチェックポイントとなりそうだ。
人工知能の倫理は、ロボットやその他の人工知能に固有の技術の倫理の一部です。 それは通常、人間が彼らを設計、構築、使用、治療する際の人間の道徳的行動に関する懸念であるロボ倫理と、人工的な道徳的行為者の道徳的行動に関する懸念である機械倫理に分けられます。
AI倫理
ハリスバーグ科学技術大学の教授と大学院生は顔を基に人の犯罪性を「予測」するアルゴリズムを提案し非難轟々となった。彼らのような「人種科学」を行う試みは、機械学習の分野で散見されており、社会への影響は、研究の際の必要不可欠なチェックポイントとなりそうだ。
AI倫理
AI(人工知能)は最近、言語の理解において大きな進歩を遂げているが、とても低いコストでAIを騙す攻撃手法がいくつも見つかっている。言葉を一宇改変することで自然言語処理(NLP)を誤らせたり、少しのピクセルの細工で画像認識を狂わすことができる。機械学習の社会実装が進んでいく中、これらの穴を塞がないといけない。
AI倫理
社会に対して適用されるアルゴリズムは人間社会のなかに内在するバイアスを強化する可能性がある。マシンが行う最適化の目的は、利益の最大化にほかならず、そのフィードバックループが社会を狂ったものにするリスクがある。
AI倫理
"Life 3.0"は、人工知能(AI)と、地球とそれ以降の生命の未来への影響について説明します。 さまざまな社会的影響、前向きな結果の可能性を最大化するために何ができるか、人類、テクノロジーの将来の可能性について説明しています。
AI倫理
「超知能」コンピュータがどのようなものになるのか? 哲学者のニック・ボストロムは、新しい本『スーパーインテリジェンス 超絶AIと人類の命運』の中で、この答えを探し求めている。彼の課題は野心的なものであり、むしろ余りにも野心的すぎる印象を抱いてしまいます。
書評
さまざまなテック企業の幹部たちが、子供たちに自分たちの製品をまったく使わせないか、あるいは使用に厳しい制限を課し、スクリーンタイムを制限しています。なぜならそこには依存を引き起こす技法が詰め込まれているからです。
AI倫理
アルゴリズムで人間の生産性を管理するのは、AIの誤った活用ではないだろうか。大変な仕事を機械に委託して、人間はもっと高次の仕事に移るか、余暇を過ごせる社会実装を探していきたいところです。
AI倫理
「ゴーストワーク」とは、人類学者が生み出した、テクノロジープラットフォームを動かす目に見えない労働を指す用語です。インターネットを介して従事できるタスクベースのコンテンツ駆動型の仕事です。このような、いつ雇用契約を切られるかわからない非正規の使い捨て労働者がテクノロジー業界の裏側を支えているのです。
AI
機械学習の発展とともに社会に実装されるアルゴリズムが増えているが、アルゴリズムに致命的なバイアスがあり、社会に決定的な影響を与えている例が指摘されている。「アルゴリズムの公平性」「説明可能なAI」と定義された新しい社会の課題が生まれ、様々なステークホルダーによってその解決が図られている。
AI倫理
近年米国の警察は犯罪予測ソフトウェアを採用している。現実の現象を機械学習モデルが強化する「フィードバックループ」の可能性、人種的偏見の永続化等を助長する危険性も指摘されている。
AI倫理
米国の一部の州では、再犯予測アルゴリズム「COMPAS」が使用され、裁判を待っている被告人を保釈するには危険すぎるかを決定するようになった。場合によっては、黒人が白人よりも、高リスクとして誤って分類される可能性がかなり高い。これがアルゴリズムの「公平性」をめぐる議論を引き起こした。何を持って公平と呼べばいいか。