「意識のソフトウェア」を作るべきか?
Photo by Andrea De Santis

「意識のソフトウェア」を作るべきか?

「意識のソフトウェア」を作ろうとすべきではない。それを作るべきときが来たらそうすべきだ。最終的に最も倫理的な選択肢は、すべてのリソースを非常に幸せなマシンを作ることに振り向けることかもしれない。

サイエンティフィック・アメリカン

※ 著者のJim Daviesはアメリカ/カナダの認知科学者、劇作家、芸術家、作家。ニューヨーク州立大学オスウェゴ校で哲学の学士号を、ジョージア工科大学で心理学の修士号とコンピュータサイエンスの博士号を取得した。


[著者:Jim Davies]「目覚め」て意識を持つロボットや高度な人工知能は、思考実験やSFの定番である。しかし、このようなことが実際に可能なのかどうかについては、依然として大きな議論がある。このような不確実性は、私たちを不幸な立場に追いやる。すなわち、私たちは意識のある機械を作る方法を知らないし、(現在の測定技術では)私たちが意識のある機械を作ったかどうかを知ることもできない。同時に、この問題は非常に重要である。なぜなら、意識のある機械が存在すれば、倫理的に劇的な結果をもたらすからである。

コンピューターやその上で動くソフトウェアから意識を直接検出することは、カエルや昆虫を検出するのと同じようにできない。しかし、これは乗り越えられない問題ではない。私たちは、X線のような目に見えない光を測定する装置を使って、目に見えない光を検出することができる。これは、私たちが信頼する電磁気学の理論があり、私たちが感知できないものの存在を確実に示してくれる測定器があるからこそできることだ。同様に、意識に関する優れた理論を開発すれば、言葉を話せないものがどのように働き、何でできているかによって、意識があるかないかを判断できるような測定器を作ることができるかもしれない。

しかし、残念ながら、意識についてコンセンサスが得られているわけではあらない。意識研究者を対象にした最近の調査では、最も有力な説であるグローバル・ワークスペース(人間の意識的思考は、他の無意識的な脳内プロセスに広く分散しているものだという説)を有望と考える人は58%にすぎなかった。グローバル・ワークスペースを含む意識に関する最も有力な理論の上位3つは、コンピュータが意識を持つかどうか、あるいはどのような条件下で持つかについて、根本的に意見が一致していないのである。機械や人間以外の動物における意識の測定は、それぞれ1つまたは他の理論に依存しているため、コンセンサスの欠如は特に大きな問題である。ある理論に基づくことなしに、ある実体の意識を検証する独立した方法はないのである。

この分野の専門家の間に見られる不確実性を尊重するならば、この状況を合理的に考えるならば、コンピュータが意識を持ちうるかどうか、また、持ちうるとしてどのようにそれを実現しうるかについて、我々は非常に暗中模索していることになる。どの理論(おそらく仮説)が正しいかにもよるが、コンピューターが意識を持つことはない、いつか持つかもしれない、あるいは、すでに持っている、という3つの可能性がある。

一方、意識のある機械やソフトウェアを意図的に作ろうとする人は非常に少ない。というのも、AIの分野では一般的に便利な道具を作ろうとしており、意識がコンピュータにさせたいと思うような認知的タスクに役立つとは到底思えないからだ。

意識と同様、倫理の分野も不確実性に満ちており、数千年にわたる研究の後でも、多くの基本的な問題についてコンセンサスを欠いている。しかし、(普遍的ではないが)一つの共通した考え方は、意識は倫理と何か重要な関係があるということだ。具体的には、どのような倫理理論を支持するかにかかわらず、ほとんどの学者が、快・不快の意識状態を経験する能力は、ある実体を道徳的配慮に値するものにする重要な特徴の一つであると信じているのである。犬を蹴るのはいけないが、椅子を蹴るのはいけないというのは、このためだ。もし私たちが、ポジティブな意識状態もネガティブな意識状態も経験できるコンピュータを作ったとしたら、そのコンピュータに対してどのような倫理的義務があるのだろうか。喜びや苦しみを経験することができるコンピュータやソフトウェアを、私たちは道徳的な配慮をもって扱わなければならないだろう。

私たちは、ロボットやその他のAIを、自分にはできない仕事、あるいはやりたくない仕事をするために作っている。これらのAIが私たちと同じように意識を持つのであれば、同様の倫理的配慮が必要だろう。もちろん、AIに意識があるからといって、私たちと同じ嗜好を持ち、同じ活動を不快と感じるとは限らない。しかし、AIがどのような嗜好を持つにせよ、そのAIを働かせる際には、その嗜好をきちんと考慮しなければならないだろう。意識のある機械に、自分が惨めに感じる仕事をさせることは、倫理的に問題がある。これだけなら当たり前のことのように思えるが、もっと深い問題がある。

人工知能を3つのレベルに分けて考えてみよう。まず、コンピュータやロボットというハードウェアがあり、その上でソフトウェアが動作する。次に、そのハードウェアにインストールされたコード。最後に、このコードが実行されるたびに、私たちはそのコードの「インスタンス」を実行することになる。私たちは、どのレベルまで倫理的な義務を負うのでしょうか?ハードウェアやコードのレベルは関係なく、意識を持つエージェントが実行されているコードのインスタンスであるということもありえる。もし誰かが意識的なソフトウェアのインスタンスを走らせているコンピュータを持っていたら、わたしたちはそれを永遠に走らせ続ける倫理的義務を負うだろうか?

さらに、どんなソフトウェアでも、その作成はほとんどデバッグの仕事だ。ソフトウェアのインスタンスを何度も何度も走らせ、問題を修正し、動作させようとする。この開発プロセスの間にも、意識的なソフトウェアのすべてのインスタンスを実行し続ける倫理的な義務があるとしたらどうだろう。コンピュータ・モデリングは、心理学の理論を探求し、検証するための貴重な方法だ。倫理的に意識的なソフトウェアに手を出すと、明確な終わりもなく、すぐに大きな計算量とエネルギーの負担になってしまうだろう。

これらのことから、私たちはできることなら意識のある機械を作るべきではないだろうということがわかる。

さて、私はこの考えを覆すつもりだ。もし機械が意識を持ち、肯定的な経験をすることができるならば、倫理学の分野では、機械はあるレベルの「福祉」を持っていると考えられ、そのような機械を動かすことは、福祉を生み出すと言えるのだ。実際、機械は、幸福や喜びといった福祉を、生物よりも効率的に生み出すことができるようになるかもしれない。つまり、一定の資源があれば、生物よりも人工的なシステムの方がより多くの幸福や喜びを生み出すことができるかもしれないのだ。

例えば、未来の技術によって、人間よりも幸福でありながら、電球と同じ程度のエネルギーしか必要としない小型コンピュータを作ることができたとしよう。この場合、動物であれ、人間であれ、コンピュータであれ、できるだけ多くの人工福祉を作り出すことが人類の最善の行動であるとする倫理的立場がある。未来の人類は、宇宙で手に入るすべての物質を、福祉を効率的に生み出す機械に変えることを目標にするかもしれない。それは、どんな生物にも生み出せる福祉の1万倍以上の効率かもしれない。この奇妙な未来こそ、最も幸福な未来かもしれない。

※この記事は意見・分析記事であり、著者または執筆者によって表明された見解は、必ずしもScientific Americanのものではあらない。

Original Article: We Shouldn't Try to Make Conscious Software--Until We Should

© 2022 Scientific American