OpenAI、画像生成AIシステム「DALL-E 2」へのアクセスを拡大
Image generated by DALL-E 2. Credit: Open AI

OpenAI、画像生成AIシステム「DALL-E 2」へのアクセスを拡大

文章を与えて画像を生成したり、既存の画像を編集して改良したりできるOpenAIのAIシステム「DALL-E 2」は20日、より広く利用できるようになった。

編集部

文章を与えて画像を生成したり、既存の画像を編集して改良したりできるOpenAIのAIシステム「DALL-E 2」は20日、より広く利用できるようになった。

同社はブログで、今後数週間で約100万人の利用を目標に、キャンセル待ちの顧客へのアクセスを促進することを発表している。 初めて利用するユーザーは、画像の生成や編集、または画像のバリエーションの作成に使用できる有限のクレジットを得ることができる。 OpenAIは「DALL-E 2の世代における偏りや毒性を軽減するための新しいアプローチと、システムによって作成された画像を管理するポリシーの進化によって、より幅広いアクセスが可能になった」としている。

Craiyon(旧DALL-E mini)のようなDALL-E 2の派生製品や、フィルターをかけていないDALL-E 2そのものが示すように、画像生成AIは、学習用に使われるウェブからの何百万もの画像に埋め込まれたバイアスや毒性を、簡単に拾い上げてしまうことがある。

例えば、OpenAIは今週、人種や性別が特定できない人物を描写するプロンプトが与えられたときに、「世界の人口の多様性をより正確に反映する」人々の画像を生成するようDALL-E 2に奨励する技術を展開したと述べている。 また、コンテンツフィルターの精度を向上させながら、リアルな顔を含む画像や、著名な政治家やセレブリティを含む公人の似顔絵を作成しようとする画像のアップロードを拒否するようになったと述べている。 一方、同社はDALL-E 2で作成した画像を商品化するための「完全使用権」をユーザーに付与し、初期プレビュー中に作成した画像も含めて、転載・販売・商品化する権利を提供することも明らかにした。

OpenAIがホストするDALL-E 2のバージョンは、明らかに暴力的、性的、または憎悪的な内容を含む画像を除去するためにフィルタリングされたデータセットで訓練されたが、フィルタリングには限界がある。 「アクセスを拡大することは、私たちが実際の使用についてより多くを学び、私たちの安全システムに反復し続けることができるので、私たちが責任を持ってAIシステムを展開する重要な部分だ」とOpenAIはブログ投稿に書いている。 「我々は、DALL-EのようなAIシステムが、その学習データに偏りを反映するかもしれない方法と、我々がそれに対処できる様々な方法を研究し続けている」

ML