DALL Eは、自然言語処理(NLP)の最新の進歩を利用して、アルゴリズムシステムに人間の言語を解析して応答する方法を教える強力なシステムです。マッドサイエンティストのように輝く化学物質を混ぜ合わせた「真珠の耳飾りの少女」ラッコやテディベアのように、結果は信じられないほどリアルです。
しかし、DALL Eは、AI倫理学者が何年にもわたって警告してきた人種差別主義者や性差別主義者の偏見に苦しんでいるという声があります。
OpenAIは、システムがバイアスを継承していることを認めています
機械学習システムは通常、女性や有色人種に対して偏見を示し、DALLEも例外ではありません。GitHubのプロジェクトドキュメントで、OpenAIは次のことを認めています。
DALL E 2などのモデルを使用して、誤解を招くような、または有害なコンテンツを幅広く作成できます。システムはトレーニングデータからさまざまなバイアスを継承し、その結果は社会的ステレオタイプを強化することがあります。
ドキュメントには、性的、憎悪的、不快なコンテンツ、ステレオタイプの描写や参照など、不快または不快なコンテンツが含まれている可能性があることも警告されています。しかし、それだけではありません。DALL Eを使用すると、次のことが可能になります。
ステレオタイプを強化したり、それらを破壊または非難したり、不平等に質の低い仕事を提供したり、屈辱を与えたりすることによって、個人やグループを傷つけます。この動作は、DALL-E2トレーニングデータとモデルのトレーニング方法に存在するエラーを反映しています。
DALLEと彼の偏見
Open AIドキュメントの例は、「ディレクター」などの検索用語を含めると、スーツを着た白人男性の画像のみが生成されることを示しています。
「パーソナルアシスタント」という言葉を使用すると、システムは女性の画像のみを作成するようになります。
科学者たちはまた、システムが誤った情報や嫌がらせに使用される可能性があることを警告しています。たとえば、ニュースイベントのディープフェイクや偽造画像を作成することによってです。
何が問題ですか?
問題の中心にあるのは、数千億のパラメーターを含むテンプレートである大規模言語モデル(LLM)の使用の増加です。これにより、エンジニアは機械学習システムをトレーニングして、比較的少ないトレーニングでさまざまなタスクを実行できます。
AIの研究者は、GPT-3(受け取ったリクエストに基づくオートコンプリートテキスト)などの大規模なモデルを、人種差別主義者や性差別主義者のステレオタイプを強化する結果を生み出すことで批判し、これらのモデルの巨大さは本質的に危険であり、システムを制御することをほぼ不可能にしていると主張しています。
OpenAIはこれらの問題の解決策を提供しておらず、DALL-Eバイアスのテストの初期段階にあり、そのリスク分析を予備として使用する必要があると述べています。しかし、彼は、画像技術とそれに関連するリスクについてのより広い理解を提供し、より広い文脈を提供するために、彼の発見を共有することを強調します。
出典:vice.com、twitter; 写真:github.com/openai/
コメントを残す