GoogleからのNerfのおかげでGeminiの画像生成機能は以前ほど強力ではなくなった
Google の生成 AI チャットボットであるGemini は最近、不正確で攻撃的な画像を生成するという大失敗を経験しました。この事例を受けて、同社は修正が見つかりサービスが再開されるまで画像生成機能を弱体化することを決定しました。
ジェミニは、特定の民族の人々に対する問題のあるイメージ生成をめぐって苦境に立たされる
Google は、Gemini が独立した製品エンティティであるため、検索、その AI モデル、および同社が提供するその他のサービスに直接リンクされていないことについて語ります。アプリの準備が完了すると、Google は画像生成が特定の人々や民族に対する偏見を示すのではなく、多様なものになるようにモデルを手動で調整しました。Google がこれを行ったのは、さまざまな分野のユーザーが確実に利用できるようにするためであったため、当然のことです。世界中の人が大きな問題に遭遇することなくアプリを使用できます。
しかし、どの対策でもその後の事態を防ぐことはできませんでした。 Gemini は、ユーザーが画像内に存在する特定の民族を実際に探しているユースケースを説明できませんでした。これにより、「教室の黒人教師」などの非常に奇妙なプロンプトが表示され、モデルが不正確な画像や攻撃的な画像を生成する原因となりました。場合によっては、そもそも画像の生成を拒否することさえありました。その理由は、モデルは彼らが敏感ではないにもかかわらず、敏感であるとみなしたためです。
では、この状況全体に対して Google はどのようなスタンスをとっているのでしょうか?さて、同社は、ジェミニの人々の画像を生成する機能を停止しました。同社は、モデル全体が広範なテストを経て問題が解決されたら、どのようにそれを有効にするかについて話しました。 Google はまた、AI モデルが完全ではなく、導入当時よりも進歩しているにもかかわらず、依然として幻覚を起こす傾向があり、それが問題を引き起こす可能性があることについても語っています。
タイムラインに関しては、Google は実際には共有していないため、Gemini イメージの生成が完了して準備が整うまで待つ必要があります。私たちは、それが戻ってくるときには、以前よりも良くなり、イメージの作成がはるかに良くなることを願っています。
ニュースソース: Google ブログ
コメントを残す