Microsoft は、Bing Image Creator での積極的なコンテンツ フィルタリングを検討しています
数日前、Microsoft が OpenAI の DALL-E 3 モデルを Bing Image Creator アート メーカーに追加したと発表した後、非常に多くの人がこのサービスを試してみようとしたため、このサービスでは画像の生成が大幅に遅くなりました。Microsoftは、画像の高速化を図るためにデータセンターにさらに多くのGPUを追加していると述べた。
オンラインの多くの人が、Bing Image Creator のテキスト プロンプトや、一見ごく普通に見える単語に対してコンテンツの警告を経験しているため、Microsoft は別の問題に対処する必要があるかもしれません。
Jez Corden は、この現在の問題についてWindows Central に記事を書きました。同氏は、「男性が大ハンマーでサーバーラックを壊す」というフレーズがサービス側によって警告されたと述べた。Reddit で「カウボーイ ハットとブーツを履いた猫」と入力した別のユーザーも、今週末、コンテンツ違反のメッセージを受け取りました。
ただし、Microsoft は少なくともこの状況を認識しているようです。X (以前の Twitter) のユーザーが、Bing Image Creator 上のこれらの攻撃的なコンテンツ メッセージについて現 Microsoft Windows 責任者である Mikhail Parakhin に質問したところ、Parakhin の短い返答は「うーん」でした。これはおかしいですね、確認してみます。」
ふーむ。これは奇妙です – 確認中
— ミハイル・パラヒン (@MParakhin) 2023 年 10 月 8 日
Bing Image Creator のコンテンツ ガードレールに何かが起こったことは明らかです。ただし、このようなことが起こったのはこれが初めてではありません。Microsoft が3 月に AI アート メーカーを発表した直後、コンテンツの監視が非常に積極的だったので、「Bing」という単語を入力しただけで違反メッセージが表示されるほどでした。
当時、Parakhin 氏は、これは実際にはリリースのために意図されたものであり、X で「Bing Image Creator が機密性の高いクエリに対して過度に制限されていることを認識しており、リリース時には安全側に置く必要があった」と述べました。この現在の状況は、そうではないようです。これは意図的なものなので、すぐに修正されることを願っています。
コメントを残す