Microsoft Azure AI コンテンツ セーフティは、有害コンテンツ検出のための高度な方法を導入します

Microsoft Azure AI コンテンツ セーフティは、有害コンテンツ検出のための高度な方法を導入します

本日、マイクロソフトは生成 AI の安全機能に関する重要な発表を行いました。その中で、Azure AI コンテンツ セーフティフレームワーク内に、AI によって生成された幻覚コンテンツを検出して修正することを目的とした新しいツールが導入されました。さらに、マイクロソフトは、Azure OpenAI サービスがDALL-E 3 モデルで生成された画像に目に見えない透かしを実装し始めることを明らかにしました。

さらに、Microsoft は、Azure AI コンテンツ セーフティ サービス内の革新的なマルチモーダル APIのパブリック プレビューにより、AI の安全性に引き続き注力しています。この API は、人間の作成者によるものでも AI ツールによるものでも、有害または不適切なコンテンツを識別するように設計されています。

Microsoft のブログ投稿によると:

マルチモーダル API は、テキストと画像の両方の入力に対応しています。マルチクラスおよびマルチ重大度の検出用に設計されており、さまざまなカテゴリにわたってコンテンツを分類し、それぞれに重大度スコアを割り当てることができます。システムは、カテゴリごとに 0、2、4、6 の範囲の重大度レベルを提供します。数値が大きいほど、コンテンツの重大度が高くなります。

この新しくリリースされたマルチモーダル API は、絵文字を含むテキストと画像の両方で、安全でない、または不適切な主題を含む可能性のある有害なコンテンツを識別できます。これには、露骨なコンテンツ、ヘイトスピーチ、暴力、自傷行為、性的コンテンツが含まれます。Microsoft は、個別に分析した場合は無害である可能性のあるテキストと画像の組み合わせで表示される場合でも、API がそのようなコンテンツを検出できることを強調しています。

マイクロソフトは声明の中で次のように強調した。

これらの目標を達成することで、マルチモーダル検出機能はより安全で敬意のあるユーザー エクスペリエンスを促進し、創造的でありながら責任あるコンテンツの生成を可能にします。

さらに、マイクロソフトは、新しいマルチモーダル API は有害なコンテンツを迅速に検出し、さまざまなアプリケーションやサービスのユーザーに配信されないようにすることができると述べました。

ソース

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です