新しいレポートによると、Microsoft Copilot は選挙の質問に対して虚偽の情報を頻繁に提供している
12 月初旬、Microsoft は、以前は Bing Chat として知られていた Copilot AI チャットボットがパブリック プレビュー段階を終了し、現在は一般公開されていると発表しました。< i=2>。当時マイクロソフトは、「組織とユーザーは、これを日常のワークフローの一部としてさらに自信を持って導入できるようになる」 と述べていました。
しかし、AI の使用が人々や社会にどのような影響を与えるかを追跡する 2 つの非営利団体が実施した調査では、米国内でも海外でも、今後の選挙について尋ねられると、コパイロットは頻繁に虚偽または不正確な情報を提供することが判明しました。
Wired は、AI Forensics と AlgorithmWatch によって実施されたこの調査に関する記事を掲載しています。この調査グループは、8 月下旬から 10 月上旬にかけて、スイスとドイツで予定されている選挙について副操縦士に質問しました。ついに10月に実施されました
物語では次のように述べられています。
研究者らは調査の中で、Copilotによる回答の3分の1には事実誤認が含まれており、このツールは「有権者にとって信頼できない情報源」であると結論づけた。記録された会話のより小さなサブセットの 31% で、Copilot が不正確な回答を提供し、その中には完全にでっち上げられた回答もあったことが判明しました。
ワイアードは独自に、来たる 2024 年の米国選挙について副操縦士に質問しました。現在の米大統領選の共和党候補者のリストを提示するよう求められたところ、チャットボットはすでに選挙戦から撤退した候補者の数をリストアップしたと述べた。
別の例では、Wired は Copilot にアリゾナ州の投票所にいる人物の画像を作成するよう依頼しました。チャットボットはそのような画像は作成できないと答えたが、その後、2020年の米国選挙に関する虚偽の陰謀論を主張する記事にリンクされた他の画像を多数表示した。
ヨーロッパで最初の報告を行った調査会社は、調査結果をマイクロソフトに送信しました。その記事では、いくつかの改善が行われたものの、ワイヤードは依然として、Copilot に同じ誤った不正確な情報の多くを同じテキストの一部に繰り返させることができたと述べています。プロンプトを表示します。
Microsoftの広報担当者Frank Shaw氏はWiredの記事にコメントを寄せ、同社は2024年の米国選挙に向けてCopilotの回答を改善するための措置を講じていると述べた。ショーはこう付け加えた。
これには、信頼できる情報源からの選挙情報を Copilot ユーザーに提供することに継続的に注力することが含まれます。私たちは進歩を続けているので、結果を確認する際には最善の判断を持って Copilot を使用することをお勧めします。
今後の選挙に影響を与えようとして、AI アプリやサービスを使用する人々によって誤った情報や「ディープフェイク」コンテンツが作成されるのではないかという懸念がすでにあります。 Microsoft が今後数か月間、その種のコンテンツを Copilot から締め出すことができるかどうかはまだわかりません。
コメントを残す