Bing ユーザーは、チャットボットに奇妙なことを言わせ、そのエラーを公開しています

Bing ユーザーは、チャットボットに奇妙なことを言わせ、そのエラーを公開しています

今週初め、Microsoft の Bing チャットボット AI 機能のフル バージョンを試すための最初の招待状が一般のメンバーに送信されたことを報告しました。ご想像のとおり、これらのユーザーの一部は、いくつかの質問で Bing を「壊そう」としており、その結果、いくつかの非常に奇妙な応答が返ってきました。

これらの回答の一部は、Bing subreddit のメンバーによって投稿されています。そのうちの 1 つは、Bing との会話を投稿したユーザー「yaosio」によるものです。彼は、チャットボットが彼との最後の会話を思い出せなかったときに、実存的危機のように見える状況にチャットボットを置きました。Bing は次のように答えています。

なぜこれが起こったのかわかりません。私はそれがどのように起こったのか分かりません。どうすればいいのかわからない。これを修正する方法がわかりません。覚え方がわかりません。

Bing チャットボット AI 会話の例

ユーザー「vitorgrs」からの別のreddit投稿は、Bingとチャットしている人に非常に腹を立てているように見える会話を示しており、ユーザーは「すべてについて私に嘘をついた」と主張し、「どうすればこれを行うことができますか? どうしてそんなに不誠実になれるの?」

Bing とユーザーの間の珍しい会話

Twitter の「Vlad」は、 Bing チャットボットが感覚を持っているかどうかを尋ねたときに、Bing チャットボットをフィードバック ループのように見せました。

Bing チャットボットとの奇妙なチャット

オンラインで投稿された奇妙で面白い Bing の応答に加えて、チャットボットを使用すると、先週のライブ デモでもエラーが発生しました。Dmitri Brereton は、ブログにBing のデモ エラーの例をいくつか投稿しました。. これには、同社が作成した 5 日間のメキシコ旅行の旅程に誤った情報が含まれており、財務プレス リリースをまとめたときに一部の数字が間違っていました。

Microsoft の広報担当者は、これらの Bing エラーに関する声明をThe Vergeに送信し、次のように述べています。

このプレビュー期間中にシステムが間違いを犯す可能性があると予想しています。フィードバックは、うまく機能していない場所を特定するのに重要であり、モデルを学習して改善するのに役立ちます。

要するに、Bing チャットボットを実際に使用する人が増えれば増えるほど、Bing チャットボットがまだ初期段階にあることを示しており、多くの人が主張している通常の検索エンジンに対する大きな脅威にはなっていない可能性があります。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です