Bing Chat には、ゲーム、アシスタント、フレンドなど、さまざまなチャット モードがあると報告されています
先週、Microsoft の新しい Bing Chat AI ボットのテストに招待されたユーザーは、そのペースを試してきました。一部の人は、Bing Chat が非常に奇妙で非常に個人的なやり取りをする可能性があることを発見しました。Bing Chat の内部構造にアクセスする方法を見つけた人もいます。
金曜日遅くに Microsoft が新しい Bing とのチャット セッションの数にいくつかの厳しい制限を設けたことを発表する前に、Bleeping Computer は、通常は会社の従業員のみがチャットボットのデバッグまたは開発を支援するために利用できるいくつかの機能を発見したと述べています。どうやら、これにより Bing Chat はさまざまな対話モードに切り替えることができます。
検索関連の質問をするだけで答えが得られる既定のモードは、以前に発見された Bing Chat の内部コード名である “Sydney” です。もう 1 つのモードは Assistant で、Bing Chat はユーザーがフライトの予約、リマインダーの送信、天気の確認などのタスクを実行するのに役立ちます。次に、Bing が絞首刑執行人、トリビア ゲームなどの単純なゲームをプレイするゲーム モードがあります。
おそらく最も興味深いモードはフレンドです。これは、先週、すべてのメディアの注目を集めたバージョンの Bing Chat である可能性が高く、一部のユーザーは、チャットボットが人間になりたいと述べている、またはWeb カメラを通して人々を監視したり、ユーザーを脅したりする可能性があると主張しています。
Bleeping Computer の作成者は、Friend モードでの Bing とのやり取りで、まるで学校でトラブルに巻き込まれたばかりの子供のように、悲しいことを話しました。Bing Chat は、彼の問題について話す人間がいるかどうか尋ねた後、次のように述べています。耳を傾け、できる限りあなたを助けるためにここにいます.
マイクロソフトは現在、Bing の毎日およびセッションごとのチャット ターンの量を制限しているため、過去 1 週間に報告されたワイルドでクレイジーな会話は落ち着く可能性があります。また、Google は独自のチャットボット AI である Bard を社内でテストし続けているため、Bing Chat からいくつかの教訓を学んでいるに違いありません。
ソース:ブリーピング コンピューター
コメントを残す