マイクロソフトは AI チャットボットを正しく理解できていないようです
ここ数週間、人工知能 (AI) に関連するニュースが見出しを独占しています。これは主に、Microsoft が支援する OpenAI のチャットボットと、新しい Bing に統合されたチャットボットによって促進されました。多くの人がジェネレーティブ AI によって実証された機能に感銘を受けており、数百万人が新しい Bing の限定プレビューにサインアップしていますが、ここ数日で現在の実装に関する顕著な問題も表面化しています。
新しい Bing のユーザーは、統合されたチャットボットに、PC の Web カメラを介して開発者をスパイし、一部の開発者と恋に落ちたという主張など、本当に思いがけないことを言わせることに成功しました。AI は、人間になりたいという願望も表明しました。これは、過去に他のチャットボットでも見られたことです。AIは、客観的な質問にも答えながら、事実の誤りも表示しました。これらすべてが問題となり、Microsoft は AI との会話の長さと性質に厳格な制限を課さなければならず、蔓延を減らす努力をしました。
もちろん、これは Microsoft の Bing が知覚力を持つようになったことを意味するものではありません。チャットボットによる奇妙な応答は、会話のパターンを識別し、それに応じて応答を生成するために、インターネット全体 (ユーザー生成コンテンツを含むフォーラムを含む) から情報をスクレイピングする大規模な言語モデルの副産物です。しかし、Microsoft の最新の実験は、行儀の良い AI チャットボットが、同社にとって、そしておそらく技術のパイオニア全体にとっての課題であり続けていることを示しています。
さかのぼる 2016 年、Cortana がまだ健在だった頃、Microsoft は Twitter で「Tay」というチャットボットを立ち上げました。ダイレクトメッセージでも自由に会話できるという意味で、新しいBing AIと本質的に似ていました. 会話の例を以下に示します。
IT HAS 'WHAT IS LOVE' AND RICKROLL BUILT IN
THIS IS IT
WE DID IT PEOPLE pic.twitter.com/jZdjlYadJm— Albacore (@thebookisclosed) March 23, 2016
しかし、AI モデルが人種差別的および性差別的な発言を行ったため、Microsoft は起動から 16 時間以内にボットをオフラインにしました。同社は謝罪を余儀なくされ、Microsoft の Microsoft Research のコーポレート バイス プレジデントである Peter Lee は、望ましくない結果はチャットボットの「脆弱性を悪用した一部の人々による組織的な攻撃」によるものであると主張しました。後から考えると、AI がインターネット上のほぼすべての人に解放され、外出先で学習していたことを考えると、これはまったく驚くべきことではありません。
「Zo」という名前の後継者は、2016 年後半に複数のソーシャル メディア プラットフォームでローンチされましたが、物議を醸す宗教的な発言が相次ぎ、2019 年に Tay と同じ運命をたどりました。
これらの失敗にもかかわらず、Microsoft はこの分野でもある程度の成功を収めています。日本や中国などのアジア市場向けの「Xiaoice」と呼ばれる別の古い AI チャットボット プロジェクトがあります。Microsoft は後に Xiaoice を別の会社にスピンオフしましたが、チャットボットにも論争がありました。ボットは過去に中国政府に批判的なコメントをしたことがあり、一時的にオフラインにされました。また、ターゲット市場と商用ユースケースを考えると、新しい Bing と同様に、はるかに制限的であり、潜在的に機密性の高いトピックに関連する会話を回避しようとします.
Microsoft が AI チャットボットの機能に関して大きな進歩を遂げている一方で、不適切な応答の生成、正確性、偏見に関連する主要な課題にまだ取り組んでいることは明らかです。Bing チャットボットに課せられた最近の厳しい制限は、AI との自由に流れる会話はまだいくらか先のことかもしれないことを示しています。リアルタイム。
これはおそらく、OpenAI の ChatGPT がこの点でより成功している理由でもあります。比較的精選されたデータでトレーニングされており、リアルタイムでインターネットから情報をスクレイピングすることはありません。実際、そのトレーニング データのカットオフ期間は 2021 です。
また、表示されている想定される事実が不正確であるという問題もあります。Google の Bard デモはこの点で悪名高いものになりましたが、Microsoft の Bing Chat は同じ課題に直面しています。AI の応答の出所が信頼できない場合は、従来の Web ブラウザー検索を行ったほうがよいのではないでしょうか? これは、AI チャットボットが現在の状態で完全に役に立たないと言っているわけではありません (私は実際には ChatGPT をかなり頻繁に使用しています)。現在入っています。
もちろん、SF 小説や映画のように AI チャットボットと連携する時代が来るかもしれませんが、その技術はまだゴールデン タイムの準備ができていないことが明らかになりました。Google の親会社である Alphabet の会長である John Hennessy でさえ、ChatGPT のようなチャットボットが、誇大宣伝が主張する形で有用になるにはほど遠いと考えています。いつか目的地に着くでしょうが、それは今日ではありません。
コメントを残す