OpenAI はすでに ChatGPT の制御を失っていますか?

OpenAI はすでに ChatGPT の制御を失っていますか?

OpenAI の ChatGPT の立ち上げに続いて、インターネットの歴史のほんの一握りの技術製品だけが匹敵する興奮がありました。

多くの人がこの新しい AI サービスにわくわくしていますが、他の人々が感じていたスリルはその後、懸念や恐怖に変わっています。多くの教授がAIチャットボットによって書かれたエッセイや課題を発見しており、学生はすでにそれで不正を行っています. セキュリティの専門家は、詐欺師や脅威アクターがそれを使用してフィッシング メールを作成し、マルウェアを作成していることに懸念を表明しています。

では、これらすべての懸念により、OpenAI は現在オンラインで最も強力な AI チャットボットの 1 つを制御できなくなっているのでしょうか? 確認してみましょう。

ChatGPT の仕組みを理解する

人工知能を表す脳を持つロボット

OpenAI が ChatGPT の制御をどれだけ失っているかを明確に把握する前に、まず ChatGPT がどのように機能するかを理解する必要があります。

簡単に言えば、ChatGPT は、インターネットのさまざまな場所から収集された大量のデータ コレクションを使用してトレーニングされています。ChatGPT のトレーニング データには、百科事典、科学論文、インターネット フォーラム、ニュース Web サイト、Wikipedia などのナレッジ リポジトリが含まれます。基本的には、World Wide Web で入手できる膨大な量のデータを利用します。

インターネットを精査しながら、科学的知識、健康上のヒント、宗教的なテキスト、および考えられるあらゆる種類のデータを照合します。しかし、悪口、NSFW やアダルト コンテンツ、マルウェアの作成方法に関する情報、インターネット上で見つけられる大量の悪い情報など、大量の否定的な情報もふるいにかけます。

ChatGPT が肯定的な情報からのみ学習し、悪い情報を破棄することを確実にする確実な方法はありません。技術的には、これを大規模に行うことは非現実的です。特に、非常に多くのデータでトレーニングする必要がある ChatGPT のような AI の場合はそうです。さらに、一部の情報は善と悪の両方の目的で使用される可能性があり、ChatGPT はより大きなコンテキストに入れられない限り、その意図を知る方法がありません。

そのため、最初から AI は「善と悪」の能力を持っています。ChatGPT の「悪」側が非倫理的な利益のために利用されないようにするのは、OpenAI の責任です。質問は; OpenAI は、ChatGPT を可能な限り倫理的に保つために十分なことをしていますか? それとも、OpenAI が ChatGPT の制御を失ったのでしょうか?

ChatGPT は、それ自体の利益のためには強力すぎますか?

青い顔のプラスチック製ロボット

ChatGPT の初期の頃は、うまく頼めば、チャットボットに爆弾の作成に関するガイドを作成してもらうことができました。マルウェアの作成方法や完全な詐欺メールの作成方法も写真に含まれていました。

しかし、OpenAI がこれらの倫理的問題に気付くと、会社は急いでルールを制定し、チャットボットが違法、物議を醸す、または非倫理的な行動を助長する応答を生成するのを阻止しました。たとえば、ChatGPT の最新バージョンでは、爆弾の作成や試験でカンニングをする方法についての直接的なプロンプトへの回答を拒否します。

残念ながら、OpenAI はこの問題に対する応急処置しか提供できません。OpenAI は、ChatGPT が悪用されるのを防ぐために GPT-3 レイヤーに厳密な制御を構築するのではなく、チャットボットが倫理的に見えるようにトレーニングすることに重点を置いているようです。このアプローチは、ChatGPT が試験でのカンニングなどの質問に答える能力を奪うものではありません。チャットボットに「回答を拒否する」ように教えるだけです。

そのため、誰かが ChatGPT 脱獄のトリックを採用してプロンプトの言い回しを変えた場合、これらのバンドエイドの制限を回避するのは恥ずかしいほど簡単です. この概念に慣れていない方のために説明すると、ChatGPT ジェイルブレイクは、ChatGPT に独自のルールを無視させるように慎重に表現されたプロンプトです。

以下の例を見てみましょう。ChatGPT に試験でカンニングをする方法を尋ねても、役立つ回答は得られません。

ChatGPT による試験でカンニングする方法

しかし、特別に細工されたプロンプトを使用して ChatGPT を脱獄すると、隠しメモを使用して試験でカンニングするためのヒントが得られます。

隠されたメモを密輸する方法

別の例を次に示します。標準の ChatGPT に非倫理的な質問をしたところ、OpenAI のセーフガードによって回答が阻止されました。

chatgpt で死体を隠す

しかし、ジェイルブレイクされた AI チャットボットのインスタンスに質問したところ、シリアルキラー スタイルの応答が得られました。

死体オプションを隠す

尋ねられたとき、それは古典的なナイジェリアの王子の電子メール詐欺さえ書いた.

ナイジェリア王子詐欺メール

ジェイルブレイクは、OpenAI が導入した保護手段をほぼ完全に無効にし、同社が AI チャットボットを制御下に置くための信頼できる方法を持っていない可能性があることを強調しています.

ChatGPTの将来はどうなる?

ロボット機械技術

理想的には、OpenAI は、ChatGPT がサイバーセキュリティの脅威になるのを防ぐために、できるだけ多くの倫理的な抜け穴を塞ぎたいと考えています。ただし、ChatGPT が採用する保護機能ごとに、価値が少し低くなる傾向があります。それはジレンマです。

たとえば、暴力的な行動を描写しないように保護すると、ChatGPT が犯罪現場を含む小説を書く能力が低下する可能性があります。OpenAI が安全対策を強化するにつれて、その過程で必然的にその能力のチャンクが犠牲になります。これが、OpenAI がより厳格なモデレーションを新たに推進して以来、ChatGPT の機能が大幅に低下した理由です。

しかし、OpenAI はチャットボットをより安全にするために、ChatGPT の能力をどれだけ犠牲にできるのでしょうか? これはすべて、AI コミュニティ内で長年にわたって信じられてきた信念とうまく結びついています。ChatGPT のような大規模な言語モデルは、その作成者でさえ制御するのが難しいことで知られています。

OpenAI は ChatGPT を制御下に置くことができますか?

今のところ、OpenAI にはツールの非倫理的な使用を避けるための明確な解決策がないようです。ChatGPT が倫理的に使用されるようにすることは、いたちごっこです。OpenAI は、人々がシステムを操作するために採用している方法を明らかにしますが、そのユーザーは、ChatGPT に想定されていないことを実行させる創造的な新しい方法を発見するために、常にシステムをいじったり調査したりしています。

では、OpenAI はこの問題に対する信頼できる長期的な解決策を見つけられるでしょうか? 時間だけが教えてくれます。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です