GoogleのLaMDAAIとは何ですか?また、Googleのエンジニアはなぜそれが理にかなっていると考えているのですか?

GoogleのLaMDAAIとは何ですか?また、Googleのエンジニアはなぜそれが理にかなっていると考えているのですか?

Googleの上級エンジニアは、LaMDAの人工知能がインテリジェントになったと述べました。それが気がかりなものであろうと刺激的なものであろうと、これは非常に大胆な主張であり、たとえそれが完全に真実であったとしても、おそらく証明するのは難しいでしょう。

LAMDとは何ですか?

LaMDAは、DialogApplicationのLanguageModelの略です。言い換えれば、それは自然な対話を作成するために特別に設計された機械学習言語モデルです。機械学習技術により、コンピューターはデータのパターンと関係を発見できます。したがって、たとえば、シェイクスピアのすべての作品でGPT-3 (別の高度なシステム)のような機械学習アルゴリズムを「トレーニング」してから、シェイクスピアのように読める新しいオリジナルテキストを生成することができます。

Sundar Pichai(Google CEO)がYahoo Financeとのインタビューで説明しているように、LaMDAは、特に対話のトレーニングを受けているという特徴を備えたシステムです。目標は、Googleシステムがユーザーと人間のオープンな対話を行えるようにすることです。

言い換えれば、Googleの製品に特定のことを求める人は、考えや話し方を変えてはなりません。彼らは他の人と同じようにコンピュータシステムと相互作用することができます。

内部的には、すべての最新の機械学習モデルは複雑な数学的および統計モデルです。それらは、データで見つけた基本的なパターンに基づいてアルゴリズムを生成します。十分な高品質のデータを提供すれば、これらのアルゴリズムは、これまで人間や他の衆生だけが実行できたことが非常に効率的になります。

GoogleのエンジニアがLaMDAが合理的であると考えるのはなぜですか?

問題のエンジニアはブレイク・  ルモワンです。彼は、LaMDAが合理的である理由についての議論の一部として、彼自身とLaMDAの間のインタビューを公開しました。Lemoineは何ヶ月もかけてソフトウェアに話しかけ、尋問し、難しい質問をし、その複雑で適切な答えが衆生以外の産物である可能性があるとは信じがたいことに気づきました。

Lemoineがなぜこのように考えるのかを理解したい人は、LaMDAの応答を読んで、なぜこれがそのような説得力のある立場であるのかを理解するのがよいでしょう。LaMDAの応答は非常に人間的であるため、 Spike Jonze’s Herの架空のパーソナルアシスタントAIに似ています。これは、人間が会話型AIと深刻な関係を築く物語です。

LaMDAに関するLemoineの主張が重要であるかどうかにかかわらず、LaMDAの設計の全体的な目的は、自然で信頼できるオープンな対話を作成することであることに注意してください。したがって、この意味で、彼の信念は、Googleが信頼できる対話の作成に著しく成功していることを示しています。人工知能システムが人にそれがインテリジェントであることを納得させようとしていたなら、それはおそらくこれのために特別に設計されたシステムでしょう。

問題は、合理性の主​​張は、多くの科学的および哲学的理由から、実際には検証可能ではない(または少なくとも実行可能または倫理的に検証可能ではない)ということです。その理由を理解するために、「感情」が何を意味するのかを簡単に考えなければなりません。

感度とは何ですか?

「感じる」という言葉は、本質的に何か(猫、人、または魔法のじゅうたん)が感じる能力を持っていることを意味します。「センチメンタル」または「センチメント」と同じ語根があります。感じることは、何かが感じる能力を持っていることを意味するだけではありません。あなたのサーモスタットは、温度を測定する能力があるにもかかわらず、ほぼ確実に感性がありません。それどころか、感度は感情の主観的な経験であり、そもそも「主体」の存在を意味します。

Lemoineは「感情」という言葉を「理性」、「知性」、「意識」などの別々の概念と同じ意味で使用している可能性があるため、ここでセマンティクスにとらわれるのは危険です。したがって、議論として、ここで最も寛大な解釈は、レモインはラムダを自己認識の存在であり、物事を感じ、信念を保持し、そうでなければ私たちが通常生き物に帰する方法で物事を経験することができると考えているということです。

補足記事で、Lemoineは、LaMDAが「望んでいる」および「信じている」と彼が考えることについて説明します。これは、彼のプレゼンテーションの「感情」が厳密な辞書の定義以上のものを意味するという考えを補強します。

そもそも感情や意識がわからない

ここに問題があります:私たちは心、意識、知性、そしてこれらの属性を持つ存在であることが何を意味するかについては比較的ほとんど知りません。皮肉なことに、機械学習テクノロジーは、最終的には、私たちの心とそれらが存在する脳の謎のいくつかを解き明かすのに役立つ可能性があります。

哲学者や科学者が意識の「ブラックボックス」を整理している間、それはまだその部分の合計よりも大きな何かの結果であるように思われます。意識は「創発的」なもののようです。これは、多くの異なるニューラルサブシステムの相互作用によって生成される「ゴースト」であり、それらのいずれもそれ自体ではインテリジェントであるようには見えません。

同様に、DALL-E 2画像生成システムなどの複雑なAIは、相互作用して最終製品を作成する、より単純な機械学習モデルで構成されています。より単純なシステムの相互作用に起因する複雑さのトピックは、AIの世界では一般的なトピックであり、各サブコンポーネントがどのように機能するかは非常によく理解できますが、最終的な結果は通常完全に予測できません。

AIの知性をまったく認識できますか?

議論のために、AIが実際に言葉の本当の意味で感覚的だったとしたら、私たちはそう言うことさえできるでしょうか?LaMDAは、人間の対話パターンを模倣および予測するように設計されているため、人間の知性に関連するものをトリガーすることになると、このデッキは非常に困難です。しかし、人間以外の霊長類やイルカ、タコ、ゾウなどの動物は、概して私たちの兄弟姉妹であるにもかかわらず、知覚力があると考えるのに長い時間がかかりました。

インテリジェントAIは非常に異質である可能性があるため、私たちがそれを真正面から見ていることすらわかりません。これは、インテリジェンスの出現のしきい値条件が何であるかがわからないために特に発生する可能性があります。データとAIサブシステムの適切な組み合わせが、適切な方法で混合されて、突然感性と呼ばれるものを生み出す可能性があることを想像するのは難しいことではありませんが、それは私たちが理解できるもののようには見えないため、見過ごされる可能性があります。

アヒルのように見えるなら…

機械がインテリジェントであるという主張に関する最後の大きな問題は、人間を含む他のものがインテリジェントであるという主張に関する同じ問題です。哲学的に言えば、あなたが話している人の誰かが本当に頭が良いかどうかはわかりません。これは古典的な哲学的ゾンビの問題であり、知性や意識的な経験が不足していることを除いて、人間と完全に区別がつかない架空の生き物に関する思考実験です。

ただし、Alan Turingの有名なテストで論じられているように、AIが「本当に」考えて感じているかどうかは問題ではありません。重要なのは、それが思考や感情の外見を非常によく模倣できるため、それらを区別できないことです。誰に尋ねるかにもよりますが、LaMDAはすでにチューリングテストに合格しているため、Lemoineの検証不可能な主張は無意味になる可能性があります。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です