米国、英国、その他 16 か国が AI を「安全な設計」にするための協定に署名
米国、英国、その他 16 か国が連携し、AI を「安全な設計」にするための新しい協定に署名しました。これは原則の基本的な表明とみなされているだけですが、米国サイバーセキュリティ・インフラセキュリティ庁 (CISA) は、これが正しい方向への一歩であると述べています。
AI は現状よりもはるかに安全になる必要があり、それに基づく新しいシステムの作成を管理する法律が必要です
これまで、2 つの数値間のパーセンテージを計算するなどの基本的なタスクから複雑な答えまで、AI のいくつかの用途を見てきました。 AI の用途は数多くあり、私たちが思いつく範囲内で定義することはできません。モデルのパラメータが多ければ多いほど、モデルの性能は向上します。AI は2024 年の携帯電話のネイティブ機能となるため、重要です。
報告書にはこう書かれていますが、
米国、英国、その他十数か国は日曜日、人工知能を不正行為者から守る方法に関する初の詳細な国際協定であると米国高官が発表した内容を発表し、企業に対し「安全なAIシステム」の構築を促した。デザイン。”
日曜日に発表された20ページの文書では、AIを設計・利用する企業は、顧客や広範な公衆が悪用されないように開発・導入する必要があると18カ国が合意した。
CISA所長のジェン・イースタリー氏も、AI開発には安全第一のアプローチが必要であることを各国が理解することがいかに重要かを語り、他国もこれに参加できるよう奨励した。
イースタリー氏はロイターに対し、「これらの機能は単なる優れた機能だけではなく、どれだけ早く市場投入できるか、あるいはコストを削減するためにどのように競争できるかということを確認したのは初めてだ」と述べ、ガイドラインは以下のことを表していると述べた。 「設計段階で行う必要がある最も重要なことはセキュリティであるという合意です。」
ドイツ、イタリア、チェコ共和国、エストニア、ポーランド、オーストラリア、チリ、イスラエル、ナイジェリア、シンガポールも協定に署名した。一方、AIが最終的に脅威にならないようにするために、欧州は新しいAIシステムの開発とリリースを管理する特定の法律の制定に取り組み始める予定だ。これは、EU 内で自社のシステムを実現するすべての企業が、ユーザーによる AI の悪用を可能にする脆弱性が存在しないことを確認する必要があることを意味します。
AI の使用を止めるべきではないことは否定できません。特に、テクノロジーの進歩と改善、そしてある程度の日常生活の向上を期待している場合はそうです。この合意ははるかに重要です。同時に、人工知能の使用を管理する法律の制定は簡単な作業ではなく、実際に成果を上げるまでに何年もかかる可能性があることを理解することが重要です。同時に、AI には、その過程で開発される機能があることを認識する必要があります。これは、同じモデルがより多くのことを学習した数年後には、現在の AI モデルに適用される規制やルールを作成するだけでは不十分になる可能性があることを意味します。
ニュースソース: ロイター
コメントを残す