Microsoft、OpenAI、Googleなどが責任あるAIをホワイトハウスに誓約

Microsoft、OpenAI、Googleなどが責任あるAIをホワイトハウスに誓約

アマゾン、アンスロピック、グーグル、インフレクション、メタ、マイクロソフト、オープンAIのテクノロジー大手7社の代表者がバイデン・ハリス政権と会談し、人工知能の責任ある開発について話し合った。ハイテク企業は、AIの進歩を急ぐ中で倫理的配慮を真剣に考慮していると政権を安心させようとした。

ホワイトハウスでの会合は、 AIの進歩が悪用されたり、意図しない悪影響を及ぼしたりする可能性があるとの懸念が高まる中で行われた。

強力な AI システムは、非常に説得力のある方法でテキスト、画像、オーディオ、ビデオ、コードを生成できるようになりました。このテクノロジーは多くの利点を約束しますが、誤った情報の拡散を可能にし、人々を操作するために使用される可能性があると懸念する人もいます。

会合後、マイクロソフトは安全、安心で社会に有益なAIを構築することの重要性を強調した。同社の AI システムが公平で、信頼性が高く、包括的で、透明性があり、説明責任があることを保証することを目指しています。これを達成するために、同社はAI 開発の原則とガイドラインを確立しました。

Microsoft はブログで次のように述べています

ホワイトハウスの取り組みは、迅速に行動することで、AI の約束を確実にリスクに先んじて実現するための基盤を構築します。私たちは、テクノロジー業界を結集させ、AIをより安全、よりセキュアにし、国民にとってより有益なものにするための具体的な措置を打ち出す大統領のリーダーシップを歓迎します。

Googleは最近、不公平な偏見を避けるためにAIシステムに組み込む設計に関する提案も発表した。同社は、AI イノベーションに対して大胆かつ思慮深いアプローチを取ることを信じています。

OpenAIは、自社のテクノロジーを公開し、潜在的な危険性を考慮する際には慎重なアプローチを強調してきた。それにもかかわらず、FTC の一部の専門家は、OpenAI に対してその安全対策についてより透明性を高めるよう求めています

これら 7 つの主要な AI 企業は次のことに取り組んでいます。

  • AI システムのリリース前に内部および外部のセキュリティ テストを行っています。
  • AI リスクの管理について、業界全体および政府、市民社会、学術界と情報を共有します。
  • 独自のモデルや未リリースのモデルの重みを保護するために、サイバーセキュリティと内部関係者の脅威に対する保護策に投資します。
  • サードパーティによる AI システムの脆弱性の発見と報告を促進します。
  • コンテンツが AI で生成されたものであることをユーザーが確実に認識できるように、堅牢な技術メカニズムを開発します。
  • AI システムの機能、制限、適切な使用領域と不適切な使用領域を公的に報告する。
  • AI システムが引き起こす可能性のある社会的リスクに関する研究を優先する
  • 高度な AI システムを開発および導入して、社会の最大の課題への対処を支援します。

一方、Meta と Microsoft は次世代の Llama で協力しました。Microsoftはブログ投稿の中で、「Llama 2は、開発者や組織がAIを活用した生成的なツールとエクスペリエンスを構築できるように設計されている」と述べた。

ホワイトハウスは、責任あるAIイノベーションを推進するためにテクノロジー企業と緊密に連携したいとの考えを明らかにした。プライバシー、公民権、国家安全保障を保護するために、 AI システムにガードレールを組み込むよう求めています。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です