Microsoft、Google、OpenAI などの AI システムが 8 月の DEFCON 31 でテストされる

Microsoft、Google、OpenAI などの AI システムが 8 月の DEFCON 31 でテストされる

ジェネレーティブ AI の台頭により、多くの人々は、倫理的かつ責任ある行動をとれないのではないかと懸念しています。実際、Google の最高位の AI 研究者の 1 人である Geoffrey Hinton は、AI の潜在的な危険性について世界に自由に警告できるように、最近会社を去りました。

本日、米国副大統領のカマラ・ハリスは、AI 開発の主要企業 4 社の CEO と会談します。マイクロソフトのサティア・ナデラ、Google のサンダー・ピチャイ、OpenAI のサム・アルトマン、アンスロピックのダリオ・アモデイです。ホワイトハウスは、参加者がAIの使用の増加と、「個人と社会へのリスクと潜在的な害を軽減する保護手段を備えた、責任があり、信頼でき、倫理的なイノベーションを推進することの重要性」について話し合うと述べています。

バイデン政権はまた、Hugging Face、NVIDIA、Stability AI とともに、これら 4 つの企業が、毎年開催される DEFCON ハッキング カンファレンスで自社の AI システムをテストすることに同意したことも発表しました。DEFCON 31 は、8 月 10 ~ 13 日にラスベガスで開催される予定です。ホワイトハウスのプレスリリースは次のように述べています。

この独立した演習は、これらのモデルの影響に関する重要な情報を研究者や一般の人々に提供し、AI 企業や開発者がこれらのモデルで見つかった問題を修正するための措置を講じることを可能にします。政府や開発した企業から独立した AI モデルのテストは、効果的な評価において重要な要素です。

さらに、米国行政予算局は、米国政府が AI をどのように使用すべきかに関する政策の草案を作成し、パブリック コメントを求める予定です。また、国立科学財団は、7 つの新しい国立 AI 研究所の資金調達のために 1 億 4000 万ドルを追加し、これらのグループの数は 25 になります。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です