GoogleのAI「Gemma」とは何ですか?Geminiとどう違うのですか?
Googleはここ数週間、AIの開発に懸命に乗ってきた。まず、同社は Gemini Advanced および 1.5 Pro モデルをリリースしましたが、今回、このテクノロジー巨人が Gemma AI を搭載して登場しました。
Gemma は、主力の Gemini モデルをベースにした軽量のオープンソース AI モデル ファミリです。 Gemini の作成に使用されたこれらの最先端モデルの構築には、同じテクノロジーと研究が使用されています。ジェマはジェミニの小さな兄弟と考えることができます。
ジェンマとは
開発者向けに設計されたGemma は、Gemini に必要な大規模な計算リソースを必要とせず、さまざまなタイプの消費者向けハードウェア (ラップトップ、クラウド環境、または標準ワークステーション) で AI 機能を実行できるため、日常の AI 開発者に AI 機能を提供することに重点を置いています。
サイズ:
Gemma は現在、2B と 7B (パラメーター) の 2 つのサイズで利用可能であり、各モデルにはベース (事前トレーニング済み) と命令調整済みの 2 つのバリエーションがあります。
Google は、事前トレーニングされたモデルを安全かつ信頼できるものにするために、トレーニング セットから個人情報やその他の機密データを除外しました。
命令調整モデルの場合、同社はヒューマン フィードバック (RLHF) からの広範な微調整と強化学習を使用して、モデルを責任ある行動に合わせるようにしました。
ジェマへのアクセス:
Gemma は、HuggingFace、Kaggle、NVIDIA NeMo、MaxText などの一般的なツールと統合されているため、簡単に使い始めることができます。Vertex AI と Google Kubernetes Engine (GKE) を介して Google Cloud にデプロイすることも簡単です。
また、NVIDIA GPU や Google Cloud TPU などの AI ハードウェア プラットフォーム向けに最適化されています。
可用性:
世界中で利用可能な Gemma モデルは現時点では英語のみで動作しますが、Google は将来的には拡張することを期待しています。また、サイズが小さいため、質問応答、要約、推論などの言語関連のタスクにも最適です。
開発者は、要約や検索拡張生成 (RAG) などのタスクのために、アプリケーションの Gemma モデルを微調整できます。
オープンソース モデルにガードレールを設けるのは難しいため、Gemma モデルには責任ある AI ツールキットが同梱されており、開発者が Gemma を使用する際に独自のガイドラインを作成できるようになります。
ジェマ vs. ジェミニ
Gemini は、Web アプリ、Android アプリ、またはiOS 上の Google アプリを通じてエンド カスタマーに利用できます。ただし、Gemma モデルは開発者向けにのみ設計されています。
開発者は API または Vertex AI を通じて Gemini にアクセスでき、クローズド モデルになります。これに対し、Gemma は、開発者、研究者、企業が実験や独自のアプリケーションへの統合のために容易に利用できるオープンソース モデルです。
Gemini モデルも大規模であり、多くの場合、専用のデータセンター ハードウェアが必要になります。一方、Gemma は小型であるため、持ち運びが容易で、コスト効率が高くなります。
どちらも微調整できますが、Gemma はカスタマイズを念頭に置いて構築されています。開発者は、Gemma モデルをより簡単に適応させて、特定の種類のデータを操作したり、特殊なタスクを実行したりできるようになります。
Gemma モデル、特に Gemma 7B は、Llama 2 7B や Mistral 7B などの他の同様の LLM モデルとベンチマーク テストで同等のパフォーマンスを示しています。 Gemma は、高度な AI モデルをよりアクセスしやすく、適応可能なものにするための Google の取り組みを代表しています。同社は、Gemma ファミリを拡大するにつれて、将来さらに多くのバリエーションをリリースする予定です。
コメントを残す