Operaは、初めてユーザーがローカルでLLMを実行できるようにする。
Opera は最近、Opera One ユーザーが大規模言語モデル (LLM) を自分のパソコンにダウンロードして利用できるようにする新機能を追加しました。この機能は、開発者ストリームの更新を受信するユーザーが利用でき、Meta の Llama、Google の Gemma、Vicuna、Mistral AI など、さまざまなファミリーの 150 を超えるモデルへのアクセスを提供します。
Opera のブラウザおよびゲーム担当エグゼクティブ バイス プレジデントである Krystian Kolondra 氏は次のように述べています。
「このようにローカル LLM を導入することで、Opera は急速に発展しているローカル AI 分野で経験とノウハウを構築する方法を模索し始めることができます。」
Opera は、これらの最新追加機能を「AI Feature Drops プログラム」の一部と位置付け、ユーザー データはデバイス上に保存されたままになるので、サーバーにデータを送信しなくても生成 AI を利用できると約束しています。同社は、Ollama オープン ソース フレームワークを使用して、これらのモデルをユーザーのコンピューター上で直接実行しています。モデルの各バージョンは、デバイス上で 2~10 GB のストレージ スペースを占有します。
Opera は、これらの新機能の導入により、AI 技術を活用するトレンドに加わろうと力を入れています。ただし、昨年の Opera One のリリースで見られるように、ブラウザに AI が組み込まれたのはこれが初めてではありません。この動きは、AI に重点を置いた主要なブラウザになるという同社の目標を確固たるものにし、AI アシスタントの Aria のリリースでさらに実証されました。独特で独創的な機能を提供することで、これらのアップデートは Opera の市場シェア拡大に役立つと期待されています。2023 年 12 月の Statcounter のレポートによると、Opera は 3.8% の市場シェアを獲得し、デスクトップ ブラウザのトップ 5 にランクされています。
Opera でこの新機能を体験するには、Opera Developer を最新バージョンにアップデートし、以下の手順に従ってデバイスでローカル LLM を有効にするだけです。これにより、ユーザーが Aria とのチャットを開始したり、Aria を再アクティブ化したりしない限り、ユーザーのマシンは Opera の AI アシスタント Aria の代わりにローカル LLM を使用できるようになります。
コメントを残す