主要なブラウザ会社であるOperaは、約50のモデルファミリーからの150のローカルLLM (Large Language Model)のバリアントに対する実験的なサポートをOpera Oneブラウザの開発者ストリームに追加することを発表しました。
LLMは、OpenAIによって開発されたGPT (生成的事前学習変換器)モデルのように、大量のテキストデータで訓練された高度な人工知能システムです。これらは、テキスト生成、翻訳、要約などのさまざまな自然言語処理タスクに使用されます。
Operaによれば、これは主要なブラウザから組み込み機能を通じてローカルLLMに簡単にアクセスし管理できる初めての機会です。ローカルAIモデルは、OperaのオンラインAria AIサービスへの補完的な追加です。サポートされているローカルLLMには次のものがあります:
* メタのラマ
*「このようにローカルLLMを導入することで、Operaは急速に進化するローカルAI分野での体験を構築する方法を探り始めることができます。」*とOperaのブラウザおよびゲーム担当EVP、クリスティアン・コロンドラは述べました。
ローカル大規模言語モデルを使用することで、ユーザーのデータはデバイス上にローカルに保持され、情報をサーバーに送信することなく生成AIを使用できるとオペラは述べた。
人工知能の議論において浮上している問題の一つはデータプライバシーであり、Fetch.ai、SingularityNET (SNET)、およびOcean Protocolの3つの主要な分散型AIプロジェクトが合併して分散型AIエコシステムを構築することを決定しました。
「本日より、Opera One Developerのユーザーは、自分の入力を処理するモデルを選択する機会を得ています。モデルをテストするためには、最新のOpera Developerにアップグレードし、新しい機能を有効にするためのいくつかの手順を踏む必要があります。」 とOperaは述べました。
「ローカルLLMを選択すると、それが彼らの機械にダウンロードされます。ローカルLLMは、通常、バリアントごとに2-10GBのローカルストレージスペースを必要とし、ユーザーがAIとの新しいチャットを開始するか、Ariaを再びオンにするまで、OperaのネイティブブラウザAIであるAriaの代わりに使用されます。」
最新の投稿や更新についてはTwitterをフォローしてください
5.5K 人気度
42.1K 人気度
30.2K 人気度
6K 人気度
203.7K 人気度
人工知能 | Operaブラウザが主要なAIモデルをローカルダウンロードおよびオフライン使用のために統合
主要なブラウザ会社であるOperaは、約50のモデルファミリーからの150のローカルLLM (Large Language Model)のバリアントに対する実験的なサポートをOpera Oneブラウザの開発者ストリームに追加することを発表しました。
LLMは、OpenAIによって開発されたGPT (生成的事前学習変換器)モデルのように、大量のテキストデータで訓練された高度な人工知能システムです。これらは、テキスト生成、翻訳、要約などのさまざまな自然言語処理タスクに使用されます。
Operaによれば、これは主要なブラウザから組み込み機能を通じてローカルLLMに簡単にアクセスし管理できる初めての機会です。ローカルAIモデルは、OperaのオンラインAria AIサービスへの補完的な追加です。サポートされているローカルLLMには次のものがあります:
*「このようにローカルLLMを導入することで、Operaは急速に進化するローカルAI分野での体験を構築する方法を探り始めることができます。」*とOperaのブラウザおよびゲーム担当EVP、クリスティアン・コロンドラは述べました。
ローカル大規模言語モデルを使用することで、ユーザーのデータはデバイス上にローカルに保持され、情報をサーバーに送信することなく生成AIを使用できるとオペラは述べた。
人工知能の議論において浮上している問題の一つはデータプライバシーであり、Fetch.ai、SingularityNET (SNET)、およびOcean Protocolの3つの主要な分散型AIプロジェクトが合併して分散型AIエコシステムを構築することを決定しました。
「本日より、Opera One Developerのユーザーは、自分の入力を処理するモデルを選択する機会を得ています。モデルをテストするためには、最新のOpera Developerにアップグレードし、新しい機能を有効にするためのいくつかの手順を踏む必要があります。」 とOperaは述べました。
「ローカルLLMを選択すると、それが彼らの機械にダウンロードされます。ローカルLLMは、通常、バリアントごとに2-10GBのローカルストレージスペースを必要とし、ユーザーがAIとの新しいチャットを開始するか、Ariaを再びオンにするまで、OperaのネイティブブラウザAIであるAriaの代わりに使用されます。」
最新の投稿や更新についてはTwitterをフォローしてください