ШТУЧНИЙ ІНТЕЛЕКТ | Браузер Opera інтегрує основні моделі ШІ для локального завантаження та офлайн-використання

robot
Генерація анотацій у процесі

Ведуча компанія браузерів, Opera, повідомляє, що вона додає експериментальну підтримку 150 локальних LLM (Великих мовних моделей) варіантів з приблизно 50 сімей моделей до свого браузера Opera One у розробницькому потоці.

LLM, такі як GPT ( Генеративний попередньо навчений трансформер ) моделі, розроблені OpenAI, є просунутими системами штучного інтелекту, які навчені на великих обсягах текстових даних для розуміння та генерування тексту, подібного до людського. Вони використовуються для різних завдань обробки природної мови, включаючи генерацію тексту, переклад і підсумовування.

Згідно з Opera, це перший раз, коли локальні LLM можуть бути легко доступні та керовані з великого браузера через вбудовану функцію. Локальні AI моделі є безкоштовним доповненням до онлайн-сервісу Aria AI від Opera. Серед підтримуваних локальних LLM:

! * Лама з Meta

  • Вікуна
  • Джемма з Google
  • Мікстрал від Mistral AI

“Представлення локальних LLM у такий спосіб дозволяє Opera почати досліджувати способи створення досвіду та знань у швидко зростаючій локальній AI-галузі,” сказав Кристіан Колондра, EVP Браузери та Ігри в Opera.

Використання локальних великих мовних моделей означає, що дані користувачів зберігаються локально на їхньому пристрої, що дозволяє їм використовувати генеративний ШІ без необхідності надсилати інформацію на сервер, заявила компанія Opera.

Серед проблем, що виникають у дискурсі про штучний інтелект, є питання конфіденційності даних, яке стало причиною об’єднання трьох провідних децентралізованих проектів штучного інтелекту: Fetch.ai, SingularityNET (SNET) та Ocean Protocol для створення децентралізованої екосистеми штучного інтелекту.

“Станом на сьогодні, користувачі Opera One Developer отримують можливість вибрати модель, з якою вони хочуть обробляти свої дані. Щоб протестувати моделі, їм потрібно оновитися до останньої версії Opera Developer та виконати кілька кроків для активації нової функції,” - заявила Opera.

“Вибір локального LLM тоді завантажить його на їхній комп’ютер. Локальний LLM, який зазвичай вимагає 2-10 ГБ локального місця для кожного варіанту, буде використовуватися замість Aria, рідного AI браузера Opera, поки користувач не розпочне новий чат з AI або не переключить Aria назад.”

Слідкуйте за нами в Twitter для останніх дописів та оновлень

MAJOR2.19%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити