ШТУЧНИЙ ІНТЕЛЕКТ | Браузер Opera інтегрує основні моделі ШІ для локального завантаження та офлайн-використання

robot
Генерація анотацій у процесі

Провідна компанія-розробник браузерів, Opera, повідомляє, що вона додає експериментальну підтримку 150 локальних варіантів (Великої Мовної Моделі) (LLM) з приблизно 50 сімей моделей у свій браузер Opera One у розробницькому потоці.

Моделі LLM, такі як GPT (Генеративний Передтренований Трансформер), розроблені компанією OpenAI, є передовими системами штучного інтелекту, навчання яких базується на великих обсягах текстових даних для розуміння та генерації тексту, схожого на людський. Вони використовуються для різних завдань обробки природної мови, включаючи генерацію тексту, переклад і підсумовування.

Згідно з інформацією Opera, це вперше локальні LLM можна легко отримати доступ і керувати ними з допомогою основного браузера через вбудовану функцію. Локальні моделі штучного інтелекту є додатковим доповненням до онлайн-сервісу Opera Aria AI. Серед підтримуваних локальних LLM є:

  • Llama від Meta
  • Vicuna
  • Gemma від Google
  • Mixtral від Mistral AI

«Впровадження локальних LLM у такий спосіб дозволяє Opera почати досліджувати шляхи створення досвіду та знань у швидко зростаючому просторі локального штучного інтелекту,» сказав Крістіан Колондар, виконавчий віце-президент з браузерів і ігор у Opera.

Використання локальних великих мовних моделей означає, що дані користувачів зберігаються локально на їхньому пристрої, що дозволяє використовувати генеративний штучний інтелект без необхідності надсилати інформацію на сервер, повідомила Opera.

Серед проблем, що виникають у дискурсі штучного інтелекту, — питання конфіденційності даних, що призвело до злиття трьох провідних децентралізованих проектів штучного інтелекту: Fetch.ai, SingularityNET (SNET) та Ocean Protocol для створення децентралізованої екосистеми штучного інтелекту.

«На сьогодні користувачі Opera One Developer мають можливість обрати модель, з якою вони хочуть обробляти свої дані. Щоб протестувати моделі, їм потрібно оновити до найновішої версії Opera Developer і виконати кілька кроків для активації нової функції,» повідомила Opera.

«Обравши локальну LLM, вона буде завантажена на їхній пристрій. Локальна LLM, яка зазвичай потребує 2-10 ГБ місця для зберігання на варіант, буде використовуватися замість Aria, вбудованого браузерного AI Opera, доки користувач не почне новий чат із AI або не увімкне Aria знову.»

Слідкуйте за нами у Twitter для останніх публікацій та оновлень

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити