Искусственный интеллект | Браузер Opera интегрирует крупные модели ИИ для локальной загрузки и использования в офлайн-режиме

robot
Генерация тезисов в процессе

Ведущая компания в области браузеров, Opera, заявила, что добавляет экспериментальную поддержку 150 локальных вариантов LLM (Большая языковая модель) от примерно 50 семейств моделей в свой браузер Opera One в разработческой версии.

LLMs, такие как GPT (Генеративный предварительно обученный трансформер), разработанные компанией OpenAI, являются передовыми системами искусственного интеллекта, обученными на больших объемах текстовых данных для понимания и генерации текста, похожего на человеческий. Они используются для различных задач обработки естественного языка, включая генерацию текста, перевод и суммирование.

По словам Opera, это впервые локальные LLM могут быть легко доступны и управляемы из крупного браузера через встроенную функцию. Локальные модели ИИ являются дополнительным бесплатным дополнением к онлайн-сервису Opera Aria AI. Среди поддерживаемых локальных LLM есть:

  • Llama от Meta
  • Vicuna
  • Gemma от Google
  • Mixtral от Mistral AI

«Внедрение локальных LLM таким образом позволяет Opera начать исследовать способы создания опыта и знаний в быстро развивающемся пространстве локального ИИ», сказал Кристиан Колондар, исполнительный вице-президент по браузерам и играм в Opera.

Использование локальных больших языковых моделей означает, что данные пользователей хранятся локально на их устройстве, что позволяет использовать генеративный ИИ без необходимости отправлять информацию на сервер, сообщили в Opera.

Среди проблем, возникающих в дискурсе искусственного интеллекта, — вопросы конфиденциальности данных, что привело к слиянию трех ведущих децентрализованных проектов ИИ: Fetch.ai, SingularityNET (SNET) и Ocean Protocol, которые решили объединиться для создания децентрализованной экосистемы ИИ.

«На сегодняшний день пользователи Opera One Developer имеют возможность выбрать модель, с которой они хотят обрабатывать свой ввод. Чтобы протестировать модели, им нужно обновить до самой последней версии Opera Developer и выполнить несколько шагов для активации новой функции», сообщили в Opera.

«Выбор локальной LLM затем загрузит её на их устройство. Локальная LLM, которая обычно требует 2-10 ГБ локального пространства для хранения на вариант, будет использоваться вместо Aria, встроенного ИИ браузера Opera, пока пользователь не начнет новый чат с ИИ или не включит Aria обратно».

Следите за нами в Twitter для последних публикаций и обновлений

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить