ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ | Браузер Opera интегрирует основные модели ИИ для локальной загрузки и офлайн-использования

robot
Генерация тезисов в процессе

Ведущая браузерная компания Opera заявляет, что добавляет экспериментальную поддержку 150 локальных LLM (Large Language Model) вариантов из примерно 50 семейств моделей в свой браузер Opera One в режиме разработчика.

LLM, такие как GPT (Generative Pre-trained Transformer) модели, разработанные OpenAI, являются передовыми системами искусственного интеллекта, обученными на больших объемах текстовых данных для понимания и генерации текстов, похожих на человеческие. Они используются для различных задач обработки естественного языка, включая генерацию текста, перевод и суммирование.

Согласно Opera, это первый раз, когда локальные LLM могут быть легко доступны и управляемы из основного браузера через встроенную функцию. Локальные модели ИИ являются бесплатным дополнением к онлайн-сервису Aria AI от Opera. Среди поддерживаемых локальных LLM находятся:

! * Лама из Meta

  • Викуна
  • Джемма из Google
  • Mixtral от Mistral AI

“Введение локальных LLM таким образом позволяет Opera начать исследовать способы создания впечатлений и знаний в быстро развивающемся локальном пространстве ИИ,” сказал Кристиян Колондра, EVP Браузеры и Игры в Opera.

Использование локальных больших языковых моделей означает, что данные пользователей хранятся локально на их устройстве, что позволяет им использовать генеративный ИИ без необходимости отправлять информацию на сервер, сообщил Opera.

Среди вопросов, возникающих в дискурсе об искусственном интеллекте, касается конфиденциальности данных, что привело к тому, что три ведущих децентрализованных AI проекта; Fetch.ai, SingularityNET (SNET) и Ocean Protocol решили объединиться для создания децентрализованной экосистемы ИИ.

“На сегодняшний день пользователи Opera One Developer получают возможность выбрать модель, которую они хотят использовать для обработки своих входных данных. Чтобы протестировать модели, им необходимо обновиться до последней версии Opera Developer и выполнить несколько шагов для активации новой функции,” — заявила Opera.

“Выбор локального LLM затем загрузит его на их машину. Локальный LLM, который обычно требует от 2 до 10 ГБ локального пространства для хранения на каждый вариант, будет использоваться вместо Aria, встроенного ИИ браузера Opera, до тех пор, пока пользователь не начнет новый чат с ИИ или не переключит Aria обратно.”

Подписывайтесь на нас в Twitter, чтобы получать последние сообщения и обновления

MAJOR3.33%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить