Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Искусственный интеллект | Браузер Opera интегрирует крупные модели ИИ для локальной загрузки и использования в офлайн-режиме
Ведущая компания в области браузеров, Opera, заявила, что добавляет экспериментальную поддержку 150 локальных вариантов LLM (Большая языковая модель) от примерно 50 семейств моделей в свой браузер Opera One в разработческой версии.
LLMs, такие как GPT (Генеративный предварительно обученный трансформер), разработанные компанией OpenAI, являются передовыми системами искусственного интеллекта, обученными на больших объемах текстовых данных для понимания и генерации текста, похожего на человеческий. Они используются для различных задач обработки естественного языка, включая генерацию текста, перевод и суммирование.
По словам Opera, это впервые локальные LLM могут быть легко доступны и управляемы из крупного браузера через встроенную функцию. Локальные модели ИИ являются дополнительным бесплатным дополнением к онлайн-сервису Opera Aria AI. Среди поддерживаемых локальных LLM есть:
«Внедрение локальных LLM таким образом позволяет Opera начать исследовать способы создания опыта и знаний в быстро развивающемся пространстве локального ИИ», сказал Кристиан Колондар, исполнительный вице-президент по браузерам и играм в Opera.
Использование локальных больших языковых моделей означает, что данные пользователей хранятся локально на их устройстве, что позволяет использовать генеративный ИИ без необходимости отправлять информацию на сервер, сообщили в Opera.
Среди проблем, возникающих в дискурсе искусственного интеллекта, — вопросы конфиденциальности данных, что привело к слиянию трех ведущих децентрализованных проектов ИИ: Fetch.ai, SingularityNET (SNET) и Ocean Protocol, которые решили объединиться для создания децентрализованной экосистемы ИИ.
«На сегодняшний день пользователи Opera One Developer имеют возможность выбрать модель, с которой они хотят обрабатывать свой ввод. Чтобы протестировать модели, им нужно обновить до самой последней версии Opera Developer и выполнить несколько шагов для активации новой функции», сообщили в Opera.
«Выбор локальной LLM затем загрузит её на их устройство. Локальная LLM, которая обычно требует 2-10 ГБ локального пространства для хранения на вариант, будет использоваться вместо Aria, встроенного ИИ браузера Opera, пока пользователь не начнет новый чат с ИИ или не включит Aria обратно».
Следите за нами в Twitter для последних публикаций и обновлений