Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
VS Code теперь позволяет использовать локальные модели ИИ через Ollama
Заголовок
VS Code добавляет поддержку Ollama, позволяя разработчикам выбирать локальные или облачные AI-модели в Copilot
Аннотация
Microsoft добавила поддержку Ollama непосредственно в VS Code через GitHub Copilot. Ollama — это инструмент с открытым исходным кодом, который запускает большие языковые модели на вашем собственном компьютере или сервере, который вы контролируете. Теперь вы можете выбрать любую модель, размещённую на Ollama, из селектора моделей Copilot и использовать её для помощи с кодом. Это позволяет разработчикам работать с AI, не отправляя код во внешние облачные сервисы. Вы можете запускать модели, такие как Llama3 или DeepSeek, в оффлайн-режиме, получать более быстрые ответы, так как всё работает локально, и избегать затрат на облачные API.
Анализ
Это соединяет GitHub Copilot — который обычно использует GPT или Claude через облако Microsoft — с любыми открытыми моделями, которые вы хотите запускать самостоятельно. Для разработчиков, которые не могут или не хотят отправлять проприетарный код на внешние серверы, это значительное изменение.
Сейчас подходящее время. Потребительское оборудование стало достаточно хорошим, чтобы запускать полезные модели локально, и растёт число разработчиков, которые предпочитают инструменты с открытым исходным кодом, которые они могут проверять и модифицировать. Поддерживая Ollama, Microsoft удерживает этих пользователей в VS Code, а не толкает их к альтернативам.
Существует и очевидный бизнес-аспект: предприятия, обеспокоенные утечкой данных из своей сети, теперь имеют меньше причин полностью избегать Copilot. Они могут начать с локальных моделей и добавить облачные опции позже для задач, требующих больших вычислительных мощностей.
Некоторые ранние пользователи сообщили о проблемах с настройкой — ничего серьезного, но достаточно трения, чтобы это могло замедлить первоначальное принятие. Интеграция работает, как только вы её настроите, но процесс обучения мог бы быть более плавным.
Широкий эффект заключается в том, что разработка моделей с открытым исходным кодом получает толчок. Когда инструмент, используемый миллионами разработчиков, может легко подключаться к моделям, созданным сообществом, больше людей действительно попробуют их. Это хорошо для экосистемы открытых моделей, независимо от того, что вы думаете о мотивах Microsoft.
Оценка воздействия