Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
VS Code тепер дозволяє використовувати локальні моделі штучного інтелекту через Ollama
Заголовок
VS Code додає підтримку Ollama, дозволяючи розробникам вибирати локальні або хмарні AI моделі в Copilot
Резюме
Microsoft додала підтримку Ollama безпосередньо в VS Code через GitHub Copilot. Ollama - це інструмент з відкритим вихідним кодом, який запускає великі мовні моделі на вашому власному комп’ютері або сервері, яким ви керуєте. Тепер ви можете вибрати будь-яку модель, розміщену на Ollama, з вибору моделей Copilot і використовувати її для допомоги з кодом. Це дозволяє розробникам працювати з AI без відправки коду на зовнішні хмарні сервіси. Ви можете запускати моделі, такі як Llama3 або DeepSeek, офлайн, отримувати швидші відповіді, оскільки все працює локально, і уникати витрат на хмарні API.
Аналіз
Це з’єднує GitHub Copilot — який зазвичай використовує GPT або Claude через хмару Microsoft — з будь-якими відкритими моделями, які ви хочете запустити самостійно. Для розробників, які не можуть або не хочуть відправляти власний код на зовнішні сервери, це значна зміна.
Час вибрано вдало. Споживча апаратура стала достатньо потужною, щоб запускати корисні моделі локально, і з’являється все більше розробників, які віддають перевагу інструментам з відкритим вихідним кодом, які вони можуть перевіряти та модифікувати. Підтримуючи Ollama, Microsoft утримує цих користувачів у VS Code, а не відштовхує їх до альтернатив.
Є також очевидний бізнес-аспект: підприємства, які стурбовані тим, що дані покидають їхню мережу, тепер мають менше причин повністю уникати Copilot. Вони можуть почати з локальних моделей і додати хмарні варіанти пізніше для завдань, які потребують більшої обчислювальної потужності.
Деякі ранні користувачі повідомили про проблеми з налаштуванням — нічого серйозного, але достатньо тертя, щоб уповільнити початкове впровадження. Інтеграція працює, коли ви її налаштуєте, але процес введення може бути більш плавним.
Ширший ефект полягає в тому, що розвиток відкритих моделей отримує поштовх. Коли інструмент, яким користуються мільйони розробників, може легко підключатися до моделей, створених спільнотою, більше людей насправді спробують їх. Це добре для екосистеми відкритих моделей, незалежно від того, що ви думаєте про мотиви Microsoft.
Оцінка впливу