Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
VS Code Bây Giờ Cho Phép Bạn Sử Dụng Các Mô Hình AI Địa Phương Thông Qua Ollama
Headline
VS Code Thêm Hỗ Trợ Ollama, Cho Phép Các Nhà Phát Triển Chọn Mô Hình AI Địa Phương Hoặc Đám Mây Trong Copilot
Summary
Microsoft đã thêm hỗ trợ Ollama trực tiếp vào VS Code thông qua GitHub Copilot. Ollama là một công cụ mã nguồn mở chạy các mô hình ngôn ngữ lớn trên máy của bạn hoặc một máy chủ bạn kiểm soát. Bây giờ bạn có thể chọn bất kỳ mô hình nào được lưu trữ bởi Ollama từ trình chọn mô hình của Copilot và sử dụng nó để hỗ trợ mã. Điều này cho phép các nhà phát triển làm việc với AI mà không cần gửi mã đến các dịch vụ đám mây bên ngoài. Bạn có thể chạy các mô hình như Llama3 hoặc DeepSeek ngoại tuyến, nhận phản hồi nhanh hơn vì mọi thứ đều chạy cục bộ và tránh được chi phí API đám mây.
Analysis
Điều này kết nối GitHub Copilot—thường sử dụng GPT hoặc Claude thông qua đám mây của Microsoft—đến bất kỳ mô hình mã nguồn mở nào bạn muốn tự chạy. Đối với các nhà phát triển không thể hoặc không muốn gửi mã độc quyền đến các máy chủ bên ngoài, đó là một sự thay đổi có ý nghĩa.
Thời điểm này có lý do. Phần cứng tiêu dùng đã đủ tốt để chạy các mô hình hữu ích cục bộ, và có một nhóm các nhà phát triển đang ngày càng ưa chuộng các công cụ mã nguồn mở mà họ có thể kiểm tra và sửa đổi. Bằng cách hỗ trợ Ollama, Microsoft giữ những người dùng này ở lại VS Code thay vì đẩy họ về các lựa chọn thay thế.
Cũng có một khía cạnh kinh doanh rõ ràng: các doanh nghiệp lo ngại về việc dữ liệu rời khỏi mạng của họ giờ đây có ít lý do hơn để hoàn toàn tránh xa Copilot. Họ có thể bắt đầu với các mô hình cục bộ và thêm các tùy chọn đám mây sau cho những nhiệm vụ cần nhiều tính toán hơn.
Một số người dùng sớm đã báo cáo các vấn đề thiết lập—không có gì nghiêm trọng, nhưng đủ để gây ra một số cản trở có thể làm chậm quá trình chấp nhận ban đầu. Tích hợp hoạt động sau khi bạn cấu hình nó, nhưng quá trình hướng dẫn có thể mượt mà hơn.
Tác động rộng hơn là sự phát triển của mô hình mã nguồn mở được thúc đẩy. Khi một công cụ được hàng triệu nhà phát triển sử dụng có thể dễ dàng kết nối với các mô hình được xây dựng bởi cộng đồng, nhiều người sẽ thực sự thử nghiệm chúng. Điều đó tốt cho hệ sinh thái mô hình mở bất kể bạn nghĩ gì về động cơ của Microsoft.
Impact Assessment