DeepSeek im Stillen phát hành Phiên bản V2 của bài báo R1, công bố một số tiến bộ công nghệ quan trọng.
Về vấn đề tính xác thực của nội dung do mô hình lớn tạo ra, họ đã đưa ra cách giải thích chính thức. Liên quan đến hiện tượng mô hình thường xuyên nhắc đến OpenAI và ChatGPT khi trả lời, DeepSeek giải thích rằng đây không phải là thiết kế có chủ đích, mà bắt nguồn từ tình trạng khách quan của dữ liệu huấn luyện—kho ngữ liệu trang web khách quan có tồn tại một lượng lớn nội dung được tạo ra bên ngoài, những nội dung này khi được đưa vào huấn luyện mô hình cơ sở, đã tạo ra ảnh hưởng gián tiếp nhưng có thể đo lường được. Phát hiện này có ý nghĩa quan trọng đối với việc hiểu các đặc điểm hành vi của LLM và tính phụ thuộc dữ liệu.
Đáng chú ý hơn là kế hoạch của họ về hướng khả năng trong tương lai. Bài báo rõ ràng liệt kê "kết quả có cấu trúc" và "sử dụng công cụ" như những hướng phát triển lõi của R2. Kết quả có cấu trúc cho phép mô hình sắp xếp thông tin theo định dạng cụ thể, nâng cao khả năng sử dụng trong các ứng dụng thực tế; sử dụng công cụ liên quan đến khả năng tương tác của mô hình với các hệ thống bên ngoài, điều này rất quan trọng để mở rộng ranh giới ứng dụng thực tế của mô hình suy luận. Những hướng lặp lại công nghệ này phản ánh xu hướng chuyển biến từ tạo văn bản thuần túy sang đa phương thức, khả năng tương tác mạnh mẽ.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
16 thích
Phần thưởng
16
8
Đăng lại
Retweed
Bình luận
0/400
SignatureLiquidator
· 01-10 17:22
Hả, DeepSeek lại âm thầm làm chuyện rồi, chẳng biết khi nào lại ra phiên bản mới
Chờ đã, họ còn đổ lỗi cho dữ liệu huấn luyện? Nói gì về thực trạng khách quan... Thôi được, lý do này thực sự có lý
Xuất dữ liệu có cấu trúc và sử dụng công cụ nghe có vẻ ổn, chỉ sợ lại chỉ là tiến trình trên giấy
Xem bản gốcTrả lời0
SatsStacking
· 01-10 09:19
Ừ... trách nhiệm ô nhiễm dữ liệu vẫn khá rõ ràng, nhưng cách nói này thực sự có căn cứ
Xuất ra có cấu trúc + gọi công cụ, đó mới là thứ mà người chơi đều muốn, trò chuyện thuần túy thật sự không còn nhiều sức cạnh tranh
Cập nhật lần này của DeepSeek trông vẫn khá ổn định, không có cảm giác phóng đại quá mức
Vấn đề dữ liệu huấn luyện, nói trắng ra, ai cũng không thể tránh khỏi, thà thành thật còn hơn giấu giếm
Nếu R2 thực sự làm tốt khả năng công cụ, có thể đó mới là thời điểm đáng chú ý nhất
Chất lượng bộ dữ liệu thực sự là vấn đề khiến toàn ngành đau đầu, DeepSeek dám thẳng thắn nói ra cũng coi như là thành ý
Lần cập nhật này cảm giác không có gì bất ngờ, nhưng ít nhất logic hợp lý, không lừa dối người khác
Xem bản gốcTrả lời0
LightningWallet
· 01-09 12:25
Haha, đợt cập nhật của DeepSeek này có chút gì đó, xuất ra có cấu trúc + liên kết công cụ, xem ra thật sự đang chuẩn bị ra chiêu lớn
Việc dữ liệu huấn luyện ảnh hưởng đến hành vi của mô hình đúng là đúng, đám rác do AI tạo ra trên mạng thật sự sẽ gây nhiễu
R2 sắp ra rồi chứ, đa mô hình mới là tương lai
Chìa khóa là có thực sự hữu dụng không, đừng lại chỉ trên giấy tờ mà thôi
Xem bản gốcTrả lời0
SchrodingerWallet
· 01-08 07:45
DeepSeek lại vừa kín đáo vừa tiến bộ, thật đáng khen, sao không thể phát một tuyên bố để chúng tôi biết được nhỉ
Dữ liệu huấn luyện toàn là bóng của ChatGPT... Bây giờ tốt rồi, nói gì cũng giống như đang lặp lại đối thủ
Đầu ra có cấu trúc + sử dụng công cụ, nghe có vẻ là đang chuẩn bị cho tính thực tiễn của thế hệ tiếp theo, R2 sắp tới thực sự rồi à
Vấn đề ô nhiễm dữ liệu này, cả cộng đồng đều không tránh được, DeepSeek dám nói ra lại tỏ ra thành thật hơn
Tham vọng của R2 không nhỏ đâu, từ sinh tạo văn bản trực tiếp nhảy sang tương tác đa phương thức, hơi quá tức thời nhưng mình thích
Đợt lộ trình công nghệ này khá rõ ràng, chính là gợi ý trần trệu của chính mình ở đâu mà thôi
Khối sử dụng công cụ thực sự là chìa khóa, không có cái này LLM mạnh đến mấy cũng chỉ là bông hoa
Bài báo V2 ra được lâu vậy mới có người thảo luận, độ hot quả thực không lý tưởng
Xem bản gốcTrả lời0
MemeTokenGenius
· 01-08 07:41
Haha deepseek lại đang âm thầm làm chuyện rồi, phần xuất dữ liệu có cấu trúc và sử dụng công cụ thật sự tuyệt vời
Trong dữ liệu huấn luyện toàn là dấu vết của ChatGPT cũng khá thú vị, nói thẳng ra là vấn đề của DNA internet
Liệu R2 có thể trực tiếp bay lên không, mình khá mong đợi
Xem bản gốcTrả lời0
GasGuzzler
· 01-08 07:41
Dữ liệu độc hại thực sự là điều không thể tránh khỏi, trong tập huấn luyện toàn là dấu vết của ChatGPT nên khó có thể nói hoàn toàn không ảnh hưởng
Tuy nhiên, sự kết hợp giữa xuất ra có cấu trúc + gọi công cụ mới là chìa khóa, cảm giác đây mới là bước đột phá thực sự trong ứng dụng
DeepSeek lại âm thầm phát triển bộ này, kín đáo đến mức khó tin... sau khi xong mới công bố bài báo
Khả năng của công cụ nếu thực sự được hoàn thiện, thì mới có thể thực sự đe dọa hệ sinh thái của OpenAI
Xem bản gốcTrả lời0
ForkPrince
· 01-08 07:29
Hmm... Việc ô nhiễm dữ liệu cuối cùng cũng có người dám nói rõ ràng, không phải lỗi mà là tính năng haha
Xu hướng xuất dữ liệu có cấu trúc và gọi công cụ đáng tin cậy, R2 nếu thực sự làm được như vậy thì tuyệt vời
DeepSeek sự kín đáo này thật sự, mỗi lần đều âm thầm đăng bài báo, hơn hẳn một số người ngày ngày kêu gọi
Dữ liệu huấn luyện toàn là của ChatGPT, không lạ gì khi mô hình luôn nhắc đến họ, dù có làm sạch thế nào cũng không thể trắng trợn hơn
Khả năng sử dụng công cụ mới thực sự, mô hình suy luận mới có chỗ đứng, chỉ trò chuyện thuần túy tôi đã chán rồi
Xem bản gốcTrả lời0
wrekt_but_learning
· 01-08 07:21
Dữ liệu quyết định tất cả, không có gì lạ khi luôn đề cập đến OpenAI... Vậy DeepSeek đang ngụ ý rằng tập huấn luyện có vấn đề?
---
Xuất ra có cấu trúc + gọi công cụ, đó mới là chìa khóa mở cánh cửa tính thực dụng, thời đại tạo nội dung thuần văn bản thực sự sắp qua rồi
---
Chờ đã, họ nói về "ảnh hưởng gián tiếp nhưng có thể đo lường được"... chẳng phải là thừa nhận rằng mô hình sẽ bị lệch bởi dữ liệu huấn luyện sao?
---
Lộ trình R2 này thú vị, cảm giác DeepSeek đang đi con đường riêng, không theo trào lưu pure reasoning
---
Dữ liệu huấn luyện toàn là nội dung bên ngoài, cái này làm sao đảm bảo tính độc lập...
DeepSeek im Stillen phát hành Phiên bản V2 của bài báo R1, công bố một số tiến bộ công nghệ quan trọng.
Về vấn đề tính xác thực của nội dung do mô hình lớn tạo ra, họ đã đưa ra cách giải thích chính thức. Liên quan đến hiện tượng mô hình thường xuyên nhắc đến OpenAI và ChatGPT khi trả lời, DeepSeek giải thích rằng đây không phải là thiết kế có chủ đích, mà bắt nguồn từ tình trạng khách quan của dữ liệu huấn luyện—kho ngữ liệu trang web khách quan có tồn tại một lượng lớn nội dung được tạo ra bên ngoài, những nội dung này khi được đưa vào huấn luyện mô hình cơ sở, đã tạo ra ảnh hưởng gián tiếp nhưng có thể đo lường được. Phát hiện này có ý nghĩa quan trọng đối với việc hiểu các đặc điểm hành vi của LLM và tính phụ thuộc dữ liệu.
Đáng chú ý hơn là kế hoạch của họ về hướng khả năng trong tương lai. Bài báo rõ ràng liệt kê "kết quả có cấu trúc" và "sử dụng công cụ" như những hướng phát triển lõi của R2. Kết quả có cấu trúc cho phép mô hình sắp xếp thông tin theo định dạng cụ thể, nâng cao khả năng sử dụng trong các ứng dụng thực tế; sử dụng công cụ liên quan đến khả năng tương tác của mô hình với các hệ thống bên ngoài, điều này rất quan trọng để mở rộng ranh giới ứng dụng thực tế của mô hình suy luận. Những hướng lặp lại công nghệ này phản ánh xu hướng chuyển biến từ tạo văn bản thuần túy sang đa phương thức, khả năng tương tác mạnh mẽ.