Yann LeCun nói rằng ông đã chơi khăm OpenAI về việc giữ lại GPT-2

robot
Đang tạo bản tóm tắt

Headline

Yann LeCun Nói Rằng Ông Đã Châm Chọc OpenAI Về Việc Giữ Lại GPT-2

Summary

Yann LeCun, Giám đốc Khoa học AI của Meta, gần đây đã thừa nhận trên Twitter rằng ông đã chế nhạo OpenAI vào năm 2019 khi họ từ chối phát hành đầy đủ mô hình GPT-2. OpenAI đã lập luận rằng mô hình này quá nguy hiểm—nó có thể tạo ra tin tức giả mạo thuyết phục—nên họ đã phát hành theo từng giai đoạn, bắt đầu với một phiên bản nhỏ hơn vào tháng 2 năm 2019 và cuối cùng công bố mô hình đầy đủ 1.5B tham số vào tháng 11 sau khi các đối tác báo cáo việc sử dụng sai quy định là tối thiểu. Tweet của LeCun nhắc nhở rằng cộng đồng AI đã tranh luận về sự cởi mở so với sự thận trọng trong nhiều năm, và những tranh luận đó vẫn chưa biến mất.

Analysis

Những lo ngại về GPT-2 của OpenAI không phải là vô căn cứ. Các nghiên cứu vào thời điểm đó cho thấy mọi người đánh giá văn bản tổng hợp của nó là đáng tin cậy khoảng 72% thời gian, và việc phát hiện thực sự rất khó khăn. Cách tiếp cận phát hành theo từng giai đoạn của họ đã trở thành một dạng mẫu cho cách các phòng thí nghiệm xử lý các mô hình mạnh mẽ. LeCun từ lâu đã hoài nghi về những gì ông coi là những lo ngại về an toàn bị phóng đại, thích nghiên cứu cởi mở cho phép mọi người xây dựng các biện pháp đối phó. Tweet của ông vào năm 2024 nhắc lại khung nhìn “quá nguy hiểm” phù hợp với khuôn mẫu đó.

Thời điểm rất quan trọng. Điều này lại được đề cập vào năm 2026 trong khi các cuộc tranh luận về quy định AI đang gia tăng. Tập phim GPT-2 liên tục được nhắc đến vì nó làm nổi bật một căng thẳng thực sự: việc hạn chế quyền truy cập có thực sự ngăn chặn được thiệt hại hay chỉ làm chậm lại những người đang cố gắng bảo vệ chống lại việc sử dụng sai quy định? Không có câu trả lời rõ ràng, có lẽ đó là lý do tại sao chúng ta vẫn đang nói về nó bảy năm sau.

Tôi không thể tìm thấy các tweet châm chọc cụ thể của LeCun vào năm 2019 trong các tìm kiếm, nhưng quan điểm tổng thể của ông đã được ghi lại rõ ràng qua các bài đăng của chính OpenAI, MIT Technology Review, và The Verge.

Impact Assessment

  • Significance: Trung Bình
  • Categories: An toàn AI, Mã nguồn mở, Nghiên cứu AI
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$2.25KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.29KNgười nắm giữ:2
    0.07%
  • Vốn hóa:$2.29KNgười nắm giữ:2
    0.10%
  • Vốn hóa:$0.1Người nắm giữ:1
    0.00%
  • Vốn hóa:$2.27KNgười nắm giữ:2
    0.00%
  • Ghim