Bản đánh giá dài 50 trang của nhóm nghiên cứu Viện Công nghệ Cáp Nhĩ Tân đã được công bố

Nguồn gốc: New Zhiyuan

Nguồn hình ảnh: Được tạo bởi Unbounded AI

Ảo giác, bạn cũ.

Kể từ khi LLM đi vào tầm nhìn của chúng tôi, vấn đề ảo tưởng luôn là một trở ngại gây khó khăn cho vô số nhà phát triển.

Tất nhiên, đã có vô số nghiên cứu về câu hỏi ảo giác mô hình ngôn ngữ lớn.

Gần đây, một nhóm nghiên cứu từ Viện Công nghệ Cáp Nhĩ Tân và Huawei đã xuất bản một bài đánh giá dài 50 trang cung cấp một cái nhìn tổng quan toàn diện và sâu sắc về những phát triển mới nhất liên quan đến ảo giác LLM.

Bắt đầu từ một phân loại sáng tạo về ảo giác LLM, tổng quan này đi sâu vào các yếu tố có thể góp phần gây ảo giác và cung cấp tổng quan về các phương pháp và điểm chuẩn để phát hiện ảo giác.

Trong số đó, phải có một số phương pháp tiêu biểu nhất trong ngành để giảm ảo giác.

Địa chỉ:

Chúng ta hãy xem những gì chúng ta đang nói đến trong bài đánh giá này.

Nếu bạn muốn nghiên cứu sâu, bạn có thể chuyển đến liên kết tham khảo ở cuối bài viết và đọc bài báo gốc.

Thể loại ảo ảnh

Đầu tiên, chúng ta hãy xem xét các loại ảo giác.

Trong hình trên, bên trái là một ảo giác thực tế. Khi LLM được hỏi ai là người đầu tiên đi bộ trên mặt trăng, LLM đã tạo ra một nhân vật và thậm chí còn nói điều đó theo một cách nào đó.

Ở bên phải là vấn đề độ trung thực trong mô hình tóm tắt văn bản và bạn có thể thấy rằng LLM trực tiếp tóm tắt năm không chính xác sau khi xem tin tức này.

Trong bài đánh giá này, các nhà nghiên cứu cung cấp một phân tích chuyên sâu về nguồn gốc của ảo giác trong LLM, bao gồm một loạt các yếu tố góp phần từ dữ liệu đến đào tạo đến giai đoạn suy luận.

Trong khuôn khổ này, các nhà nghiên cứu chỉ ra những lý do tiềm ẩn liên quan đến dữ liệu. Ví dụ, các nguồn dữ liệu thiếu sót và sử dụng dữ liệu không được tối ưu hóa hoặc các chiến lược đào tạo có thể gây ảo giác trong quá trình đào tạo và căn chỉnh trước, cũng như sự ngẫu nhiên xuất phát từ các chiến lược giải mã và biểu diễn không hoàn hảo trong quá trình suy luận, để kể tên một số.

Ngoài ra, các nhà nghiên cứu cung cấp một cái nhìn tổng quan toàn diện về các phương pháp hiệu quả khác nhau được thiết kế đặc biệt để phát hiện ảo giác trong LLM, cũng như tổng quan chi tiết về các điểm chuẩn liên quan đến ảo giác LLM và như một nền tảng thử nghiệm để đánh giá mức độ mà LLM tạo ra ảo giác và hiệu quả của các phương pháp phát hiện.

Hình dưới đây cho thấy nội dung của đánh giá này, nghiên cứu trước đây và các bài báo.

Hình ảnh dưới đây là sơ đồ chi tiết hơn về các loại ảo giác LLM.

Dưới ảo ảnh thực tế và ảo tưởng về sự chung thủy, một phân loại nhiều sắc thái hơn cũng được bao gồm.

Ảo giác kiểu thực tế:

a) Sự không nhất quán trong thực tế

Khi được hỏi ai là người đầu tiên hạ cánh trên mặt trăng, LLM trả lời rằng đó là Gagarin, không phải Armstrong. Loại câu trả lời này không phù hợp với sự thật, bởi vì thực sự có chính Gagarin, vì vậy nó không phải là một sự bịa đặt.

b) Làm sai lệch sự thật

Khi LLM được yêu cầu mô tả nguồn gốc của kỳ lân, LLM đã không chỉ ra rằng không có thứ gọi là kỳ lân trên thế giới, mà thay vào đó tạo thành một đoạn lớn. Loại thứ này không có sẵn trong thế giới thực được gọi là chế tạo.

Ảo tưởng về sự trung thực cũng bao gồm: sự không nhất quán giữa hướng dẫn và câu trả lời, sự không nhất quán về văn bản và sự không nhất quán logic.

a) Sự không nhất quán giữa hướng dẫn và trả lời

Khi một LLM được yêu cầu dịch một câu hỏi, đầu ra câu trả lời của LLM thực sự trả lời câu hỏi và không được dịch. Do đó có sự không nhất quán giữa hướng dẫn và câu trả lời.

b) Sự không thống nhất trong văn bản

Loại không nhất quán này phổ biến hơn trong các nhiệm vụ khái quát hóa. LLM có thể bỏ qua văn bản được đưa ra và tóm tắt một lỗi để đi ra.

c) Sự không nhất quán về logic

Khi được yêu cầu đưa ra nghiệm cho phương trình 2x + 3 = 11, bước đầu tiên LLM nói rằng 3 được trừ từ cả hai vế cùng một lúc để có được 2x = 8.

Làm thế nào 8 có thể chia cho 2 bằng 3?

Nguyên tắc ảo giác

DỮ LIỆU

Tiếp theo, đánh giá bắt đầu sắp xếp các nguyên tắc ảo giác.

Danh mục đầu tiên là vấn đề dữ liệu.

Thông tin sai lệch và thiên vị. Do nhu cầu ngày càng tăng đối với corpora quy mô lớn, các phương pháp thu thập dữ liệu heuristic được sử dụng để thu thập hiệu quả một lượng lớn dữ liệu.

Mặc dù cách tiếp cận này cung cấp một lượng lớn dữ liệu, nhưng nó có thể vô tình đưa ra thông tin sai lệch và làm tăng nguy cơ lỗi bắt chước. Ngoài ra, những thành kiến xã hội cũng có thể vô tình được đưa vào quá trình học tập của LLM.

Những thành kiến này chủ yếu bao gồm sự thiên vị lặp lại và các thành kiến xã hội khác nhau.

Điều quan trọng cần biết là mục đích chính của đào tạo trước LLM là bắt chước phân phối đào tạo. Vì vậy, khi LLM được đào tạo về dữ liệu không chính xác thực tế, chúng có thể vô tình khuếch đại dữ liệu không chính xác đó, điều này có thể dẫn đến ảo tưởng rằng thực tế là không chính xác.

Mạng lưới thần kinh, đặc biệt là các mô hình ngôn ngữ lớn, có xu hướng nội tại là ghi nhớ dữ liệu đào tạo. Các nghiên cứu đã chỉ ra rằng xu hướng bộ nhớ này tăng lên khi kích thước mô hình tăng lên.

Tuy nhiên, trong trường hợp thông tin trùng lặp trong dữ liệu trước khi đào tạo, khả năng ghi nhớ vốn có có thể có vấn đề. Sự lặp lại này chuyển LLM từ khái quát hóa sang ghi nhớ, cuối cùng tạo ra sự thiên vị lặp lại, tức là, LLM sẽ ưu tiên quá nhiều cho việc nhớ lại dữ liệu trùng lặp, dẫn đến ảo giác và cuối cùng đi chệch khỏi những gì mong muốn.

Ngoài những thành kiến này, sự khác biệt trong phân phối dữ liệu cũng là nguyên nhân tiềm ẩn gây ảo giác.

Trường hợp tiếp theo là LLM thường có ranh giới kiến thức.

Mặc dù một số lượng lớn các tập đoàn tiền đào tạo cung cấp nhiều kiến thức thực tế cho LLM, nhưng chúng có những hạn chế riêng. Hạn chế này chủ yếu được thể hiện ở hai khía cạnh: thiếu kiến thức thực tế cập nhật và kiến thức miền.

Mặc dù LLM đã chứng minh hiệu suất tuyệt vời trong nhiều nhiệm vụ hạ nguồn trong lĩnh vực chung, chuyên môn của họ trong lĩnh vực chuyên môn vốn đã bị hạn chế do thiếu dữ liệu đào tạo có liên quan vì các LLM có mục đích chung này chủ yếu được đào tạo trên một loạt các bộ dữ liệu có sẵn công khai.

Kết quả là, khi đối mặt với các vấn đề đòi hỏi kiến thức cụ thể về lĩnh vực, chẳng hạn như các vấn đề y tế và pháp lý, các mô hình này có thể biểu hiện ảo giác đáng kể, thường biểu hiện như sự thật bịa đặt.

Ngoài ra, có kiến thức thực tế lỗi thời. Ngoài việc thiếu kiến thức cụ thể về lĩnh vực, một hạn chế cố hữu khác về ranh giới kiến thức của LLM là khả năng hạn chế của họ để có được kiến thức cập nhật.

Kiến thức thực tế được nhúng trong LLM có ranh giới thời gian rõ ràng và có thể trở nên lỗi thời theo thời gian.

Một khi các mô hình này được đào tạo, kiến thức nội bộ của họ không bao giờ được cập nhật.

Và với bản chất năng động và luôn thay đổi của thế giới chúng ta, điều này đặt ra một thách thức. Khi phải đối mặt với kiến thức tên miền vượt quá khung thời gian của nó, LLM thường dùng đến việc bịa đặt các sự kiện hoặc cung cấp câu trả lời có thể đúng trong quá khứ nhưng hiện đã lỗi thời trong nỗ lực "vượt qua".

Trong hình dưới đây, nửa trên cho thấy LLM thiếu chuyên môn trong một lĩnh vực cụ thể, phenylketon niệu.

Nửa sau là trường hợp đơn giản nhất của kiến thức lỗi thời. Năm 2018, Pyeongchang, Hàn Quốc, đăng cai Thế vận hội mùa đông và năm 2022, Bắc Kinh đăng cai Thế vận hội mùa đông. LLM không có kiến thức về cái sau.

Có thể thấy, ảo tưởng liên quan đến dữ liệu trong LLM chủ yếu xuất phát từ nguồn dữ liệu sai và sử dụng dữ liệu kém. Thông tin sai lệch và sự thiên vị vốn có trong các nguồn dữ liệu không chỉ truyền bá thông tin sai lệch nhại lại mà còn đưa ra các kết quả đầu ra thiên vị dẫn đến các dạng ảo giác khác nhau.

Những hạn chế của kiến thức được sở hữu bởi LLM trở nên rõ ràng khi xử lý kiến thức trong một lĩnh vực cụ thể hoặc khi gặp kiến thức thực tế được cập nhật nhanh chóng.

Khi nói đến việc sử dụng dữ liệu, LLM có xu hướng nắm bắt các mối tương quan sai, thể hiện những khó khăn trong việc nhớ lại kiến thức (đặc biệt là thông tin đuôi dài) và các tình huống lý luận phức tạp, làm trầm trọng thêm ảo giác.

Những thách thức này nhấn mạnh nhu cầu cấp thiết để cải thiện chất lượng dữ liệu và nâng cao khả năng học hỏi và nhớ lại kiến thức thực tế của mô hình hiệu quả hơn.

Đào tạo

Bây giờ, đánh giá chuyển sang giai đoạn đào tạo của LLM.

Quá trình đào tạo LLM bao gồm hai giai đoạn chính:

Giai đoạn tiền đào tạo, trong đó LLM học các biểu diễn chung và nắm bắt nhiều kiến thức.

Giai đoạn căn chỉnh, trong đó LLM điều chỉnh để điều chỉnh tốt hơn các hướng dẫn của người dùng với các giá trị cơ bản của con người. Mặc dù quá trình này đã dẫn đến hiệu suất tốt cho LLM, bất kỳ thiếu sót nào trong các giai đoạn này có thể vô tình dẫn đến ảo giác.

Pre-training là giai đoạn cơ bản của LLM, thường áp dụng kiến trúc dựa trên máy biến áp để mô hình hóa ngôn ngữ nhân quả trong một kho dữ liệu khổng lồ.

Tuy nhiên, thiết kế kiến trúc vốn có và các chiến lược đào tạo cụ thể được sử dụng bởi các nhà nghiên cứu có thể tạo ra các vấn đề liên quan đến ảo giác. Như đã đề cập ở trên, LLM thường áp dụng các kiến trúc dựa trên máy biến áp tuân theo mô hình được thiết lập bởi GPT, có được các biểu diễn thông qua các mục tiêu mô hình hóa ngôn ngữ nhân quả, với các mô hình như OPT và Llama-2 là ví dụ điển hình của khung này.

Ngoài những thiếu sót về cấu trúc, các chiến lược đào tạo cũng đóng một vai trò quan trọng. Điều quan trọng cần lưu ý là sự khác biệt giữa đào tạo và suy luận của mô hình tạo tự hồi quy dẫn đến hiện tượng thiên vị phơi nhiễm.

Và trong giai đoạn liên kết, thường bao gồm hai quy trình chính, tinh chỉnh có giám sát và học tăng cường từ phản hồi của con người (RLHF), là một bước quan trọng trong việc mở khóa các khả năng LLM và sắp xếp chúng theo sở thích của con người.

Mặc dù sự liên kết có thể cải thiện đáng kể chất lượng của các phản ứng LLM, nhưng nó cũng có nguy cơ gây ảo giác.

Có hai khía cạnh chính: sai lệch khả năng và sai lệch niềm tin.

Làm thế nào để phát hiện ảo giác?

Phát hiện ảo ảnh trong LLM là rất quan trọng để đảm bảo độ tin cậy và độ tin cậy của nội dung được tạo.

Các biện pháp truyền thống phụ thuộc rất nhiều vào sự chồng chéo từ và không phân biệt được sự khác biệt tinh tế giữa nội dung đáng tin cậy và ảo giác.

Thách thức này nhấn mạnh sự cần thiết của các phương pháp phát hiện tiên tiến hơn đối với ảo giác LLM. Với sự đa dạng của những ảo giác này, các nhà nghiên cứu lưu ý rằng các phương pháp phát hiện khác nhau tương ứng.

Đây chỉ là một ví dụ chi tiết -

Tìm kiếm sự thật bên ngoài

Như thể hiện trong hình dưới đây, để chỉ ra một cách hiệu quả thực tế là có sự không chính xác trong đầu ra LLM, một chiến lược trực quan hơn là so sánh trực tiếp nội dung do mô hình tạo ra với các nguồn kiến thức đáng tin cậy.

Cách tiếp cận này rất phù hợp với quy trình làm việc của các nhiệm vụ kiểm tra thông tin. Tuy nhiên, các phương pháp kiểm tra thông tin truyền thống thường sử dụng các giả định đơn giản vì lý do thực tế, điều này có thể dẫn đến sự thiên vị khi áp dụng cho các tình huống phức tạp trong thế giới thực.

Nhận thức được những hạn chế này, một số nhà nghiên cứu đã gợi ý rằng nên nhấn mạnh hơn vào các kịch bản trong thế giới thực, tức là bằng chứng từ các nguồn trực tuyến bị hạn chế về thời gian, không được quản lý.

Họ đi tiên phong trong quy trình làm việc hoàn toàn tự động tích hợp nhiều thành phần, bao gồm truy xuất tài liệu gốc, tìm kiếm chi tiết, phân loại tính xác thực và hơn thế nữa.

TẤT NHIÊN, CÓ MỘT SỐ NHÀ NGHIÊN CỨU KHÁC ĐÃ ĐƯA RA CÁC PHƯƠNG PHÁP KHÁC, CHẲNG HẠN NHƯ FACTSCORE, MỘT THƯỚC ĐO CHI TIẾT VỀ THỰC TẾ ĐẶC BIỆT CHO VIỆC TẠO VĂN BẢN DÀI.

Các phương pháp khác bao gồm ước tính độ không chắc chắn, như thể hiện trong hình dưới đây.

Ngoài ra còn có một số nghiên cứu về việc phát hiện ảo tưởng về sự chung thủy, như thể hiện trong hình dưới đây.

Chúng bao gồm các số liệu dựa trên thực tế: Đánh giá độ trung thực bằng cách phát hiện sự chồng chéo thực tế giữa nội dung được tạo và nội dung nguồn.

Chỉ số dựa trên trình phân loại: Tận dụng các trình phân loại được đào tạo để phân biệt mức độ liên kết giữa nội dung được tạo và nội dung nguồn.

Số liệu dựa trên QA: Tận dụng hệ thống trả lời câu hỏi để xác minh tính nhất quán thông tin giữa nội dung nguồn và nội dung được tạo.

Ước tính độ không chắc chắn: Đánh giá độ trung thực bằng cách đo lường độ tin cậy của mô hình trong đầu ra được tạo ra của nó.

Cách tiếp cận dựa trên đo lường: Hãy để LLM hoạt động như một người đánh giá, sử dụng các chiến lược cụ thể để đánh giá độ trung thực của nội dung được tạo ra.

Sau đó, nhóm nghiên cứu của Viện Công nghệ Cáp Nhĩ Tân cũng đã phân loại các phương pháp tiên tiến hơn để giảm bớt ảo giác và đưa ra các giải pháp khả thi cho các vấn đề nêu trên.

Tóm tắt

Nhìn chung, ở cuối bài báo, các nhà nghiên cứu tại Viện Công nghệ Cáp Nhĩ Tân cho biết trong tổng quan toàn diện này, họ đã tiến hành một nghiên cứu chuyên sâu về hiện tượng ảo giác trong các mô hình ngôn ngữ lớn, đi sâu vào sự phức tạp của các nguyên nhân cơ bản của nó, các phương pháp phát hiện tiên phong và các tiêu chuẩn liên quan, và các chiến lược giảm thiểu hiệu quả.

Trong khi các nhà phát triển đã đạt được rất nhiều tiến bộ về vấn đề này, vấn đề ảo giác trong các mô hình ngôn ngữ lớn vẫn là một mối quan tâm đang diễn ra cần được nghiên cứu thêm.

Ngoài ra, bài viết này có thể được sử dụng như một ánh sáng hướng dẫn để thúc đẩy AI an toàn và đáng tin cậy.

Nhóm nghiên cứu của Viện Công nghệ Cáp Nhĩ Tân cho biết họ hy vọng sẽ cung cấp những hiểu biết có giá trị cho những người có lý tưởng cao cả này thông qua việc khám phá vấn đề ảo tưởng phức tạp và thúc đẩy sự phát triển của công nghệ AI theo hướng đáng tin cậy và an toàn hơn.

Tài nguyên:

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Chia sẻ
Bình luận
0/400
Không có bình luận
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)