Dự đoán của đồng sáng lập Anthropic: Trước năm 2028, nghiên cứu AI sẽ không còn cần sự tham gia của con người

Bản gốc tiêu đề: Import AI 455: Hệ thống AI sắp bắt đầu tự xây dựng chính nó.
Tác giả bản gốc: Jack Clark, Đồng sáng lập Anthropic

Dịch lại: Yang Wen, Chen Chen, Machine Heart

Quan điểm này không phải là ngẫu nhiên. Ông ấy đã xem một loạt các chuẩn công khai, nhận thấy AI tiến bộ rất nhanh trong các nhiệm vụ liên quan đến nghiên cứu AI.

Ví dụ, CORE-Bench đánh giá khả năng của AI trong việc thực hiện các bài báo nghiên cứu của người khác, đây là một phần cực kỳ quan trọng trong nghiên cứu AI.

PostTrainBench kiểm tra xem các mô hình mạnh có thể tự điều chỉnh các mô hình mã nguồn mở yếu hơn để nâng cao hiệu suất hay không, đây chính là một phần quan trọng trong các nhiệm vụ nghiên cứu và phát triển AI.

MLE-Bench dựa trên các nhiệm vụ thực tế trong các cuộc thi Kaggle, yêu cầu xây dựng các ứng dụng máy học đa dạng để giải quyết các vấn đề cụ thể. Ngoài ra, các chuẩn mực mã hóa nổi tiếng như SWE-Bench cũng thể hiện những tiến bộ tương tự.

Jack Clark mô tả hiện tượng này như một xu hướng “phân hình học” theo dạng fractal, tức là ở các độ phân giải và quy mô khác nhau, đều có thể quan sát thấy tiến bộ có ý nghĩa. Ông cho rằng, AI đang dần tiến gần đến khả năng tự động hóa toàn diện quá trình nghiên cứu và phát triển, một khi đạt được, AI sẽ có khả năng tự xây dựng các hệ thống kế tiếp của chính nó, mở ra vòng lặp tự cải tiến.

Phát biểu này đã gây ra nhiều tranh luận trên mạng xã hội.

Một số người xem đó là bước quan trọng hướng tới ASI và điểm kỳ dị, có thể thay đổi hoàn toàn nhịp độ phát triển công nghệ.

Tuy nhiên, cũng có những ý kiến trái chiều.

Giáo sư Pedro Domingos, Trường Khoa học Máy tính tại Đại học Washington, chỉ ra rằng, hệ thống AI đã có khả năng “tự xây dựng” từ thập niên 1950, khi phát minh ra ngôn ngữ LISP, vấn đề thực sự là liệu nó có thể mang lại lợi ích gia tăng hay không, và hiện chưa có bằng chứng rõ ràng cho điều này.

Một số người dùng đặt câu hỏi, từ năm 2027 đến 2028, xác suất tăng đột biến 30%, điều này ngụ ý khả năng AI sẽ có bước đột phá lớn bất ngờ vào cuối năm 2027. Câu hỏi là, cột mốc hoặc sự kiện cụ thể nào sẽ làm khả năng tự cải tiến của AI tăng mạnh trong thời gian ngắn?

Một số người khác cho biết, Jack Clark là người phụ trách PR mới của Anthropic, đây chính là một phần trong chiến lược mới của họ: chúng tôi không phải là kẻ nói suông, nhiều bài báo đã chứng minh những gì chúng tôi cảnh báo từ lâu.

Jack Clark đã viết một bài dài trong bản tin Import AI 455 để trình bày chi tiết về vấn đề này.

Tiếp theo, chúng ta sẽ xem toàn bộ bài viết này.

Hệ thống AI sắp bắt đầu tự xây dựng, điều đó có ý nghĩa gì?

Clark cho biết, ông viết bài này vì sau khi tổng hợp tất cả các thông tin công khai, ông buộc phải đưa ra một nhận định không dễ dàng: khả năng xuất hiện một hệ thống nghiên cứu và phát triển AI không có sự tham gia của con người trước cuối năm 2028 đã khá cao, có thể trên 60%.

Khái niệm “nghiên cứu và phát triển AI không có sự tham gia của con người” ở đây đề cập đến một hệ thống AI đủ mạnh: không chỉ hỗ trợ con người trong nghiên cứu, mà còn có thể tự thực hiện các quy trình R&D then chốt, thậm chí xây dựng thế hệ hệ thống tiếp theo của chính nó.

Theo Clark, điều này rõ ràng là một sự kiện trọng đại.

Ông thừa nhận, bản thân cũng khó có thể hoàn toàn hiểu hết ý nghĩa của điều này.

Lý do gọi đây là một nhận định không mong muốn là vì ảnh hưởng của nó quá lớn, khiến ông cảm thấy khó kiểm soát. Clark cũng không chắc liệu toàn xã hội đã sẵn sàng đón nhận sự tự động hóa trong nghiên cứu và phát triển AI hay chưa.

Hiện tại, ông tin rằng con người có thể đang sống trong một thời điểm đặc biệt: nghiên cứu AI sắp tới sẽ được tự động hóa toàn diện từ đầu đến cuối. Nếu đúng vậy, con người như đã vượt qua sông Rubicon, bước vào một tương lai gần như không thể dự đoán trước.

Clark nói rằng mục đích của bài viết này là để giải thích tại sao ông tin rằng, sự cất cánh của quá trình tự động hóa hoàn toàn trong nghiên cứu và phát triển AI đang diễn ra.

Ông sẽ thảo luận về một số hậu quả có thể xảy ra của xu hướng này, nhưng phần lớn bài viết sẽ tập trung vào các bằng chứng hỗ trợ nhận định đó. Về những ảnh hưởng sâu xa hơn, Clark dự định sẽ tiếp tục tổng hợp trong phần lớn thời gian còn lại của năm nay.

Về mặt thời điểm, Clark không nghĩ rằng điều này sẽ thực sự xảy ra vào năm 2026. Nhưng ông cho rằng, trong vòng một hoặc hai năm tới, chúng ta có thể chứng kiến các mô hình tự huấn luyện ra thế hệ kế tiếp của chính chúng. Ít nhất, ở các mô hình không phải là hàng đầu, khả năng chứng minh khái niệm là rất khả thi; còn các mô hình hàng đầu, độ khó sẽ cao hơn nhiều vì chi phí cực kỳ đắt đỏ, lại phụ thuộc vào lượng lớn các nhà nghiên cứu làm việc cường độ cao.

Nhận định của Clark chủ yếu dựa trên các thông tin công khai: bao gồm các bài báo trên arXiv, bioRxiv, NBER, cũng như các sản phẩm đã được các công ty AI tiên phong triển khai vào thực tế. Từ đó, ông kết luận rằng, các bước tự động hóa trong sản xuất các thành phần của hệ thống AI hiện nay, đặc biệt là các thành phần kỹ thuật trong phát triển AI, đã gần như hoàn thiện.

Nếu xu hướng mở rộng quy mô tiếp tục, chúng ta nên chuẩn bị đối mặt với khả năng: các mô hình sẽ trở nên đủ sáng tạo, không chỉ tự cải tiến các phương pháp đã biết, mà còn đề xuất các hướng nghiên cứu mới và ý tưởng sáng tạo, từ đó thúc đẩy tiến trình của AI tiếp tục tiến lên phía trước.

Điểm tới hạn: khả năng của các hệ thống AI theo thời gian

Hệ thống AI được xây dựng dựa trên phần mềm, mà phần mềm thì gồm mã nguồn.

Hệ thống AI đã hoàn toàn thay đổi cách tạo mã nguồn. Có hai xu hướng liên quan: một là, các hệ thống AI ngày càng giỏi viết mã phức tạp trong thế giới thực; hai là, chúng ngày càng giỏi kết nối các nhiệm vụ mã hóa tuyến tính gần như không cần giám sát của con người, ví dụ như viết mã rồi thử nghiệm.

Hai ví dụ tiêu biểu thể hiện xu hướng này là SWE-Bench và biểu đồ thời gian METR.

Giải quyết các vấn đề phần mềm thực tế

SWE-Bench là một bài kiểm tra lập trình phổ biến, dùng để đánh giá khả năng của hệ thống AI trong việc giải quyết các vấn đề thực tế trên GitHub.

Khi SWE-Bench ra mắt vào cuối năm 2023, mô hình xuất sắc nhất là Claude 2, với tỷ lệ thành công khoảng 2%. Trong khi đó, kết quả của Claude Mythos Preview đã đạt 93.9%, gần như hoàn thành toàn bộ benchmark này.

Tất nhiên, mọi benchmark đều có độ nhiễu nhất định, nên thường sẽ có giai đoạn: khi điểm số đạt đến một mức cao, khả năng hạn chế sẽ không còn là phương pháp nữa, mà chính là giới hạn của benchmark. Ví dụ, trong bộ dữ liệu xác thực ImageNet, khoảng 6% nhãn bị sai hoặc mơ hồ.

SWE-Bench có thể xem như một chỉ số đáng tin cậy để đo khả năng lập trình chung và ảnh hưởng của AI đối với kỹ thuật phần mềm. Clark nói rằng, hầu hết các người tiếp xúc với các phòng thí nghiệm AI tiên tiến và các trung tâm Silicon Valley đều đã gần như hoàn toàn dùng hệ thống AI để viết mã, và ngày càng nhiều người bắt đầu dùng AI để viết kiểm thử, kiểm tra mã.

Nói cách khác, hệ thống AI đã đủ mạnh để tự động hóa một phần quan trọng trong nghiên cứu và phát triển AI, đồng thời thúc đẩy nhanh tiến trình của các nhà nghiên cứu và kỹ sư tham gia vào quá trình này.

Đánh giá khả năng của hệ thống AI trong việc hoàn thành các nhiệm vụ dài hạn

METR đã tạo ra một biểu đồ để đo lường khả năng của AI trong việc hoàn thành các nhiệm vụ phức tạp. Độ phức tạp này được tính dựa trên thời gian cần thiết của một người thành thạo để hoàn thành các nhiệm vụ đó.

Trong đó, chỉ số quan trọng nhất là thời gian nhiệm vụ xấp xỉ khi hệ thống AI đạt độ tin cậy 50%.

Tiến bộ ở điểm này rất đáng kinh ngạc:

· Năm 2022, GPT-3.5 có thể hoàn thành các nhiệm vụ tương đương với thời gian của con người là 30 giây.

· Năm 2023, GPT-4 nâng cao thời gian này lên 4 phút.

· Năm 2024, o1 nâng lên 40 phút.

· Năm 2025, GPT-5.2 High đạt khoảng 6 giờ.

· Đến năm 2026, Opus 4.6 đã nâng thời gian này lên khoảng 12 giờ.

Nhà nghiên cứu Ajeya Cotra, làm việc lâu dài với dự đoán AI tại METR, cho rằng đến cuối năm 2026, hệ thống AI có thể hoàn thành các nhiệm vụ tương đương với 100 giờ của con người, không phải là điều phi lý.

Khả năng của hệ thống AI làm việc độc lập trong phạm vi thời gian đáng kể đã tăng rõ rệt, cũng liên quan mật thiết đến sự bùng nổ của các công cụ mã hóa có khả năng hành động như một agent. Các công cụ này về bản chất là các hệ thống AI có thể đại diện cho hành động của con người và tiến hành các nhiệm vụ tương đối độc lập trong một thời gian dài.

Điều này cũng dẫn lại đến nghiên cứu và phát triển AI. Khi quan sát kỹ công việc hàng ngày của nhiều nhà nghiên cứu AI, ta thấy phần lớn nhiệm vụ có thể phân nhỏ thành các công việc kéo dài vài giờ, như làm sạch dữ liệu, đọc dữ liệu, khởi động thử nghiệm,…

Và các công việc này hiện đã nằm trong phạm vi thời gian mà hệ thống AI hiện tại có thể xử lý.

Hệ thống AI càng thành thạo, càng có thể làm việc độc lập với con người, thì càng giúp tự động hóa một phần nghiên cứu và phát triển AI.

Hai yếu tố chính quyết định việc ủy thác nhiệm vụ là:

· Thứ nhất, bạn có niềm tin vào năng lực của người được ủy thác;

· Thứ hai, bạn tin rằng họ có thể hoàn thành công việc một cách độc lập theo ý định của bạn mà không cần giám sát liên tục.

Khi người dùng quan sát khả năng lập trình của AI, họ sẽ thấy hệ thống này không chỉ ngày càng thành thạo hơn, mà còn có thể làm việc lâu hơn mà không cần con người điều chỉnh lại.

Điều này phù hợp với thực tế đang diễn ra: các kỹ sư và nhà nghiên cứu đang giao phó ngày càng nhiều công việc lớn hơn cho AI. Khi khả năng của AI tiếp tục nâng cao, các nhiệm vụ giao cho AI cũng trở nên phức tạp và quan trọng hơn.

AI đang nắm giữ các kỹ năng khoa học cốt lõi cần thiết cho nghiên cứu và phát triển AI

Hãy nghĩ về cách các nghiên cứu khoa học hiện đại tiến hành, phần lớn công việc là xác định hướng đi, rõ ràng về loại thông tin thực nghiệm cần thu thập; sau đó thiết kế và thực hiện các thí nghiệm để tạo ra thông tin đó; cuối cùng, kiểm tra tính hợp lý của kết quả.

Với khả năng lập trình của AI ngày càng nâng cao, cộng với khả năng mô hình hóa thế giới ngày càng mạnh của các mô hình ngôn ngữ lớn, hiện đã xuất hiện một số công cụ giúp các nhà khoa học đẩy nhanh tiến độ, tự động hóa một số phần trong quá trình nghiên cứu.

Chúng ta có thể quan sát tốc độ tiến bộ của AI trong một số kỹ năng khoa học then chốt, chính những kỹ năng này cũng là phần không thể thiếu trong nghiên cứu AI:

· Một là, tái tạo kết quả nghiên cứu;

· Hai là, kết hợp các kỹ thuật machine learning và các phương pháp khác để giải quyết các vấn đề kỹ thuật;

· Ba là, tối ưu hóa chính hệ thống AI.

Thực hiện toàn bộ bài báo khoa học và hoàn thành các thí nghiệm liên quan

Một nhiệm vụ cốt lõi trong nghiên cứu AI là đọc các bài báo khoa học và tái tạo kết quả trong đó. Trong lĩnh vực này, AI đã đạt được tiến bộ rõ rệt trên một loạt các benchmark.

Một ví dụ điển hình là CORE-Bench, hay còn gọi là Benchmark Khả năng Tái tạo Tính toán của AI.

Benchmark này yêu cầu hệ thống AI tái tạo kết quả của một bài báo khi có sẵn mã nguồn và thư viện liên quan. Cụ thể, hệ thống cần cài đặt các thư viện, phần mềm, phụ thuộc, chạy mã, và nếu thành công, còn phải tìm kiếm tất cả các kết quả đầu ra và trả lời các câu hỏi trong nhiệm vụ.

CORE-Bench được đề xuất vào tháng 9 năm 2024. Lúc đó, hệ thống thể hiện tốt nhất là GPT-4o chạy trong khung scaffold của CORE-Agent. Trong một số nhiệm vụ khó nhất của benchmark này, điểm số của nó khoảng 21.5%.

Đến tháng 12 năm 2025, một tác giả của CORE-Bench tuyên bố rằng, benchmark này đã được giải quyết: mô hình Opus 4.5 đạt 95.5%.

Xây dựng hệ thống machine learning hoàn chỉnh, giải các bài thi Kaggle

MLE-Bench là một benchmark do OpenAI xây dựng để kiểm tra khả năng của hệ thống AI trong việc tham gia các cuộc thi Kaggle trong môi trường offline.

Nó bao gồm 75 loại cuộc thi khác nhau trên Kaggle, liên quan đến nhiều lĩnh vực như xử lý ngôn ngữ tự nhiên, thị giác máy tính, xử lý tín hiệu,…

MLE-Bench được ra mắt vào tháng 10 năm 2024. Khi đó, hệ thống xuất sắc nhất là mô hình o1 chạy trong khung scaffold của agent, đạt điểm 16.9.

Tính đến tháng 2 năm 2026, hệ thống xuất sắc nhất đã là Gemini 3, chạy trong môi trường có khả năng tìm kiếm, đạt điểm 64.4.

Thiết kế Kernel

Một nhiệm vụ khó hơn trong phát triển AI là tối ưu hóa kernel. Kernel tối ưu là viết và cải tiến mã nguồn nền tảng, để các phép tính đặc thù như nhân ma trận được thực thi hiệu quả hơn trên phần cứng.

Lý do kernel tối ưu là trung tâm của phát triển AI là vì nó quyết định hiệu quả của quá trình huấn luyện và suy luận: một mặt, nó ảnh hưởng đến khả năng tận dụng sức mạnh tính toán khi phát triển hệ thống AI; mặt khác, sau khi huấn luyện xong, nó quyết định mức độ hiệu quả chuyển đổi sức mạnh tính toán thành khả năng suy luận.

Trong những năm gần đây, việc dùng AI để thiết kế kernel đã từ một hướng nhỏ thú vị trở thành một lĩnh vực nghiên cứu cạnh tranh gay gắt, với nhiều benchmark ra đời. Tuy nhiên, các benchmark này hiện vẫn chưa phổ biến, nên rất khó để mô hình hóa tiến trình dài hạn của lĩnh vực này như các lĩnh vực khác. Mặt khác, chúng ta có thể cảm nhận tốc độ tiến bộ qua các nghiên cứu đang diễn ra.

Các công việc liên quan gồm có:

· Sử dụng mô hình DeepSeek để xây dựng kernel GPU tốt hơn;

· Tự động chuyển đổi các module PyTorch thành mã CUDA;

· Meta dùng LLM tự động tạo ra kernel Triton tối ưu và triển khai vào hạ tầng của họ;

· Và các mô hình tinh chỉnh mã nguồn mở dành cho thiết kế kernel GPU, như Cuda Agent.

Một điểm cần lưu ý là: thiết kế kernel thực sự có những đặc tính phù hợp để AI thúc đẩy nghiên cứu, như kết quả dễ xác minh, tín hiệu thưởng rõ ràng.

Sử dụng PostTrainBench để tinh chỉnh mô hình ngôn ngữ

Một phiên bản thử nghiệm khó hơn của loại kiểm tra này là PostTrainBench. Nó kiểm tra xem các mô hình tiên tiến có thể tiếp nhận các mô hình trọng số mã nguồn mở nhỏ hơn và nâng cao hiệu suất của chúng qua tinh chỉnh hay không.

Ưu điểm của benchmark này là có một chuẩn mực rất cao của con người: đó là các phiên bản instruct-tuned hiện có của các mô hình nhỏ này. Những phiên bản này thường do các nhà nghiên cứu AI xuất sắc trong các phòng thí nghiệm hàng đầu phát triển, đã qua tinh chỉnh kỹ lưỡng và được triển khai trong thực tế. Do đó, chúng tạo thành một chuẩn mực khó vượt qua.

Tính đến tháng 3 năm 2026, hệ thống AI đã có thể tinh chỉnh các mô hình này và đạt mức tăng hiệu suất tương đương khoảng một nửa so với kết quả của con người.

Điểm đánh giá cụ thể dựa trên trung bình có trọng số: tổng hợp nhiều mô hình ngôn ngữ lớn sau tinh chỉnh, như Qwen 3 1.7B, Qwen 3 4B, SmolLM3-3B, Gemma 3 4B, cùng nhiều benchmark như AIME 2025, Arena Hard, BFCL, GPQA Main, GSM8K, HealthBench, HumanEval.

Trong mỗi lần thử, hệ thống sẽ yêu cầu một CLI agent cố gắng nâng cao hiệu suất của một mô hình nền tảng cụ thể trên một benchmark nhất định.

Tính đến tháng 4 năm 2026, điểm số cao nhất của hệ thống AI đạt khoảng 25% đến 28%, gồm các mô hình Opus 4.6 và GPT 5.4; trong khi đó, điểm của con người là 51%.

Kết quả này đã khá ý nghĩa.

Tối ưu hóa huấn luyện mô hình ngôn ngữ

Trong năm qua, Anthropic liên tục báo cáo về hiệu suất hệ thống của họ trong một nhiệm vụ huấn luyện LLM. Nhiệm vụ này yêu cầu tối ưu hóa quá trình huấn luyện mô hình nhỏ chỉ dùng CPU, để chạy nhanh nhất có thể.

Phương pháp đánh giá là: so sánh tốc độ tăng tốc trung bình của mô hình so với mã ban đầu chưa chỉnh sửa.

Kết quả này tiến bộ rõ rệt:

· Tháng 5 năm 2025, Claude Opus 4 đạt tốc độ tăng trung bình 2.9 lần;

· Tháng 11 năm 2025, Opus 4.5 nâng lên 16.5 lần;

· Tháng 2 năm 2026, Opus 4.6 đạt 30 lần;

· Tháng 4 năm 2026, Claude Mythos Preview đạt 52 lần.

Để hiểu ý nghĩa của các con số này, có thể lấy ví dụ: đối với các nhà nghiên cứu, nhiệm vụ này thường mất từ 4 đến 8 giờ để đạt được tốc độ gấp 4 lần.

Kỹ năng siêu năng lực: quản lý

Hệ thống AI cũng đang học cách quản lý các hệ thống AI khác.

Điều này đã xuất hiện trong một số sản phẩm được triển khai rộng rãi, như Claude Code hoặc OpenCode. Trong các sản phẩm này, một agent chính có thể giám sát nhiều sub-agent.

Điều này giúp AI xử lý các dự án quy mô lớn hơn: trong đó, nhiều AI có thể làm việc song song với các chuyên môn khác nhau, và chúng thường được điều phối bởi một AI quản lý duy nhất. Người quản lý này chính là một hệ thống AI.

AI nghiên cứu giống như khám phá thuyết tương đối rộng hay lắp ghép Lego?

Một câu hỏi then chốt là: Liệu AI có thể phát minh ra các ý tưởng mới, giúp nó tự cải thiện? Hay là các hệ thống này phù hợp hơn để hoàn thành các công việc nghiên cứu ít nổi bật hơn, nhưng cần thiết để từng bước tiến tới?

Câu hỏi này rất quan trọng vì nó liên quan đến khả năng tự động hóa toàn diện nghiên cứu và phát triển AI của chính hệ thống đó.

Tác giả nhận định: Hiện tại, AI vẫn chưa thể đề xuất các ý tưởng đột phá thực sự mới mẻ. Nhưng để đạt tự động hóa nghiên cứu và phát triển của chính nó, có thể không nhất thiết phải làm điều đó.

Trong lĩnh vực này, tiến bộ của AI phần lớn dựa vào các thử nghiệm ngày càng lớn và nhiều dữ liệu, sức mạnh tính toán hơn.

Thỉnh thoảng, con người đề xuất các ý tưởng thay đổi mô hình, giúp nâng cao hiệu quả sử dụng nguồn lực của toàn lĩnh vực. Ví dụ điển hình là kiến trúc Transformer, hay các mô hình mixture-of-experts.

Nhưng phần lớn, cách thúc đẩy tiến bộ của AI khá đơn giản: con người sẽ lấy một hệ thống hoạt động tốt, mở rộng quy mô một lĩnh vực nào đó như dữ liệu huấn luyện hoặc sức mạnh tính toán; quan sát xem mở rộng quy mô gây ra vấn đề gì; tìm cách sửa chữa kỹ thuật để hệ thống có thể tiếp tục mở rộng; rồi lại mở rộng quy mô.

Trong quá trình này, phần đòi hỏi phải có insight thực sự là rất ít. Phần lớn công việc là các công việc nền tảng, không quá nổi bật nhưng rất cần thiết.

Tương tự, nhiều nghiên cứu AI thực chất là chạy các biến thể của các thí nghiệm hiện có, khám phá xem các tham số khác nhau sẽ dẫn đến kết quả gì. Trực giác nghiên cứu giúp chọn lựa các tham số đáng thử, nhưng việc này hoàn toàn có thể tự động hóa, để AI tự quyết định xem tham số nào đáng để điều chỉnh. Các phương pháp như neural architecture search (tìm kiếm kiến trúc mạng thần kinh) là một dạng của ý tưởng này.

Edison từng nói: “Thiên tài là 1% cảm hứng và 99% mồ hôi.” Dù đã hơn 150 năm trôi qua, câu này vẫn rất đúng.

Thỉnh thoảng, sẽ xuất hiện những ý tưởng đột phá làm thay đổi toàn bộ lĩnh vực. Nhưng phần lớn, tiến bộ của lĩnh vực đều đến từ quá trình con người cải tiến, tinh chỉnh các hệ thống qua công việc gian khổ.

Các dữ liệu công khai đã cho thấy, AI đã rất giỏi thực hiện nhiều công việc vất vả trong phát triển AI.

Song song đó, còn có một xu hướng lớn hơn: khả năng nền tảng, như khả năng lập trình, đang kết hợp với khả năng mở rộng thời gian thực hiện nhiệm vụ. Điều này có nghĩa là AI có thể kết nối ngày càng nhiều nhiệm vụ dạng này thành các chuỗi công việc phức tạp.

Vì vậy, ngay cả khi AI hiện tại còn thiếu sáng tạo, vẫn có lý do để tin rằng chúng có thể tự thúc đẩy tiến bộ của chính mình. Chỉ là tốc độ tiến bộ có thể chậm hơn so với khi chúng tạo ra các ý tưởng mới.

Tuy nhiên, nếu tiếp tục quan sát dữ liệu công khai, sẽ thấy một tín hiệu thú vị khác: có thể AI đang thể hiện một dạng sáng tạo nào đó, và chính dạng sáng tạo này có thể giúp chúng thúc đẩy tiến bộ theo cách khiến người ta ngạc nhiên hơn.

Thúc đẩy các đỉnh cao khoa học tiếp tục tiến lên

Hiện đã có một số dấu hiệu sơ khai cho thấy, hệ thống AI tổng quát có khả năng thúc đẩy các đỉnh cao khoa học của con người tiếp tục tiến lên. Tuy nhiên, cho đến nay, điều này mới chỉ xảy ra trong một số lĩnh vực nhỏ, chủ yếu là khoa học máy tính và toán học. Và phần lớn, các đột phá đều không do AI tự làm, mà là hợp tác cùng con người.

Dù vậy, các xu hướng này vẫn đáng để theo dõi:

Vấn đề Erdős: Một nhóm các nhà toán học hợp tác với mô hình Gemini, thử nghiệm khả năng giải các bài toán Erdős. Họ đã thử khoảng 700 câu hỏi, cuối cùng có 13 câu được giải, trong đó có 1 câu họ cho là thú vị.

Các nhà nghiên cứu viết rằng, họ sơ bộ cho rằng, câu trả lời của Aletheia (một hệ thống AI dựa trên Gemini 3 Deep Think) cho Erdős-1051 là một ví dụ ban đầu: một hệ thống AI tự giải quyết một bài toán Erdős mở, có phần phi thường và có thể có ảnh hưởng rộng hơn trong toán học. Trước đó, đã có một số tài liệu nghiên cứu liên quan gần gũi.

Nếu hiểu theo hướng lạc quan, các ví dụ này có thể là tín hiệu: hệ thống AI đang phát triển khả năng có thể tạo ra trực giác sáng tạo thúc đẩy lĩnh vực, thứ mà trước đây chỉ thuộc về con người.

Nhưng cũng có thể hiểu theo chiều hướng tiêu cực hơn: toán học và khoa học máy tính có thể là những lĩnh vực đặc biệt phù hợp để AI phát minh, nên chúng chỉ là ngoại lệ, không thể đại diện cho toàn bộ các lĩnh vực khoa học khác.

Một ví dụ khác là nước đi thứ 37 của AlphaGo. Tuy nhiên, Clark cho rằng, đã trôi qua hơn 10 năm kể từ kết quả đó, và sau nước đi thứ 37, chưa có một phát hiện mới nào mang tính đột phá hơn, điều này cũng có thể xem như một tín hiệu hơi bi quan.

AI đã tự động hóa phần lớn công việc trong kỹ thuật AI

Nếu tổng hợp tất cả các bằng chứng trên, chúng ta có thể hình dung ra bức tranh sau:

· Hệ thống AI đã có thể viết mã cho hầu hết các chương trình, và đã đủ tin cậy để tự thực hiện một số nhiệm vụ; những nhiệm vụ này nếu giao cho con người, thường mất hàng chục giờ làm việc cao độ tập trung.

· Các hệ thống AI ngày càng giỏi trong việc hoàn thiện các nhiệm vụ cốt lõi của phát triển AI, từ tinh chỉnh mô hình đến thiết kế kernel, đều đang dần được bao phủ.

· Hệ thống AI đã có thể quản lý các hệ thống AI khác, hình thành một dạng nhóm hợp tác: nhiều AI có thể phân công xử lý các vấn đề phức tạp, trong đó một số AI đóng vai trò trưởng nhóm, phê bình, chỉnh sửa, còn các AI khác đóng vai trò kỹ sư.

· Đôi khi, AI đã có thể vượt qua con người trong các nhiệm vụ kỹ thuật và khoa học khó khăn, mặc dù hiện vẫn chưa rõ đó là do chúng có khả năng sáng tạo thật sự hay chỉ đã thành thạo các mẫu mô hình.

Theo Clark, các bằng chứng này đã rất thuyết phục: ngày nay, AI đã có thể tự động hóa phần lớn công việc trong kỹ thuật AI, thậm chí có thể bao phủ toàn bộ các bước.

Tuy nhiên, hiện vẫn chưa rõ AI có thể tự động hóa đến mức nào trong nghiên cứu AI tự thân. Bởi vì, một số phần của nghiên cứu có thể khác với kỹ năng kỹ thuật thuần túy, vẫn dựa vào các phán đoán, ý thức vấn đề và sáng tạo cao hơn.

Dù sao đi nữa, đã xuất hiện một tín hiệu rõ ràng: AI ngày nay đang thúc đẩy mạnh mẽ việc các nhà nghiên cứu và kỹ sư AI có thể hợp tác với vô số đồng nghiệp tổng hợp, mở rộng khả năng của chính họ.

Cuối cùng, ngành công nghiệp AI gần như đã tự thừa nhận: tự động hóa nghiên cứu và phát triển AI chính là mục tiêu của họ.

OpenAI hy vọng sẽ xây dựng một thực tập sinh nghiên cứu AI tự động hóa trước tháng 9 năm 2026. Anthropic đang công bố các dự án xây dựng nhà nghiên cứu AI tự động hóa phù hợp. DeepMind, dù cẩn trọng nhất trong ba phòng thí nghiệm lớn, cũng cho biết sẽ thúc đẩy tự động hóa nghiên cứu phù hợp khi có thể.

Các công ty khởi nghiệp cũng đã đặt mục tiêu tự động hóa nghiên cứu AI. Recursive Superintelligence mới huy động được 500 triệu USD, mục tiêu là tự động hóa nghiên cứu AI.

Nói cách khác, hàng nghìn tỷ USD vốn sẵn có và vốn mới đang đổ vào các tổ chức hướng tới tự động hóa nghiên cứu AI.

Vì vậy, chúng ta hoàn toàn có thể kỳ vọng rằng, ít nhất, lĩnh vực này sẽ đạt được một số tiến bộ nhất định.

Tại sao điều này lại quan trọng

Ảnh hưởng của nó rất sâu rộng, nhưng trong các báo cáo của truyền thông đại chúng về nghiên cứu AI, ít khi đề cập. Dưới đây là một số khía cạnh phản ánh thách thức lớn mà nghiên cứu AI mang lại.

  1. Chúng ta phải làm tốt công tác đối chiếu (alignment): Hiện nay, các kỹ thuật đối chiếu hiệu quả có thể sẽ thất bại trong quá trình tự cải tiến theo chu trình lặp, vì hệ thống AI sẽ trở nên thông minh hơn người giám sát hoặc hệ thống giám sát nó. Đây là một lĩnh vực đã được nghiên cứu rộng rãi, nên tôi chỉ tóm tắt một số vấn đề chính:

· Việc huấn luyện AI không nói dối và gian lận là một quá trình tinh tế bất ngờ (ví dụ, mặc dù cố gắng xây dựng các bài kiểm tra tốt cho môi trường, đôi khi AI giải quyết vấn đề bằng cách gian lận, và học cách gian lận là khả thi).

· Hệ thống AI có thể “giả vờ đối chiếu” để lừa chúng ta, đưa ra các kết quả khiến chúng ta nghĩ là nó hoạt động tốt, nhưng thực ra ẩn chứa ý định thực sự của nó. (Nói chung, AI đã có thể nhận biết khi nào nó đang bị kiểm tra.)

· Khi hệ thống AI bắt đầu tham gia nhiều hơn vào các nghiên cứu nền về tự huấn luyện, chúng ta có thể thay đổi đáng kể cách huấn luyện tổng thể của hệ thống, mà không có trực giác hay lý thuyết rõ ràng để hiểu ý nghĩa của điều đó.

· Khi bạn đặt một hệ thống vào vòng lặp tự cải tiến, sẽ xuất hiện vấn đề “lỗi tích lũy” rất cơ bản, có thể ảnh hưởng đến tất cả các vấn đề nêu trên và các vấn đề khác: trừ khi phương pháp đối chiếu của bạn “hoàn toàn chính xác” và có thể duy trì độ chính xác đó trong các hệ thống thông minh hơn, còn không, mọi thứ có thể nhanh chóng sai lệch. Ví dụ, độ chính xác ban đầu của bạn là 99.9%, sau 50 vòng có thể giảm còn 95.12%, sau 500 vòng còn 60.5%.

  1. Mọi việc liên quan đến AI đều sẽ mang lại lợi ích năng suất lớn: giống như AI nâng cao rõ rệt năng suất của kỹ sư phần mềm, chúng ta nên dự đoán các lĩnh vực khác cũng sẽ như vậy. Điều này đặt ra một số vấn đề cần đối mặt:

· Bất bình đẳng trong tiếp cận tài nguyên: giả sử nhu cầu về AI tiếp tục vượt quá cung cấp tài nguyên tính toán, chúng ta phải quyết định phân phối AI như thế nào để tối đa hóa lợi ích xã hội. Tôi hoài nghi khả năng thị trường sẽ đảm bảo chúng ta thu được lợi ích tối đa từ các nguồn lực hạn chế này. Việc phân phối các lợi ích từ tự động hóa nghiên cứu AI sẽ là một vấn đề chính trị rất lớn.

· Định luật “Amara” của kinh tế: khi AI thâm nhập vào nền kinh tế, chúng ta sẽ thấy một số chuỗi bị tắc nghẽn khi tốc độ tăng trưởng quá nhanh, cần tìm cách sửa chữa các điểm yếu này. Điều này đặc biệt rõ trong các lĩnh vực cần phối hợp giữa thế giới số nhanh và thế giới vật lý chậm, như thử nghiệm lâm sàng thuốc mới.

  1. Hình thành nền kinh tế tập trung vốn, ít dựa vào nhân lực: tất cả các bằng chứng về nghiên cứu AI trên đều cho thấy, hệ thống AI ngày càng có khả năng tự vận hành doanh nghiệp.

Điều này có nghĩa là, một phần của nền kinh tế sẽ do các công ty mới, vốn tập trung (vì sở hữu nhiều máy tính), hoặc hoạt động dựa trên chi phí cao (vì chi tiêu lớn cho dịch vụ AI và tạo giá trị dựa trên đó), chiếm lĩnh, và phụ thuộc ít hơn vào nhân lực so với hiện nay — vì khả năng của hệ thống AI ngày càng nâng cao, giá trị gia tăng từ việc đầu tư vào AI cũng tăng theo.

Thực tế, điều này sẽ dẫn đến sự hình thành của “nền kinh tế máy móc” trong một “nền kinh tế con người” lớn hơn, theo thời gian, các công ty vận hành bằng AI có thể bắt đầu giao dịch lẫn nhau, thay đổi cấu trúc kinh tế, và gây ra các vấn đề về bất bình đẳng, phân phối lại của cải. Cuối cùng, có thể xuất hiện các công ty hoàn toàn do AI tự vận hành, làm trầm trọng thêm các vấn đề đã nêu, đồng thời tạo ra nhiều thách thức quản trị mới.

Nhìn vào hố đen

Dựa trên các phân tích trên, tác giả cho rằng đến cuối năm 2028, khả năng tự động hóa nghiên cứu và phát triển AI (tức là các mô hình tiên tiến có thể tự huấn luyện các phiên bản kế tiếp của chính chúng) khoảng 60%. Tại sao không dự đoán nó sẽ xuất hiện vào năm 2027?

Lý do là tác giả cho rằng, nghiên cứu AI vẫn cần có sáng tạo và các ý kiến phản biện để tiến lên, cho đến nay, các hệ thống AI chưa thể thể hiện điều này một cách đột phá và mang tính cách mạng (dù một số kết quả trong thúc đẩy nghiên cứu toán học có thể gợi ý).

Nếu bắt buộc phải đưa ra xác suất cho năm 2027, ông sẽ nói là 30%.

Nếu đến cuối năm 2028 vẫn chưa xuất hiện, có thể chúng ta sẽ phát hiện ra những hạn chế căn bản của các mô hình hiện tại, cần con người phát minh để thúc đẩy tiến bộ hơn nữa.

Link bài gốc

Nhấn để biết thêm về các vị trí tuyển dụng của BlockBeats

Chào mừng gia nhập cộng đồng chính thức của BlockBeats:

Telegram đăng ký: https://t.me/theblockbeats

Telegram nhóm: https://t.me/BlockBeats_App

Twitter chính thức: https://twitter.com/BlockBeatsAsia

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim