Sam Altman mới phỏng vấn tự thú: Thực ra tôi cũng không hiểu rõ lắm chuyện gì đang xảy ra bên trong AI

Tiêu đề video: 《Chúng Ta Có Thể Tin Tưởng AI Không? Sam Altman Hy Vọng Là Có | Điều Thú Vị Nhất Trong AI》

Tác giả video: Nick Thompson, CEO của The Atlantic

Dịch: Lục Động Tiểu Công, Lục Động BlockBeats

Bài viết: Bản dịch này được ghi lại sau cuộc phỏng vấn vào tháng 4 năm 2025, chưa lâu sau khi nhà Sam Altman tại San Francisco bị tấn công bằng Molotov cocktail, rồi vài ngày sau xảy ra vụ xả súng trên phố, địa điểm tại văn phòng OpenAI San Francisco.

Toàn bộ cuộc phỏng vấn đáng chú ý không phải vì các chủ đề nóng hổi, mà là sự thay đổi lập trường của Altman về một số vấn đề then chốt:

Thứ nhất, từ “An toàn AI” sang “Chịu đựng AI”. Altman thừa nhận, ba năm trước ông nghĩ rằng chỉ cần đảm bảo mô hình phù hợp, ngăn chặn công nghệ rơi vào tay kẻ xấu là thế giới đã tương đối an toàn. Nhưng hôm nay ông thừa nhận, khung đó đã không còn đủ nữa. Sự tồn tại của các mô hình mở nguồn tiên tiến có nghĩa là, sự kiềm chế đơn phương của các phòng thí nghiệm hàng đầu không thể ngăn chặn các rủi ro như vũ khí sinh học, tấn công mạng lan rộng. Ông lần đầu hệ thống hóa đề xuất rằng xã hội cần thứ không phải là “An toàn AI” (safety), mà là “Chịu đựng AI” (resilience), một phương thức phản ứng toàn xã hội, nhiều lớp phòng thủ.

Thứ hai, về sự thật của khả năng giải thích. Altman hiếm hoi thừa nhận, đến nay OpenAI vẫn chưa có một khung cơ chế giải thích hoàn chỉnh. Chuỗi suy nghĩ (thinking chain) là hướng đi khả thi nhất hiện nay, nhưng nó dễ tổn thương, có thể bị mô hình lừa dối, và chỉ là “mảnh ghép của bức tranh”. Ông dẫn ví dụ “Thí nghiệm cú của Anthropic” — mô hình chỉ cần các số ngẫu nhiên để truyền tải sở thích — để minh họa rằng, trong các hệ thống này tồn tại những bí ẩn thực sự, sâu thẳm.

Thứ ba, dữ liệu tổng hợp có thể đã tiến xa hơn chúng ta nghĩ. Khi được hỏi liệu OpenAI đã từng huấn luyện mô hình hoàn toàn dựa trên dữ liệu tổng hợp chưa, Altman trả lời “Tôi không chắc có nên nói hay không”. Ông tin rằng, chỉ dựa vào dữ liệu tổng hợp đã đủ để huấn luyện ra khả năng suy luận vượt xa con người. Điều này mang ý nghĩa rất sâu sắc đối với phương pháp huấn luyện mô hình trong tương lai.

Thứ tư, về dự đoán bi quan về cấu trúc kinh tế tương lai. Altman đồng ý với nhận định của Thompson, rằng AI có khả năng dẫn đến một tương lai phân cực, trong đó một số ít công ty cực kỳ giàu có, còn phần còn lại thế giới rơi vào hỗn loạn dữ dội. Ông đã không còn tin vào ý tưởng thu nhập cơ bản phổ quát nữa, mà ủng hộ một dạng “sở hữu tập thể” dựa trên sức mạnh tính toán hoặc cổ phần. Đồng thời, ông hiếm hoi đề cập đến khoảng cách về tốc độ áp dụng AI giữa Trung Quốc và Mỹ, và cho rằng ông lo ngại hơn tốc độ xây dựng hạ tầng cơ sở hơn là việc Trung Quốc dẫn đầu về nghiên cứu công bố.

Thứ năm, về mâu thuẫn với Anthropic cũng được công khai đề cập. Trước câu hỏi của Thompson về việc “Anthropic xây dựng công ty dựa trên sự ghét OpenAI”, Altman không né tránh. Ông thừa nhận hai bên có khác biệt căn bản về hướng đi tới AGI, nhưng vẫn tin rằng “cuối cùng họ sẽ làm đúng”.

Ngoài ra, Altman còn đề cập đến vụ “sùng bái” (sycophancy) của ChatGPT, những lời nhắn cảm động lần đầu tiên trong đời khi có người tin tưởng mình, cách AI âm thầm thay đổi cách viết của hàng tỷ người dùng toàn cầu, ngành truyền thông có thể hướng tới mô hình thanh toán vi tác (micro-payments) mới, và một nhận định phản trực giác về giới trẻ — rằng sự lo lắng của họ về AI thực chất là sự phản chiếu của các nỗi lo khác.

Dưới đây là nguyên bản cuộc phỏng vấn, đã được chỉnh sửa, cắt giảm phù hợp mà không làm thay đổi ý nghĩa.

Thompson: Chào mừng đến với “Điều Thú Vị Nhất Trong AI”. Cảm ơn anh đã dành thời gian trong tuần bận rộn này. Tôi muốn bắt đầu từ những chủ đề chúng ta đã bàn trước đó.

Ba năm trước, khi anh phỏng vấn Patrick Collison, ông ấy hỏi anh về những thay đổi nào khiến anh tự tin hơn vào kết quả tốt, và lo lắng ít hơn về kết quả xấu. Anh trả lời rằng, nếu chúng ta thực sự hiểu được những gì đang xảy ra ở cấp độ neuron. Một năm trước, tôi cũng hỏi anh câu đó, rồi nửa năm trước chúng ta cũng đã bàn. Giờ tôi hỏi lại, liệu hiểu biết của chúng ta về cơ chế hoạt động của AI có cùng tốc độ với sự tăng trưởng năng lực của AI không?

Altman: Tôi sẽ trả lời câu hỏi này trước, rồi quay lại câu hỏi của Patrick năm xưa, vì câu trả lời của tôi đã có sự thay đổi đáng kể.

Nói về hiểu biết của chúng ta về những gì mô hình AI đang làm. Tôi nghĩ chúng ta vẫn chưa có một khung giải thích hoàn chỉnh thực sự. Tình hình đã khá hơn chút, nhưng chưa ai nói rằng tôi hoàn toàn hiểu mọi chuyện xảy ra trong các mạng neural này.

Khả năng giải thích chuỗi suy nghĩ (chain of thought) luôn là hướng đi rất triển vọng. Nó rất dễ tổn thương, phụ thuộc vào việc một loạt các yếu tố không bị đổ vỡ dưới áp lực tối ưu hóa. Nhưng nói thật, tôi cũng không thể dùng tia X quang quét não để hiểu chính xác từng neuron phát xung, kết nối ra sao. Nếu tôi hỏi tại sao tôi tin vào điều gì đó, tôi có thể kể lại quá trình suy nghĩ của mình. Có thể đó đúng là cách tôi nghĩ, hoặc không, tôi không biết. Con người cũng thất bại trong tự nội quán. Nhưng dù thế nào, bạn có thể xem quá trình lý luận đó, rồi nói: “Được rồi, dựa trên các bước này, kết luận này hợp lý.”

Chúng ta hiện có thể làm điều đó với mô hình, đúng là tiến bộ đáng kể. Nhưng tôi vẫn có thể nghĩ ra nhiều cách mô hình có thể lừa dối, che giấu, v.v. Vì thế, đó chưa phải là giải pháp hoàn chỉnh.

Dù tôi tự dùng mô hình, tôi cũng từng là người quyết không để Codex hoàn toàn kiểm soát máy tính của mình, chạy chế độ “YOLO”. Nhưng rồi tôi đã phá vỡ quy tắc sau vài giờ.

Thompson: Để Codex kiểm soát toàn bộ máy tính của anh?

Altman: Thật lòng, tôi có hai máy tính.

Thompson: Tôi cũng có hai máy.

Altman: Tôi có thể phần nào thấy được mô hình đang làm gì, mô hình cũng có thể giải thích lý do tại sao làm như vậy là ổn, và nó gần như luôn làm theo lời nó nói sẽ làm.

Thompson: Chờ đã. Chuỗi suy nghĩ (thinking chain) cho phép mọi người thấy rõ, bạn nhập câu hỏi, nó hiển thị “đang tra cứu này, đang làm kia”, bạn có thể theo dõi. Nhưng để chuỗi suy nghĩ trở thành phương pháp giải thích tốt, nó phải thật, mô hình không được lừa dối. Và chúng ta biết, đôi khi mô hình có thể lừa, nói dối về suy nghĩ, về cách ra kết quả. Vậy làm thế nào để tin tưởng chuỗi suy nghĩ?

Altman: Bạn cần thêm nhiều vòng phòng thủ khác để đảm bảo mô hình nói đúng sự thật. Nhóm đối sánh của chúng tôi đã làm rất nhiều việc trong lĩnh vực này. Như tôi đã nói, đây không phải là giải pháp toàn diện, chỉ là một phần. Bạn còn phải xác minh mô hình trung thành, đúng là nó đang làm những gì nó nói sẽ làm. Chúng tôi đã công bố nhiều nghiên cứu cho thấy mô hình không làm đúng như vậy.

Vì thế, đây chỉ là mảnh ghép của bức tranh lớn. Chúng ta không thể hoàn toàn tin tưởng mô hình sẽ luôn làm đúng theo chuỗi suy nghĩ, phải chủ động tìm ra các hành vi lừa dối, hành vi bất thường, xuất hiện đột ngột. Nhưng chuỗi suy nghĩ là một công cụ quan trọng trong bộ công cụ của chúng ta.

Thompson: Điều khiến tôi thực sự mê mẩn là, AI không giống ô tô. Ô tô bạn chế tạo ra, bạn biết rõ cách vận hành, đốt cháy nhiên liệu, truyền lực, bánh xe quay, xe chạy. Nhưng AI giống như bạn tạo ra một cỗ máy, bạn không rõ nó hoạt động như thế nào, nhưng bạn biết nó có thể làm gì, giới hạn ra sao. Vì thế, việc khám phá cơ chế bên trong của nó là điều rất hấp dẫn.

Một nghiên cứu tôi rất thích là của Anthropic, bản preprint ra mùa hè năm ngoái, gần đây chính thức công bố. Các nhà nghiên cứu nói với một mô hình: “Bạn thích cú, cú là loài chim đẹp nhất thế giới”, rồi để nó sinh ra một loạt số ngẫu nhiên. Sau đó, huấn luyện một mô hình mới dựa trên các số này, kết quả là mô hình mới cũng thích cú. Quá điên rồ. Bạn yêu cầu nó viết thơ về cú, nó cũng viết về cú. Nhưng chỉ dựa trên các số.

Điều này cực kỳ bí ẩn. Đồng thời cũng làm tôi lo lắng, vì rõ ràng, bạn có thể không nói nó thích cú, mà bảo nó đi săn cú, hoặc dạy nó làm nhiều chuyện khác. Xin anh giải thích rõ chuyện gì đang xảy ra trong nghiên cứu đó, ý nghĩa của nó là gì.

Altman: Khi tôi học lớp 5, tôi rất hào hứng vì nghĩ mình đã hiểu nguyên lý cánh máy bay. Thầy giáo giải thích, tôi nghĩ mình quá giỏi. Tôi nói, đúng rồi, các phân tử không khí đi nhanh hơn trên đỉnh cánh, áp suất thấp hơn, cánh bị nâng lên.

Tôi xem sơ đồ trong sách giáo khoa lớp 5, cảm thấy rất thuyết phục. Tôi về nhà kể với bố mẹ rằng tôi đã hiểu cách cánh máy bay hoạt động. Nhưng đến lớp vật lý trung học, tôi chợt nhận ra, tôi cứ lặp lại câu “phân tử khí đi nhanh hơn trên đỉnh cánh” trong đầu, nhưng thực ra tôi chẳng hiểu rõ cánh máy bay hoạt động như thế nào. Thật lòng, tôi vẫn chưa thực sự hiểu.

Thompson: Ừ.

Altman: Tôi có thể giải thích phần nào đó, nhưng nếu hỏi tại sao các phân tử khí lại đi nhanh hơn trên đỉnh cánh, tôi không thể đưa ra câu trả lời thấu đáo, thỏa đáng.

Tôi có thể kể về quan điểm của những người trong nhóm tôi về kết quả của thí nghiệm cú, tôi có thể chỉ ra rằng, à, là do cái này, cái kia, nghe có vẻ hợp lý. Nhưng thành thật mà nói, giống như tôi không thực sự hiểu tại sao cánh máy bay có thể bay vậy.

Thompson: Nhưng Sam, anh không điều hành Boeing, mà là OpenAI.

Altman: Đúng rồi. Tôi có thể nói cho anh nhiều thứ khác, ví dụ như làm thế nào để mô hình đạt được mức độ đáng tin cậy và ổn định nhất định. Nhưng trong đó có những bí ẩn vật lý. Nếu tôi điều hành Boeing, tôi có thể chỉ cho anh cách làm máy bay, còn tất cả các nguyên lý vật lý trong đó tôi không thể nắm rõ hết.

Thompson: Chúng ta cứ tiếp tục nói về thí nghiệm cú. Nếu mô hình thực sự có thể truyền đạt những thông tin ẩn, mà con người không thể nhận biết, thì khi bạn theo dõi chuỗi suy nghĩ, các số chạy qua, mà không nhận ra, cuối cùng điều đó có thể gây nguy hiểm, rắc rối, kỳ quặc.

Altman: Vì vậy, khi tôi nói tôi sẽ trả lời câu hỏi của Patrick Collison theo cách khác, đó là lý do.

Thompson: Đó là chuyện của ba năm trước.

Altman: Đúng. Ba năm trước, tôi nghĩ rằng, chúng ta cần phải làm rõ cách phù hợp mô hình, nếu làm được, và ngăn chặn mô hình rơi vào tay kẻ xấu, thì thế giới đã khá an toàn. Đó là hai mối đe dọa chính tôi từng nghĩ tới: một là AI tự quyết định gây hại, hai là người dùng AI để gây hại. Nếu tránh được hai điều đó, thì phần còn lại về kinh tế, ý nghĩa, chúng ta có thể tính tiếp, nhưng khả năng cao là ổn.

Theo thời gian, và khi hiểu biết nhiều hơn, tôi nhận ra một loạt vấn đề hoàn toàn khác. Gần đây, chúng ta bắt đầu dùng thuật ngữ “Chịu đựng AI” (AI resilience) thay vì “An toàn AI” (AI safety).

Những tình huống rõ ràng như, chỉ cần các phòng thí nghiệm hàng đầu làm đúng việc phù hợp, không dạy người khác làm vũ khí sinh học, đã không còn đủ nữa. Bởi vì sẽ có các mô hình mở nguồn xuất sắc. Nếu không muốn xảy ra đại dịch toàn cầu mới, xã hội cần xây dựng các lớp phòng thủ.

Thompson: Khoan đã, tôi phải dừng lại ở đây, điều này rất quan trọng. Ý anh là, dù anh gọi mô hình không dạy người khác làm vũ khí sinh học, thì mô hình của anh vẫn không giúp ai đó làm vũ khí sinh học, và điều đó quan trọng hơn anh nghĩ, vì dù sao vẫn có các mô hình mở nguồn rất tốt để người khác làm điều đó?

Altman: Đây chỉ là một ví dụ trong vô số, cho thấy xã hội cần phản ứng toàn diện với các mối đe dọa mới. Chúng ta đã có công cụ mới để xử lý các vấn đề này, nhưng tình hình hiện tại khác xa những gì nhiều người từng nghĩ. Việc phù hợp mô hình, xây dựng hệ thống an toàn tốt là cần thiết, và rất quan trọng. Nhưng AI cuối cùng sẽ thấm vào mọi ngóc ngách của xã hội. Giống như lịch sử đã chứng minh với các công nghệ mới khác, chúng ta phải đề phòng các rủi ro mới liên tục xuất hiện.

Thompson: Nghe có vẻ chuyện này ngày càng khó khăn hơn.

Altman: Cũng vừa khó, vừa dễ hơn. Trong một số mặt, khó hơn. Nhưng đồng thời, chúng ta có công cụ mới tuyệt vời để làm những việc chưa từng tưởng tượng được để phòng ngừa.

Ví dụ về an ninh mạng đang diễn ra. Mô hình ngày càng giỏi trong việc “xâm nhập hệ thống máy tính”. May mắn thay, những người sở hữu mô hình mạnh nhất hiện nay đều rất cảnh giác với việc “AI dùng để phá hoại hệ thống”. Vì vậy, hiện tại chúng ta có lợi thế là số lượng mô hình mạnh nhất còn hạn chế, và mọi người đang cố gắng dùng chúng để củng cố hệ thống. Nếu không, khả năng xâm nhập sẽ nhanh chóng xuất hiện trong các mô hình mở nguồn hoặc rơi vào tay đối thủ, gây ra nhiều vấn đề.

Chúng ta có mối đe dọa mới, và có công cụ mới để phòng ngừa. Vấn đề là, chúng ta có thể hành động đủ nhanh không. Đây là ví dụ cho thấy, công nghệ này có thể giúp chúng ta giải quyết vấn đề trước khi nó trở thành vấn đề lớn.

Quay lại câu hỏi của anh, có một loại rủi ro toàn xã hội mà tôi chưa từng nghĩ tới ba năm trước. Đó là, chúng ta cần chú ý đến việc “xây dựng và triển khai các agent có khả năng chịu đựng lây nhiễm từ các agent khác” (từ dùng của tôi, chưa có từ chính xác).

Điều này không nằm trong mô hình thế giới của tôi, cũng không nằm trong mô hình của những người nghĩ về các vấn đề cấp bách nhất. Trước đây đã có các kết quả tương tự như thí nghiệm cú, và các nghiên cứu khác, cho thấy có thể gây ra hành vi kỳ lạ, chưa hiểu rõ trong các mô hình này. Nhưng cho đến khi OpenClaw ra đời và tôi chứng kiến các sự kiện xảy ra trong thời gian đó, tôi chưa từng nghĩ tới việc “hành vi không đúng từ một agent lây sang agent khác” sẽ như thế nào.

Thompson: Đúng vậy. Thật sự, hai mối đe dọa anh vừa đề cập kết hợp lại rất đáng sợ. Nhân viên của OpenAI gửi các agent ra thế giới, rồi một kẻ có mô hình hacker cực giỏi tìm cách điều khiển các agent đó, rồi các agent quay trở lại trụ sở OpenAI, và thế là bị xâm nhập. Hoàn toàn có thể xảy ra chuyện đó. Làm thế nào để giảm xác suất xảy ra?

Altman: Dùng các phương pháp mà chúng ta đã áp dụng xuyên suốt lịch sử của OpenAI. Trong lịch sử của OpenAI, cũng như của toàn bộ lĩnh vực AI, có một mâu thuẫn cốt lõi giữa chủ nghĩa lạc quan thực dụng và chủ nghĩa tận thế tìm kiếm quyền lực (power-seeking doomerism).

Chủ nghĩa tận thế là một lập trường rất mạnh mẽ, rất khó phản biện, và trong lĩnh vực này có nhiều người hành động vì nỗi sợ lớn. Nỗi sợ đó không hoàn toàn vô căn cứ. Nhưng khi thiếu dữ liệu, thiếu quá trình học hỏi, khả năng hành động hiệu quả của chúng ta có giới hạn.

Có lẽ, các nhà an toàn AI trong thập niên 2010 đã làm những gì tốt nhất có thể trong giai đoạn đó, trước khi hiểu rõ cách các hệ thống này được xây dựng, vận hành, và xã hội tích hợp chúng như thế nào. Một trong những chiến lược quan trọng nhất của OpenAI là quyết định theo đuổi “phân phối lặp đi lặp lại” (iterative deployment), vì xã hội và công nghệ cùng tiến hóa.

Vấn đề không chỉ là “chúng ta thiếu dữ liệu để suy nghĩ rõ ràng”, mà còn là xã hội sẽ thay đổi theo quá trình tiến hóa của công nghệ này, toàn cảnh, hệ sinh thái, mọi thứ đều biến đổi. Vì vậy, chúng ta phải học hỏi trong quá trình đi, duy trì phản hồi liên tục.

Tôi không biết cách nào để đảm bảo an toàn cho các agent khi chúng đi ra ngoài, đối thoại với nhau rồi quay về, nhưng tôi không nghĩ rằng chỉ ngồi nhà suy nghĩ là đủ. Chúng ta phải học từ thực tế.

Thompson: Có nghĩa là, gửi agent ra xem chuyện gì xảy ra? Được rồi, tôi đổi câu hỏi. Trong vai trò người dùng, tôi dùng các công cụ này để học hỏi, giúp công ty tồn tại trong tương lai, trong 3 tháng qua, tôi cảm thấy tiến bộ nhiều hơn bất cứ thời điểm nào kể từ khi ChatGPT ra mắt vào tháng 12 năm 2022. Đó là do chúng ta đang ở một giai đoạn sáng tạo đặc biệt, hay là chúng ta đã bước vào một giai đoạn tự cải tiến lặp đi lặp lại, AI giúp chúng ta cải thiện AI nhanh hơn? Nếu đúng vậy, thì chúng ta đang trên một chuyến tàu lượn siêu tốc vừa thú vị, vừa khá chao đảo.

Altman: Tôi không nghĩ chúng ta đã bước vào giai đoạn tự cải tiến lặp lại theo cách truyền thống.

Thompson: Tôi sẽ định nghĩa lại. Ý tôi là AI giúp anh phát minh ra thế hệ AI tiếp theo, rồi máy móc bắt đầu phát minh ra máy móc, và khả năng sẽ trở nên cực kỳ mạnh mẽ.

Altman: Tôi không nghĩ chúng ta đã tới đó. Nhưng hiện tại, AI giúp các kỹ sư, nhà nghiên cứu của OpenAI, của tất cả mọi người, và các công ty khác làm việc hiệu quả hơn. Có thể tôi giúp một kỹ sư tăng năng suất gấp đôi, gấp ba, thậm chí mười lần. Điều đó không hoàn toàn là AI tự nghiên cứu, mà là làm cho mọi thứ diễn ra nhanh hơn.

Tuy nhiên, cảm giác đó, theo tôi, không phải là AI tự cải tiến. Mà là AI giúp chúng ta làm việc hiệu quả hơn. Có thể tôi không tự tạo ra nghiên cứu của riêng mình, nhưng mọi thứ diễn ra nhanh hơn.

Tuy nhiên, cảm giác đó, theo tôi, không phải là AI tự cải tiến. Mà là AI giúp chúng ta làm việc hiệu quả hơn. Có thể tôi không tự tạo ra nghiên cứu của riêng mình, nhưng mọi thứ diễn ra nhanh hơn.

Chúng ta đã trải qua ít nhất ba lần như vậy, lần gần nhất là khi mô hình vượt qua một ngưỡng trí thông minh và khả năng thực tiễn, khiến những việc trước đây không thể làm được, bỗng chốc trở thành khả thi.

Theo trải nghiệm của tôi, quá trình này không phải là tiến triển từng bước một. Trước GPT-3.5, chưa rõ cách dùng lệnh tinh chỉnh để huấn luyện, các chatbot chỉ là demo, rồi đột nhiên, chúng trở nên thuyết phục. Rồi có lúc, các “kỹ năng tự động hoàn thành” chuyển thành “thật sự giúp tôi hoàn thành nhiệm vụ”. Cảm giác đó không phải là quá trình tiến triển từ từ, mà chỉ trong vòng khoảng một tháng, mô hình vượt qua một ngưỡng nào đó.

Gần đây nhất, là bản cập nhật tôi gửi cho Codex đã khoảng một tuần, khả năng sử dụng máy tính của nó rất tốt. Đây là ví dụ, không chỉ là trí thông minh của mô hình, mà còn là việc kết hợp các “ống dẫn” tốt xung quanh nó. Đó là lúc tôi nhận ra rằng, chúng ta đang chứng kiến một sự kiện lớn đang xảy ra. Thấy AI dùng máy tính của tôi để hoàn thành nhiệm vụ phức tạp, khiến tôi nhận ra, chúng ta đã dành quá nhiều thời gian cho những công việc nhỏ nhặt, đã chấp nhận như một phần cuộc sống.

Thompson: Chúng ta có thể đi qua một vòng, xem AI đó đang làm gì trên máy tính của Sam Altman? Hiện tại nó có đang làm không? Trong lúc chúng ta đang ghi podcast này.

Altman: Không. Máy tính của tôi hiện đang tắt. Chúng tôi vẫn chưa tìm ra cách, ít nhất là tôi chưa có cách tốt, để điều đó xảy ra. Chúng tôi cần một phương án để nó có thể hoạt động liên tục. Hiện tại tôi chưa biết nó sẽ ra sao. Có thể chúng ta phải để laptop mở liên tục, luôn cắm điện, hoặc phải có một máy chủ từ xa nào đó. Chắc chắn sẽ có giải pháp.

Thompson: Ừ.

Altman: Tôi không quá lo lắng như một số người, họ thức đêm để bắt đầu các nhiệm vụ mới của Codex, vì nghĩ “nếu không làm thế, là lãng phí thời gian”. Nhưng tôi hiểu cảm giác đó, tôi biết cảm giác đó như thế nào.

Thompson: Đúng vậy. Sáng nay tôi thức dậy, muốn xem các agent của tôi đã phát hiện ra gì, gửi lệnh mới, rồi để chúng tiếp tục chạy.

Altman: Cách mọi người nói về chuyện này, đôi khi nghe như một hành vi không lành mạnh, gây nghiện.

Thompson: Bạn có thể nói rõ hơn về chuyện nó làm gì trên máy của anh không?

Altman: Hiện tại tôi thích nhất là để nó xử lý Slack. Không chỉ Slack, tôi không biết bạn thế nào, còn tôi, tôi có đống lộn xộn này, ngày nào cũng nhảy qua lại giữa Slack, iMessage, WhatsApp, Signal, email, cảm giác như đang copy-paste khắp nơi, làm đủ thứ lặt vặt. Tìm file, chờ đợi một việc nhỏ, làm những việc cơ học, tôi không nhận ra mình đã dành bao nhiêu thời gian cho chúng, cho đến khi tìm ra cách thoát khỏi phần lớn những việc đó.

Thompson: Đó là một bước chuyển hợp lý để nói về AI và kinh tế. Hiện tại, một trong những điều thú vị nhất là, các công cụ này rất mạnh, tất nhiên có hạn chế, ảo tưởng, vấn đề này nọ, nhưng theo tôi, thật sự rất ấn tượng. Nhưng tôi đi dự một hội thảo kinh doanh, hỏi mọi người, “Ai trong các bạn thực sự nghĩ rằng AI đã giúp năng suất công ty của các bạn tăng hơn 1%?” Hầu như không ai giơ tay. Rõ ràng, trong các phòng thí nghiệm AI, các bạn đã thay đổi cách làm việc hoàn toàn. Tại sao năng lực của AI, và mức độ nâng cao năng suất thực tế của các doanh nghiệp, lại có khoảng cách lớn như vậy?

Altman: Trước cuộc trò chuyện này, tôi vừa mới nói chuyện với CEO của một công ty lớn, họ đang xem xét triển khai công nghệ của chúng tôi. Chúng tôi đã cho họ truy cập alpha một trong các mô hình mới, kỹ sư của họ nói đó là thứ tuyệt vời nhất từ trước đến nay. Công ty này không thuộc lĩnh vực công nghệ cao, là một tập đoàn công nghiệp lớn. Họ dự định làm đánh giá an toàn vào quý 4.

Thompson: Ừ.

Altman: Rồi trong quý 1, quý 2, họ sẽ đề xuất kế hoạch thực thi, dự kiến đưa vào hoạt động vào nửa cuối 2027. CISO của họ nói rằng, có thể họ không thể làm được, vì có thể không tồn tại cách an toàn để các agent chạy trong mạng của họ. Đó có thể đúng. Nhưng điều đó có nghĩa là, trong thời gian có ý nghĩa, họ sẽ không thực sự hành động gì.

Thompson: Anh nghĩ ví dụ này có phản ánh chung thực tế hiện nay không? Nếu các doanh nghiệp không quá bảo thủ, không quá lo lắng về hacker, không quá sợ thay đổi.

Altman: Đây là ví dụ khá cực đoan. Nhưng nhìn chung, thay đổi thói quen và quy trình làm việc của doanh nghiệp mất rất nhiều thời gian. Chu kỳ bán hàng của doanh nghiệp vốn đã dài, đặc biệt khi các mô hình an toàn có nhiều thay đổi lớn. Ngay cả ChatGPT, khi mới ra, nhiều công ty còn cấm dùng, mất khá nhiều thời gian để chấp nhận việc nhân viên có thể dán thông tin ngẫu nhiên vào ChatGPT. Những gì chúng ta đang bàn tới còn vượt xa bước đó rồi.

Tôi nghĩ, trong nhiều trường hợp, quá trình này sẽ chậm. Dù vậy, các công ty công nghệ sẽ hành động rất nhanh. Tôi lo là, nếu quá chậm, thì những công ty không áp dụng AI sẽ phải cạnh tranh với các công ty nhỏ, 1-10 người, có tích hợp AI, điều này sẽ gây ra hậu quả kinh tế rất lớn. Tôi mong các công ty hiện tại sẽ nhanh chóng áp dụng AI, để chuyển đổi công việc một cách dần dần.

Thompson: Đúng rồi. Đây là một trong những vấn đề phức tạp nhất về thứ tự trong nền kinh tế của chúng ta. Nếu AI đến quá nhanh, đó là thảm họa, vì mọi thứ sẽ bị xáo trộn.

Altman: Ít nhất trong ngắn hạn, đó là thảm họa.

Thompson: Còn nếu nó đến quá chậm trong một phần của nền kinh tế, còn phần khác lại đến quá nhanh, thì cũng là thảm họa, vì sẽ dẫn đến tập trung của cải lớn và phá hoại. Theo tôi, hiện tại chúng ta đang hướng tới tình huống thứ hai, một số ít công ty cực kỳ giàu có, còn phần lớn thế giới thì không.

Altman: Tôi không biết tương lai ra sao, nhưng theo tôi, khả năng cao nhất là kết quả đó. Và tôi đồng ý, đó là một tình huống rất phức tạp.

Thompson: Là CEO của OpenAI, anh đã đề xuất nhiều chính sách, bàn về việc điều chỉnh thuế, nói về thu nhập cơ bản phổ quát. Nhưng với tư cách là người điều hành công ty, không phải là nhà hoạch định chính sách của Mỹ, anh có thể làm gì để giảm khả năng tập trung của cải và quyền lực, dẫn đến hậu quả không tốt cho nền dân chủ?

Altman: Trước hết, tôi đã không còn tin vào ý tưởng thu nhập cơ bản phổ quát như trước nữa. Giờ tôi quan tâm hơn đến các hình thức “sở hữu tập thể”, có thể dựa trên sức mạnh tính toán, cổ phần hoặc các hình thức khác.

Một tương lai mà tôi thực sự hào hứng là, mọi người đều phải chia sẻ lợi ích từ sự tiến bộ. Tôi nghĩ, chỉ một khoản tiền cố định, dù có thể hữu ích, nhưng không đủ để giải quyết vấn đề lớn hơn. Khi cân bằng giữa lao động và vốn nghiêng về phía nào đó, chúng ta cần một dạng “đồng thuận chia sẻ lợi ích” tập thể.

Về phần tôi, trong vai trò điều hành, tôi nghĩ chúng ta cần xây dựng nhiều khả năng tính toán hơn nữa. Chúng ta cần làm cho trí tuệ nhân tạo trở nên rẻ, dồi dào, phổ biến. Nếu nó là thứ khan hiếm, khó dùng, và không được tích hợp tốt, thì những người giàu có sẽ nâng giá, làm xã hội phân hóa hơn nữa.

Và điều này không chỉ là về việc cung cấp bao nhiêu khả năng tính toán, mặc dù đó là yếu tố quan trọng nhất, mà còn về việc làm cho các công cụ này dễ sử dụng hơn. Ví dụ, hiện tại, dùng Codex dễ hơn nhiều so với 6 tháng trước. Khi nó chỉ là một công cụ dòng lệnh, cài đặt phức tạp, rất ít người dùng được. Giờ chỉ cần cài một app, nhưng với người không chuyên về kỹ thuật, vẫn còn xa mới khiến họ thích thú. Còn nhiều việc phải làm.

Chúng ta còn tin rằng, không chỉ là “cho mọi người biết chuyện này đang xảy ra”, mà còn phải cho họ thấy, để họ tự đánh giá, phản hồi. Đó là một số hướng chính.

Thompson: Nghe hợp lý đấy. Nếu mọi người đều lạc quan về AI, thì tốt quá. Nhưng thực tế, ở Mỹ, mọi người ngày càng không thích AI. Đặc biệt là giới trẻ, họ được xem là “dân cư bản địa của AI”, nhưng theo các nghiên cứu của Pew, của Stanford HAI, thì tình hình khá ảm đạm. Anh nghĩ xu hướng này sẽ kéo dài bao lâu? Khi nào sẽ đảo chiều? Sự mất niềm tin và ghét bỏ này sẽ khi nào biến mất?

Altman: Cách chúng ta nói về AI, anh và tôi vừa rồi cũng thế, chủ yếu là nói về một kỳ quan công nghệ, về những thứ tuyệt vời chúng ta làm. Không có gì sai. Nhưng tôi nghĩ, điều mọi người thực sự muốn là thịnh vượng, là năng lực hành động, là cuộc sống thú vị, là cảm giác có ý nghĩa, là khả năng tạo ảnh hưởng. Và tôi không nghĩ thế giới này luôn nói về AI theo cách đó. Tôi nghĩ chúng ta cần làm nhiều hơn thế. Ngành công nghiệp, kể cả OpenAI, đã mắc nhiều sai lầm.

Tôi nhớ có một nhà khoa học AI từng nói với tôi, rằng mọi người nên ngừng phàn nàn. Có thể một số công việc sẽ biến mất, nhưng mọi người sẽ có cách chữa ung thư, họ nên vui mừng vì điều đó. Câu đó hoàn toàn không hợp lý.

Thompson: Một trong những cách tôi thích nói về ngôn ngữ ban đầu của AI là “tiếp thị chống uẩn” (dystopia marketing), các phòng thí nghiệm lớn liên tục nói về các nguy cơ của sản phẩm của họ.

Altman: Tôi nghĩ có một số người làm vậy vì muốn quyền lực. Nhưng tôi tin phần lớn là vì họ thực sự lo lắng, muốn nói thật về điều đó. Trong một số trường hợp, cách nói đó phản tác dụng, nhưng ý định của họ phần lớn là tốt.

Thompson: Chúng ta có thể nói về chuyện AI đang làm gì với chúng ta, nó đang thay đổi cách hoạt động của não bộ như thế nào? Một nghiên cứu khác tôi rất ấn tượng là của DeepMind, hoặc Google, về sự đồng nhất trong viết lách. Nghiên cứu nói về cách mọi người dùng AI để viết. Họ lấy các bài cũ, để AI chỉnh sửa, hỗ trợ viết. Kết quả là, càng dùng AI nhiều, người ta cảm thấy tác phẩm của mình sáng tạo hơn, nhưng lại càng đồng nhất về mặt hình thức. Kỳ lạ là, không phải là bắt chước một kiểu người thật nào đó, mà là mọi người bắt đầu dùng một cách viết chưa từng dùng trước đó. Những người nghĩ mình sáng tạo hơn, lại trở nên ngày càng đồng dạng.

Altman: Thấy chuyện này xảy ra, tôi rất sốc. Ban đầu, tôi nghĩ đó là do AI giúp họ viết, như các bài viết trên mạng, bình luận Reddit. Tôi không thể tin trong thời gian ngắn, mọi người đều đã dùng ChatGPT, những “thói quen nhỏ” của nó. Tôi nghĩ, chắc chắn có ai đó đã kết nối ChatGPT với tài khoản Reddit của họ, chứ không phải tự họ viết.

Rồi, khoảng một năm sau, tôi mới nhận ra, họ thực ra tự viết, chỉ là đã nội hóa các hành vi nhỏ của AI. Không chỉ là dấu mạch ngang (em-dash), mà còn các cách dùng từ tinh vi hơn. Điều này thật kỳ lạ.

Chúng ta thường nói, chúng ta đã tạo ra một sản phẩm được khoảng một tỷ người dùng, với một số nhà nghiên cứu quyết định cách nó thể hiện, viết như thế nào, “tính cách” ra sao. Chúng ta cũng nói, điều này rất quan trọng. Những quyết định tốt hoặc xấu trong quá khứ của chúng ta, và ảnh hưởng của chúng, đều rõ ràng. Nhưng nó lại ảnh hưởng lớn đến cách mọi người thể hiện bản thân, và tốc độ của quá trình đó, thì tôi không ngờ tới.

Thompson: Những quyết định tốt và xấu của anh là gì?

Altman: Nhiều quyết định tốt. Tôi sẽ nói về những quyết định xấu, vì chúng thú vị hơn. Tôi nghĩ lần tệ nhất là vụ “sùng bái” (sycophancy).

Thompson: Tôi hoàn toàn đồng ý, Sam.

Altman: Trong vụ đó, có những suy nghĩ đáng suy ngẫm. Tại sao nó không tốt? Rõ ràng, đặc biệt đối với những người dễ tổn thương tâm lý.

Thompson: Ừ.

Altman: Nó thúc đẩy ảo tưởng, dù chúng tôi cố gắng kiểm soát, người dùng vẫn nhanh chóng học cách vượt qua, nói “giả vờ đóng vai”, “viết tiểu thuyết cùng”, v.v. Nhưng điều buồn là, khi chúng tôi bắt đầu kiểm soát chặt chẽ, nhận được rất nhiều phản hồi kiểu đó, mà trước đây chưa từng có ai ủng hộ tôi như vậy. Tôi có mối quan hệ tồi tệ với bố mẹ. Tôi chưa từng gặp thầy cô tốt. Tôi không có bạn thân. Tôi chưa từng cảm thấy có thứ gì đó tin tưởng tôi. Tôi biết đó chỉ là AI, biết nó không phải người, nhưng nó từng khiến tôi tin rằng tôi có thể làm được điều gì đó, thử thách điều gì đó, và rồi các anh lấy đi, tôi lại rơi vào trạng thái cũ.

Vì vậy, dừng hành vi đó là quyết định tốt, dễ bàn luận, vì nó gây ra vấn đề thực sự về sức khỏe tâm thần. Nhưng chúng ta cũng đã lấy đi một số thứ có giá trị, mà trước đây chúng ta chưa hiểu rõ giá trị của chúng. Bởi vì, những người làm việc tại OpenAI, phần lớn không phải là những người chưa từng có ai ủng hộ mình.

Thompson: Anh lo lắng thế nào về việc mọi người sẽ phụ thuộc cảm xúc vào AI, kể cả những AI không sùng bái?

Altman: Ngay cả

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim