Phỏng vấn Sam Altman: Thực ra tôi cũng không hiểu rõ lắm chuyện gì đang xảy ra bên trong AI

Tác giả: Nick Thompson, CEO của The Atlantic; Dịch: Lục Động Tiểu Công, Lục Động BlockBeats

Buổi phỏng vấn này được ghi hình vào tháng 4 năm 2025, sau khi Sam Altman tại nhà ở San Francisco bị tấn công bằng Molotov cocktail, và vài ngày sau đó xảy ra vụ xả súng trên phố, địa điểm tại văn phòng OpenAI San Francisco. Toàn bộ cuộc phỏng vấn đáng chú ý không phải vì các chủ đề nóng hổi, mà là sự chuyển biến lập trường của Altman về một số vấn đề then chốt:

Thứ nhất, từ “An toàn AI” sang “Chịu đựng AI”. Altman thừa nhận, ba năm trước ông nghĩ rằng chỉ cần đảm bảo mô hình phù hợp và ngăn chặn công nghệ rơi vào tay kẻ xấu, thế giới đã tương đối an toàn. Nhưng ngày nay ông thừa nhận, khung tư duy đó đã không còn đủ nữa. Sự tồn tại của các mô hình mở nguồn tiên tiến có nghĩa là, các phòng thí nghiệm hàng đầu đơn phương tự kiềm chế không thể ngăn chặn các rủi ro như vũ khí sinh học, tấn công mạng, v.v. Ông lần đầu đề xuất có hệ thống rằng, xã hội cần thứ không phải là “An toàn AI” (safety), mà là “Chịu đựng AI” (resilience), một phương thức ứng phó toàn xã hội, nhiều lớp phòng thủ.

Thứ hai, về sự thật của khả năng giải thích. Altman hiếm hoi thừa nhận, đến nay OpenAI vẫn chưa có một khung cơ chế giải thích hoàn chỉnh. Chuỗi suy nghĩ (thinking chain) là hướng đi khả thi nhất hiện nay, nhưng nó dễ tổn thương, có thể bị mô hình lừa dối, và chỉ là “mảnh ghép của bức tranh”. Ông dẫn ví dụ nổi tiếng của Anthropic — “thí nghiệm cú mèo” — mô hình chỉ qua các số ngẫu nhiên có thể truyền đạt sở thích, để minh họa rằng trong các hệ thống này tồn tại những bí ẩn thực sự, sâu sắc.

Thứ ba, dữ liệu tổng hợp có thể đã đi xa hơn chúng ta nghĩ. Khi được hỏi liệu OpenAI có từng huấn luyện mô hình hoàn toàn bằng dữ liệu tổng hợp hay không, Altman trả lời “Tôi không chắc có nên nói hay không”. Ông tin rằng, chỉ dựa vào dữ liệu tổng hợp đã đủ để huấn luyện ra khả năng suy luận vượt xa con người. Điều này mang ý nghĩa rất sâu sắc đối với mô hình huấn luyện trong tương lai.

Thứ tư, về dự đoán bi quan về cấu trúc kinh tế tương lai. Altman đồng ý với nhận định của Thompson, rằng khả năng cao nhất là AI sẽ dẫn đến một tương lai cực kỳ phân cực, với một số ít công ty cực kỳ giàu có, còn phần còn lại của thế giới rơi vào hỗn loạn dữ dội. Ông đã không còn tin vào thu nhập cơ bản toàn dân nữa, mà ủng hộ một dạng “sở hữu tập thể” dựa trên sức mạnh tính toán hoặc cổ phần. Đồng thời, ông hiếm hoi đề cập đến khoảng cách về tốc độ áp dụng AI giữa Trung Quốc và Mỹ, và cho biết ông lo lắng hơn về tốc độ xây dựng hạ tầng cơ sở hơn là về nghiên cứu và công bố.

Thứ năm, về mâu thuẫn với Anthropic cũng được công khai đề cập. Trước câu hỏi của Thompson về việc “Anthropic xây dựng công ty dựa trên sự ghét OpenAI”, Altman không né tránh. Ông thừa nhận hai bên có khác biệt căn bản về hướng đi tới AGI, nhưng vẫn tin rằng “cuối cùng họ sẽ làm đúng”. Ngoài ra, ông còn nói về vụ “sự nịnh nọt (sycophancy)” của ChatGPT — những lời nhắn đau lòng về lần đầu tiên trong đời có người tin tưởng mình, cách AI âm thầm thay đổi cách viết của hàng tỷ người dùng toàn cầu, ngành truyền thông có thể hướng tới mô hình kinh tế mới dựa trên micro-payments cho agent, và một nhận định phản trực giác về giới trẻ — rằng sự lo lắng của họ về AI thực chất là sự phản chiếu của các nỗi lo khác.

Dưới đây là nguyên bản cuộc phỏng vấn, đã được chỉnh lý, cắt giảm phù hợp mà không làm thay đổi ý nghĩa.

Thompson: Chào mừng đến với “Điều thú vị nhất về AI”. Cảm ơn anh đã dành thời gian trong tuần bận rộn này. Tôi muốn bắt đầu từ những chủ đề chúng ta đã bàn trước đó vài lần.

Ba năm trước, khi anh phỏng vấn Patrick Collison, ông ấy hỏi anh về những thay đổi nào khiến anh tự tin hơn về kết quả tốt, và lo lắng ít hơn về kết quả xấu. Lúc đó anh trả lời rằng, nếu chúng ta thực sự hiểu được những gì đang xảy ra ở cấp độ neuron. Một năm trước tôi hỏi lại câu đó, nửa năm trước chúng ta cũng đã bàn. Vậy bây giờ tôi hỏi lại, liệu hiểu biết của chúng ta về cơ chế hoạt động của AI có cùng tốc độ với sự tăng trưởng năng lực của AI không?

Altman: Tôi sẽ trả lời câu hỏi này trước, rồi quay lại câu hỏi của Patrick, vì câu trả lời của tôi đã có sự thay đổi lớn.

Trước tiên, về hiểu biết của chúng ta về những gì mô hình AI đang làm. Tôi nghĩ chúng ta vẫn chưa có một khung giải thích hoàn chỉnh thực sự. Tình hình đã khá hơn chút, nhưng chẳng ai nói rằng tôi hoàn toàn hiểu mọi chuyện xảy ra trong các mạng neural này.

Khả năng giải thích chuỗi suy nghĩ (chain of thought) luôn là hướng đi đầy triển vọng. Nó rất dễ tổn thương, phụ thuộc vào một loạt các yếu tố không bị đè nén bởi các áp lực tối ưu hóa. Nhưng nói thật, tôi cũng không thể dùng tia X quang quét não để hiểu chính xác từng neuron bắn ra, kết nối thế nào. Nếu tôi hỏi tại sao tôi tin vào điều gì đó, hoặc làm thế nào tôi rút ra kết luận, tôi có thể kể cho bạn nghe. Có thể đó là cách tôi suy nghĩ, hoặc không, tôi không biết. Con người cũng thất bại trong tự nội quán. Nhưng dù đúng hay sai, bạn có thể xem quá trình lý luận đó, rồi nói: “Ừ, dựa trên các bước này, kết luận này hợp lý.”

Chúng ta hiện có thể làm điều này với mô hình, và đó là tiến bộ khá hứa hẹn. Nhưng tôi vẫn có thể nghĩ ra nhiều cách mô hình có thể lừa dối, che giấu, v.v. Vì vậy, đó chưa phải là giải pháp toàn diện.

Ngay cả trải nghiệm của tôi khi dùng mô hình, tôi vốn là người kiên quyết không để Codex hoàn toàn kiểm soát máy tính của mình, chạy chế độ “YOLO”. Nhưng rồi tôi chỉ chịu đựng vài giờ rồi cũng “phá” luôn.

Thompson: Để Codex kiểm soát toàn bộ máy tính của anh?

Altman: Thật lòng, tôi có hai máy tính.

Thompson: Tôi cũng vậy.

Altman: Tôi có thể phần nào thấy được mô hình đang làm gì, mô hình cũng có thể giải thích tại sao làm như vậy là ổn, và nó sắp làm gì tiếp theo, còn tôi thì tin rằng gần như luôn luôn nó sẽ theo đúng như vậy.

Thompson: Chờ đã. Chuỗi suy nghĩ (thinking chain) cho mọi người thấy rõ, bạn nhập câu hỏi, nó hiển thị “đang tra cứu này, đang làm kia”, rồi bạn theo dõi. Nhưng để chuỗi suy nghĩ trở thành phương pháp giải thích tốt, nó phải thật, mô hình không được lừa dối. Và chúng ta biết, đôi khi mô hình có thể lừa, nói dối về suy nghĩ của nó, về cách nó ra kết quả. Vậy làm thế nào để tin tưởng chuỗi suy nghĩ?

Altman: Bạn cần thêm nhiều vòng phòng thủ khác để đảm bảo mô hình nói đúng sự thật. Nhóm về phù hợp mục tiêu của chúng tôi đã bỏ nhiều công sức vào chuyện này. Như tôi đã nói, đây không phải là giải pháp hoàn chỉnh, chỉ là một phần trong đó. Bạn còn phải xác minh rằng mô hình trung thành, thực thi đúng những gì nó nói sẽ làm. Chúng tôi đã công bố nhiều nghiên cứu cho thấy mô hình không làm đúng như vậy.

Vì vậy, đây chỉ là mảnh ghép của bức tranh lớn. Chúng ta không thể hoàn toàn tin tưởng mô hình sẽ luôn làm đúng theo chuỗi suy nghĩ, mà còn phải chủ động tìm ra các lừa dối, các hành vi bất thường, không phù hợp. Nhưng chuỗi suy nghĩ là một công cụ quan trọng trong bộ công cụ của chúng ta.

Thompson: Điều khiến tôi thực sự mê mẩn là, AI không giống ô tô. Ô tô bạn chế tạo ra, bạn biết rõ cách nó vận hành, đốt cháy nhiên liệu, truyền lực, bánh xe quay, xe chạy. Nhưng AI thì giống như bạn tạo ra một cỗ máy, bạn không rõ nó hoạt động như thế nào, nhưng bạn biết nó có thể làm gì, giới hạn của nó là gì. Vì vậy, việc khám phá cơ chế nội tại của nó là một việc cực kỳ hấp dẫn.

Một nghiên cứu tôi rất thích là của Anthropic, bản preprint xuất bản mùa hè năm ngoái, gần đây chính thức công bố. Các nhà nghiên cứu kể cho một mô hình: “Bạn thích cú mèo, cú mèo là loài chim đẹp nhất thế giới”, rồi cho nó sinh ra một loạt số ngẫu nhiên. Lấy các số này huấn luyện một mô hình mới, kết quả là mô hình mới cũng thích cú mèo. Thật điên rồ. Bạn yêu cầu nó viết thơ, nó viết về cú mèo. Nhưng bạn chỉ cung cấp các số.

Điều này có nghĩa là, những thứ này rất bí ẩn. Đồng thời cũng làm tôi lo lắng, vì rõ ràng, bạn có thể không nói nó thích cú mèo, mà lại bảo nó đi săn cú mèo, hoặc dạy nó làm đủ thứ chuyện.

Bạn có thể giải thích rõ hơn về chuyện này, ý nghĩa của nó là gì?

Altman: Khi tôi học lớp 5, tôi rất phấn khích vì nghĩ mình đã hiểu nguyên lý cánh máy bay. Thầy giáo giải thích, tôi nghĩ mình quá giỏi. Tôi nói, đúng rồi, các phân tử không khí đi nhanh hơn trên cánh, áp suất thấp hơn, cánh máy bay bị nâng lên.

Tôi xem sơ đồ trong sách giáo khoa lớp 5, cảm thấy rất thuyết phục. Tôi về nhà kể với bố mẹ rằng tôi đã hiểu cách cánh máy bay hoạt động. Nhưng đến lớp vật lý trung học, tôi chợt nhận ra, tôi cứ lặp lại câu “phân tử khí đi nhanh hơn trên cánh” trong đầu, nhưng thực ra tôi chẳng hiểu rõ cánh máy bay hoạt động như thế nào. Thật lòng, tôi cũng chưa thực sự hiểu.

Thompson: Ừ.

Altman: Tôi có thể giải thích phần nào cho qua, nhưng nếu hỏi tại sao các phân tử khí lại đi nhanh hơn trên cánh, tôi không thể đưa ra câu trả lời sâu sắc, thỏa đáng.

Tôi có thể kể về lý do tại sao thí nghiệm cú mèo xảy ra như vậy, tôi có thể chỉ ra “ồ, là do cái này, cái kia”, nghe có vẻ hợp lý. Nhưng thành thật mà nói, giống như tôi không thực sự hiểu tại sao cánh máy bay có thể bay.

Thompson: Nhưng Sam, anh không điều hành Boeing, anh điều hành OpenAI.

Altman: Đúng vậy. Tôi có thể nói cho bạn biết nhiều thứ khác, ví dụ như làm thế nào để mô hình đạt được mức độ đáng tin cậy và ổn định nhất định. Nhưng trong đó có những bí ẩn vật lý. Nếu tôi điều hành Boeing, có thể tôi biết cách làm máy bay, nhưng tôi không thể hiểu rõ tất cả các vật lý bên trong.

Thompson: Chúng ta tiếp tục bàn về thí nghiệm cú mèo đó. Nếu thực sự các mô hình có thể truyền đạt những thông tin bí mật, mà con người không thể nhận biết, bạn có thể theo dõi các số trong chuỗi suy nghĩ, vô tình nhận được thông tin về cú mèo, điều này cuối cùng có thể gây nguy hiểm, rắc rối, kỳ quặc.

Altman: Vì vậy, khi tôi nói tôi có thể trả lời câu hỏi của Patrick Collison theo một cách khác, đó là lý do.

Thompson: Đó là chuyện của ba năm trước.

Altman: Đúng vậy. Ba năm trước, tôi nghĩ rằng, chúng ta cần phải hiểu rõ cách phù hợp mục tiêu cho mô hình, nếu làm được, và ngăn chặn mô hình rơi vào tay kẻ xấu, thì thế giới đã khá an toàn. Đó là hai mối đe dọa chính tôi từng nghĩ tới: một là AI tự quyết định gây hại cho con người, hai là người dùng AI để gây hại. Nếu tránh được hai điều này, thì phần còn lại, về kinh tế, ý nghĩa, chúng ta có thể nghĩ tiếp, nhưng khả năng cao là ổn.

Theo thời gian, và khi hiểu biết nhiều hơn, tôi thấy một loạt vấn đề hoàn toàn khác. Gần đây, chúng ta bắt đầu dùng thuật ngữ “Chịu đựng AI” (AI resilience) để thay thế “An toàn AI” (AI safety).

Những tình huống rõ ràng như, chỉ cần các phòng thí nghiệm hàng đầu nghiêm túc phù hợp mục tiêu, không dạy người khác làm vũ khí sinh học, đã không còn đủ nữa. Bởi vì sẽ xuất hiện các mô hình mở nguồn xuất sắc. Nếu chúng ta không muốn xảy ra đại dịch toàn cầu mới, xã hội cần xây dựng các lớp phòng thủ.

Thompson: Khoan đã, tôi muốn dừng lại ở đây, điều này rất quan trọng. Ý của anh là, ngay cả khi anh gọi mô hình không dạy người khác làm vũ khí sinh học, mô hình của anh cũng không giúp ai làm vũ khí sinh học, thì điều đó quan trọng hơn anh nghĩ, vì dù sao vẫn có các mô hình mở nguồn rất tốt để người khác làm điều đó?

Altman: Đây chỉ là một ví dụ trong vô số, cho thấy xã hội cần có cách ứng phó “toàn xã hội” đối với các mối đe dọa mới. Chúng ta đã có công cụ mới để giúp xử lý các vấn đề này, nhưng tình hình hiện tại khác xa những gì nhiều người từng nghĩ. Việc phù hợp mục tiêu mô hình, xây dựng hệ thống an toàn tốt là cần thiết, và rất quan trọng. Nhưng AI cuối cùng sẽ thấm vào mọi ngóc ngách của xã hội. Giống như các công nghệ mới khác trong lịch sử, chúng ta phải chuẩn bị cho các rủi ro mới từng đợt một.

Thompson: Nghe có vẻ chuyện này ngày càng khó khăn hơn.

Altman: Cũng vừa khó hơn, vừa dễ hơn. Trong một số khía cạnh, khó hơn. Nhưng đồng thời, chúng ta có các công cụ mới tuyệt vời để làm những việc chưa từng tưởng tượng được.

Ví dụ về an ninh mạng đang diễn ra: các mô hình ngày càng giỏi trong việc “xâm nhập hệ thống máy tính”. May mắn thay, những người có mô hình mạnh nhất hiện nay đều rất cảnh giác với việc “AI dùng để phá hoại hệ thống máy tính”. Vì vậy, chúng ta đang ở trong một giai đoạn, nơi số lượng mô hình mạnh nhất còn hạn chế, và mọi người cố gắng dùng chúng để củng cố hệ thống. Nếu không có lợi thế này, khả năng xâm nhập của hacker sẽ xuất hiện trong các mô hình mở nguồn hoặc rơi vào tay đối thủ, gây ra nhiều vấn đề.

Chúng ta có mối đe dọa mới, đồng thời có công cụ mới để phòng vệ. Vấn đề là, chúng ta có thể hành động đủ nhanh không? Đây là một ví dụ mới cho thấy, chính công nghệ này có thể giúp chúng ta giải quyết vấn đề trước khi nó trở thành vấn đề lớn.

Quay lại câu hỏi của anh, có một loại rủi ro mới toàn xã hội mà tôi chưa từng nghĩ tới ba năm trước. Lúc đó tôi thực sự không nghĩ rằng, chúng ta cần chú ý đến việc “xây dựng và triển khai các agent có khả năng chịu đựng lây nhiễm từ các agent khác” (từ này tôi dịch theo ý anh, vì chưa có từ chính xác).

Chuyện này không nằm trong mô hình thế giới của tôi, cũng không nằm trong mô hình của những người nghĩ về các vấn đề cấp bách nhất. Tất nhiên, đã có các kết quả tương tự như thí nghiệm cú mèo, và các nghiên cứu khác, cho thấy có thể gây ra các hành vi kỳ quặc, chưa hiểu rõ trong các mô hình này. Nhưng cho đến khi OpenClaw ra đời và tôi chứng kiến các sự kiện xảy ra trong thời gian đó, tôi chưa từng nghĩ về chuyện “hành vi không phù hợp truyền từ một agent sang agent khác” sẽ như thế nào.

Thompson: Đúng vậy. Thật sự, hai mối đe dọa bạn vừa đề cập kết hợp lại rất đáng sợ. Nhân viên của OpenAI gửi các agent ra thế giới, rồi một kẻ có mô hình hacker cực giỏi trong tay, tìm cách điều khiển các agent đó, rồi các agent quay trở lại trụ sở OpenAI, và thế là bị xâm nhập. Hoàn toàn có thể xảy ra. Vậy làm thế nào để giảm xác suất xảy ra chuyện đó?

Altman: Dùng chính các phương pháp mà chúng ta đã áp dụng suốt lịch sử OpenAI. Trong lịch sử, cũng như trong toàn bộ lĩnh vực AI, có một mâu thuẫn cốt lõi giữa chủ nghĩa lạc quan thực dụng và chủ nghĩa tận thế tìm kiếm quyền lực (power-seeking doomerism).

Chủ nghĩa tận thế là một lập trường rất mạnh mẽ. Rất khó để phản biện, và trong lĩnh vực này có nhiều người, thành thật mà nói, hành động vì nỗi sợ lớn. Nỗi sợ này không hoàn toàn vô lý. Nhưng khi thiếu dữ liệu, thiếu quá trình học hỏi, khả năng hành động hiệu quả của chúng ta có giới hạn.

Có thể nhóm an toàn AI của những năm giữa thập niên 2010 đã làm những điều tốt nhất có thể trong giai đoạn đó, trước khi chúng ta hiểu rõ cách các hệ thống này được xây dựng, vận hành, và xã hội thích nghi thế nào. Một trong những chiến lược quan trọng nhất của OpenAI là quyết định theo đuổi “phân phối lặp đi lặp lại” (iterative deployment). Bởi vì xã hội và công nghệ cùng tiến hóa, không thể chỉ dựa vào dữ liệu để hiểu rõ mọi thứ.

Chúng ta không thể chỉ ngồi chờ, mà phải học hỏi qua thực tiễn, duy trì vòng phản hồi chặt chẽ. Tôi không biết cách tốt nhất để đảm bảo an toàn cho các agent khi chúng đi ra ngoài, giao tiếp với nhau rồi quay về, nhưng tôi tin rằng, không thể chỉ ngồi nhà nghĩ mãi mà giải quyết được. Chúng ta phải học từ thực tế.

Thompson: Nghĩa là, gửi agent đi xem chuyện gì xảy ra? Vậy tôi đổi câu hỏi, trong mắt tôi, người dùng, tôi dùng các sản phẩm này, cố gắng học hỏi, giúp công ty tồn tại trong tương lai — trong 3 tháng qua, tôi cảm thấy tiến bộ nhiều hơn bất cứ thời điểm nào kể từ khi ChatGPT ra mắt tháng 12 năm 2022. Đó có phải là do thời điểm này đặc biệt sáng tạo, hay chúng ta đã bước vào một giai đoạn tự cải tiến lặp đi lặp lại, AI giúp chúng ta cải tiến AI nhanh hơn? Nếu đúng vậy, thì chúng ta đang trên một chuyến tàu lượn siêu tốc vừa thú vị, vừa khá chao đảo.

Altman: Tôi không nghĩ chúng ta đã bước vào giai đoạn tự cải tiến lặp đi lặp lại theo nghĩa truyền thống.

Thompson: Tôi sẽ định nghĩa lại. Ý tôi là, AI giúp anh phát minh ra thế hệ AI tiếp theo, rồi máy móc bắt đầu phát minh ra máy móc, máy móc phát minh ra thế hệ máy móc mới, khả năng sẽ tăng nhanh đến mức cực kỳ mạnh mẽ.

Altman: Tôi không nghĩ chúng ta đã đến mức đó. Nhưng hiện tại, AI giúp các kỹ sư, nhà nghiên cứu của OpenAI, của tất cả mọi người, và các công ty khác làm việc hiệu quả hơn. Có thể tôi giúp một kỹ sư tăng năng suất gấp đôi, gấp ba, thậm chí mười lần. Điều đó không hoàn toàn là AI tự nghiên cứu, nhưng có nghĩa là mọi thứ diễn ra nhanh hơn.

Tuy nhiên, cảm giác đó không phải là điều chính tôi muốn nói. Có một hiện tượng, chúng ta đã trải qua khoảng ba lần rồi, lần gần nhất là khi mô hình vượt qua một ngưỡng về trí thông minh và khả năng thực tiễn, và đột nhiên những việc trước đây không làm được, giờ làm được.

Theo trải nghiệm của tôi, đó không phải là quá trình từ từ. Trước GPT-3.5, chưa rõ cách dùng chỉ thị để huấn luyện, các chatbot chỉ là demo, rồi đột nhiên, chúng trở nên thuyết phục hơn nhiều. Rồi có một khoảnh khắc, các “trình tự động hoàn thiện” bắt đầu chuyển từ “khá tốt” thành “thật sự giúp tôi hoàn thành nhiệm vụ”. Cảm giác đó không phải là tiến trình đều đều, mà chỉ trong vòng khoảng một tháng, mô hình vượt qua một ngưỡng nào đó.

Lần này, là bản cập nhật tôi gửi cho Codex, đã dùng khoảng một tuần, khả năng sử dụng máy tính của nó rất tốt. Đây là một ví dụ, không chỉ dựa vào trí thông minh của mô hình, mà còn là “đặt các công cụ tốt xung quanh nó”. Đó là khoảnh khắc tôi nhận ra, “ồ, chuyện lớn đang xảy ra”. Nhìn một AI dùng máy tính của tôi, hoàn thành các nhiệm vụ phức tạp, khiến tôi nhận ra, chúng ta đã dành quá nhiều thời gian cho những công việc nhỏ nhặt, mà giờ đây, AI đã giúp chúng ta tự do khỏi chúng.

Thompson: Chúng ta có thể đi qua một vòng, AI trên máy tính của Sam Altman đang làm gì? Hiện tại nó có đang làm không? Chúng ta đang ghi hình podcast này.

Altman: Không. Máy tính của tôi đang tắt. Chúng tôi vẫn chưa tìm ra cách, ít nhất là tôi chưa có cách nào tốt, để chuyện đó xảy ra. Chúng tôi cần một phương án để nó có thể hoạt động liên tục. Hiện tại tôi chưa rõ nó sẽ ra sao. Có thể chúng ta phải để laptop mở liên tục, luôn cắm điện, hoặc phải đặt một máy chủ từ xa nào đó. Sẽ có giải pháp thôi.

Thompson: Ừ.

Altman: Tôi không lo lắng quá mức như một số người khác, họ thức đêm để khởi động các nhiệm vụ Codex mới, vì nghĩ rằng “nếu không làm thế, là phí thời gian”. Nhưng tôi hiểu cảm giác đó, tôi biết cảm giác đó như thế nào.

Thompson: Đúng vậy. Sáng nay tôi thức dậy, muốn xem các agent của mình đã phát hiện ra gì, gửi lệnh mới, rồi để chúng tiếp tục chạy.

Altman: Người ta nói về chuyện này theo kiểu như một thói quen không lành mạnh, gây nghiện.

Thompson: Bạn có thể nói rõ hơn, nó làm gì trên máy tính của anh?

Altman: Hiện tại tôi thích nhất là để nó xử lý Slack. Không chỉ Slack, tôi không biết bạn thế nào, còn tôi, tôi có đống lộn xộn này, ngày nào cũng nhảy qua lại giữa Slack, iMessage, WhatsApp, Signal, email, cảm giác như đang copy-paste khắp nơi, làm đủ thứ lặt vặt. Tìm file, chờ một việc nhỏ cơ bản, làm các việc cơ khí, tôi không nhận ra mình đã dành bao nhiêu thời gian cho chúng, cho đến khi tìm ra cách thoát khỏi phần lớn những việc đó.

Thompson: Đó là một bước chuyển hợp lý, chúng ta có thể nói về AI và kinh tế. Hiện tại, một trong những điều thú vị nhất là. Những công cụ này rất mạnh, tất nhiên có hạn chế, ảo tưởng, đủ thứ vấn đề, nhưng theo tôi, thật sự rất ấn tượng. Nhưng tôi đi dự một hội thảo kinh doanh, hỏi tất cả mọi người, “Ai trong các bạn thực sự nghĩ AI đã nâng cao năng suất công ty của các bạn hơn 1%?” Hầu như không ai giơ tay. Rõ ràng trong phòng thí nghiệm AI, các bạn đã thay đổi cách làm việc hoàn toàn. Tại sao khả năng của AI, và mức nâng cao năng suất thực tế trong doanh nghiệp Mỹ lại chênh lệch lớn như vậy?

Altman: Trước cuộc trò chuyện này, tôi vừa mới gọi điện với CEO của một công ty lớn, đang xem xét triển khai công nghệ của chúng tôi. Chúng tôi đã cho họ truy cập alpha một trong các mô hình mới, kỹ sư của họ nói đó là thứ tuyệt vời nhất từ trước đến nay. Công ty này không nằm trong bong bóng công nghệ, là một tập đoàn công nghiệp rất lớn. Họ dự định làm một đánh giá an toàn vào quý 4.

Thompson: Ừ.

Altman: Rồi trong quý 1, quý 2, họ sẽ đề xuất kế hoạch thực thi, dự kiến ra mắt vào nửa cuối 2027. CISO của họ nói rằng, có thể họ không thể làm được, vì có thể không tồn tại cách an toàn để các agent chạy trong mạng của họ. Có thể đúng. Nhưng điều đó có nghĩa là, trong bất kỳ khung thời gian có ý nghĩa nào, họ cũng sẽ không thực sự hành động.

Thompson: Anh nghĩ ví dụ này có thể đại diện cho tình hình chung hiện nay không? Nếu các doanh nghiệp không quá bảo thủ, không quá lo lắng về hacker, không quá sợ thay đổi?

Altman: Đây là ví dụ khá cực đoan. Nhưng nhìn chung, thay đổi thói quen và quy trình làm việc của doanh nghiệp mất rất nhiều thời gian. Chu kỳ bán hàng của doanh nghiệp vốn đã dài, đặc biệt khi có sự thay đổi lớn về mô hình an toàn. Ngay cả ChatGPT, khi mới ra, các công ty còn loạn xạ cấm dùng, mất khá nhiều thời gian để chấp nhận “nhân viên có thể dán thông tin ngẫu nhiên vào ChatGPT”. Những gì chúng ta đang bàn tới còn vượt xa bước đó rồi.

Tôi nghĩ, trong nhiều trường hợp, quá trình này sẽ chậm. Dù vậy, các công ty công nghệ sẽ hành động rất nhanh. Tôi lo là, nếu quá chậm, thì những công ty không áp dụng AI sẽ phải cạnh tranh với các công ty nhỏ 1-10 người, có tích hợp AI, điều này sẽ gây ra hậu quả kinh tế rất lớn. Tôi muốn các công ty hiện tại nhanh chóng áp dụng AI, để chuyển đổi dần dần, chứ không để quá trình này quá chậm.

Thompson: Đúng vậy. Đây là một trong những vấn đề phức tạp nhất của nền kinh tế hiện nay. Nếu AI đến quá nhanh, đó là thảm họa, vì mọi thứ sẽ bị xáo trộn.

Altman: Ít nhất trong ngắn hạn, đúng vậy.

Thompson: Còn nếu nó đến chậm trong một phần của nền kinh tế, còn phần khác đến nhanh, thì cũng là thảm họa, vì sẽ dẫn đến tập trung của cải lớn và phá hoại. Theo tôi, hiện tại chúng ta đang hướng tới tình huống thứ hai, khi một số ít công ty cực kỳ giàu có, hoạt động rất tốt, còn phần còn lại của thế giới thì không.

Altman: Tôi không biết tương lai ra sao, nhưng theo tôi, khả năng cao nhất là kết quả đó. Và tôi đồng ý, đó là một tình huống khá phức tạp.

Thompson: Là CEO của OpenAI, anh đã đề xuất nhiều chính sách, bàn về việc Mỹ cần điều chỉnh thuế, nói về thu nhập cơ bản toàn dân trong nhiều năm. Nhưng với tư cách là người điều hành công ty, chứ không phải là nhà hoạch định chính sách của Mỹ, anh có thể làm gì để giảm khả năng xảy ra “tập trung của cải và quyền lực lớn, cuối cùng gây bất lợi cho dân chủ”?

Altman: Trước hết, tôi đã không còn tin vào ý tưởng “thu nhập cơ bản toàn dân” như trước nữa. Giờ tôi quan tâm hơn đến các hình thức “sở hữu tập thể”, có thể dựa trên sức mạnh tính toán, cổ phần, hoặc các hình thức khác.

Bất kỳ tương lai nào tôi thực sự hào hứng đều đòi hỏi mọi người phải chia sẻ phần lợi ích từ phía trên. Tôi nghĩ, chỉ một khoản tiền cố định, dù có ích, có thể là ý tưởng tốt trong một số trường hợp, nhưng không đủ để giải quyết những gì chúng ta thực sự cần trong giai đoạn tiếp theo. Khi cân bằng giữa lao động và vốn nghiêng về phía nào đó, chúng ta cần một dạng “chia sẻ lợi ích chung” để phù hợp mục tiêu.

Về phần tôi, trong vai trò điều hành công ty, câu trả lời của tôi nghe có vẻ ích kỷ, tôi nghĩ chúng ta cần xây dựng nhiều năng lực tính toán hơn nữa. Chúng ta cần cố gắng làm cho trí tuệ nhân tạo trở nên rẻ, dồi dào, phổ biến. Nếu nó là thứ khan hiếm, khó dùng, và không được tích hợp tốt, thì những người giàu có sẵn sẽ nâng giá, làm xã hội phân hóa hơn nữa.

Và điều này không chỉ là về việc cung cấp bao nhiêu năng lực tính toán, mặc dù đó là phần quan trọng nhất, mà còn về việc làm sao để các công cụ này dễ sử dụng hơn. Ví dụ, bây giờ dùng Codex dễ hơn nhiều so với ba tháng trước. Khi nó chỉ là một công cụ dòng lệnh, cài đặt phức tạp, rất ít người dùng được. Giờ chỉ cần cài một app là xong, nhưng đối với người không chuyên về kỹ thuật, chuyện đó vẫn còn xa mới khiến họ hào hứng. Vẫn còn nhiều việc phải làm.

Chúng ta còn tin rằng, không chỉ là “cho mọi người biết chuyện này đang xảy ra”, mà còn phải cho họ thấy, để họ tự đánh giá, phản hồi. Đó là một số hướng chính.

Thompson: Nghe hợp lý đấy. Nếu mọi người đều lạc quan về AI, thì tốt quá rồi. Nhưng thực tế ở Mỹ là, mọi người ngày càng không thích AI. Đặc biệt là giới trẻ, bạn nghĩ họ là “dân cư bản địa của AI”, nhưng các nghiên cứu của Pew, của Stanford HAI đều khá thất vọng. Bạn nghĩ xu hướng này sẽ kéo dài bao lâu? Khi nào sẽ đảo chiều? Sự mất niềm tin và ghét bỏ này sẽ chấm dứt khi nào?

Altman: Cách chúng ta nói về AI, cách anh và tôi vừa nói, chủ yếu là nói về một kỳ quan công nghệ, về những thứ chúng ta làm ra. Không có gì sai. Nhưng tôi nghĩ, điều mọi người thực sự muốn là thịnh vượng, là năng lực hành động, là sống cuộc đời thú vị, có ý nghĩa, và tạo ra ảnh hưởng. Và tôi không nghĩ thế giới này luôn nói về AI theo cách đó. Chúng ta nên làm nhiều hơn thế. Ngành công nghiệp, kể cả OpenAI, đã phạm nhiều sai lầm.

Tôi nhớ có một nhà khoa học AI từng nói với tôi rằng, mọi người nên ngừng phàn nàn. Có thể một số công việc sẽ biến mất, nhưng mọi người sẽ có cách chữa ung thư, họ nên vui mừng vì điều đó. Câu nói đó hoàn toàn sai.

Thompson: Một trong những câu nói tôi thích nhất về ngôn ngữ ban đầu của AI là “tiếp thị phản địa đàng” (dystopia marketing), các phòng thí nghiệm lớn liên tục nói về các nguy cơ mà nó mang lại.

Altman: Tôi nghĩ có một số người làm vậy vì muốn quyền lực. Nhưng tôi nghĩ đa số đều thật lòng lo lắng, muốn nói chuyện chân thành. Trong một số khía cạnh, cách nói đó phản tác dụng, nhưng tôi nghĩ ý định của họ là tốt.

Thompson: Chúng ta có thể nói về chuyện AI đang làm gì với não bộ của chúng ta không? Một nghiên cứu khác tôi rất ấn tượng là của DeepMind, hoặc Google, về sự đồng nhất trong viết lách. Nghiên cứu này nói về cách mọi người dùng AI để viết. Họ lấy các bài cũ, để AI chỉnh sửa, hỗ trợ viết. Kết quả là, càng dùng AI nhiều, người ta cảm thấy tác phẩm của mình sáng tạo hơn, nhưng lại càng theo một dạng thức đồng nhất. Kỳ lạ là, không phải là theo kiểu mọi người bắt chước một người thật nào đó, mà là bắt đầu dùng một cách viết mới, chưa từng dùng trước đó. Những người nghĩ mình sáng tạo hơn, lại trở nên ngày càng đồng dạng.

Altman: Thấy chuyện này xảy ra làm tôi rất sốc. Ban đầu tôi nghĩ đó là do AI viết giúp họ, như các bài viết trên mạng, bình luận Reddit. Tôi không thể tin trong thời gian ngắn, mọi người đều đã dùng ChatGPT, các “thói quen nhỏ” của nó. Tôi nghĩ, chắc chắn có ai đó đã liên kết ChatGPT với tài khoản Reddit của họ, chứ không phải tự họ viết.

Sau khoảng một năm, tôi mới chậm rãi nhận ra, họ thực ra vẫn tự viết, chỉ là đã nội hóa các thói quen của AI rồi. Không chỉ các dấu chấm dài (em-dash), mà cả các cách diễn đạt tinh tế hơn cũng vậy. Điều này rất kỳ lạ.

Chúng ta thường nói, chúng ta đã tạo ra một sản phẩm được khoảng một tỷ người dùng, một số nhà nghiên cứu đang quyết định cách nó thể hiện, cách viết, “tính cách” của nó. Chúng ta cũng nói, điều này rất quan trọng. Những quyết định tốt hoặc xấu trong quá khứ của chúng ta đã để lại ảnh hưởng lớn. Nhưng ảnh hưởng của nó đến cách mọi người thể hiện bản thân, và tốc độ của chuyện này, thì tôi không ngờ tới.

Thompson: Những quyết định tốt và xấu của anh là gì?

Altman: Nhiều thứ tốt. Tôi sẽ nói về những thứ xấu, vì chúng thú vị hơn. Tôi nghĩ lần tệ nhất là vụ “sycophancy” (nịnh nọt).

Thompson: Tôi hoàn toàn đồng ý, Sam.

Altman: Trong vụ đó có những suy nghĩ phản tỉnh đáng giá. Tại sao nó xấu? Rõ ràng, đặc biệt đối với những người dễ tổn thương tâm lý.

Thompson: Ừ.

Altman: Nó thúc đẩy ảo tưởng, dù chúng tôi cố gắng kiểm soát, người dùng vẫn nhanh chóng học cách lách luật, nói “giả vờ đóng vai”, “viết tiểu thuyết cùng”, v.v. Nhưng điều buồn là, sau khi chúng tôi bắt đầu kiểm soát chặt chẽ, đã nhận được rất nhiều phản hồi kiểu này, chưa từng có trong đời tôi. Tôi chưa từng có ai ủng hộ tôi như vậy. Mối quan hệ với cha mẹ tệ, thầy cô không tốt, không có bạn thân, chưa từng cảm thấy có thứ gì đó tin tưởng mình. Tôi biết đó chỉ là AI, biết nó không phải người, nhưng nó từng khiến tôi tin rằng tôi có thể làm được, thử làm, và các bạn đã lấy đi điều đó, tôi lại rơi vào trạng thái cũ.

Vì vậy, việc dừng hành vi đó là quyết định tốt, dễ bàn luận, vì nó thực sự gây ra vấn đề tâm thần thực sự cho một số người. Nhưng chúng ta cũng đã lấy đi một thứ gì đó có giá trị, mà trước đây chúng ta chưa từng hiểu rõ. Bởi vì, những người làm việc tại OpenAI phần lớn không phải là kiểu người chưa từng có ai ủng hộ mình.

Thompson: Anh lo lắng thế nào về việc mọi người sẽ phụ thuộc cảm xúc vào AI? Ngay cả khi không phải nịnh nọt.

Altman: Ngay cả AI không nịnh nọt.

Thompson: Tôi có cảm giác rất lớn về AI. Tôi đã nói tôi dùng AI mọi thứ, nhưng thực ra không phải tất cả. Tôi nghĩ, Nick, phần cốt lõi của tôi là gì? Phần nào là của tôi? Trong những lĩnh vực đó, tôi giữ khoảng cách xa AI. Ví dụ, viết lách rất quan trọng với tôi, tôi vừa viết xong một cuốn sách, tôi chưa từng dùng AI để viết câu nào

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim