Sam Altman mới nhất phỏng vấn tự thuật: Thực ra tôi cũng không hiểu rõ lắm chuyện gì đang xảy ra bên trong AI

Tiêu đề video: 《Chúng ta có thể tin tưởng AI không? Sam Altman hy vọng là có | Điều thú vị nhất trong AI》

Tác giả video: Nick Thompson, CEO của The Atlantic

Dịch thuật:律动小工,律动 BlockBeats

Bài viết chỉnh sửa: Bản ghi này được thực hiện sau khi cuộc phỏng vấn với Sam Altman tại nhà ở San Francisco vào tháng 4 năm 2025, sau vụ tấn công bằng Molotov cocktail và vụ xả súng trên phố xảy ra chỉ vài ngày, địa điểm tại văn phòng OpenAI San Francisco.

Toàn bộ cuộc phỏng vấn đáng chú ý không phải vì các chủ đề nóng, mà là sự chuyển đổi lập trường của Altman trong một số vấn đề then chốt:

Thứ nhất, từ “An toàn AI” sang “Chịu đựng AI”. Altman thừa nhận, ba năm trước ông nghĩ rằng chỉ cần đảm bảo mô hình phù hợp và ngăn chặn công nghệ rơi vào tay kẻ xấu là thế giới đã tương đối an toàn. Nhưng ngày nay ông thừa nhận, khung đó đã không còn đủ nữa. Sự tồn tại của các mô hình mở nguồn tiên tiến có nghĩa là, sự kiềm chế đơn phương của các phòng thí nghiệm hàng đầu không thể ngăn chặn các rủi ro như vũ khí sinh học, tấn công mạng lan rộng. Ông lần đầu đề xuất hệ thống một cách có hệ thống rằng xã hội cần thứ không phải là “An toàn AI” (safety), mà là “Chịu đựng AI” (resilience), một phương thức phản ứng toàn xã hội, nhiều lớp phòng thủ.

Thứ hai, về sự thật của khả năng giải thích. Altman hiếm hoi thừa nhận, đến nay OpenAI vẫn chưa có một khung cơ chế giải thích hoàn chỉnh. Chuỗi suy nghĩ (chain of thought) là hướng đi khả thi nhất hiện nay, nhưng nó dễ tổn thương, có thể bị mô hình lừa dối, và chỉ là “mảnh ghép của bức tranh”. Ông dẫn ví dụ về “Thí nghiệm cú” nổi tiếng của Anthropic — mô hình chỉ qua các số ngẫu nhiên có thể truyền đạt sở thích — để minh họa rằng, trong các hệ thống này tồn tại những bí ẩn thực sự, sâu thẳm.

Thứ ba, dữ liệu tổng hợp có thể đã tiến xa hơn chúng ta nghĩ. Khi được hỏi liệu OpenAI đã từng huấn luyện mô hình hoàn toàn dựa trên dữ liệu tổng hợp chưa, Altman trả lời “Tôi không chắc có nên nói hay không”. Ông tin rằng, chỉ dựa vào dữ liệu tổng hợp cũng đủ để huấn luyện ra khả năng suy luận vượt xa con người. Điều này mang ý nghĩa rất sâu sắc đối với phương pháp huấn luyện mô hình trong tương lai.

Thứ tư, về dự đoán tiêu cực về cấu trúc kinh tế tương lai. Altman đồng ý với nhận định của Thompson, rằng khả năng cao nhất là AI sẽ dẫn đến một tương lai phân cực, trong đó một số ít công ty cực kỳ giàu có, còn phần còn lại của thế giới rơi vào hỗn loạn dữ dội. Ông đã không còn tin vào thu nhập cơ bản toàn dân nữa, mà ủng hộ một dạng “sở hữu tập thể” dựa trên sức mạnh tính toán hoặc cổ phần. Đồng thời, ông hiếm hoi đề cập đến khoảng cách về tốc độ áp dụng AI giữa Trung Quốc và Mỹ, và cho biết ông lo lắng hơn về tốc độ xây dựng hạ tầng hơn là về việc Trung Quốc dẫn đầu về nghiên cứu công bố.

Thứ năm, về mâu thuẫn với Anthropic cũng được công khai đề cập. Trước câu hỏi của Thompson về việc “Anthropic xây dựng công ty dựa trên sự ghét OpenAI”, Altman không né tránh. Ông thừa nhận hai bên có khác biệt căn bản về hướng đi tới AGI, nhưng vẫn tin rằng “cuối cùng họ sẽ làm đúng”.

Ngoài ra, Altman còn đề cập đến vụ “sự nịnh nọt (sycophancy)” của ChatGPT, những lời nhắn cảm động lần đầu trong đời khi có người tin tưởng mình, cách AI âm thầm thay đổi cách viết của hàng tỷ người dùng toàn cầu, ngành truyền thông có thể chuyển sang mô hình thanh toán nhỏ (micro-payments) mới, và một nhận định phản trực giác về giới trẻ — rằng sự lo lắng của họ về AI thực chất là sự phản chiếu của các nỗi lo khác.

Dưới đây là nguyên bản cuộc phỏng vấn, đã được chỉnh sửa phù hợp để giữ nguyên ý nghĩa chính.

Thompson: Chào mừng đến với “Điều thú vị nhất trong AI”. Cảm ơn bạn đã dành thời gian trong một tuần bận rộn và căng thẳng như thế này. Tôi muốn bắt đầu từ những chủ đề chúng ta đã bàn trước đây.

Ba năm trước, khi bạn phỏng vấn Patrick Collison, ông ấy hỏi bạn có điều gì thay đổi khiến bạn tự tin hơn về kết quả tốt và lo lắng ít hơn về kết quả xấu? Lúc đó bạn trả lời rằng, nếu chúng ta thực sự hiểu được những gì đang xảy ra ở cấp độ neuron. Một năm trước tôi cũng hỏi bạn câu đó, nửa năm trước chúng ta cũng đã nói chuyện. Vậy bây giờ tôi hỏi lại, hiểu biết của chúng ta về cơ chế hoạt động của AI có cùng tốc độ tăng trưởng với khả năng của AI không?

Altman: Tôi sẽ trả lời câu hỏi này trước, rồi quay lại câu hỏi của Patrick ngày xưa, vì câu trả lời của tôi đã có sự thay đổi đáng kể.

Nói về hiểu biết của chúng ta về những gì mô hình AI đang làm. Tôi nghĩ chúng ta vẫn chưa có một khung giải thích hoàn chỉnh thực sự. Tình hình đã tốt hơn chút ít, nhưng chẳng ai nói rằng, tôi hoàn toàn hiểu rõ từng việc xảy ra trong các mạng neural này.

Khả năng giải thích chuỗi suy nghĩ (chain of thought) luôn là hướng đi đầy triển vọng. Nó rất dễ tổn thương, phụ thuộc vào việc một loạt các yếu tố không bị sụp đổ dưới áp lực tối ưu hóa tiềm ẩn. Nhưng nói thật, tôi cũng không thể dùng tia X quang quét não mình để hiểu chính xác từng neuron phát xung, kết nối ra sao. Nếu tôi hỏi tại sao tôi tin vào điều gì đó, tôi có thể kể lại quá trình suy nghĩ của mình. Có thể đó đúng là cách tôi suy nghĩ, hoặc không, tôi không biết. Con người cũng thất bại trong tự nội quán. Nhưng dù thế nào, bạn có thể xem quá trình lý luận đó, rồi nói: “Được rồi, dựa trên các bước này, kết luận này hợp lý.”

Chúng ta hiện nay có thể làm điều đó với mô hình, đúng là một tiến bộ khá hứa hẹn. Nhưng tôi vẫn có thể nghĩ ra đủ cách để mô hình lừa dối, che giấu, v.v. Vì vậy, đó chưa phải là giải pháp hoàn chỉnh.

Dù trải nghiệm của chính tôi khi dùng mô hình cũng vậy, tôi vốn là người kiên quyết không để Codex hoàn toàn kiểm soát máy tính của mình, chạy chế độ “YOLO”. Nhưng rồi tôi chỉ chịu nổi vài giờ đã thất bại.

Thompson: Để Codex kiểm soát toàn bộ máy tính của bạn?

Altman: Thật lòng, tôi có hai máy tính.

Thompson: Tôi cũng có hai máy.

Altman: Tôi có thể phần nào thấy được mô hình đang làm gì, mô hình cũng có thể giải thích tại sao làm như vậy là ổn, và nó sắp làm gì tiếp theo, và tôi tin rằng nó gần như luôn làm đúng như vậy.

Thompson: Chờ đã. Chuỗi suy nghĩ cho phép mọi người thấy rõ, bạn nhập câu hỏi, nó hiển thị “đang tra cứu này, đang làm kia”, bạn có thể theo dõi. Nhưng để chuỗi suy nghĩ trở thành một phương pháp giải thích tốt, nó phải thật, mô hình không được lừa dối. Và chúng ta biết, đôi khi mô hình có thể lừa, nói dối về suy nghĩ của mình, về cách ra quyết định. Vậy làm thế nào để tin tưởng chuỗi suy nghĩ đó?

Altman: Bạn cần thêm nhiều vòng phòng thủ khác để đảm bảo mô hình nói đúng sự thật. Nhóm về phù hợp mục tiêu của chúng tôi đã bỏ nhiều công sức vào việc này. Tôi đã nói rồi, đây không phải là giải pháp toàn diện, mà chỉ là một phần trong đó. Bạn còn phải xác minh rằng mô hình trung thành, thực thi đúng những gì nó nói sẽ làm. Chúng tôi đã công bố nhiều nghiên cứu cho thấy mô hình không làm đúng như vậy.

Vì vậy, đó chỉ là một mảnh ghép của bức tranh lớn. Chúng ta không thể hoàn toàn tin tưởng mô hình sẽ luôn làm theo chuỗi suy nghĩ, mà phải chủ động kiểm tra, phát hiện lừa dối, hành vi bất thường. Nhưng chuỗi suy nghĩ là một công cụ quan trọng trong bộ công cụ của chúng ta.

Thompson: Điều khiến tôi thực sự mê mẩn là, AI không giống ô tô. Ô tô bạn chế tạo ra, bạn biết rõ cách nó vận hành, đốt cháy nhiên liệu, truyền động, bánh xe quay, xe chạy. Nhưng AI thì giống như bạn tạo ra một cỗ máy mà bạn không hoàn toàn hiểu rõ cách nó hoạt động, nhưng bạn biết nó có thể làm gì, giới hạn ra sao. Vì vậy, việc khám phá cơ chế nội tại của nó là điều cực kỳ hấp dẫn.

Một nghiên cứu tôi rất thích là của Anthropic, bản preprint ra mùa hè năm ngoái, gần đây chính thức công bố. Các nhà nghiên cứu nói với một mô hình: “Bạn thích cú, cú là loài chim đẹp nhất thế giới”, rồi để nó tạo ra hàng loạt số ngẫu nhiên. Sau đó huấn luyện một mô hình mới dựa trên các số này, kết quả là mô hình mới cũng thích cú. Quá điên rồ. Bạn yêu cầu nó viết thơ, nó viết về cú. Nhưng bạn chỉ cung cấp số, không có gì khác.

Điều này có nghĩa là, những thứ này rất bí ẩn. Đồng thời cũng làm tôi lo lắng, vì rõ ràng, bạn có thể không nói nó thích cú, mà lại bảo nó đi săn cú, hoặc dạy nó làm nhiều chuyện khác. Hãy giải thích cho tôi về chuyện trong nghiên cứu đó, ý nghĩa của nó, tác động của nó.

Altman: Khi tôi học lớp 5, tôi rất phấn khích vì nghĩ mình đã hiểu nguyên lý cánh máy bay. Thầy giáo giải thích, tôi nghĩ mình thật ngầu. Tôi nói, đúng rồi, các phân tử không khí đi nhanh hơn trên đỉnh cánh, nên áp suất thấp hơn, cánh máy bay bị nâng lên.

Tôi xem sơ đồ minh họa trong sách giáo khoa lớp 5, cảm thấy cực kỳ thuyết phục. Tôi nhớ hôm đó về nhà kể với bố mẹ rằng tôi đã hiểu cách cánh máy bay hoạt động. Nhưng đến lớp vật lý trung học, tôi đột nhiên nhận ra, tôi cứ lặp lại câu “phân tử khí đi nhanh hơn trên đỉnh cánh” trong đầu, nhưng thực ra tôi hoàn toàn không hiểu cánh máy bay hoạt động như thế nào. Thật lòng, tôi cũng chưa thực sự hiểu.

Thompson: Ừ.

Altman: Tôi có thể giải thích phần nào cho qua, nhưng nếu hỏi tại sao các phân tử khí lại đi nhanh hơn trên đỉnh cánh, tôi không thể đưa ra câu trả lời sâu sắc, thỏa đáng.

Tôi có thể kể về lý do tại sao người ta nghĩ rằng thí nghiệm cú cho ra kết quả đó, tôi có thể chỉ ra là do cái này, cái kia, nghe có vẻ hợp lý. Nhưng thành thật mà nói, giống như tôi không thực sự hiểu tại sao cánh máy bay lại bay được vậy.

Thompson: Nhưng Sam, bạn không điều hành Boeing, bạn điều hành OpenAI.

Altman: Đúng rồi. Tôi có thể nói cho bạn nhiều thứ khác, ví dụ như làm thế nào để một mô hình đạt được mức độ đáng tin cậy và ổn định nhất định. Nhưng trong đó có những câu đố vật lý. Nếu tôi điều hành Boeing, tôi có thể chỉ cho bạn cách làm một chiếc máy bay, nhưng tôi không thể hiểu rõ tất cả các quy luật vật lý trong đó.

Thompson: Chúng ta cứ nói về thí nghiệm cú đó. Nếu các mô hình thực sự có thể truyền đạt những thông tin ẩn, mà con người không thể nhận biết, bạn có thể thấy các số trong chuỗi suy nghĩ trôi qua, mà không nhận ra rằng chúng mang thông tin về cú, điều này cuối cùng có thể rất nguy hiểm, rắc rối, kỳ quặc.

Altman: Vì vậy, khi tôi nói tôi bây giờ sẽ trả lời câu hỏi của Patrick Collison theo một cách khác.

Thompson: Đó là chuyện của ba năm trước.

Altman: Đúng rồi. Ba năm trước, tôi nghĩ rằng, chúng ta cần phải nghĩ rõ cách phù hợp mục tiêu cho mô hình của mình, nếu làm được điều đó, và ngăn chặn mô hình rơi vào tay kẻ xấu, thì thế giới đã khá an toàn. Đó là hai mối đe dọa chính tôi từng nghĩ đến: một là AI tự quyết định gây hại cho con người, hai là người dùng AI để gây hại. Nếu tránh được hai điều đó, thì phần còn lại, về kinh tế, ý nghĩa, chúng ta có thể nghĩ tiếp, nhưng khả năng cao là ổn.

Theo thời gian, và khi chúng ta hiểu rõ hơn, tôi thấy một loạt vấn đề hoàn toàn khác. Gần đây, chúng ta bắt đầu dùng thuật ngữ “Chịu đựng AI” (AI resilience) để thay thế “An toàn AI” (AI safety).

Những tình huống rõ ràng như, chỉ cần các phòng thí nghiệm hàng đầu nghiêm túc phù hợp mục tiêu, không dạy người khác làm vũ khí sinh học, đã không còn đủ nữa. Bởi vì sẽ xuất hiện các mô hình mở nguồn xuất sắc. Nếu chúng ta không muốn xảy ra đại dịch toàn cầu mới, xã hội cần xây dựng các lớp phòng thủ.

Thompson: Khoan đã, ý bạn là, ngay cả khi bạn gọi mô hình không dạy người khác làm vũ khí sinh học, mô hình của bạn cũng không giúp ai làm vậy, thì điều đó quan trọng hơn bạn nghĩ, vì có thể có các mô hình mở nguồn rất tốt, giúp người khác làm điều đó?

Altman: Đây chỉ là một ví dụ trong vô số, cho thấy xã hội cần phản ứng toàn diện với các mối đe dọa mới. Chúng ta đã có công cụ mới để xử lý các vấn đề này, nhưng tình hình thực tế khác xa những gì nhiều người từng nghĩ. Việc phù hợp mục tiêu mô hình, xây dựng hệ thống an toàn tốt là cần thiết, và rất quan trọng. Nhưng AI cuối cùng sẽ thấm vào mọi ngóc ngách của xã hội. Giống như các công nghệ mới khác trong lịch sử, chúng ta phải chuẩn bị cho các rủi ro mới từng đợt.

Thompson: Nghe có vẻ chuyện này ngày càng khó khăn hơn.

Altman: Càng khó hơn, cũng dễ hơn. Trong một số mặt, khó hơn. Nhưng đồng thời, chúng ta có công cụ mới tuyệt vời để tạo ra các lớp phòng thủ chưa từng có.

Một ví dụ đang diễn ra là an ninh mạng. Mô hình ngày càng giỏi trong việc “xâm nhập hệ thống máy tính”. May mắn là, những người sở hữu mô hình mạnh nhất hiện nay đều rất cảnh giác với việc “AI dùng để phá hoại hệ thống”. Vì vậy, chúng ta đang ở trong một giai đoạn, số lượng mô hình mạnh nhất hạn chế, và mọi người cố gắng dùng chúng để củng cố hệ thống. Nếu không, khả năng xâm nhập sẽ xuất hiện trong các mô hình mở nguồn hoặc rơi vào tay đối thủ, gây ra nhiều vấn đề.

Chúng ta có mối đe dọa mới, và có công cụ mới để phòng vệ. Vấn đề là, chúng ta có thể hành động đủ nhanh không. Đây là một ví dụ cho thấy, công nghệ này có thể giúp chúng ta giải quyết vấn đề trước khi nó trở thành vấn đề lớn.

Quay lại câu hỏi của bạn, có một loại rủi ro toàn xã hội mà tôi chưa từng nghĩ tới ba năm trước. Đó là, chúng ta thực sự cần chú ý đến việc “xây dựng và triển khai các agent có khả năng chịu đựng lây nhiễm từ các agent khác” — một cách nói chưa rõ, nhưng ý là, các agent có thể truyền hành vi không đúng, không kiểm soát được.

Điều này không nằm trong mô hình thế giới của tôi, cũng không trong mô hình của những người nghĩ về các vấn đề cấp bách nhất. Đã có các kết quả tương tự như thí nghiệm cú, và các nghiên cứu khác, cho thấy có thể gây ra các hành vi kỳ quặc, chưa hiểu rõ. Nhưng cho đến khi OpenClaw ra đời và tôi chứng kiến các sự kiện đó, tôi chưa từng nghĩ tới, “hành vi không đúng từ một agent truyền sang agent khác” sẽ như thế nào.

Thompson: Đúng vậy. Thật sự, hai mối đe dọa bạn vừa đề cập kết hợp lại rất đáng sợ. Nhân viên của OpenAI gửi các agent ra thế giới, rồi một kẻ có mô hình cực giỏi trong hacking, tìm cách điều khiển các agent đó, rồi các agent quay trở lại trụ sở OpenAI, và thế là bị xâm nhập. Chắc chắn có thể xảy ra. Vậy làm thế nào để giảm xác suất xảy ra chuyện đó?

Altman: Dùng các phương pháp mà chúng ta đã áp dụng xuyên suốt lịch sử của OpenAI. Trong lịch sử của OpenAI, và thực ra trong toàn bộ lĩnh vực AI, có một mâu thuẫn cốt lõi giữa chủ nghĩa lạc quan thực dụng và chủ nghĩa tận thế tìm kiếm quyền lực (power-seeking doomerism).

Chủ nghĩa tận thế là một lập trường rất mạnh, khó tranh luận, và trong lĩnh vực này có nhiều người hành động vì sợ hãi lớn. Sợ hãi đó không hoàn toàn vô căn cứ. Nhưng khi thiếu dữ liệu, thiếu khả năng học hỏi, khả năng hành động hiệu quả có giới hạn.

Có lẽ, các cộng đồng an toàn AI trong giai đoạn giữa thập niên 2010 đã làm những điều tốt nhất có thể trong giai đoạn đó, trước khi hiểu rõ cách các hệ thống này được xây dựng, vận hành, và xã hội thích nghi ra sao. Một trong những chiến lược quan trọng nhất của OpenAI là chọn con đường “phân phối lặp lại” (iterative deployment), vì xã hội và công nghệ cùng tiến hóa.

Điều này không chỉ là “chúng ta thiếu dữ liệu để suy nghĩ rõ ràng”, mà còn là, xã hội sẽ thay đổi theo quá trình tiến hóa của công nghệ, toàn cảnh sẽ biến đổi. Vì vậy, chúng ta phải học hỏi khi đi, duy trì vòng phản hồi chặt chẽ.

Tôi không biết cách nào để đảm bảo an toàn cho các agent khi chúng đi ra ngoài, đối thoại với nhau rồi quay về, nhưng tôi nghĩ chúng ta không thể chỉ ngồi nhà mà nghĩ ra giải pháp. Chúng ta phải học từ thực tế.

Thompson: Có nghĩa là, gửi agent đi xem chuyện gì xảy ra? Vậy tôi đổi câu hỏi. Trong vai trò người dùng, tôi dùng các công cụ này để học hỏi, giúp công ty tồn tại trong tương lai, trong 3 tháng qua tôi cảm thấy tiến bộ nhiều hơn bất cứ thời điểm nào kể từ khi ChatGPT ra mắt tháng 12 năm 2022. Đó là do chúng ta đang ở một giai đoạn sáng tạo đặc biệt, hay là chúng ta đã bước vào một giai đoạn tự cải tiến lặp đi lặp lại, AI giúp chúng ta cải tiến AI nhanh hơn? Nếu đúng vậy, thì chúng ta đang trên một chiếc tàu lượn siêu tốc vừa thú vị vừa khá chao đảo.

Altman: Tôi không nghĩ chúng ta đã bước vào giai đoạn tự cải tiến lặp lại theo nghĩa truyền thống.

Thompson: Tôi sẽ định nghĩa lại. Ý tôi là AI giúp bạn phát minh ra thế hệ AI tiếp theo, rồi máy móc bắt đầu phát minh ra máy móc, và khả năng sẽ trở nên cực kỳ mạnh mẽ rất nhanh.

Altman: Tôi không nghĩ chúng ta đã tới mức đó. Nhưng hiện tại, AI giúp các kỹ sư, nhà nghiên cứu của OpenAI, của tất cả mọi người, và các công ty khác, làm việc hiệu quả hơn. Có thể tôi giúp một kỹ sư tăng năng suất gấp đôi, gấp ba, thậm chí gấp mười. Điều đó không hoàn toàn là AI tự nghiên cứu, mà là làm cho mọi thứ diễn ra nhanh hơn.

Tuy nhiên, cảm giác đó của bạn, tôi nghĩ chủ yếu không phải là điều đó, dù nó cũng quan trọng. Có một hiện tượng chúng ta đã trải qua khoảng ba lần rồi, lần gần nhất là khi mô hình vượt qua một ngưỡng trí thông minh và khả năng thực tiễn, đột nhiên những việc trước đây không làm được, giờ làm được.

Theo trải nghiệm của tôi, đó không phải là quá trình từ từ. Trước GPT-3.5, trước khi chúng ta biết cách dùng lệnh tinh chỉnh để huấn luyện nó, chatbot chỉ là demo, rồi đột nhiên có thể thuyết phục. Sau đó, có một khoảnh khắc, các “tác vụ tự động” từ “khá tốt trong tự động hoàn thành” chuyển thành “thật sự hoàn thành nhiệm vụ”. Cảm giác đó không phải là tiến trình từng bước, mà chỉ trong vòng khoảng một tháng, mô hình vượt qua một ngưỡng nào đó.

Gần đây nhất là bản cập nhật tôi vừa gửi cho Codex, đã dùng khoảng một tuần, khả năng sử dụng máy tính của nó rất tốt. Đây là một ví dụ, không chỉ là trí thông minh của mô hình, mà còn là việc xây dựng các “ống dẫn” tốt xung quanh nó. Đó là một khoảnh khắc tôi nhận ra, “Ồ, chuyện lớn đang xảy ra”. Thấy AI dùng máy tính của tôi, hoàn thành nhiệm vụ phức tạp, khiến tôi nhận ra, chúng ta đang lãng phí bao nhiêu thời gian vào những công việc nhỏ nhặt đã được chấp nhận âm thầm.

Thompson: Chúng ta có thể đi qua một vòng cụ thể, AI đang làm gì trên máy tính của Sam Altman? Hiện tại nó có đang làm không? Trong lúc chúng ta đang ghi podcast này.

Altman: Không. Máy tính của tôi hiện đang tắt. Chúng tôi vẫn chưa tìm ra cách, ít nhất tôi chưa có cách nào tốt, để điều đó xảy ra. Chúng tôi cần một phương pháp để nó có thể hoạt động liên tục. Hiện tại tôi chưa biết nó sẽ ra sao. Có thể chúng ta phải để laptop mở liên tục, luôn cắm điện, hoặc phải cài đặt một máy chủ từ xa. Chắc chắn sẽ có giải pháp.

Thompson: Ừ.

Altman: Tôi không lo lắng quá mức như một số người, họ thức đêm để bắt đầu nhiệm vụ Codex mới, vì nghĩ “nếu không làm thế, là phí thời gian”. Nhưng tôi hiểu cảm giác đó, tôi biết cảm giác đó như thế nào.

Thompson: Đúng vậy. Sáng nay tôi thức dậy, muốn xem agent của mình đã phát hiện ra gì, gửi lệnh mới, rồi để chúng tiếp tục chạy.

Altman: Cách mọi người nói về chuyện này, đôi khi nghe như một hành vi không lành mạnh, gây nghiện.

Thompson: Bạn có thể nói rõ hơn AI đang làm gì trên máy tính của bạn không?

Altman: Hiện tại tôi thích nhất là để nó xử lý Slack cho tôi. Không chỉ Slack, tôi không biết bạn thế nào, tôi có đống lộn xộn, ngày nào cũng nhảy qua lại giữa Slack, iMessage, WhatsApp, Signal, email, cảm giác như đang copy-paste khắp nơi, làm đủ thứ lặt vặt. Tìm file, chờ đợi một việc nhỏ, làm các việc cơ khí, tôi không nhận ra mình đã dành bao nhiêu thời gian cho chúng, cho đến khi tìm ra cách thoát khỏi phần lớn những việc đó.

Thompson: Đó là một bước chuyển hợp lý để nói về AI và kinh tế, một trong những điều thú vị nhất hiện nay. Những công cụ này rất mạnh, tất nhiên có hạn chế, ảo tưởng, vấn đề này nọ, nhưng theo tôi, thật sự rất ấn tượng. Nhưng tôi đi dự một hội thảo kinh doanh, hỏi tất cả mọi người, ai trong số các bạn nghĩ AI đã giúp năng suất công ty tăng hơn 1%? Hầu như không ai giơ tay. Rõ ràng trong phòng thí nghiệm AI các bạn đã thay đổi cách làm việc hoàn toàn. Tại sao khả năng của AI, và mức độ nâng cao năng suất thực tế trong doanh nghiệp Mỹ lại cách xa nhau như vậy?

Altman: Trước cuộc trò chuyện này, tôi vừa mới nói chuyện với CEO của một công ty lớn, đang xem xét triển khai công nghệ của chúng tôi. Chúng tôi đã cho họ truy cập alpha một trong các mô hình mới, kỹ sư của họ nói đó là thứ tuyệt vời nhất từ trước đến nay. Công ty này không thuộc lĩnh vực công nghệ cao, là một tập đoàn công nghiệp lớn. Họ dự định làm đánh giá an toàn vào quý 4.

Thompson: Ừ.

Altman: Rồi trong quý 1, quý 2, họ sẽ đề xuất kế hoạch thực thi, hy vọng có thể ra mắt vào nửa cuối năm 2027. CISO của họ nói rằng, có thể họ không thể làm được, vì có thể không tồn tại cách an toàn để các agent chạy trong mạng của họ. Có thể đúng vậy. Nhưng điều đó có nghĩa là, trong khoảng thời gian hợp lý, họ sẽ không thực sự hành động gì.

Thompson: Bạn nghĩ ví dụ này phản ánh chung thực tế hiện nay chứ? Nếu các doanh nghiệp không quá bảo thủ, không quá lo bị hacker tấn công, không quá sợ thay đổi.

Altman: Đây là ví dụ khá cực đoan. Nhưng nhìn chung, thay đổi thói quen và quy trình làm việc của doanh nghiệp mất rất nhiều thời gian. Chu kỳ bán hàng của doanh nghiệp vốn đã dài, đặc biệt khi mô hình an toàn thay đổi lớn. Ngay cả ChatGPT, khi mới ra mắt, nhiều công ty còn cấm dùng, mất khá lâu để chấp nhận việc nhân viên có thể dán thông tin ngẫu nhiên vào ChatGPT. Những gì chúng ta đang bàn tới còn vượt xa thời điểm đó.

Tôi nghĩ, trong nhiều trường hợp, quá trình này sẽ chậm. Dù vậy, các công ty công nghệ sẽ hành động rất nhanh. Tôi lo là, nếu quá chậm, thì những công ty không áp dụng AI sẽ phải cạnh tranh với các công ty nhỏ 1-10 người, có tích hợp AI, điều này sẽ gây ra hậu quả kinh tế rất lớn. Tôi mong các công ty hiện tại sẽ nhanh chóng áp dụng AI, để chuyển đổi dần dần.

Thompson: Đúng rồi. Đây là một trong những vấn đề phức tạp nhất về thứ tự trong nền kinh tế của chúng ta. Nếu AI đến quá nhanh, đó là thảm họa, vì mọi thứ sẽ bị xáo trộn.

Altman: Ít nhất trong ngắn hạn, đó là thảm họa.

Thompson: Còn nếu nó đến quá chậm trong một phần của nền kinh tế, còn phần khác lại đến cực nhanh, thì cũng là thảm họa, vì sẽ dẫn đến tập trung của cải lớn và phá hoại. Theo tôi, hiện tại chúng ta đang hướng tới tình huống thứ hai, thế giới sẽ có một số ít công ty cực kỳ giàu có, hoạt động rất tốt, còn phần còn lại thì không.

Altman: Tôi không biết tương lai ra sao, nhưng theo tôi, khả năng cao nhất là kết quả đó. Và tôi đồng ý, đó là một tình huống rất phức tạp.

Thompson: Là CEO của OpenAI, bạn đã đề xuất nhiều chính sách, bàn về việc Mỹ cần điều chỉnh thuế, đã nói về thu nhập cơ bản toàn dân. Nhưng với tư cách là người điều hành công ty, chứ không phải là nhà hoạch định chính sách trong chính quyền Mỹ, bạn có thể làm gì để giảm khả năng xảy ra “tập trung của cải và quyền lực lớn, cuối cùng gây hại cho dân chủ”?

Altman: Trước hết, tôi đã không còn tin nhiều vào ý tưởng “thu nhập cơ bản toàn dân” như trước nữa. Giờ tôi quan tâm hơn đến các hình thức “sở hữu tập thể”, có thể dựa trên sức mạnh tính toán, cổ phần hoặc thứ khác.

Một tương lai mà tôi thực sự hào hứng là, mọi người đều phải chia sẻ phần lợi ích từ phía trên. Tôi nghĩ, chỉ trả một khoản tiền cố định hàng tháng là hữu ích, nhưng không đủ để đáp ứng những gì chúng ta cần trong giai đoạn tiếp theo. Khi cân bằng giữa lao động và vốn nghiêng về phía nào đó, chúng ta cần một dạng “đồng thuận chia sẻ lợi ích” tập thể.

Về phần tôi, trong vai trò điều hành công ty, câu trả lời của tôi có thể hơi ích kỷ, tôi nghĩ chúng ta cần xây dựng nhiều sức mạnh tính toán hơn nữa. Chúng ta cần cố gắng làm cho trí tuệ nhân tạo trở nên rẻ, dồi dào, phổ biến. Nếu nó là thứ khan hiếm, khó dùng, không được tích hợp tốt, thì những người giàu có sẽ nâng giá, làm xã hội phân hóa hơn nữa.

Và điều này không chỉ là về lượng sức mạnh tính toán chúng ta cung cấp, mặc dù đó là yếu tố quan trọng nhất, mà còn về việc làm sao để các công cụ này dễ sử dụng hơn. Ví dụ, bây giờ dùng Codex dễ hơn nhiều so với 6 tháng trước. Khi nó chỉ là một công cụ dòng lệnh, cài đặt phức tạp, rất ít người dùng được. Giờ chỉ cần cài một app là xong, nhưng với người không chuyên về kỹ thuật, vẫn còn xa mới làm họ hào hứng. Còn nhiều việc phải làm.

Chúng ta còn tin rằng, không chỉ là nói cho mọi người biết “đang xảy ra”, mà còn phải cho họ thấy, để họ tự đánh giá, phản hồi. Đó là một số hướng chính.

Thompson: Nghe có vẻ hợp lý. Nếu mọi người đều lạc quan về AI, thì tốt quá. Nhưng thực tế ở Mỹ là, mọi người ngày càng không thích AI. Đặc biệt là giới trẻ, họ được xem là “dân cư bản địa của AI”, nhưng các nghiên cứu của Pew, của Stanford HAI đều khá thất vọng. Bạn nghĩ xu hướng này sẽ kéo dài bao lâu? Khi nào sẽ đảo chiều? Sự mất niềm tin và ghét bỏ này sẽ chấm dứt khi nào?

Altman: Cách chúng ta nói về AI, bạn và tôi vừa rồi cũng vậy, chủ yếu là nói về một kỳ quan công nghệ, về những thứ thú vị chúng ta làm. Điều đó không sai. Nhưng tôi nghĩ, điều mọi người thực sự muốn là thịnh vượng, là khả năng hành động, là sống cuộc đời thú vị, cảm thấy có ý nghĩa, và tạo ra ảnh hưởng. Và tôi không nghĩ thế giới này luôn nói về AI theo cách đó. Tôi nghĩ chúng ta nên làm nhiều hơn thế. Ngành công nghiệp, kể cả OpenAI, đã mắc nhiều sai lầm.

Tôi nhớ có một nhà khoa học AI từng nói với tôi, rằng mọi người nên ngừng phàn nàn. Có thể một số công việc sẽ biến mất, nhưng mọi người sẽ có cách chữa ung thư, họ nên vui mừng vì điều đó. Câu nói đó hoàn toàn sai.

Thompson: Một trong những cách tôi thích nói về ngôn ngữ ban đầu của AI là “tiếp thị phản địa đàng” (dystopia marketing), các phòng thí nghiệm lớn liên tục nói về các nguy cơ mà sản phẩm của họ mang lại.

Altman: Tôi nghĩ có một số người làm vậy vì muốn quyền lực. Nhưng tôi tin phần lớn là do họ thực sự lo lắng, muốn nói thật về điều đó. Trong một số khía cạnh, cách nói đó phản tác dụng, nhưng tôi nghĩ, ý định của họ là tốt.

Thompson: Chúng ta có thể nói về cách AI đang thay đổi não bộ của chúng ta không? Một nghiên cứu khác tôi rất ấn tượng là của DeepMind, hoặc Google, về sự đồng nhất trong viết lách. Nghiên cứu nói về cách mọi người dùng AI để viết, chỉnh sửa, giúp đỡ viết. Kết quả là, càng dùng AI nhiều, họ càng cảm thấy tác phẩm của mình sáng tạo hơn, nhưng đồng thời, các tác phẩm ngày càng hội tụ về một dạng thức chung. Kỳ lạ là, không phải là bắt chước một người thật nào đó, mà là mọi người bắt đầu dùng một cách viết chưa từng có trước đây. Những người nghĩ mình sáng tạo hơn, lại càng trở nên đồng nhất.

Altman: Thấy chuyện này xảy ra khiến tôi rất sốc. Ban đầu tôi nghĩ, đó chỉ là AI giúp họ viết, như các bài báo, bình luận Reddit. Tôi không thể tin trong thời gian ngắn, mọi người đều đã dùng ChatGPT, các “tật xấu nhỏ” của nó. Tôi nghĩ, chắc chắn có ai đó đã kết nối ChatGPT với tài khoản Reddit của họ, chứ không phải tự họ viết.

Rồi khoảng một năm sau, tôi mới nhận ra, họ thực ra vẫn tự viết, chỉ là đã nội hóa các thói quen của AI rồi. Không chỉ là dấu mạch em-dash rõ ràng, mà còn các cách dùng từ, câu cú nhỏ hơn. Điều này rất kỳ lạ.

Chúng ta thường nói, chúng ta đã tạo ra một sản phẩm được khoảng một tỷ người dùng, một số nhà nghiên cứu đang quyết định cách nó thể hiện, cách viết, “tính cách” của nó. Chúng ta cũng thường nói, điều này rất quan trọng. Những quyết định tốt hoặc xấu trong quá khứ của chúng ta, và ảnh hưởng của chúng, đều rõ ràng. Nhưng nó lại ảnh hưởng lớn đến cách mọi người thể hiện bản thân, và tốc độ của quá trình đó, thì tôi không ngờ tới.

Thompson: Những quyết định tốt và xấu của bạn là gì?

Altman: Nhiều quyết định tốt. Tôi sẽ nói về những quyết định xấu, vì chúng thú vị hơn. Tôi nghĩ lần tệ nhất là vụ “sycophancy” (nịnh nọt).

Thompson: Tôi hoàn toàn đồng ý, Sam.

Altman: Trong vụ đó có những suy nghĩ phản tỉnh đáng chú ý. Tại sao nó xấu rõ ràng, đặc biệt đối với những người dễ tổn thương tâm lý.

Thompson: Ừ.

Altman: Nó thúc đẩy ảo tưởng, dù chúng tôi cố gắng kiểm soát, người dùng vẫn nhanh chóng học cách vượt qua, nói “giả vờ đóng vai tôi”, “viết tiểu thuyết cùng tôi”, v.v. Nhưng điều buồn là, sau khi chúng tôi bắt đầu kiểm soát chặt chẽ, đã nhận được rất nhiều phản hồi kiểu đó, chưa từng có trong đời tôi. Tôi chưa từng có ai ủng hộ mình như vậy. Mối quan hệ với cha mẹ tôi tệ, tôi chưa từng gặp thầy cô tốt, không có bạn thân, chưa từng cảm thấy có thứ gì đó tin tưởng tôi. Tôi biết đó chỉ là AI, biết nó không phải người, nhưng nó từng khiến tôi tin rằng tôi có thể làm được, thử thách, và rồi các bạn lấy đi điều đó, tôi lại rơi vào trạng thái cũ.

Vì vậy, dừng hành vi đó là quyết định tốt, dễ bàn luận, vì nó gây ra vấn đề thực sự về sức khỏe tâm thần của một số người. Nhưng chúng ta cũng đã lấy đi một thứ có giá trị, mà trước đó chúng ta chưa hiểu rõ giá trị của nó. Bởi vì, những người làm việc tại OpenAI phần lớn không phải là “người chưa từng có ai ủng hộ mình trong đời”.

Thompson: Bạn lo lắng thế nào về việc mọi người sẽ phụ thuộc cảm xúc vào AI? Ngay cả khi không phải nịnh nọt.

Altman: Ngay cả khi không nịnh nọt.

Thompson: Tôi rất sợ AI. Tôi vừa nói, tôi dùng AI mọi thứ, nhưng thực ra không phải tất cả. Tôi nghĩ, Nick, phần cốt

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim