Điều khiến GPT và Claude có thể hợp tác chính là cùng phản đối Bộ Quốc phòng?

robot
Đang tạo bản tóm tắt

Tác giả gốc: Curry, Deep Tide TechFlow

Cách đây vài ngày có một bức ảnh rất phổ biến trên Internet.

Ấn Độ đã tổ chức một hội nghị thượng đỉnh về AI, với Thủ tướng Narendra Modi đứng trên sân khấu và một hàng nhân vật lớn ở Thung lũng Silicon đứng ở hai bên. Trong buổi chụp ảnh nhóm, Modi đã kéo tay người bên cạnh lên và giơ lên trên đầu, những người khác cũng nắm tay, và khung cảnh rất đoàn kết.

Tuy nhiên, chỉ có hai người không nắm tay.

Giám đốc điều hành của OpenAI và Giám đốc điều hành của Anthropic, chủ sở hữu của hai công ty đứng sau ChatGPT và Claude, đứng cạnh nhau và giơ nắm đấm.

Đừng nắm tay, đừng nhìn nhau, giống như hai kẻ thù đã được thầy sắp xếp ngồi cùng bàn.

Hai công ty đã chiến đấu quyết liệt trong những năm gần đây, Claude bị một đội rời OpenAI thực hiện, và cả hai đã giành lấy người dùng, khách hàng doanh nghiệp và tài chính, và trong Super Bowl năm nay, Anthropic cũng đã chi tiền mua quảng cáo để chế giễu ChatGPT để quảng cáo.

Vì vậy, việc không nắm tay là điều bình thường.

Tuy nhiên, hôm nay họ đã nắm tay nhau. Bởi vì Lầu Năm Góc.

Đây là vấn đề.

Anthropic, công ty đứng sau Claude, đã ký hợp đồng với Bộ Quốc phòng Mỹ vào năm ngoái với giá lên đến 200 triệu USD. Claude là mô hình AI đầu tiên được triển khai trong một mạng lưới quân sự bí mật của Hoa Kỳ để giúp xử lý phân tích tình báo và lập kế hoạch nhiệm vụ.

Nhưng Anthropic đã vẽ hai lằn ranh đỏ trong hợp đồng:

ClaudeNó không thể được sử dụng để giám sát hàng loạt công dân Mỹ, cũng như vũ khí tự động mà không có sự tham gia của con người.(Đọc: Bảy mươi hai giờ khủng hoảng danh tính của Anthropic)

Tuy nhiên, Lầu Năm Góc không chấp nhận điều đó.

Yêu cầu của họ là bốn từ: không hạn chế. Nếu bạn mua một công cụ, bạn nên sử dụng nó một cách tùy tiện, tại sao bạn phải nói với quân đội Hoa Kỳ những gì nó có thể và không thể làm?

Thứ Ba tuần trước, Bộ trưởng Quốc phòng Hegseth đã đích thân đưa ra tối hậu thư cho Giám đốc điều hành của Anthropic: nói đồng ý trước 5:01 chiều thứ Sáu hoặc tự chịu rủi ro.

Anthropic không đồng ý.

Giám đốc điều hành của họ đã đưa ra một tuyên bố công khai rằng chúng ta hiểu tầm quan trọng của AI đối với quốc phòng Hoa Kỳ, nhưng trong một số trường hợp, AI làm suy yếu hơn là bảo vệ các giá trị dân chủ.Chúng ta không thể chấp nhận yêu cầu này với lương tâm tốt.

Nhà đàm phán Lầu Năm Góc và Thứ trưởng Quốc phòng Emil Michael sau đó đã mắng ông trên mạng xã hội là một kẻ nói dối, nói rằng ông có mặc cảm về Chúa và nói đùa về an ninh quốc gia.

Nắm tay ngắn gọn

Sau đó, một điều bất ngờ đã xảy ra.

Nhân viên OpenAI và Google, tổng cộng hơn 400 người, đã ký một bức thư ngỏ chung có tiêu đề “Chúng tôi sẽ không bị chia rẽ”.

Bức thư nói rằng Lầu Năm Góc đang đàm phán với từng công ty AI, hy vọng rằng những người khác sẽ đồng ý với các điều kiện mà Anthropic từ chối đồng ý và chia rẽ từng công ty với nỗi sợ hãi.

Giám đốc điều hành của OpenAI cũng đã gửi một bức thư nội bộ đến tất cả nhân viên, nói rằng OpenAI có cùng lằn ranh đỏ với Anthropic:

Không tham gia vào việc giám sát quy mô lớn hoặc vũ khí hủy diệt tự động.

Chỉ vài ngày trước, hai công ty từ chối nắm tay nhau đột nhiên đứng về cùng một phe vì Lầu Năm Góc.

Nhưng sự hợp nhất này có thể kéo dài trong vài giờ.

Vào lúc 5:01 chiều thứ Sáu, tối hậu thư của Lầu Năm Góc đã hết hạn. Anthropic đã không ký tên.

Một công ty công nghệ trị giá 380 tỷ USD của Mỹ đã từ chối Bộ Quốc phòng Mỹ với nguy cơ vô hiệu hóa hợp đồng trị giá 200 triệu USD. Trong quá khứ, loại điều này nhiều nhất là chấm dứt hợp đồng và đổi sang một nhà cung cấp mới. Nhưng lần này phản ứng của Washington hoàn toàn không ở cấp độ thương mại.

Khoảng một giờ sau, Trump đăng trên Truth Social, gọi Anthropic là “những kẻ điên loạn cánh tả” và nói rằng họ đang cố gắng vượt qua Hiến pháp và nói đùa về cuộc sống của những người lính Mỹ.

Ông yêu cầu tất cả các cơ quan liên bang ngay lập tức ngừng sử dụng công nghệ của Anthropic.

Ngay sau đó, Bộ trưởng Quốc phòng Mỹ Hegseth thông báo rằng Anthropic được phân loại là “rủi ro an ninh chuỗi cung ứng”. Nhãn này thường được dành riêng cho các công ty như Huawei. Ý nghĩa rất rõ ràng, tất cả các nhà thầu làm ăn với quân đội Mỹ không còn được phép chạm vào các sản phẩm của Anthropic.

Anthropic cho biết anh ấy sẽ đấu tranh với một vụ kiện.

Cùng đêm, OpenAI, vẫn duy trì vị trí cũ, đã ký một thỏa thuận với Lầu Năm Góc.

vấn đề tư tưởng

OpenAI đã nhận được gì?

Claude đã bị đuổi khỏi nơi này: một nhà cung cấp AI cho mạng lưới bí mật của quân đội Mỹ. Tuy nhiên, OpenAI đã đưa ra ba điều kiện cho Lầu Năm Góc: không giám sát quy mô lớn, không có vũ khí tự động và sự tham gia của con người vào các quyết định rủi ro cao.

Lầu Năm Góc nói, được rồi.

Bạn đọc đúng. Các điều kiện mà Anthropic từ chối chấp nhận trong vài tuần đã được một công ty khác đề xuất và thương lượng trong vài ngày?

Tất nhiên, hai bên không hoàn toàn giống nhau.

Anthropic muốn có thêm một lớp nữa: họ tin rằng luật hiện hành không thể theo kịp khả năng của AI, chẳng hạn như AI có thể mua và tổng hợp hợp pháp tất cả dữ liệu vị trí, lịch sử duyệt web và thông tin mạng xã hội của bạn, và cuối cùng hiệu quả tương đương với giám sát, nhưng mọi bước đều không bất hợp pháp.

Anthropic nói rằng chỉ viết dòng chữ “không giám sát” là vô ích, lỗ hổng này phải được bịt kín. OpenAI không nhấn mạnh vào điều này, họ chấp nhận tuyên bố của Lầu Năm Góc rằng luật hiện hành là đủ.

Nhưng nếu bạn nghĩ đó chỉ là một sự bất đồng về thuật ngữ, bạn ngây thơ. Các cuộc đàm phán không chỉ là về các điều khoản ngay từ đầu.

Sa hoàng AI của Nhà Trắng David Sacks từ lâu đã công khai chỉ trích Anthropic vì đã tham gia vào “AI thức tỉnh” (hệ tư tưởng đầu tiên, đúng đắn về mặt chính trị); Một quan chức cấp cao của Lầu Năm Góc nói với giới truyền thông rằng các vấn đề của Dario được thúc đẩy bởi ý thức hệ và rằng “chúng tôi biết chúng tôi đang đối phó với ai”.

xAI của Elon Musk, bản thân là đối thủ cạnh tranh trực tiếp với Anthropic, đã liên tục tấn công Anthropic trên X trong tuần này, nói rằng công ty “ghét nền văn minh phương Tây”.

Và CEO của Anthropic đã không tham dự lễ nhậm chức của Trump vào năm ngoái. Giám đốc điều hành của OpenAI đã đi.

Giết gà để cảnh báo khỉ

Vì vậy, chúng ta hãy sắp xếp những gì đang xảy ra.

Với cùng một nguyên tắc và cùng một lằn ranh đỏ, Anthropic đã được dán nhãn là mối đe dọa an ninh quốc gia của Mỹ ngang hàng với Huawei vì nó cần thêm một lớp bảo vệ, đứng sai đường và đặt ra tư thế sai lầm.

OpenAI yêu cầu giảm thêm một lớp, mối quan hệ tốt và hợp đồng đã được nhận. Bạn có nghĩ rằng đây là một chiến thắng của nguyên tắc, hay đó là định giá của nguyên tắc?

Đây không phải là lần đầu tiên hợp đồng của Lầu Năm Góc bị tẩy chay.

Vào năm 2018, hơn 4.000 nhân viên Google đã ký vào một bản kiến nghị và hơn một chục người đã từ chức để phản đối sự tham gia của công ty vào một dự án của Lầu Năm Góc có tên là Dự án Maven. Dự án đó sử dụng AI để phân tích video được quay bởi máy bay không người lái để giúp quân đội xác định mục tiêu nhanh hơn.

Google cuối cùng đã rút lui. Anh ấy rời đi mà không gia hạn hợp đồng của mình. Nhân viên chiến thắng.

Tám năm sau, một vòng tranh cãi tương tự đã đến. Nhưng lần này các quy tắc đã hoàn toàn thay đổi. Một công ty Mỹ nói tôi có thể kinh doanh quân sự, nhưng có hai điều tôi không thể làm được. Chính phủ Hoa Kỳ đã phản ứng bằng cách loại bỏ nó ra khỏi toàn bộ hệ thống liên bang.

Và nhãn hiệu “rủi ro an ninh chuỗi cung ứng” nguy hiểm hơn nhiều so với việc mất một hợp đồng trị giá 200 triệu đô la.

Doanh thu của Anthropic trong năm nay là khoảng 14 tỷ đô la và hợp đồng 200 triệu thậm chí không phải là một phần nhỏ. Nhưng nhãn hiệu này có nghĩa là bất kỳ công ty nào làm ăn với quân đội Mỹ đều không thể sử dụng Claude.

Các công ty này không cần phải đồng ý với lập trường của Lầu Năm Góc, họ chỉ cần thực hiện đánh giá rủi ro: tiếp tục sử dụng Claude, họ có thể mất các hợp đồng của chính phủ; Thay đổi mô hình và không có gì xảy ra.

Sự lựa chọn rất dễ dàng. Đây là tín hiệu thực sự của vấn đề này.

Không quan trọng Anthropic có thể mang nó hay không, điều quan trọng là liệu công ty tiếp theo có dám mang nó hay không. Nó nhìn vào kết quả, xem xét cái giá của việc bám sát nguyên tắc và đưa ra một quyết định rất hợp lý.

Nhìn lại bức ảnh của Ấn Độ, mọi người nắm tay và ngẩng đầu lên, chỉ có hai người nắm chặt nắm đấm.

Có lẽ đó là tiêu chuẩn.

Các công ty AI có thể có cùng nguyên tắc, nhưng họ có thể không nắm tay nhau.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$2.35KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$0.1Người nắm giữ:1
    0.00%
  • Vốn hóa:$2.38KNgười nắm giữ:2
    0.00%
  • Vốn hóa:$0.1Người nắm giữ:1
    0.00%
  • Vốn hóa:$2.38KNgười nắm giữ:2
    0.00%
  • Ghim