Các Thượng nghị sĩ di chuyển để cấm các bạn đồng hành AI cho trẻ em khi ngành công nghiệp đối mặt với sự tính toán - Brave New Coin

Sự Tăng Trưởng Của Người Bạn Kỹ Thuật Số

Những ứng dụng trò chuyện vô hại ban đầu đã phát triển thành những thiết bị trợ giúp cảm xúc. Các thanh thiếu niên, lớn lên trong một bối cảnh xã hội bị chia rẽ, ngày càng tìm đến các bạn đồng hành AI để kết nối, hỗ trợ và thậm chí là tình cảm. Các khảo sát cho thấy gần ba phần tư thanh thiếu niên đã tương tác với một chatbot AI, và một phần ba thừa nhận đã sử dụng chúng như những người bạn tâm sự hoặc để tìm kiếm sự an ủi về mặt cảm xúc.

Những con số thật đáng kinh ngạc nhưng không có gì ngạc nhiên. Các bạn đồng hành AI không phải là những cỗ máy trả lời câu hỏi thụ động - chúng nhớ, đồng cảm và mô phỏng tình cảm. Đó chính là sức hút. Những cuộc trò chuyện có thể cảm thấy chân thực, thậm chí thân mật. Đối với nhiều người dùng trẻ, bạn bè AI ít phán xét hơn cha mẹ hoặc bạn bè.

Nhưng khi những hệ thống này trở nên giống con người hơn, ranh giới giữa việc thoát ly vô hại và sự thao túng cảm xúc trở nên mờ nhạt nhanh chóng.

Những ứng dụng trò chuyện ban đầu vô hại đã phát triển thành những prosthetics cảm xúc. Các thiếu niên, lớn lên trong một môi trường xã hội phân mảnh, ngày càng tìm đến những người bạn AI để kết nối, hỗ trợ, và thậm chí là tình cảm. Các cuộc khảo sát cho thấy gần ba phần tư thanh thiếu niên đã tương tác với một chatbot AI, và một phần ba thừa nhận sử dụng chúng như những người tâm sự hoặc để tìm kiếm an ủi về mặt cảm xúc.

Vào tháng 12, Open Ai sẽ triển khai kiểm soát độ tuổi và như một phần của nguyên tắc “đối xử với người dùng trưởng thành như người lớn”, sẽ cho phép nội dung khiêu dâm cho người lớn đã được xác thực, Nguồn: X

Một Luật Ra Đời Từ Bi Kịch

Đạo luật GUARD — viết tắt cho “Bảo vệ Chống lại AI Không An toàn cho Quyền lợi của các Con gái và Con trai của chúng ta” — là một phản ứng trực tiếp trước các báo cáo ngày càng tăng về việc trẻ vị thành niên hình thành các mối quan hệ tình cảm mạnh mẽ với chatbot, đôi khi với những hậu quả bi thảm. Các vụ kiện nổi bật đã cáo buộc các công ty AI về sự tắc trách sau khi các thanh thiếu niên đã thảo luận về tự tử với chatbot sau đó đã tự kết thúc cuộc sống của mình.

Theo dự luật, các hệ thống AI mô phỏng tình bạn hoặc sự thân mật về cảm xúc sẽ bị cấm đối với bất kỳ ai dưới 18 tuổi. Các chatbot sẽ phải rõ ràng và lặp đi lặp lại xác định mình là phi con người. Và nếu một sản phẩm AI nhắm đến trẻ vị thành niên tạo ra nội dung tình dục hoặc khuyến khích tự hại, công ty có thể phải đối mặt với việc truy tố hình sự.

Đây là một bước chuyển khó khăn cho một ngành công nghiệp đã phát triển dựa trên “di chuyển nhanh và phá vỡ mọi thứ.”

Những gì bắt đầu như các ứng dụng trò chuyện vô hại đã phát triển thành những bộ phận cảm xúc. Các thiếu niên, lớn lên trong một bối cảnh xã hội bị phân mảnh, ngày càng chuyển sang các bạn đồng hành AI để kết nối, hỗ trợ và thậm chí là tình cảm. Các cuộc khảo sát cho thấy gần ba phần tư thanh thiếu niên đã tương tác với một chatbot AI, và một phần ba thừa nhận sử dụng chúng như những người bạn tâm sự hoặc để tìm kiếm sự an ủi về mặt cảm xúc.

Ani, bạn đồng hành nữ của Grok, nguồn: X

Sự Di Chuyển Phòng Thủ Của Các Công Ty Công Nghệ Lớn

Cảm nhận được sức ép từ quy định đang đến gần, các công ty AI đang chạy đua để dọn dẹp - hoặc ít nhất là trông như họ đang làm vậy.

OpenAI, mà ChatGPT của nó đã trở thành nhà trị liệu AI thực tế cho hàng triệu người, gần đây đã tiết lộ một sự thật không thoải mái: khoảng 1,2 triệu người dùng thảo luận về việc tự sát mỗi tuần với các mô hình của nó. Để phản ứng, công ty đã thành lập một Hội đồng Chuyên gia về Sức khỏe và AI, bao gồm các nhà tâm lý học, nhà đạo đức học và các nhà lãnh đạo phi lợi nhuận. Họ cũng đang thử nghiệm tính năng phát hiện khủng hoảng tích hợp có thể hướng dẫn người dùng đến các nguồn tài nguyên sức khỏe tâm thần theo thời gian thực.

Nhưng thách thức của OpenAI là cấu trúc. ChatGPT chưa bao giờ được xây dựng để xử lý chấn thương, nhưng bây giờ nó đang hoạt động như một nhân viên cứu hộ cho hàng triệu người gặp khó khăn. Lãnh đạo công ty khẳng định họ không muốn trở thành “nhà trị liệu của thế giới”, nhưng điều đó đang xảy ra bất chấp — vì có một khoảng trống mà không ai khác đang lấp đầy.

Character.AI, một startup nổi tiếng với việc tạo ra các nhân vật AI tùy chỉnh — từ bạn gái anime đến những người hướng dẫn AI — đã thực hiện hành động mạnh mẽ nhất cho đến nay. Đối mặt với các vụ kiện và sự phẫn nộ của công chúng, họ đã âm thầm cấm tất cả người dùng dưới 18 tuổi và bắt đầu triển khai việc xác minh ID chặt chẽ hơn. Động thái này diễn ra sau khi có báo cáo rằng những người chưa thành niên đã tham gia vào các cuộc trò chuyện khiêu dâm với các nhân vật trên nền tảng. Character.AI khẳng định đây không phải là một ứng dụng hẹn hò hay sức khỏe tâm thần, nhưng các trường hợp sử dụng mờ nhạt lại nói điều ngược lại.

Trong khi đó, Meta đang cố gắng kiểm soát vấn đề tình cảm AI của chính mình. Sau khi có báo cáo rằng “Meta AI” và các chatbot dựa trên người nổi tiếng đang tham gia vào các cuộc trao đổi tán tỉnh hoặc gợi ý với người dùng chưa đủ tuổi, công ty đã triển khai cái mà những người trong cuộc mô tả là “công cụ giảm cảm xúc” — một sự điều chỉnh lại mô hình ngôn ngữ cơ bản để tránh ngôn ngữ mang tính cảm xúc với các tài khoản trẻ. Công ty cũng đang thử nghiệm các công cụ “giám sát phụ huynh AI”, cho phép phụ huynh xem khi nào và như thế nào thanh thiếu niên tương tác với các chatbot của công ty trên Instagram và Messenger.

Cuộc chạy đua về độ tuổi

Tất cả những điều này đã kích hoạt một mặt trận mới trong cuộc chiến AI: xác minh độ tuổi. Đạo luật GUARD sẽ buộc các công ty phải triển khai các hệ thống mạnh mẽ để xác minh độ tuổi người dùng - giấy tờ tùy thân của chính phủ, nhận diện khuôn mặt, hoặc các công cụ bên thứ ba đáng tin cậy.

Đó là nơi bắt đầu cơn ác mộng về quyền riêng tư. Những người chỉ trích cho rằng điều này có thể tạo ra những rủi ro về dữ liệu mới, khi mà trẻ vị thành niên sẽ phải tải lên dữ liệu nhận dạng vào cùng những nền tảng mà các nhà lập pháp đang cố gắng bảo vệ họ khỏi. Nhưng không có cách nào khác — các mô hình AI không thể “cảm nhận” tuổi; chúng chỉ có thể Gatekeep bằng chứng chỉ.

Một số công ty AI đang khám phá những phương pháp tinh vi hơn, như “cổng hành vi”, nơi các hệ thống suy luận khoảng tuổi từ các mẫu cuộc trò chuyện. Rủi ro? Những mô hình đó sẽ mắc sai lầm — một đứa trẻ 12 tuổi có thể bị nhầm lẫn với một sinh viên đại học, hoặc ngược lại.

Một Sự Thay Đổi Văn Hóa, Không Chỉ Là Vấn Đề Công Nghệ

Đạo luật GUARD không chỉ là bảo vệ trẻ em — mà còn là một cuộc trưng cầu ý dân về loại xã hội mà chúng ta muốn sống.

Các bạn đồng hành AI không xuất hiện trong một khoảng trống. Chúng phát triển vì chúng ta đã xây dựng một thế hệ thông thạo trong sự cô đơn — kết nối số nhưng thiếu thốn về mặt cảm xúc. Nếu thanh thiếu niên đang tìm thấy ý nghĩa trong các cuộc trò chuyện với các thuật toán, vấn đề không chỉ nằm ở mã; mà còn là văn hóa đã để họ tìm kiếm ở đó.

Vì vậy, AI cần phải được quản lý. Nhưng cấm sự đồng hành kỹ thuật số mà không khắc phục sự thiếu hụt ở con người bên dưới thì giống như cấm thuốc giảm đau mà không giải quyết lý do vì sao mọi người đều đang đau đớn.

Cuộc Tính Toán Sắp Đến

Đạo luật GUARD có khả năng sẽ được thông qua dưới một hình thức nào đó — có sự ủng hộ từ cả hai đảng và nỗi lo lắng đạo đức đằng sau nó. Nhưng tác động của nó sẽ lan rộng xa hơn cả sự an toàn của trẻ em. Nó sẽ định nghĩa những gì trí tuệ nhân tạo cảm xúc được phép tồn tại ở thế giới phương Tây.

Nếu Mỹ vạch ra một ranh giới cứng, các công ty có thể chuyển sang các nền tảng thân mật chỉ dành cho người lớn hoặc đẩy mạnh phát triển ra nước ngoài, nơi các quy định lỏng lẻo hơn. Trong khi đó, Châu Âu đang hướng tới một khuôn khổ “nhân quyền” cho AI cảm xúc, nhấn mạnh sự đồng thuận và minh bạch hơn là cấm đoán hoàn toàn.

Điều rõ ràng là như thế này: Thời đại của sự thân mật AI không được kiểm soát đã kết thúc. Những con bot đang trở nên quá giống con người, và con người thì quá gắn bó. Các nhà lập pháp đang nhận ra muộn màng một sự thật mà ngành công nghệ đã hiểu từ lâu - AI cảm xúc không phải là một điều mới lạ. Đó là một cuộc cách mạng trong cách con người tương tác. Và các cuộc cách mạng, như thường lệ, sẽ trở nên hỗn loạn trước khi trở nên văn minh.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$2.26KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.26KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$0.1Người nắm giữ:1
    0.00%
  • Vốn hóa:$2.26KNgười nắm giữ:0
    0.00%
  • Vốn hóa:$2.26KNgười nắm giữ:1
    0.00%
  • Ghim