Nhân viên đang sử dụng AI theo những cách gây hại — và các công ty có thể đang trong tình trạng mù quáng

Trí tuệ nhân tạo đã tác động mạnh mẽ đến lực lượng lao động như một trận động đất, và ngày càng nhiều công ty đang phải đối mặt với những dư chấn sau đó.

Một vấn đề đang nổi lên là sự phát triển của gọi là “AI bóng tối,” nơi nhân viên sử dụng AI theo cách không phù hợp, dù vô ý hay cố ý.

Theo một nghiên cứu gần đây của Đại học Melbourne và KPMG, 47% các chuyên gia nghề nghiệp được khảo sát đã sử dụng AI không đúng cách trong công việc, và 63% cho biết họ đã chứng kiến đồng nghiệp sử dụng AI không phù hợp. Các trường hợp này đa dạng, từ việc dùng AI để trò chuyện trong các bài kiểm tra đánh giá hiệu suất nội bộ công ty đến việc đưa dữ liệu nhạy cảm của công ty vào các công cụ AI của bên thứ ba.

Việc làm như vậy mang lại rủi ro lớn cho các công ty, nghiên cứu nhấn mạnh.

“Việc sử dụng AI bóng tối hoặc vô hình không chỉ làm trầm trọng thêm các rủi ro – nó còn gây cản trở nghiêm trọng khả năng phát hiện, quản lý và giảm thiểu rủi ro của tổ chức,” báo cáo cho biết.

Các công ty đang đối mặt với ảo tưởng về năng lực do AI thúc đẩy

Chuyên gia nơi làm việc cho biết, sự thay đổi thực sự với AI không phải là nhân viên đột nhiên trở nên không trung thực. Sự thay đổi là AI có thể đi nhanh, dễ dàng và vô hình để làm các công việc tắc trách.

“Trước khi có AI, việc che giấu công việc kém chất lượng khó hơn,” nói Zahra Timsah, lãnh đạo quản trị AI và CEO của i-GENTIC AI, một nền tảng tuân thủ AI chủ động. “Bây giờ, một nhân viên có thể tạo ra một báo cáo chỉnh chu trong vài phút, và các quản lý sẽ cho rằng họ có năng lực. Điều này tạo ra ảo tưởng về năng suất.”

Ví dụ, Timsah kể về một nhân viên sử dụng AI để phân tích và trình bày tự tin, nhưng không thể bảo vệ khi bị chất vấn. “Công ty đưa ra quyết định dựa trên công việc mà không ai thực sự hiểu,” Timsah nói. “Nguy cơ lớn nhất không phải là gian lận trong các bài kiểm tra. Đó là các công ty âm thầm mất đi trí tuệ nội bộ trong khi tin rằng đội ngũ của họ đang suy nghĩ độc lập.”

Các giám đốc điều hành doanh nghiệp cao cấp khác cho biết dữ liệu cho thấy các công ty mới chỉ đang thấy phần nổi của tảng băng về việc sử dụng AI bóng tối. Xem bức tranh toàn diện từ nghiên cứu của Melbourne:

— 44% nhân viên tại Mỹ đang sử dụng công cụ AI mà không có sự cho phép thích hợp,

— 46% đã tải lên thông tin nhạy cảm của công ty và sở hữu trí tuệ lên các nền tảng AI công cộng, và 64% thừa nhận đã nỗ lực ít hơn trong công việc vì có thể dựa vào AI.

— Hơn một nửa, 57%, mắc lỗi trong công việc do sử dụng AI không kiểm soát, và 53% hoàn toàn che giấu việc sử dụng AI, trình bày nội dung do AI tạo ra như của chính họ.

“Không chỉ là mọi người đang tự nhận AI là công việc của mình; họ còn làm ô nhiễm nguồn lực của công ty bằng cách dựa vào những thứ rác rưởi do AI tạo ra,” nói Nick Misner, COO của Cybrary, nền tảng phát triển chuyên môn an ninh mạng có trụ sở tại Atlanta. “Trong khi AI giúp tăng tốc độ lập trình, nó cũng mang lại nhiều khoản nợ và lỗ hổng bảo mật hơn cho tổ chức.”

Misner lưu ý, đây không phải là xu hướng riêng lẻ; thay vào đó, đó là một thất bại hệ thống trong khả năng sẵn sàng của tổ chức.

“Chúng ta đang chứng kiến việc chấp nhận AI vượt xa khả năng quản trị,” ông nói. “Báo cáo Tình trạng Nơi làm việc Toàn cầu của Gallup cho biết 79% lực lượng lao động toàn cầu đang ở mức ‘làm tối thiểu’ hoặc ‘hoàn toàn không tham gia.’”

Do đó, khi giao cho những nhân viên không tích cực một công cụ mạnh mẽ mà không có hướng dẫn rõ ràng, họ sẽ không dùng nó để trở nên năng suất hơn. “Họ sẽ dùng nó để làm cùng công việc với ít nỗ lực hơn hoặc, tệ hơn, để cắt góc theo cách tạo ra rủi ro thực sự cho tổ chức,” ông lưu ý.

Mối đe dọa không chỉ là gian lận trong các bài kiểm tra, mặc dù trong một vụ việc của KPMG Australia công bố tuần này, 28 nhân viên bị bắt sử dụng AI để gian lận trong các kỳ thi nội bộ, trong đó có một đối tác bị phạt 10.000 đô la vì gian lận trong kỳ thi đạo đức AI.

“Ví dụ đó thể hiện rõ sự mỉa mai,” Misner nói. “Nguy cơ lớn hơn là các tổ chức đang bay trong bóng tối. Nếu gần một nửa lực lượng lao động của bạn sử dụng AI không đúng cách mà bạn còn không hay biết, mức độ rủi ro của bạn là rất lớn, từ rò rỉ dữ liệu đến vi phạm quy định và làm suy yếu các kỹ năng mà nhân viên thực sự cần.”

Làm rõ việc sử dụng AI xấu xa khỏi bóng tối

Ban lãnh đạo cấp cao cần đề xuất, xây dựng chính sách và hình phạt để đảm bảo AI được sử dụng một cách đạo đức tại công ty của họ. Những chiến lược này nên nằm trong ưu tiên hàng đầu.

Học hỏi từ quá khứ

Có thể lập luận rằng các số liệu của Melbourne/KPMG không phải là duy nhất đối với AI.

“Chúng tôi đã thấy các mô hình tương tự khi internet và công cụ tìm kiếm lần đầu tiên xuất hiện trong nơi làm việc,” nói Joe Schaeppi, đồng sáng lập của Solsten, một công ty tương tác người dùng dựa trên AI tại Minneapolis, Minnesota. “Bất cứ khi nào một công cụ mạnh mẽ mới xuất hiện, việc lạm dụng là điều không thể tránh khỏi; đó là bản chất của con người.”

Khi việc chấp nhận AI tăng lên, Schaeppi nói rằng quản lý có thể sẽ thấy nhiều thử nghiệm và hành vi trong vùng xám hơn, nhưng như với tất cả công nghệ, quản trị và các giới hạn sẽ phát triển. “Các công ty như Anthropic đã bắt đầu áp dụng cách tiếp cận tập trung vào doanh nghiệp hơn, xây dựng các quy tắc và giới hạn để giảm thiểu rủi ro khi công nghệ trưởng thành,” ông lưu ý. “Nếu bạn là một công ty và thấy hành vi không phù hợp trên bất kỳ công cụ nào, mối quan tâm cần đặt vào văn hóa và cách bạn thực thi chính sách, quy trình.”

Tăng cường giám sát con người

Để kiểm soát các hoạt động AI trong nơi làm việc, ban quản lý phải giao nhiệm vụ cho một nhóm phân tích AI xem xét quyền truy cập dữ liệu và các quyền của công ty đối với các loại dữ liệu quan trọng cho tương lai của doanh nghiệp.

“Tiếp theo, các bộ dữ liệu tổng hợp không còn xa lạ và là cách tuyệt vời để mô hình hóa kết quả trong khi vẫn tận dụng dữ liệu của bạn,” ông nói. “Thêm vào đó, tôi luôn khuyên có một con người tham gia vào quá trình trước khi mọi thứ đi vào hoạt động. Nhiều công ty vẫn phát hiện số liệu báo cáo của AI sai. Dù là để đảm bảo thông điệp phù hợp hay đúng thương hiệu, việc giữ một con người trong vòng kiểm soát là rất quan trọng.”

Rõ ràng về quy tắc sử dụng AI

Các công ty cũng nên cung cấp các công cụ AI nội bộ được phê duyệt và đặt ra một quy tắc rõ ràng. Không bao giờ đưa thông tin bí mật hoặc có quy định vào các hệ thống AI công cộng.

“Họ cũng cần theo dõi nơi dữ liệu nhạy cảm chảy qua, đặc biệt là việc sao chép dán vào các công cụ AI, điều này hiện là một điểm mù lớn mà hầu hết các công ty hoàn toàn bỏ qua,” Timsah nói. “Quan trọng nhất, các công ty phải thay đổi cách đánh giá nhân viên.”

Timsah cũng khuyến khích các lãnh đạo công ty tránh chỉ thưởng cho sản phẩm hoàn chỉnh bóng bẩy. “Yêu cầu nhân viên giải thích lý do và thể hiện sự hiểu biết của họ,” bà nói. “AI có thể tạo ra câu trả lời, nhưng không thể thay thế trách nhiệm hoặc quyền sở hữu.”

Chính sách đầu tiên mà đội ngũ của Timsah thực hiện tại i-GENTIC là đơn giản và rõ ràng: nhân viên có thể sử dụng các công cụ AI được phê duyệt, nhưng không được nhập dữ liệu bí mật, khách hàng, tài chính hoặc sở hữu trí tuệ vào các hệ thống AI công cộng.

“Chúng tôi tập trung vào rõ ràng, không hạn chế,” bà nói. “Điều này tạo ra niềm tin vì nhân viên biết rằng việc sử dụng AI được phép, nhưng có giới hạn rõ ràng. Nó cũng xây dựng trách nhiệm giải trình, vì mọi người đều hiểu rõ những gì an toàn và không an toàn.”

Đào tạo nội bộ của công ty nên tập trung vào các ví dụ thực tế, chứ không phải các chính sách mơ hồ mà không ai đọc. Nhân viên cần hiểu rõ ràng những gì an toàn và không an toàn.

“Sử dụng AI để viết lại một email chung chung là ổn,” Timsah nói. “Tải lên hợp đồng khách hàng, dữ liệu tài chính hoặc thông tin sở hữu trí tuệ vào công cụ AI công cộng thì không. Sử dụng AI để lên ý tưởng là ổn. Trình bày phân tích do AI tạo ra mà bạn không hiểu là không đúng.”

Khi nào cần nhờ sự hỗ trợ từ bên ngoài

Việc nhân viên lạm dụng AI trở thành vấn đề pháp lý khi có ý định và gây thiệt hại.

“Điều này bao gồm rò rỉ dữ liệu bí mật, đánh cắp sở hữu trí tuệ, thao túng thông tin tài chính hoặc gian lận với sự trợ giúp của AI,” Timsah nói. “Lúc đó, các công ty có thể liên hệ với các nhà điều tra, cơ quan quản lý hoặc cơ quan thực thi pháp luật.”

Các quyết định của công ty cũng cần biết rằng phần lớn việc lạm dụng bắt đầu từ sự tiện lợi, chứ không phải ý đồ xấu, nhưng khi gây ra thiệt hại thực sự, tổn thất tài chính hoặc lừa dối, nó sẽ chuyển sang lĩnh vực pháp lý. “Điểm khác biệt chính là liệu việc lạm dụng có dẫn đến rủi ro, mất mát hoặc che giấu có chủ ý hay không,” Timsah bổ sung.

Cuối cùng, hãy tập trung vào đào tạo

Các chuyên gia cho biết, tổ chức cần xem việc sử dụng AI như bất kỳ hành vi có rủi ro cao nào khác và giáo dục nhân viên về cách sử dụng an toàn.

Ngoài ra, khi đào tạo nhân viên về sử dụng AI, ban quản lý phải làm rõ rằng việc sử dụng AI không giúp họ thoát khỏi trách nhiệm.

“Nhân viên vẫn chịu trách nhiệm đảm bảo rằng thông tin họ tải lên các nền tảng AI là chính xác và không vi phạm pháp luật,” nói Kelsey Szamet, đối tác tại Kingsley Szamet Employment Lawyers. “Nhân viên cũng cần nhận thức rằng việc tải lên thông tin bí mật và sở hữu trí tuệ có thể dẫn đến việc thông tin đó bị lộ ra vĩnh viễn trên nền tảng.”

Về mặt tuyển dụng, tính nhất quán là chìa khóa. Nếu một nhân viên bị sa thải vì lạm dụng AI mà người khác thì không, điều đó gây ra các vấn đề về phân biệt đối xử và trả đũa. “Chính sách và quy trình đào tạo mạnh mẽ hơn sẽ giảm thiểu rủi ro kiện tụng,” Szamet nói.

Mối lo ngại lớn hơn không phải là nhân viên sẽ sử dụng AI. Họ sẽ. “Mối lo ngại là các công ty sẽ chủ động giải quyết trước khi vấn đề trở nên nghiêm trọng,” Szamet bổ sung.

📬 Đăng ký nhận Tin Nhanh Hàng Ngày

Tin nhanh, miễn phí và thú vị về kinh tế toàn cầu, gửi mỗi sáng trong ngày.

Đăng ký cho tôi

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$2.44KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$0.1Người nắm giữ:1
    0.00%
  • Vốn hóa:$0.1Người nắm giữ:1
    0.00%
  • Vốn hóa:$2.47KNgười nắm giữ:2
    0.19%
  • Vốn hóa:$2.44KNgười nắm giữ:1
    0.00%
  • Ghim