Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Bắt đầu với Hợp đồng
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Nhân viên đang sử dụng AI theo những cách gây hại — và các công ty có thể đang trong tình trạng mù quáng
Trí tuệ nhân tạo đã tác động mạnh mẽ đến lực lượng lao động như một trận động đất, và ngày càng nhiều công ty đang phải đối mặt với những dư chấn sau đó.
Một vấn đề đang nổi lên là sự phát triển của gọi là “AI bóng tối,” nơi nhân viên sử dụng AI theo cách không phù hợp, dù vô ý hay cố ý.
Theo một nghiên cứu gần đây của Đại học Melbourne và KPMG, 47% các chuyên gia nghề nghiệp được khảo sát đã sử dụng AI không đúng cách trong công việc, và 63% cho biết họ đã chứng kiến đồng nghiệp sử dụng AI không phù hợp. Các trường hợp này đa dạng, từ việc dùng AI để trò chuyện trong các bài kiểm tra đánh giá hiệu suất nội bộ công ty đến việc đưa dữ liệu nhạy cảm của công ty vào các công cụ AI của bên thứ ba.
Việc làm như vậy mang lại rủi ro lớn cho các công ty, nghiên cứu nhấn mạnh.
“Việc sử dụng AI bóng tối hoặc vô hình không chỉ làm trầm trọng thêm các rủi ro – nó còn gây cản trở nghiêm trọng khả năng phát hiện, quản lý và giảm thiểu rủi ro của tổ chức,” báo cáo cho biết.
Các công ty đang đối mặt với ảo tưởng về năng lực do AI thúc đẩy
Chuyên gia nơi làm việc cho biết, sự thay đổi thực sự với AI không phải là nhân viên đột nhiên trở nên không trung thực. Sự thay đổi là AI có thể đi nhanh, dễ dàng và vô hình để làm các công việc tắc trách.
“Trước khi có AI, việc che giấu công việc kém chất lượng khó hơn,” nói Zahra Timsah, lãnh đạo quản trị AI và CEO của i-GENTIC AI, một nền tảng tuân thủ AI chủ động. “Bây giờ, một nhân viên có thể tạo ra một báo cáo chỉnh chu trong vài phút, và các quản lý sẽ cho rằng họ có năng lực. Điều này tạo ra ảo tưởng về năng suất.”
Ví dụ, Timsah kể về một nhân viên sử dụng AI để phân tích và trình bày tự tin, nhưng không thể bảo vệ khi bị chất vấn. “Công ty đưa ra quyết định dựa trên công việc mà không ai thực sự hiểu,” Timsah nói. “Nguy cơ lớn nhất không phải là gian lận trong các bài kiểm tra. Đó là các công ty âm thầm mất đi trí tuệ nội bộ trong khi tin rằng đội ngũ của họ đang suy nghĩ độc lập.”
Các giám đốc điều hành doanh nghiệp cao cấp khác cho biết dữ liệu cho thấy các công ty mới chỉ đang thấy phần nổi của tảng băng về việc sử dụng AI bóng tối. Xem bức tranh toàn diện từ nghiên cứu của Melbourne:
— 44% nhân viên tại Mỹ đang sử dụng công cụ AI mà không có sự cho phép thích hợp,
— 46% đã tải lên thông tin nhạy cảm của công ty và sở hữu trí tuệ lên các nền tảng AI công cộng, và 64% thừa nhận đã nỗ lực ít hơn trong công việc vì có thể dựa vào AI.
— Hơn một nửa, 57%, mắc lỗi trong công việc do sử dụng AI không kiểm soát, và 53% hoàn toàn che giấu việc sử dụng AI, trình bày nội dung do AI tạo ra như của chính họ.
“Không chỉ là mọi người đang tự nhận AI là công việc của mình; họ còn làm ô nhiễm nguồn lực của công ty bằng cách dựa vào những thứ rác rưởi do AI tạo ra,” nói Nick Misner, COO của Cybrary, nền tảng phát triển chuyên môn an ninh mạng có trụ sở tại Atlanta. “Trong khi AI giúp tăng tốc độ lập trình, nó cũng mang lại nhiều khoản nợ và lỗ hổng bảo mật hơn cho tổ chức.”
Misner lưu ý, đây không phải là xu hướng riêng lẻ; thay vào đó, đó là một thất bại hệ thống trong khả năng sẵn sàng của tổ chức.
“Chúng ta đang chứng kiến việc chấp nhận AI vượt xa khả năng quản trị,” ông nói. “Báo cáo Tình trạng Nơi làm việc Toàn cầu của Gallup cho biết 79% lực lượng lao động toàn cầu đang ở mức ‘làm tối thiểu’ hoặc ‘hoàn toàn không tham gia.’”
Do đó, khi giao cho những nhân viên không tích cực một công cụ mạnh mẽ mà không có hướng dẫn rõ ràng, họ sẽ không dùng nó để trở nên năng suất hơn. “Họ sẽ dùng nó để làm cùng công việc với ít nỗ lực hơn hoặc, tệ hơn, để cắt góc theo cách tạo ra rủi ro thực sự cho tổ chức,” ông lưu ý.
Mối đe dọa không chỉ là gian lận trong các bài kiểm tra, mặc dù trong một vụ việc của KPMG Australia công bố tuần này, 28 nhân viên bị bắt sử dụng AI để gian lận trong các kỳ thi nội bộ, trong đó có một đối tác bị phạt 10.000 đô la vì gian lận trong kỳ thi đạo đức AI.
“Ví dụ đó thể hiện rõ sự mỉa mai,” Misner nói. “Nguy cơ lớn hơn là các tổ chức đang bay trong bóng tối. Nếu gần một nửa lực lượng lao động của bạn sử dụng AI không đúng cách mà bạn còn không hay biết, mức độ rủi ro của bạn là rất lớn, từ rò rỉ dữ liệu đến vi phạm quy định và làm suy yếu các kỹ năng mà nhân viên thực sự cần.”
Làm rõ việc sử dụng AI xấu xa khỏi bóng tối
Ban lãnh đạo cấp cao cần đề xuất, xây dựng chính sách và hình phạt để đảm bảo AI được sử dụng một cách đạo đức tại công ty của họ. Những chiến lược này nên nằm trong ưu tiên hàng đầu.
Học hỏi từ quá khứ
Có thể lập luận rằng các số liệu của Melbourne/KPMG không phải là duy nhất đối với AI.
“Chúng tôi đã thấy các mô hình tương tự khi internet và công cụ tìm kiếm lần đầu tiên xuất hiện trong nơi làm việc,” nói Joe Schaeppi, đồng sáng lập của Solsten, một công ty tương tác người dùng dựa trên AI tại Minneapolis, Minnesota. “Bất cứ khi nào một công cụ mạnh mẽ mới xuất hiện, việc lạm dụng là điều không thể tránh khỏi; đó là bản chất của con người.”
Khi việc chấp nhận AI tăng lên, Schaeppi nói rằng quản lý có thể sẽ thấy nhiều thử nghiệm và hành vi trong vùng xám hơn, nhưng như với tất cả công nghệ, quản trị và các giới hạn sẽ phát triển. “Các công ty như Anthropic đã bắt đầu áp dụng cách tiếp cận tập trung vào doanh nghiệp hơn, xây dựng các quy tắc và giới hạn để giảm thiểu rủi ro khi công nghệ trưởng thành,” ông lưu ý. “Nếu bạn là một công ty và thấy hành vi không phù hợp trên bất kỳ công cụ nào, mối quan tâm cần đặt vào văn hóa và cách bạn thực thi chính sách, quy trình.”
Tăng cường giám sát con người
Để kiểm soát các hoạt động AI trong nơi làm việc, ban quản lý phải giao nhiệm vụ cho một nhóm phân tích AI xem xét quyền truy cập dữ liệu và các quyền của công ty đối với các loại dữ liệu quan trọng cho tương lai của doanh nghiệp.
“Tiếp theo, các bộ dữ liệu tổng hợp không còn xa lạ và là cách tuyệt vời để mô hình hóa kết quả trong khi vẫn tận dụng dữ liệu của bạn,” ông nói. “Thêm vào đó, tôi luôn khuyên có một con người tham gia vào quá trình trước khi mọi thứ đi vào hoạt động. Nhiều công ty vẫn phát hiện số liệu báo cáo của AI sai. Dù là để đảm bảo thông điệp phù hợp hay đúng thương hiệu, việc giữ một con người trong vòng kiểm soát là rất quan trọng.”
Rõ ràng về quy tắc sử dụng AI
Các công ty cũng nên cung cấp các công cụ AI nội bộ được phê duyệt và đặt ra một quy tắc rõ ràng. Không bao giờ đưa thông tin bí mật hoặc có quy định vào các hệ thống AI công cộng.
“Họ cũng cần theo dõi nơi dữ liệu nhạy cảm chảy qua, đặc biệt là việc sao chép dán vào các công cụ AI, điều này hiện là một điểm mù lớn mà hầu hết các công ty hoàn toàn bỏ qua,” Timsah nói. “Quan trọng nhất, các công ty phải thay đổi cách đánh giá nhân viên.”
Timsah cũng khuyến khích các lãnh đạo công ty tránh chỉ thưởng cho sản phẩm hoàn chỉnh bóng bẩy. “Yêu cầu nhân viên giải thích lý do và thể hiện sự hiểu biết của họ,” bà nói. “AI có thể tạo ra câu trả lời, nhưng không thể thay thế trách nhiệm hoặc quyền sở hữu.”
Chính sách đầu tiên mà đội ngũ của Timsah thực hiện tại i-GENTIC là đơn giản và rõ ràng: nhân viên có thể sử dụng các công cụ AI được phê duyệt, nhưng không được nhập dữ liệu bí mật, khách hàng, tài chính hoặc sở hữu trí tuệ vào các hệ thống AI công cộng.
“Chúng tôi tập trung vào rõ ràng, không hạn chế,” bà nói. “Điều này tạo ra niềm tin vì nhân viên biết rằng việc sử dụng AI được phép, nhưng có giới hạn rõ ràng. Nó cũng xây dựng trách nhiệm giải trình, vì mọi người đều hiểu rõ những gì an toàn và không an toàn.”
Đào tạo nội bộ của công ty nên tập trung vào các ví dụ thực tế, chứ không phải các chính sách mơ hồ mà không ai đọc. Nhân viên cần hiểu rõ ràng những gì an toàn và không an toàn.
“Sử dụng AI để viết lại một email chung chung là ổn,” Timsah nói. “Tải lên hợp đồng khách hàng, dữ liệu tài chính hoặc thông tin sở hữu trí tuệ vào công cụ AI công cộng thì không. Sử dụng AI để lên ý tưởng là ổn. Trình bày phân tích do AI tạo ra mà bạn không hiểu là không đúng.”
Khi nào cần nhờ sự hỗ trợ từ bên ngoài
Việc nhân viên lạm dụng AI trở thành vấn đề pháp lý khi có ý định và gây thiệt hại.
“Điều này bao gồm rò rỉ dữ liệu bí mật, đánh cắp sở hữu trí tuệ, thao túng thông tin tài chính hoặc gian lận với sự trợ giúp của AI,” Timsah nói. “Lúc đó, các công ty có thể liên hệ với các nhà điều tra, cơ quan quản lý hoặc cơ quan thực thi pháp luật.”
Các quyết định của công ty cũng cần biết rằng phần lớn việc lạm dụng bắt đầu từ sự tiện lợi, chứ không phải ý đồ xấu, nhưng khi gây ra thiệt hại thực sự, tổn thất tài chính hoặc lừa dối, nó sẽ chuyển sang lĩnh vực pháp lý. “Điểm khác biệt chính là liệu việc lạm dụng có dẫn đến rủi ro, mất mát hoặc che giấu có chủ ý hay không,” Timsah bổ sung.
Cuối cùng, hãy tập trung vào đào tạo
Các chuyên gia cho biết, tổ chức cần xem việc sử dụng AI như bất kỳ hành vi có rủi ro cao nào khác và giáo dục nhân viên về cách sử dụng an toàn.
Ngoài ra, khi đào tạo nhân viên về sử dụng AI, ban quản lý phải làm rõ rằng việc sử dụng AI không giúp họ thoát khỏi trách nhiệm.
“Nhân viên vẫn chịu trách nhiệm đảm bảo rằng thông tin họ tải lên các nền tảng AI là chính xác và không vi phạm pháp luật,” nói Kelsey Szamet, đối tác tại Kingsley Szamet Employment Lawyers. “Nhân viên cũng cần nhận thức rằng việc tải lên thông tin bí mật và sở hữu trí tuệ có thể dẫn đến việc thông tin đó bị lộ ra vĩnh viễn trên nền tảng.”
Về mặt tuyển dụng, tính nhất quán là chìa khóa. Nếu một nhân viên bị sa thải vì lạm dụng AI mà người khác thì không, điều đó gây ra các vấn đề về phân biệt đối xử và trả đũa. “Chính sách và quy trình đào tạo mạnh mẽ hơn sẽ giảm thiểu rủi ro kiện tụng,” Szamet nói.
Mối lo ngại lớn hơn không phải là nhân viên sẽ sử dụng AI. Họ sẽ. “Mối lo ngại là các công ty sẽ chủ động giải quyết trước khi vấn đề trở nên nghiêm trọng,” Szamet bổ sung.
📬 Đăng ký nhận Tin Nhanh Hàng Ngày
Tin nhanh, miễn phí và thú vị về kinh tế toàn cầu, gửi mỗi sáng trong ngày.
Đăng ký cho tôi