Thiết lập Chính sách Sử dụng ChatGPT trong doanh nghiệp của bạn

Thiết lập Chính sách Sử dụng ChatGPT trong doanh nghiệp của bạn

Các chuyên gia pháp lý cho biết, Bộ nhận Nhân sự cần hỏi và trả lời nhiều câu hỏi trước khi thiết lập chính sách hướng dẫn nhân viên sử dụng ChatGPT của OpenAI và các công cụ Trí tuệ nhân tạo tạo sinh (Generative AI) khác.

Công nghệ sản xuất nội dung ngày càng trở nên phổ biến và các công ty trong nhiều ngành rất hào hứng với triển vọng của nó đồng thời cũng tò mò, nếu không muốn nói là sợ hãi, về thứ nó có thể dẫn đến.

Theo một cuộc khảo sát với 521 công nhân do AmeriSpeak Omnibus thực hiện cho SHRM vào đầu tháng 4, 1/3 người lao động tại Hoa Kỳ tin rằng công việc của họ sẽ phụ thuộc nhiều hơn vào tự động hóa nơi làm việc trong vài năm tới. Tuy nhiên, 91% cho biết nhiệm vụ công việc hiện tại của họ không hề bị ảnh hưởng bởi AI.

Trong khi đó, một cuộc thăm dò ý kiến ​​với 62 lãnh đạo nhân sự vào tháng 2 do công ty tư vấn Gartner thực hiện cho thấy khoảng một nửa trong số họ đang xây dựng hướng dẫn về việc sử dụng ChatGPT của nhân viên, Bloomberg đưa tin.

John Carrigan, luật sư của Cozen O'Connor ở Los Angeles, cho biết các nhà tuyển dụng nên xem xét mức độ mà các chính sách hiện tại của họ có thể giải quyết một số vấn đề “mới” do AI nêu ra.

Ông nói: “Ví dụ: đã có một số báo cáo về nhân viên tin rằng ChatGPT giúp họ làm việc hiệu quả đến mức họ có thể bí mật đảm nhận nhiều công việc toàn thời gian mà không cần thông báo cho người sử dụng lao động của mình”. “Và mặc dù điều đó có vẻ như là một vấn đề mới, nhưng nó có thể là vấn đề đã được giải quyết một cách thích hợp bằng chính sách làm thêm giờ hoặc chính sách xử lý xung đột lợi ích hiện có.”

Thay vào đó, người sử dụng lao động nên suy nghĩ về những lĩnh vực mà họ không muốn thấy AI được sử dụng và sau đó đặt ra các hướng dẫn rõ ràng, Carrigan nói.

“Khi quyết định mức độ cho phép hoặc hạn chế sử dụng ChatGPT hoặc các công cụ tương tự, việc lập chiến lược về các loại nhiệm vụ mà AI có thể được sử dụng cũng như điểm mạnh và hạn chế của các công cụ AI cho mục đích đó là điều hợp lý”. anh ấy nói.

Carrigan nói thêm rằng có lẽ cũng nên chỉ định một số người phụ trách giám sát việc sử dụng AI và khắc phục sự cố khi chúng có thể phát sinh.

Ông nói: “Đây là lĩnh vực mà chúng tôi mong đợi sẽ thấy sự thay đổi to lớn trong một thời gian khá ngắn, cả về khả năng của công nghệ và phản ứng pháp lý đối với việc sử dụng công nghệ”. “Vì vậy, người sử dụng lao động cần phải chuẩn bị để trở nên linh hoạt.”

Cân nhắc mức độ chấp nhận rủi ro của bạn

Luật sư Jenn Betts, cổ đông và đồng chủ tịch của nhóm thực hành công nghệ tại Ogletree Deakins ở Pittsburgh, cho biết các công ty nên xác định mức độ chấp nhận rủi ro của mình và viết ra các chính sách nêu rõ những kỳ vọng.

Bà nói: “Rất có thể, các công ty có quan điểm bảo thủ sẽ không cảm thấy thoải mái khi cho phép sử dụng rộng rãi trí tuệ nhân tạo tổng hợp, trước những câu hỏi về công nghệ, độ chính xác và tính bảo mật của nó”. “Nhiều tổ chức có những lo ngại nghiêm trọng liên quan đến tính chính xác và bảo mật dữ liệu.”

Betts cho biết, ngay cả các tổ chức sẵn sàng sử dụng AI tạo sinh (Generative AI) cũng lo ngại về việc lưu giữ và bảo vệ dữ liệu của chính họ, cũng như dữ liệu của khách hàng của họ.

Cô lưu ý: “Các nhà tuyển dụng đang phát triển các chính sách trí tuệ nhân tạo tổng quát thường cấm tải lên hoặc sử dụng bất kỳ thông tin bí mật nào như một phần trong nỗ lực ChatGPT của họ”.

Tuy nhiên, cấm công nghệ này có thể không phải là bước đi đúng đắn. Công ty tư vấn Gartner cho biết trong Câu hỏi thường gặp trong tháng này rằng việc chặn hoàn toàn ChatGPT có thể mang lại cho các tổ chức “sự nhận thức sai về tính tuân thủ” và thay vào đó dẫn đến việc nhân viên sử dụng ChatGPT “trong bóng tối”.

Gartner cho biết: “Một cách tiếp cận hợp lý là giám sát việc sử dụng và khuyến khích đổi mới, nhưng đảm bảo công nghệ chỉ được sử dụng để tăng cường công việc nội bộ và với dữ liệu đủ tiêu chuẩn, thay vì theo cách không được lọc với khách hàng và đối tác”.

Bảo vệ thông tin độc quyền

Gartner cũng khuyên rằng tất cả nhân viên sử dụng ChatGPT phải được hướng dẫn cách xử lý thông tin họ đăng như thể họ đăng nó trên một trang web công cộng (ví dụ: trang mạng xã hội hoặc blog công khai).

Công ty cho biết: “Họ không nên đăng thông tin nhận dạng cá nhân, thông tin về công ty hoặc khách hàng mà công chúng thường không công bố”. “Hiện tại không có sự đảm bảo rõ ràng nào về quyền riêng tư hoặc bảo mật. Thông tin được đăng có thể được sử dụng để chính AI tự đào tạo và hiểu người dùng hơn.”

Theo Gartner, Microsoft, đối tác lâu dài với OpenAI, sẽ giới thiệu các biện pháp đảm bảo quyền riêng tư cho dịch vụ Azure OpenAI của mình, giống như đối với các dịch vụ phần mềm khác của mình.

Fact-check ChatGPT và trình độ hiểu biết của nhân viên

Janice Agresti, phó luật sư tại Cozen O'Connor ở Thành phố New York, nói rằng khi quyết định nên thực hiện hướng đi nào trong việc thiết lập chính sách, hãy cân nhắc đưa vào loại công việc mà tổ chức của bạn thực hiện; lực lượng lao động của bạn quen thuộc với việc phát triển công nghệ như thế nào và những hạn chế của chúng; bao nhiêu công việc của họ được thúc đẩy bởi kết quả đầu ra; và lĩnh vực chuyên môn của lực lượng lao động của bạn. ChatGPT vẫn mắc rất nhiều lỗi và người dùng cần có khả năng nhận ra chúng.

“Ví dụ: nếu người dùng công nghệ AI là một chuyên gia thì cá nhân đó có thể kiểm tra thông tin đầu ra và sửa đổi nó theo chuyên môn của họ. Trong trường hợp đó, cá nhân đó có nhiều khả năng sử dụng kết quả mà ChatGPT đưa ra làm điểm khởi đầu hơn là một sản phẩm cuối cùng, điều này gây ra ít rủi ro về uy tín, pháp lý và các rủi ro khác cho công ty”, Agresti nói.

Cô tiếp tục: “Hơn nữa, nếu người dùng nhận thức được các hạn chế của ChatGPT thì họ sẽ thực hiện các bước để đảm bảo rằng đầu ra được kiểm tra tính xác thực, tính hợp pháp, v.v. Một lần nữa, điều này sẽ ít gây ra rủi ro về uy tín, pháp lý và các rủi ro khác cho một công ty.”

Mặt khác, Agresti nói rằng nếu người dùng không hoàn toàn chắc chắn về cách thức hoạt động của ChatGPT hoặc các hạn chế của nó hoặc nếu người dùng đang sử dụng công nghệ này để tìm kiếm thông tin mà họ không quen thuộc, “điều đó sẽ làm tăng đáng kể các rủi ro liên quan đến cách sử dụng ChatGPT.”

Các nhà tuyển dụng cũng muốn cảm thấy tự tin rằng bất kỳ sản phẩm công việc nào họ đưa ra có tên của họ sẽ không khiến họ gặp rắc rối vì các vấn đề vi phạm bản quyền hoặc đạo văn.

Những cân nhắc dành cho các công ty có tổ chức công đoàn

Carrigan cho biết, những doanh nghiệp có tổ chức công đoàn nên xem xét liệu bất kỳ chính sách nào của họ liên quan đến ChatGPT và AI tạo sinh (Generative AI) khác có phải là đối tượng thương lượng bắt buộc hay không.

Ông nói: “Có rất nhiều mối lo ngại đặc biệt liên quan đến các vị trí nhân viên văn phòng rằng một số công cụ AI mới có thể làm giảm nhu cầu đối với một số công việc nhất định và có thể khiến một số nhân viên trở nên lỗi thời”. “Các công đoàn thực sự muốn có một vị trí trong những cuộc thảo luận kiểu đó.”

Agresti cho rằng cuối cùng, AI tạo sinh (Generative AI) chỉ nên được sử dụng để nâng cao hiệu suất của con người chứ không nên thay thế con người.

Bà nói: “Nếu được sử dụng, nó nên được sử dụng như một công cụ hỗ trợ công việc của người dùng chứ không phải để thay thế cho sự sáng tạo, khả năng phán đoán tốt hay chuyên môn của người dùng”.

CHÍNH SÁCH THAM KHẢO: CẤM SỬ DỤNG AI TẠO SINH (GENERATIVE AI)

Nhân viên không được phép sử dụng ChatGPT và các dịch vụ AI tạo sinh (Generative AI) khác của bên thứ ba cho công việc. Điều này bao gồm việc sử dụng các dịch vụ như vậy để tạo các đoạn mã nguồn hoặc bất kỳ hình thức liên lạc nào với khách hàng, ngay cả khi bạn sử dụng nó để tham khảo ban đầu. Bạn cũng bị cấm sử dụng các dịch vụ để tạo thông tin liên lạc nội bộ, chính sách hoặc tài liệu hoặc bất kỳ tài liệu nào khác nhằm mục đích sử dụng liên quan đến hoạt động kinh doanh.

Bạn được phép sử dụng các dịch vụ đó nhằm mục đích tự tìm hiểu về cách thức hoạt động của các dịch vụ này, tuân theo các giới hạn được nêu dưới đây. Kể từ hôm nay, tất cả các nhóm/phòng ban đều được chấp thuận sử dụng giao diện người dùng web ChatGPT (không bao gồm bất kỳ API nào) chỉ cho mục đích thử nghiệm, miễn là bạn không sử dụng bất kỳ thông tin bí mật hoặc độc quyền nào của công ty hoặc bên thứ ba, bất kỳ thông tin cá nhân nào hoặc bất kỳ thông tin bí mật, dữ liệu của khách hàng hoặc bên thứ ba làm đầu vào (prompt). Để sử dụng bất kỳ dịch vụ sáng tạo nào khác của bên thứ ba, bạn phải được sự chấp thuận để sử dụng dịch vụ theo quy trình phê duyệt của bên thứ ba của chúng tôi.

Nếu bạn làm việc trên các mô hình ngôn ngữ lớn (LLM) như một phần công việc của mình, đừng kiểm tra bất kỳ dịch vụ AI tạo sinh (Generative AI) nào của bên thứ ba để xem cách dịch vụ đó xử lý một số loại đầu vào/yêu cầu nhất định hoặc hành vi của nó khác với các LLM khác như thế nào.

Và vui lòng không cung cấp bất kỳ phản hồi nào cho bất kỳ nhà cung cấp dịch vụ bên thứ ba nào mà không nhận được sự cho phép cụ thể từ bộ phận pháp lý của công ty.


Paul Bergeron là một người viết tự do tại Herndon, Virginia, Hoa Kỳ.

Nguồn: How to Create the Best ChatGPT Policies (shrm.org)