Công ty mẹ Google yêu cầu nhân viên cảnh giác với cả Bard

Nhịp đập khoa học - Ngày đăng : 07:03, 16/06/2023

Alphabet (công ty mẹ Google) đang cảnh báo nhân viên về cách họ sử dụng chatbot AI, gồm cả Bard, trong khi vẫn tiếp thị chatbot của Google trên toàn thế giới, 4 người quen thuộc với vấn đề này nói với Reuters.

Bard là chatbot trí tuệ nhân tạo (AI) mà Google tung ra để cạnh tranh với ChatGPT của OpenAI.

Alphabet đã khuyên nhân viên không nhập thông tin bí mật của mình vào các chatbot AI, gồm cả Bard, trích dẫn chính sách lâu dài về bảo vệ thông tin.

Các chatbot như Bard và ChatGPT sử dụng generative AI để tiến hành trò chuyện với người dùng và trả lời nhiều truy vấn khác nhau. Người đánh giá có thể đọc các cuộc trò chuyện và các nhà nghiên cứu phát hiện ra rằng AI có thể tái tạo dữ liệu mà nó hấp thụ trong quá trình huấn luyện, gây ra nguy cơ rò rỉ thông tin.

Generative AI là một loại trí tuệ nhân tạo được lập trình để tự động tạo ra nội dung mới, như văn bản, hình ảnh, âm thanh và video. Nó khác với các hệ thống AI như máy học sâu (deep learning) hoặc học máy (machine learning) trong việc dự đoán kết quả từ dữ liệu đã có sẵn. Thay vì dựa trên dữ liệu huấn luyện, hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn.

Alphabet cảnh báo các kỹ sư của mình tránh sử dụng trực tiếp mã máy tính mà chatbot AI tạo ra.

Khi được đề nghị bình luận về vấn đề trên, Alphabet cho biết Bard có thể đưa ra các đề xuất mã máy tính không mong muốn, nhưng dù sao thì chatbot này cũng giúp ích cho các lập trình viên. Google cũng nói rằng muốn minh bạch về những hạn chế trong công nghệ của mình.

Những mối lo ngại trên cho thấy Google muốn tránh tác hại kinh doanh do Bard gây ra. Google, Microsoft và các công ty đang cạnh tranh nhau để giành được lợi ích kinh doanh và doanh thu tiềm năng từ việc triển khai các ứng dụng AI mới.

Sự thận trọng của Google cũng phản ánh tiêu chuẩn bảo mật đang trở thành chuẩn mực cho các công ty, tức là cảnh báo nhân viên về việc sử dụng các chatbot AI.

Ngày càng nhiều doanh nghiệp trên khắp thế giới đã thiết lập các biện pháp hạn chế hay cấm sử dụng các chatbot AI, trong số đó có Apple, Samsung Electronics, Amazon và Deutsche Bank.

Theo cuộc khảo sát với gần 12.000 người (gồm cả từ các công ty hàng đầu ở Mỹ) được thực hiện bởi trang mạng Fishbowl, khoảng 43% các chuyên gia đang sử dụng ChatGPT hoặc các công cụ AI khác kể từ tháng 1, thường không báo với sếp của họ.

Theo trang Insider, vào tháng 2, Google đã yêu cầu nhân viên thử nghiệm Bard (trước thời điểm ra mắt) không cung cấp thông tin nội bộ cho chatbot AI này. Google đang triển khai Bard trên hơn 180 quốc gia và trong 40 ngôn ngữ như một nền tảng để thúc đẩy sự sáng tạo. Các cảnh báo của Google cũng được mở rộng đến các gợi ý mã máy tính từ Bard.

Theo Reuters, Google nói đã có các cuộc trò chuyện cụ thể với Ủy ban Bảo vệ dữ liệu của Ireland và đang giải đáp thắc mắc từ cơ quan quản lý, sau khi trang Politico cho biết công ty hoãn việc ra mắt Bard ở Liên minh châu Âu (EU) trong tuần này để chờ thêm thông tin về tác động từ chatbot AI của mình với quyền riêng tư.

google-yeu-cau-nhan-vien-canh-giac-voi-chinh-bard.jpg
Alphabet khuyên nhân viên không nhập thông tin bí mật của mình vào các chatbot AI, gồm cả Bard - Ảnh: Internet

Lo lộ thông tin nhạy cảm

Chatbot AI có thể soạn thảo email, làm thơ, viết bài luận,... và hứa hẹn giúp nhiều người tăng tốc trong công việc. Tuy nhiên, nội dung do chúng tạo ra có thể chứa thông tin sai lệch, dữ liệu nhạy cảm hoặc trích đoạn từ các cuốn sách có bản quyền.

Thông báo về quyền riêng tư của Google được cập nhật vào ngày 1.6 nêu rõ: "Không nhập thông tin bí mật hoặc nhạy cảm trong các cuộc trò chuyện trên Bard của bạn".

Một số công ty đã phát triển phần mềm để giải quyết những lo ngại như vậy. Chẳng hạn, Cloudflare đang tiếp thị khả năng cho các doanh nghiệp gắn thẻ và hạn chế một số dữ liệu chảy ra bên ngoài. Cloudflare là công ty bảo vệ các trang web khỏi các cuộc tấn công mạng và cung cấp các dịch vụ đám mây.

Google và Microsoft cũng đang cung cấp các công cụ trò chuyện cho khách hàng doanh nghiệp với mức giá cao hơn nhưng không hấp thụ dữ liệu vào các mô hình AI công khai. Cài đặt mặc định trong Bard và ChatGPT là lưu lịch sử hội thoại của người dùng, nhưng có thể chọn xóa khi muốn.

Yusuf Mehdi, Giám đốc tiếp thị người tiêu dùng của Microsoft, cho biết các công ty có lý khi không muốn nhân viên sử dụng chatbot AI cho công việc. 

Yusuf Mehdi nói rằng “các công ty đang đưa ra quan điểm thận trọng đúng đắn” lúc so sánh Bing chatbot miễn phí với phần mềm doanh nghiệp của Microsoft. "Ở đó, các chính sách của chúng tôi nghiêm ngặt hơn nhiều", ông nhấn mạnh.

Microsoft từ chối bình luận về việc liệu có cấm hoàn toàn nhân viên nhập thông tin bí mật vào các chatbot AI công khai hay không, gồm cả ứng dụng của chính họ. Tuy nhiên, một nhà quản lý khác tại Microsoft cho biết cá nhân ông đã hạn chế sử dụng các chatbot này.

Matthew Prince, Giám đốc điều hành Cloudflare, nói rằng việc nhập thông tin bí mật vào chatbot AI giống như "để hàng loạt nghiên cứu sinh truy cập vào tất cả hồ sơ riêng tư của bạn".

Đầu tháng 5, Samsung Electronics đã cấm nhân viên sử dụng các công cụ generative AI phổ biến như ChatGPT sau khi phát hiện có kỹ sư dán mã nhạy cảm lên chatbot AI này.

Theo truyền thông Hàn Quốc, một nhân viên Samsung Electronics đã sao chép mã nguồn từ cơ sở dữ liệu bán dẫn bị lỗi để dán vào ChatGPT và yêu cầu chatbot AI của OpenAI tìm cách khắc phục. Trong trường hợp khác, một nhân viên của công ty lớn nhất Hàn Quốc đã chia sẻ mã bí mật để tìm cách khắc phục thiết bị bị lỗi. Một nhân viên Samsung Electronics gửi toàn bộ nội dung cuộc họp đến ChatGPT và yêu cầu chatbot này tạo biên bản tóm tắt nội dung.

Sau khi biết về những rò rỉ, Samsung Electronics đã cố gắng kiểm soát thiệt hại bằng cách gửi cảnh báo đến các quản lý và nhân viên của mình về nguy cơ tiềm ẩn của việc rò rỉ thông tin bí mật. Tất nhiên, công ty không thể xóa bỏ hay khôi phục các dữ liệu này vì chúng được lưu trữ trên các máy chủ của OpenAI. Điều đáng nói là hồi tháng 4, Samsung Electronics từng dỡ bỏ lệnh cấm nhân viên sử dụng ChatGPT do lo ngại các vấn đề rò rỉ dữ liệu bí mật. 

Đầu tháng 5, Samsung Electronics đã thông báo cho nhân viên về chính sách mới là "cấm sử dụng các công cụ generative AI phổ biến như ChatGPT". Công ty có trụ sở tại thành phố Suwon (Hàn Quốc) lo ngại rằng dữ liệu truyền tới các nền tảng AI như Google Bard và Bing được lưu trữ trên các máy chủ bên ngoài, gây khó khăn cho việc truy xuất và xóa, đồng thời có thể bị tiết lộ cho những người dùng khác, theo bản ghi nhớ.

Vào tháng 4, Samsung Electronics đã tiến hành cuộc khảo sát về việc sử dụng các công cụ AI trong nội bộ và cho biết 65% số người được hỏi tin rằng các dịch vụ đó gây rủi ro bảo mật. Đầu tháng 4, kỹ sư Samsung Electronics đã vô tình làm rò rỉ mã nguồn nội bộ khi đưa nó lên ChatGPT, theo bản ghi nhớ. Chưa rõ thông tin bao gồm những gì và đại diện Samsung Electronics từ chối bình luận.

Mối quan tâm đến các nền tảng generative AI như ChatGPT đang tăng lên cả trong và ngoài nước. Dù mối quan tâm này tập trung vào tính hữu ích và hiệu quả của các nền tảng này, nhưng cũng có những lo ngại ngày càng tăng về rủi ro bảo mật do generative AI gây ra”, Samsung Electronics thông báo với nhân viên.

Hồi tháng 2, sau khi ChatGPT khuấy động sự quan tâm đến generative AI, một số ngân hàng Phố Wall gồm JPMorgan Chase & Co, Bank of America và Citigroup đã cấm hoặc hạn chế sử dụng chatbot của OpenAI.

Sơn Vân