Cơn sốt ChatGPT lan rộng khắp Mỹ, Coca-Cola và Tinder nói về cách bảo mật dữ liệu

Thế giới số - Ngày đăng : 15:37, 11/08/2023

Cuộc thăm dò từ Reuters/Ipsos cho thấy nhiều nhân viên trên khắp nước Mỹ đang nhờ ChatGPT trợ giúp các công việc cơ bản, bất chấp những lo ngại khiến Microsoft và Google hạn chế sử dụng chatbot trí tuệ nhân tạo (AI) của OpenAI.

Các công ty trên toàn thế giới đang xem xét cách tận dụng tốt nhất ChatGPT. Tuy nhiên, các hãng bảo mật quan ngại rằng việc sử dụng ChatGPT có thể dẫn đến rò rỉ tài sản trí tuệ và chiến lược.

Ví dụ điển hình về những người sử dụng ChatGPT để hỗ trợ công việc hàng ngày gồm soạn thảo email, tóm tắt tài liệu và thực hiện nghiên cứu sơ bộ.

Khoảng 28% số người được hỏi trong cuộc thăm dò trực tuyến về AI của Reuters/Ipsos nói họ thường xuyên sử dụng ChatGPT tại nơi làm việc, nhưng chỉ có 22% nói nhà tuyển dụng họ cho phép dùng công cụ bên ngoài như vậy.

Theo khoảng 10% trong số những người được Reuters/Ipso thăm dò, sếp của họ đã cấm các công cụ AI bên ngoài, trong khi khoảng 25% không biết liệu công ty có cho sử dụng công nghệ này hay không.

ChatGPT từng trở thành ứng dụng phát triển nhanh nhất trong lịch sử sau khi ra mắt vào tháng 11.2022, nhưng gần đây bị Threads của Meta Platforms qua mặt. ChatGPT đã tạo nên sự hứng thú và cả lo ngại, khiến OpenAI xung đột với các cơ quan quản lý, đặc biệt là ở châu Âu. Tại châu Âu, việc OpenAI thu thập dữ liệu hàng loạt đã vấp phải sự chỉ trích của các cơ quan giám sát quyền riêng tư.

Các nhà nghiên cứu phát hiện ra rằng các generative AI như ChatGPT có thể tái tạo dữ liệu được hấp thụ trong quá trình huấn luyện, tạo ra rủi ro tiềm ẩn với thông tin độc quyền.

Generative AI là một loại trí tuệ nhân tạo được lập trình để tự động tạo ra nội dung mới, như văn bản, hình ảnh, âm thanh và video. Nó khác với các hệ thống AI khác như máy học sâu (deep learning) hoặc học máy (machine learning) trong việc dự đoán kết quả từ dữ liệu đã có sẵn. Thay vì dựa trên dữ liệu huấn luyện, generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn.

Ben King, Phó chủ tịch phụ trách bộ phận niềm tin của khách hàng tại hãng bảo mật doanh nghiệp Okta, nói: “Nhiều người không hiểu cách dữ liệu bị thu thập khi họ sử dụng các dịch vụ generative AI”.

OpenAI từ chối bình luận khi được hỏi về tác động của các nhân viên khi sử dụng ChatGPT. Thế nhưng, OpenAI đảm bảo với các đối tác của công ty rằng dữ liệu của họ sẽ không được dùng để huấn luyện chatbot AI thêm nữa, trừ khi được cho phép rõ ràng.

Khi mọi người dùng Bard, chatbot AI của Google sẽ thu thập dữ liệu như văn bản, vị trí và thông tin sử dụng khác. Google cho phép người dùng xóa hoạt động trước đó khỏi tài khoản và yêu cầu loại bỏ nội dung được cung cấp cho AI. Google từ chối bình luận khi được Reuters hỏi chi tiết hơn.

Microsoft không trả lời ngay lập tức khi được Reuters đề nghị bình luận về chuyện này.

con-sot-chatgpt-lam-khap-my-coca-cola-va-tinder-noi-ve-cach-bao-mat-du-lieu.jpg
Các hãng bảo mật quan ngại rằng việc sử dụng ChatGPT có thể dẫn đến rò rỉ tài sản trí tuệ và chiến lược - Ảnh: Reuters

“Các nhiệm vụ vô hại”

Một nhân viên của Tinder (có trụ sở tại Mỹ) cho biết các đồng nghiệp của cô sử dụng ChatGPT cho "các nhiệm vụ vô hại" như viết email dù công ty không cho phép điều đó.

"Đó là những email thông thường, không có gì quan trọng, như tạo các lời mời hài hước cho sự kiện của nhóm, email chia tay khi ai đó rời đi... Chúng tôi cũng sử dụng ChatGPT cho nghiên cứu chung", nhân viên này tiết lộ cho Reuters nhưng yêu cầu giấu tên vì không được nói chuyện với các phóng viên.

Nhân viên này nói Tinder có "quy tắc không sử dụng ChatGPT" nhưng cô vẫn sử dụng nó theo "cách chung chung, không tiết lộ bất cứ điều gì về công việc ở công ty".

Reuters không thể xác nhận một cách độc lập cách các nhân viên tại Tinder đang sử dụng ChatGPT.

Tinder cho biết họ cung cấp "hướng dẫn thường xuyên cho nhân viên về các biện pháp bảo mật và dữ liệu tốt nhất".

Vào tháng 5, Samsung Electronics đã cấm nhân viên trên toàn cầu sử dụng ChatGPT và các công cụ generative AI tương tự sau khi phát hiện ra một nhân viên đã nhập mã nhạy cảm lên nền tảng của OpenAI.

Chúng tôi đang xem xét các biện pháp để tạo ra một môi trường an toàn cho việc sử dụng generative AI nhằm nâng cao năng suất và hiệu quả của nhân viên. Tuy nhiên cho đến khi các biện pháp này sẵn sàng, chúng tôi tạm thời hạn chế việc sử dụng generative AI thông qua các thiết bị của công ty”, Samsung Electronics cho biết vào tháng 8.

Hồi tháng 6, Reuters đưa tin Alphabet (công ty mẹ Google) đã cảnh báo nhân viên về cách họ sử dụng chatbot, bao gồm cả Bard, dù đang tiếp thị Bard trên toàn cầu. Theo Google, dù Bard có thể gợi ý mã không mong muốn nhưng giúp ích cho các lập trình viên.

Cảnh giác với ChatGPT

Một số công ty nói với Reuters rằng đang sử dụng ChatGPT và các nền tảng tương tự, đồng thời lưu ý đến vấn đề bảo mật.

Người phát ngôn Coca-Cola tại thành phố Atlanta (bang Georgia, Mỹ) cho biết: “Chúng tôi đã bắt đầu thử nghiệm và tìm hiểu về cách AI có thể nâng cao hiệu quả hoạt động”, đồng thời nói thêm rằng dữ liệu vẫn nằm trong tường lửa của hãng.

Người phát ngôn này nói thêm: “Trong nội bộ, gần đây chúng tôi đã ra mắt phiên bản doanh nghiệp của Coca-Cola ChatGPT để tăng năng suất. Coca-Cola có kế hoạch sử dụng AI để cải thiện hiệu quả và năng suất các nhóm của mình”.

Trong khi đó, Dawn Allen, Giám đốc tài chính Tate & Lyle (hãng cung cấp nguyên liệu thực phẩm và đồ uống toàn cầu), nói với Reuters rằng: “Công ty đang thử nghiệm ChatGPT và đã tìm ra cách sử dụng nó một cách an toàn".

"Chúng tôi có các nhóm khác nhau quyết định cách họ muốn sử dụng ChatGPT thông qua một loạt thử nghiệm. Chúng tôi có nên sử dụng nó trong quan hệ với nhà đầu tư không? Chúng tôi có nên sử dụng nó trong quản lý kiến thức không? Chúng tôi có thể sử dụng nó như thế nào để thực hiện các nhiệm vụ hiệu quả hơn?", Dawn Allen chia sẻ thêm.

Một số nhân viên nói rằng hoàn toàn không thể truy cập ChatGPT trên máy tính của công ty.

ChatGPT hoàn toàn bị cấm trên mạng văn phòng, giống như nó không hoạt động”, một nhân viên của Procter & Gamble (tập đoàn đa quốc gia chuyên về nhóm ngành hàng tiêu dùng) cho biết.

P&G từ chối bình luận. Reuters không thể xác nhận một cách độc lập liệu nhân viên tại P&G có thể sử dụng ChatGPT hay không.

Paul Lewis, Giám đốc An ninh Thông tin của hãng an ninh mạng Nominet, nói các công ty đã đúng khi cảnh giác với ChatGPT.

Ông nói: “Mọi người đều được hưởng lợi từ khả năng của ChatGPT, nhưng thông tin không hoàn toàn an toàn và có thể bị thu thập”.

Sơn Vân