OpenAI triển khai 'chế độ ẩn danh' cho ChatGPT trước nguy cơ bị cấm ở nhiều nước EU
Nhịp đập khoa học - Ngày đăng : 08:31, 26/04/2023
Công ty khởi nghiệp có trụ sở tại San Francisco (Mỹ) cho biết điều này hôm 25.4.
OpenAI cũng lên kế hoạch cho phiên bản ChatGPT Business với tính năng điều khiển dữ liệu bổ sung. Tính năng này có thể sẽ được cung cấp cho các doanh nghiệp hoặc tổ chức sử dụng ChatGPT để tương tác với khách hàng hoặc người dùng của họ.
Ngoài ra, tính năng đó cũng có thể cho phép nhà quản lý doanh nghiệp kiểm soát quyền truy cập vào dữ liệu người dùng, quản lý quyền riêng tư, hoặc theo dõi các cuộc trò chuyện để đảm bảo tuân thủ các quy định và chính sách của doanh nghiệp
Động thái trên diễn ra khi sự chú ý ngày càng tăng về cách ChatGPT và các chatbot AI khác quản lý dữ liệu hàng trăm triệu người dùng, thường được sử dụng để cải thiện hoặc huấn luyện AI.
OpenAI chỉ còn ít ngày nữa để tuân thủ luật bảo vệ dữ liệu của Liên minh châu Âu (EU) sau lệnh cấm tạm thời ở Ý và hàng loạt cuộc điều tra từ các quốc gia khác. Nếu không thành công, OpenAI có thể bị phạt nặng, buộc phải xóa dữ liệu hoặc thậm chí bị cấm.
Các chuyên gia nói với trang MIT Technology Review rằng OpenAI gần như không thể tuân thủ các quy tắc này, do dữ liệu được sử dụng để huấn luyện các mô hình AI thu thập từ nội dung trên internet.
Trong quá trình phát triển AI, mô hình phổ biến nhất là càng nhiều dữ liệu huấn luyện càng tốt. Mô hình GPT-2 của OpenAI có một bộ dữ liệu bao gồm 40 GB văn bản. GPT-3, mô hình ngôn ngữ lớn để ChatGPT hoạt động, được huấn luyện trên 570 GB dữ liệu. OpenAI đã không chia sẻ kích thước bộ dữ liệu cho mô hình ngôn ngữ lớn mới nhất là GPT-4.
Tuy nhiên, sự khát khao của OpenAI về các mô hình lớn hơn khiến công ty trả giá. Vài tuần qua, một số cơ quan bảo vệ dữ liệu phương Tây đã bắt đầu điều tra cách OpenAI thu thập và xử lý dữ liệu để cung cấp sức mạnh cho ChatGPT. Họ tin rằng OpenAI thu thập dữ liệu cá nhân của nhiều người, chẳng hạn tên hoặc địa chỉ email, rồi sử dụng mà không có sự đồng ý của họ.
Cuối tháng 3, Ý đã tạm thời cấm ChatGPT vì có thể vi phạm quyền riêng tư và cho OpenAI thời hạn đến ngày 30.4 để tuân thủ luật.
Hôm 12.4, Cơ quan bảo vệ dữ liệu của Ý (Garante) đã công bố danh sách các yêu cầu mà ChatGPT phải đáp ứng để được hoạt động tại nước này.
Garante yêu cầu OpenAI phải thông báo với người dùng về “phương pháp và logic” đứng sau việc xử lý dữ liệu của ChatGPT. Ngoài ra, Garante cũng yêu cầu OpenAI cung cấp công cụ để cho phép mọi người, dù họ có dùng ChatGPT hay không, được yêu cầu hiệu chỉnh dữ liệu cá nhân không chính xác hoặc xóa dữ liệu.
Theo Garante, OpenAI cũng nên cho phép những ai không phải người dùng dễ dàng phản đối xử lý dữ liệu cá nhân của họ để đào tạo thuật toán. Công ty có trụ sở ở thành phố San Francisco (Mỹ) cũng cần giới thiệu hệ thống xác thực độ tuổi trước cuối tháng 9, loại trừ khả năng truy cập của người dưới 13 tuổi.
Garante sẽ tiếp tục điều tra các vi phạm quy định bảo vệ dữ liệu nếu có, bảo lưu quyền áp đặt bất kỳ biện pháp nào cần thiết vào giai đoạn cuối cuộc điều tra.
Nếu OpenAI không thể thuyết phục các nhà chức trách rằng các hoạt động sử dụng dữ liệu của họ là hợp pháp, ChatGPT có thể bị cấm ở một số quốc gia cụ thể hoặc thậm chí là toàn EU.
Sau Ý, các cơ quan quản lý dữ liệu của Pháp, Đức, Iceland cũng đang điều tra cách OpenAI thu thập và sử dụng dữ liệu.
Ủy ban bảo vệ dữ liệu châu Âu thành lập một lực lượng đặc nhiệm trên toàn EU để điều phối các cuộc điều tra và thực thi xung quanh ChatGPT.
Tổ chức Người tiêu dùng châu Âu (BEUC) cũng kêu gọi các cơ quan bảo vệ người tiêu dùng EU điều tra ChatGPT và các chatbot AI khác về khả năng gây hại cho các cá nhân.
BEUC, nhóm bảo trợ cho 46 tổ chức người tiêu dùng từ 32 quốc gia, đã bày tỏ lo lắng của mình trong bức thư riêng gửi tới mạng lưới các cơ quan an toàn người tiêu dùng (mạng CSN) và mạng lưới các cơ quan bảo vệ người tiêu dùng (mạng CPC).
BEUC cho biết nội dung do chatbot tạo ra có vẻ đúng và đáng tin cậy nhưng thường không chính xác trên thực tế, có thể đánh lừa người tiêu dùng và cũng dẫn đến quảng cáo gian lận. Theo BEUC, người tiêu dùng nhỏ tuổi và trẻ em dễ bị rủi ro như vậy hơn.
"Do đó, BEUC yêu cầu bạn điều tra những rủi ro mà các hệ thống AI này gây ra cho người tiêu dùng như một vấn đề cấp bách, để xác định sự hiện diện của chúng trên thị trường tiêu dùng và khám phá hành động khắc phục nào phải được thực hiện để tránh gây hại cho người tiêu dùng", Ursula Pachl, Phó tổng giám đốc BEUC, viết trong thư gửi mạng CPC và Ủy ban châu Âu.
BEUC cũng kêu gọi Mạng lưới An toàn Người tiêu dùng bắt đầu trao đổi thông tin và điều tra về các rủi ro an toàn của các sản phẩm này.
Alexis Leautier, chuyên gia AI tại Cơ quan bảo vệ dữ liệu của Pháp (CNIL), nói OpenAI phải đối mặt với những khoản phạt tiền nặng, thậm chí có thể bị buộc phải xóa các mô hình và dữ liệu được sử dụng để huấn luyện chúng.
Theo Lilian Edwards, giáo sư luật internet tại Đại học Newcastle (Anh), các vi phạm của OpenAI rõ ràng đến mức có khả năng vụ việc này sẽ kết thúc tại Tòa án Công lý của EU (tòa án cao nhất EU). Có thể mất nhiều năm trước khi chúng ta thấy phần trả lời cho các câu hỏi do Garante đặt ra.
Mira Murati, Giám đốc công nghệ OpenAI, nói với Reuters rằng công ty tuân thủ luật riêng tư của châu Âu và đang làm việc để đảm bảo với các cơ quan quản lý. Bà cho biết các tính năng mới không phát sinh từ lệnh cấm ChatGPT của Ý, mà là từ nỗ lực kéo dài nhiều tháng nhằm đưa người dùng "vào vị trí người điều khiển" liên quan đến việc thu thập dữ liệu.
"Chúng tôi sẽ ngày càng di chuyển nhiều hơn theo hướng ưu tiên quyền riêng tư của người dùng, với mục tiêu là hoàn toàn tách biệt và các mô hình phải hoạt động theo cách bạn muốn", Mira Murati lý giải.
Theo Mira Murati, thông tin người dùng giúp OpenAI làm cho phần mềm của mình đáng tin cậy hơn và giảm sự thiên vị chính trị, trong số các vấn đề khác nhưng công ty vẫn còn những thách thức cần giải quyết.
Phiên bản ChatGPT được phát hành hôm 25.4 cho phép người dùng tắt Chat History & Training (Lịch sử trò chuyện & Huấn luyện) trong cài đặt và phần xuất dữ liệu của họ.
Nicholas Turley, trưởng phòng sản phẩm OpenAI, ví điều này với chế độ ẩn danh của trình duyệt web. Ông cho biết công ty vẫn sẽ lưu giữ các cuộc hội thoại trong 30 ngày để theo dõi việc lạm dụng trước khi xóa chúng vĩnh viễn.
Thêm vào đó, phiên bản ChatGPT dành cho doanh nghiệp sẽ được cung cấp trong những tháng tới và không sử dụng các cuộc trò chuyện để huấn luyện mô hình AI theo mặc định.
Đầu tư hàng tỉ USD vào OpenAI, Microsoft đã cung cấp ChatGPT cho các doanh nghiệp. Mira Murati nói dịch vụ đó sẽ thu hút các khách hàng hiện tại của Microsoft.