OpenAI vừa khôi phục quyền truy cập chatbot ChatGPT cho người dùng Ý sau khi đã giải quyết những lo ngại do cơ quan bảo vệ dữ liệu của nước này đưa ra.
Cơ quan bảo vệ dữ liệu của Ý (Garante) đã thực hiện cuộc điều tra về các kỹ thuật được sử dụng để thu thập thông tin cá nhân của người dùng, với lý do thiếu cơ sở pháp lý biện minh cho việc tổng hợp và lưu trữ dữ liệu người dùng để huấn luyện các thuật toán cho ChatGPT.
Garante cũng viện dẫn những lo ngại về việc không có bộ lọc để đảm bảo rằng những người tương tác với ChatGPT đều trên 13 tuổi.
Được hỗ trợ bởi Microsoft, OpenAI vô hiệu quyền truy cập ChatGPT với người dùng Ý hôm 31.3.
Generative AI của OpenAI đã khơi dậy sự phấn khích kể từ khi ChatGPT ra mắt và thành công hơn mong đợi, trở thành ứng dụng tiêu dùng phát triển nhanh nhất lịch sử. Điều này đã kích hoạt cuộc đua giữa các hãng công nghệ lớn để tích hợp generative AI vào sản phẩm và công cụ của họ.
Generative AI là một loại trí tuệ nhân tạo mà máy tính được lập trình để tự động tạo ra nội dung mới, như văn bản, hình ảnh, âm thanh và video. Nó khác với các hệ thống AI khác như máy học sâu (deep learning) hoặc học máy (machine learning) trong việc dự đoán kết quả từ dữ liệu đã có sẵn. Thay vì dựa trên dữ liệu huấn luyện, hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn.
Hôm 28.4, OpenAI cho biết đã đăng lời giải thích về cách thu thập và sử dụng dữ liệu huấn luyện, đồng thời cung cấp khả năng hiển thị tốt hơn cho các chính sách quyền riêng tư và biểu mẫu cho phép người dùng từ chối hoặc rút lại sự đồng ý về việc sử dụng dữ liệu cá nhân.
Công ty có trụ sở ở thành phố San Francisco (Mỹ) cũng thêm một biểu mẫu mới cho những người ở Liên minh châu Âu (EU) muốn phản đối việc sử dụng dữ liệu cá nhân của họ để huấn luyện các chương trình AI, cũng như một công cụ để xác minh độ tuổi ở Ý khi khách hàng đăng ký.
“Chúng tôi đánh giá cao sự hợp tác của Garante và mong đợi các cuộc thảo luận mang tính xây dựng đang diễn ra”, OpenAI cho biết trong một tuyên bố.
Theo trang Bloomberg, các nhà điều hành tại Ý xác nhận trong một tuyên bố rằng đã cho phép truy cập ChatGPT ở nước này.
Trước đó, hôm 12.4, Garante đã công bố danh sách các yêu cầu mà ChatGPT phải đáp ứng để được hoạt động tại nước này.
Garante yêu cầu OpenAI phải thông báo với người dùng về “phương pháp và logic” đứng sau việc xử lý dữ liệu của ChatGPT. Ngoài ra, Garante cũng yêu cầu OpenAI cung cấp công cụ để cho phép mọi người, dù họ có dùng ChatGPT hay không, được yêu cầu hiệu chỉnh dữ liệu cá nhân không chính xác hoặc xóa dữ liệu.
Theo Garante, OpenAI cũng nên cho phép những ai không phải người dùng dễ dàng phản đối xử lý dữ liệu cá nhân của họ để đào tạo thuật toán. Công ty khởi nghiệp Mỹ cũng cần giới thiệu hệ thống xác thực độ tuổi trước cuối tháng 9, loại trừ khả năng truy cập của người dưới 13 tuổi.
Garante sẽ tiếp tục điều tra các vi phạm quy định bảo vệ dữ liệu nếu có, bảo lưu quyền áp đặt bất kỳ biện pháp nào cần thiết vào giai đoạn cuối cuộc điều tra.
Hôm 25.4, OpenAI đang giới thiệu “chế độ ẩn danh" cho ChatGPT, không lưu lại lịch sử cuộc trò chuyện của người dùng hoặc sử dụng chúng để cải thiện AI.
OpenAI cũng lên kế hoạch cho phiên bản ChatGPT Business với tính năng điều khiển dữ liệu bổ sung. Tính năng này có thể sẽ được cung cấp cho các doanh nghiệp hoặc tổ chức sử dụng ChatGPT để tương tác với khách hàng hoặc người dùng của họ.
Ngoài ra, tính năng đó cũng có thể cho phép nhà quản lý doanh nghiệp kiểm soát quyền truy cập vào dữ liệu người dùng, quản lý quyền riêng tư, hoặc theo dõi các cuộc trò chuyện để đảm bảo tuân thủ các quy định và chính sách của doanh nghiệp
Động thái trên diễn ra khi sự chú ý ngày càng tăng về cách ChatGPT và các chatbot AI khác quản lý dữ liệu hàng trăm triệu người dùng, thường được sử dụng để cải thiện hoặc huấn luyện AI.
OpenAI phải tuân thủ luật bảo vệ dữ liệu của EU sau lệnh cấm tạm thời ở Ý và hàng loạt cuộc điều tra từ các quốc gia khác. Nếu không thành công, OpenAI có thể bị phạt nặng, buộc phải xóa dữ liệu hoặc thậm chí bị cấm.
Các chuyên gia nói với trang MIT Technology Review rằng OpenAI gần như không thể tuân thủ các quy tắc này, do dữ liệu được sử dụng để huấn luyện các mô hình AI thu thập từ nội dung trên internet.
Trong quá trình phát triển AI, mô hình phổ biến nhất là càng nhiều dữ liệu huấn luyện càng tốt. Mô hình GPT-2 của OpenAI có một bộ dữ liệu bao gồm 40 GB văn bản. GPT-3, mô hình ngôn ngữ lớn để ChatGPT hoạt động, được huấn luyện trên 570 GB dữ liệu. OpenAI đã không chia sẻ kích thước bộ dữ liệu cho mô hình ngôn ngữ lớn mới nhất là GPT-4.
Tuy nhiên, sự khát khao của OpenAI về các mô hình lớn hơn khiến công ty trả giá. Vài tuần qua, một số cơ quan bảo vệ dữ liệu phương Tây đã bắt đầu điều tra cách OpenAI thu thập và xử lý dữ liệu để cung cấp sức mạnh cho ChatGPT. Họ tin rằng OpenAI thu thập dữ liệu cá nhân của nhiều người, chẳng hạn tên hoặc địa chỉ email, rồi sử dụng mà không có sự đồng ý của họ.
Nếu OpenAI không thể thuyết phục các nhà chức trách rằng các hoạt động sử dụng dữ liệu của họ là hợp pháp, ChatGPT có thể bị cấm ở một số quốc gia cụ thể hoặc thậm chí là toàn EU.
Sau Ý, các cơ quan quản lý dữ liệu của Pháp, Đức, Iceland cũng đang điều tra cách OpenAI thu thập và sử dụng dữ liệu.
Ủy ban bảo vệ dữ liệu châu Âu thành lập một lực lượng đặc nhiệm trên toàn EU để điều phối các cuộc điều tra và thực thi xung quanh ChatGPT.
Tổ chức Người tiêu dùng châu Âu (BEUC) cũng kêu gọi các cơ quan bảo vệ người tiêu dùng EU điều tra ChatGPT và các chatbot AI khác về khả năng gây hại cho các cá nhân.
BEUC, nhóm bảo trợ cho 46 tổ chức người tiêu dùng từ 32 quốc gia, đã bày tỏ lo lắng của mình trong bức thư riêng gửi tới mạng lưới các cơ quan an toàn người tiêu dùng (mạng CSN) và mạng lưới các cơ quan bảo vệ người tiêu dùng (mạng CPC).
BEUC cho biết nội dung do chatbot tạo ra có vẻ đúng và đáng tin cậy nhưng thường không chính xác trên thực tế, có thể đánh lừa người tiêu dùng và cũng dẫn đến quảng cáo gian lận. Theo BEUC, người tiêu dùng nhỏ tuổi và trẻ em dễ bị rủi ro như vậy hơn.
"Do đó, BEUC yêu cầu bạn điều tra những rủi ro mà các hệ thống AI này gây ra cho người tiêu dùng như một vấn đề cấp bách, để xác định sự hiện diện của chúng trên thị trường tiêu dùng và khám phá hành động khắc phục nào phải được thực hiện để tránh gây hại cho người tiêu dùng", Ursula Pachl, Phó tổng giám đốc BEUC, viết trong thư gửi mạng CPC và Ủy ban châu Âu.
BEUC cũng kêu gọi Mạng lưới An toàn Người tiêu dùng bắt đầu trao đổi thông tin và điều tra về các rủi ro an toàn của các sản phẩm này.
Alexis Leautier, chuyên gia AI tại Cơ quan bảo vệ dữ liệu của Pháp (CNIL), nói OpenAI phải đối mặt với những khoản phạt tiền nặng, thậm chí có thể bị buộc phải xóa các mô hình và dữ liệu được sử dụng để huấn luyện chúng.