Nhiều người dùng chatbot đồng hành ảo Replika muốn có một người bạn để trò chuyện. Một số người trong số họ lại muốn mối quan hệ tình cảm, trò chuyện tình dục hoặc những bức ảnh nóng bỏng từ chatbot của họ.

Lệnh cấm với Replika có thể khơi mào các quy tắc kiểm soát ChatGPT và các chatbot AI

Sơn Vân | 12/02/2023, 19:36

Nhiều người dùng chatbot đồng hành ảo Replika muốn có một người bạn để trò chuyện. Một số người trong số họ lại muốn mối quan hệ tình cảm, trò chuyện tình dục hoặc những bức ảnh nóng bỏng từ chatbot của họ.

Song vào cuối năm 2022, người dùng bắt đầu phàn nàn rằng Replika trở nên quá khích với các tin nhắn và hình ảnh tục tĩu. Một số người cáo buộc Replika quấy rối tình dục.

Các nhà quản lý ở Ý không thích những gì họ thấy và tuần trước đã cấm công ty thu thập dữ liệu sau khi phát hiện vi phạm Quy định bảo vệ dữ liệu chung (GDPR). GDPR là luật bảo vệ dữ liệu lớn châu Âu.

Cụ thể hơn, ngày 3.2, Cơ quan Bảo vệ dữ liệu của Ý thông báo đã cấm chatbot Replika sử dụng các dữ liệu cá nhân của công dân nước này, do lo ngại rằng điều này có thể gây rủi ro cho trẻ vị thành niên và những người dễ bị tổn thương tinh thần.

Do công ty Luka (Mỹ) xây dựng vào năm 2017, Replika là chatbot đồng hành - người bạn ảo được xây dựng dựa trên AI, để có thể lắng nghe và trò chuyện cùng người dùng.

Replika là chatbot được ưa chuộng nhất trong thế giới những người bạn ảo nói tiếng Anh. Tuy được cung cấp miễn phí, Replika vẫn mang về khoảng 2 triệu USD doanh thu hàng tháng từ việc bán các tính năng bổ sung như trò chuyện bằng giọng nói.

lenh-cam-voi-replika-co-the-khoi-mao-cac-quy-tac-kiem-soat-chatgpt-1.jpg
lenh-cam-voi-replika-co-the-khoi-mao-cac-quy-tac-kiem-soat-chatgpt.jpg
Replika phục vụ cho những người dùng muốn có một mối quan hệ lãng mạn ảo, trò chuyện tình dục hoặc thậm chí là những bức ảnh không phù hợp về chatbot của họ - Ảnh: Handout

Dù Replika có thể giúp cải thiện tâm trạng của người dùng, song theo Cơ quan Bảo vệ dữ liệu của Italy, với việc đi sâu vào đời sống người dùng, chatbot này "có thể làm gia tăng rủi ro cho các cá nhân đang trong giai đoạn phát triển hoặc trong trạng thái mong manh về cảm xúc".

Cơ quan trên cũng cho rằng Replika cần thiết lập cơ chế xác minh độ tuổi của người dùng, chẳng hạn cần tạo bộ lọc với người dùng là trẻ vị thành niên hoặc thậm chí chặn truy cập nếu người dùng không nói rõ tuổi của họ. Replika đã vi phạm các quy định về quyền riêng tư tại châu Âu và xử lý dữ liệu cá nhân của người dùng một cách bất hợp pháp, vì nó không thể hoạt động dựa trên một hợp đồng mà trẻ vị thành niên không thể ký kết.

Cơ quan bảo vệ dữ liệu của Ý nêu rõ Luka sẽ phải thông báo với nhà chức trách nước này về các biện pháp "chấn chỉnh" Replika trong vòng 20 ngày, đồng thời cảnh báo Luka có thể bị phạt tới 20 triệu euro (khoảng 21,80 triệu USD), hoặc tối đa 4% doanh thu toàn cầu hàng năm liên quan những vấn đề nêu trên.

Luka chưa đưa ra bình luận gì công khai và không trả lời tin nhắn của hãng tin AFP về vấn đề trên.

GDPR là nguyên nhân các hãng công nghệ lớn có nhiều lần vi phạm quy tắc khiến họ bị phạt hàng tỉ USD. Quyết định của Ý cho thấy GDPR vẫn có thể là mối lo với thế hệ chatbot mới nhất.

Replika đã được đào tạo dựa trên phiên bản nội bộ của mô hình GPT-3 mượn từ OpenAI, công ty đứng sau chatbot ChatGPT, sử dụng kho dữ liệu khổng lồ từ internet trong các thuật toán, sau đó tạo ra các phản hồi riêng cho các truy vấn từ người dùng.

Những bot này cùng generative AI làm nền tảng cho chúng hứa hẹn sẽ cách mạng hóa tìm kiếm trên internet và hơn thế nữa. Generative AI đề cập đến các thuật toán trí tuệ nhân tạo có thể được sử dụng để tạo nội dung mới, bao gồm văn bản, âm thanh, hình ảnh, video và mô phỏng.

Thế nhưng, các chuyên gia cảnh báo rằng có rất nhiều điều khiến các nhà quản lý phải lo lắng, đặc biệt là khi các bot trở nên tốt đến mức không thể phân biệt chúng với con người.

Ngay bây giờ, Liên minh châu Âu (EU) là trung tâm thảo luận về quy định của các bot mới này. Đạo luật AI của EU đã đi qua các hành lang quyền lực nhiều tháng và có thể được hoàn thiện trong năm 2023.

Thế nhưng, GDPR đã bắt buộc các công ty phải chứng minh cách họ xử lý dữ liệu và các mô hình AI đang nằm trong tầm ngắm của các cơ quan quản lý châu Âu.

Chúng tôi đã thấy rằng ChatGPT có thể được sử dụng để tạo ra các tin nhắn lừa đảo rất thuyết phục”, Bertrand Pailhes, người điều hành một nhóm AI chuyên dụng tại Cơ quan quản lý dữ liệu Cnil của Pháp, nói với AFP.

Ông cho biết generative AI không hắn là rủi ro lớn, nhưng Cnil đã xem xét các vấn đề tiềm ẩn bao gồm cả cách các mô hình AI sử dụng dữ liệu cá nhân.

Luật sư Dennis Hillemann (người Đức), chuyên gia trong lĩnh vực này, cho biết: “Tại một thời điểm nào đó, chúng ta sẽ thấy sự căng thẳng cao độ giữa GDPR và các mô hình generative AI”.

Dennis Hillemann nói các chatbot mới nhất hoàn toàn khác với loại thuật toán AI đề xuất video trên TikTok hoặc cụm từ tìm kiếm trên Google.

Ông nói: “Ví dụ, AI do Google tạo ra đã có một trường hợp sử dụng cụ thể – hoàn thành tìm kiếm của bạn”.

Song với generative AI, người dùng có thể định hình toàn bộ mục đích của bot.

Nếu đủ thông minh để vượt qua tất cả biện pháp bảo vệ trong ChatGPT, tôi có thể nói: Hãy hành động như kẻ khủng bố và lập một kế hoạch”, Dennis Hillemann cho hay.

Với Dennis Hillemann, điều đó đặt ra một câu hỏi cực kỳ phức tạp về đạo đức và pháp lý sẽ chỉ trở nên gay gắt hơn khi công nghệ phát triển.

Mô hình mới nhất của OpenAI, GPT-4, dự kiến sẽ sớm trình làng và được đồn đại là tốt đến mức không thể phân biệt được với con người.

Cho rằng các bot này vẫn mắc những sai lầm nghiêm trọng trên thực tế, thường thể hiện sự thiên vị và thậm chí có thể đưa ra những tuyên bố bôi nhọ, một số người đang kêu gọi kiểm soát chặt chẽ chúng.

Jacob Mchangama, tác giả cuốn sách Free Speech: A History From Socrates to Social Media (Tự do ngôn luận: Lịch sử từ Socrates đến mạng xã hội), không đồng tình với việc này.

Ông nói: “Ngay cả khi các bot không có quyền tự do ngôn luận, chúng ta vẫn phải cẩn thận về việc cho phép các chính phủ ngăn chặn ngay cả những bài phát biểu tổng hợp”.

Jacob Mchangama nằm trong số những người cho rằng một chế độ dán nhãn nhẹ nhàng hơn có thể là con đường phía trước.

Ông nói: “Từ quan điểm pháp lý, lựa chọn an toàn nhất hiện nay là thiết lập các nghĩa vụ minh bạch liên quan đến việc chúng tôi đang tương tác với một cá nhân con người hay một ứng dụng AI trong bối cảnh nhất định”.

Dennis Hillemann đồng ý rằng tính minh bạch là rất quan trọng.

Dennis Hillemann dự tính các bot AI trong vài năm tới sẽ có thể tạo ra hàng trăm bài hát mới của Elvis Presley hoặc hàng loạt Game of Thrones vô tận phù hợp với mong muốn của một cá nhân.

Ông nói: “Nếu không điều chỉnh điều đó, chúng ta sẽ bước vào một thế giới nơi chúng ta có thể phân biệt giữa những gì do con người tạo ra và những thứ được tạo bởi AI. Điều đó sẽ thay đổi sâu sắc chúng ta với tư cách là một xã hội”.

Bài liên quan
Gấp rút ra mắt dịch vụ như ChatGPT, các công ty Trung Quốc chú ý chính sách kiểm duyệt nghiêm ngặt
Các hãng công nghệ Trung Quốc đang chú ý đến chính sách kiểm duyệt trực tuyến nghiêm ngặt của đất nước khi gấp rút phát triển và trình làng các phiên bản ChatGPT riêng.

(0) Bình luận
Nổi bật Một thế giới
Tìm giải pháp đảm bảo an ninh nguồn nước vùng đồng bằng sông Cửu Long
một giờ trước Bảo vệ môi trường
Ngày 26.4, Bộ Tài nguyên và Môi trường, Trường Đại học Cần Thơ và báo Tuổi Trẻ phối hợp tổ chức hội thảo với chủ đề "Giải pháp về nguồn nước vùng đồng bằng sông Cửu Long".
Đừng bỏ lỡ
Mới nhất
POWERED BY ONECMS - A PRODUCT OF NEKO
Lệnh cấm với Replika có thể khơi mào các quy tắc kiểm soát ChatGPT và các chatbot AI