Hội đồng giám sát Meta xem xét việc xử lý 2 ảnh khiêu dâm giả mạo người nổi tiếng do AI tạo
Nhịp đập khoa học - Ngày đăng : 22:08, 16/04/2024
Hội đồng giám sát Meta xem xét việc xử lý 2 ảnh khiêu dâm giả mạo người nổi tiếng do AI tạo
Hội đồng giám sát Meta Platforms đang xem xét cách công ty xử lý hai hình ảnh khiêu dâm giả mạo hai người phụ nữ nổi tiếng do trí tuệ nhân tạo (AI) tạo ra lưu hành trên Facebook và Instagram, Reuters đưa tin hôm 16.4.
Hội đồng giám sát này được tài trợ bởi Meta Platforms (công ty mẹ Facebook và Instagram) nhưng hoạt động độc lập với nó. Họ sẽ sử dụng hai ví dụ để đánh giá hiệu quả tổng thể các chính sách và cách thực thi của Meta Platforms với nội dung khiêu dâm giả được tạo bằng AI.
Người phát ngôn Hội đồng giám sát của Meta Platforms cho biết họ cung cấp mô tả về hai hình ảnh được đề cập nhưng không tiết lộ danh tính hai người phụ nữ nổi tiếng trong đó để “ngăn chặn các tác hại thêm”.
Những tiến bộ trong công nghệ AI đã khiến chúng ta hầu như không thể phân biệt được hình ảnh, file âm thanh và video giả với nội dung thực do con người tạo. Điều này dẫn đến sự lan truyền ảnh và video khiêu dâm giả trên mạng, chủ yếu về phái yếu.
Trong một trường hợp vào đầu năm nay, nền tảng truyền thông xã hội X thuộc sở hữu của Elon Musk đã nhanh chóng chặn người dùng tìm kiếm tất cả hình ảnh Taylor Swift sau khi gặp khó khăn để kiểm soát sự lan truyền những ảnh khiêu dâm giả mạo nữ ngôi sao nhạc pop người Mỹ này.
Một số nhà quản lý trong ngành đã kêu gọi ban hành luật hình sự hóa việc tạo ra deepfake có hại và yêu cầu các hãng công nghệ ngăn chặn việc sử dụng sản phẩm của họ cho mục đích như vậy.
Deepfake là một từ ghép của deep learning (học sâu) và fake (giả mạo), thường chỉ công nghệ sử dụng AI và học sâu để tạo ra hoặc chỉnh sửa nội dung video và âm thanh sao cho giống người thật. Cụ thể hơn, deepfake thường được sử dụng để thay đổi gương mặt và giọng điệu của các người nổi tiếng trong ảnh và video hoặc tạo ra nội dung giả mạo trong các tình huống hoặc hành động mà họ không thực sự tham gia.
Deepfake đã trở thành một vấn đề nghiêm trọng trong thế giới truyền thông và giải trí, vì được sử dụng để tạo ra thông tin sai lệch, lừa dối người xem hoặc xâm phạm quyền riêng tư của người khác.
Theo mô tả từ hội đồng giám sát Meta Platforms, một trường hợp liên quan đến hình ảnh do AI tạo ra về một phụ nữ khỏa thân giống nhân vật công chúng Ấn Độ. Nó được đăng bởi một tài khoản Instagram chuyên chia sẻ hình ảnh do AI tạo về phụ nữ Ấn Độ. Hội đồng giám sát cho biết hình ảnh còn lại xuất hiện trong một nhóm Facebook, chuyên chia sẻ các sản phẩm được tạo bằng AI. Ảnh này do AI tạo ra về một phụ nữ khỏa thân giống nhân vật công chúng Mỹ với một người đàn ông sờ ngực cô.
Meta Platforms đã xóa hình ảnh mô tả người phụ nữ Mỹ vì vi phạm chính sách bắt nạt và quấy rối, trong đó cấm "các bức vẽ hoặc ảnh Photoshop khiêu dâm mang tính chất xúc phạm", nhưng ban đầu vẫn để lại ảnh có người phụ nữ Ấn Độ và chỉ đảo ngược hướng đi sau khi hội đồng giám sát chọn nó để xem xét.
Trong một bài viết riêng, Meta Platforms thừa nhận có hai trường hợp này và cam kết thực hiện các quyết định của hội đồng giám sát.
Hôm 5.4, Meta Platforms cho biết sẽ bắt đầu dán nhãn các nội dung do AI tạo ra từ tháng 5 tới. Đây được coi là nỗ lực của hãng nhằm trấn an người dùng và chính phủ các nước về những rủi ro từ deepfake.
Cụ thể, những video, âm thanh và hình ảnh do AI tạo ra hoặc thay đổi nội dung sẽ được Meta Platforms dán nhãn "tạo bởi AI" để phân biệt với những sản phẩm khác. Ngoài ra, gã khổng lồ truyền thông xã hội Mỹ cũng sẽ dán nhãn nổi bật cho những nội dung có nguy cơ cao dễ gây hiểu lầm trong cộng đồng.
Trong một chia sẻ về vấn đề này, bà Monika Bickert (Phó giám đốc về chính sách nội dung của Meta Platforms) nói các nhãn nội dung nói trên sẽ giải quyết mọi lo ngại đã được hội đồng giám sát Meta Platforms đưa ra trước đó về việc cần xem xét lại cách tiếp cận với những nội dung bị chi phối bởi AI, đặc biệt trong bối cảnh ngày càng có nhiều lo ngại về việc lạm dụng các ứng dụng AI để tạo ra các thông tin sai lệch trong năm bầu cử quan trọng ở Mỹ và nhiều quốc gia khác.
Trước đó, Meta Platforms, Google và OpenAI đã đồng ý cùng sử dụng một tiêu chuẩn chung để dán nhãn nội dung do AI tạo hoặc thay đổi nhằm minh bạch hóa thông tin, đối phó tình trạng nội dung qua chỉnh sửa đánh lừa cử tri trước thềm bầu cử Tổng thống Mỹ.
Nicolas Gaudemet, Giám đốc điều hành One point - công ty cung cấp phần mềm quản lý hoạt động doanh nghiệp, nhận xét: “Thực hiện dán nhãn nội dung AI tốt hơn là không làm gì, nhưng chắc chắn có lỗ hổng. Chẳng hạn, phần mềm nguồn mở không bao giờ dùng biểu tượng mờ ẩn như các công ty lớn uy tín”.
Dù chuẩn bị thực thi chính sách mới, Meta Platforms vẫn cam kết xóa nội dung đã qua chỉnh sửa vi phạm quy định như mang ngôn từ kích động hoặc tác động đến cử tri.
Deepfake đang là vấn đề nhức nhối. Cùng với sự phát triển của công nghệ, âm thanh hay hình ảnh deepfake không còn thô thiển, cứng ngắc dễ nhận biết mà ngày càng tinh vi, giống hệt, đặt ra thách thức lớn cho nỗ lực chống thông tin xấu độc cũng như hành vi lừa đảo.
Thời gian qua đã xuất hiện deepfake về Tổng thống Mỹ Joe Biden, giả giọng ông kêu gọi người dân không tham gia cuộc bỏ phiếu sơ bộ tại bang New Hamshire, hay video qua chỉnh sửa cho thấy ông sàm sỡ phụ nữ.
Tại Pakistan, đảng của cựu Thủ tướng Imran Khan sử dụng AI tạo ra nhiều bài phát biểu dù chính trị gia này đang ngồi tù.
Trước thềm tổng tuyển cử Ấn Độ, nhiều chính đảng không ngần ngại dùng nội dung AI vận động tranh cử.
Giữa tháng 2, một nhóm gồm 20 hãng công nghệ đã đồng ý hợp tác để ngăn chặn nội dung lừa đảo do AI tạo ra can thiệp vào các cuộc bầu cử trên toàn cầu trong năm 2024.
Reuters đưa tin các bên đã ký kết hiệp định công nghệ, được công bố tại Hội nghị An ninh Munich (Đức), gồm cả các công ty đang xây dựng các mô hình AI tạo sinh được sử dụng để tạo nội dung như OpenAI, Microsoft và Adobe. Các bên ký kết khác là nền tảng truyền thông xã hội sẽ phải đối mặt với thách thức loại bỏ nội dung có hại khỏi trang web của họ, chẳng hạn Meta Platforms, TikTok và X (trước đây gọi là Twitter).
Thỏa thuận gồm các cam kết hợp tác phát triển công cụ phát hiện hình ảnh, video và âm thanh gây hiểu lầm do AI tạo ra, tạo các chiến dịch nâng cao nhận thức của cộng đồng nhằm hướng dẫn cử tri về nội dung lừa đảo và thực hiện hành động với nội dung đó trên dịch vụ của họ.
Các hãng cho biết công nghệ để xác định nội dung do AI tạo hoặc xác nhận nguồn gốc của nó có thể gồm cả hình mờ hoặc nhúng siêu dữ liệu.
Hiệp định không nêu rõ thời gian thực hiện các cam kết hoặc cách mỗi công ty sẽ thực hiện chúng.
Nick Clegg, Chủ tịch phụ trách các vấn đề toàn cầu của Meta Platforms, nhận xét: “Điều tôi nghĩ là hữu ích ở đây là sự đa dạng của các công ty tham gia ký kết hiệp định. Việc các nền tảng riêng lẻ phát triển các chính sách phát hiện, nguồn gốc, dán nhãn, đánh dấu bản quyền,... là điều tốt, nhưng nếu không có một cam kết rộng hơn để thực hiện chúng theo cách liên kết hoạt động chung, thì chúng ta sẽ bị mắc kẹt với mớ hỗn độn các cam kết khác nhau”.
2024 là năm của những cuộc bầu cử. Hơn 30 quốc gia, với tổng dân số hơn 4 tỉ người, sẽ chứng kiến người dân của họ đi bỏ phiếu. Lần gần đây nhất mà nhiều quốc gia tham gia bầu cử, chatbot AI đình đám ChatGPT của OpenAI vẫn chưa tồn tại.