Nội dung deepfake khiêu dâm là vấn đề lớn do trí tuệ nhân tạo (AI) tạo ra.
Deepfake là một từ ghép của deep learning (học sâu) và fake (giả mạo), thường chỉ các phương pháp và công nghệ sử dụng AI và học sâu để tạo ra hoặc chỉnh sửa nội dung video và âm thanh sao cho giống người thật. Cụ thể hơn, deepfake thường được sử dụng để thay đổi gương mặt và giọng điệu của các người nổi tiếng trong video hoặc tạo ra video giả mạo họ trong các tình huống hoặc hành động mà họ không thực sự tham gia.
Deepfake đã trở thành một vấn đề nghiêm trọng trong thế giới truyền thông và giải trí, vì được sử dụng để tạo ra thông tin sai lệch, lừa dối người xem, hoặc xâm phạm quyền riêng tư của người khác.
Một nghiên cứu năm 2019 mang tên The State of Deepfakes của công ty Deep Trace cho thấy 96% video deepfake là nội dung khiêu dâm.
Henry Ajder, nhà nghiên cứu về deepfake và là đồng tác giả của nghiên cứu đó, nói với trang Insider rằng dù con số có thể đã thay đổi nhưng vấn đề vẫn nghiêm trọng như vậy.
Khi các công cụ AI như Dall-E, Stable Diffusion và Midjourney trở nên dễ tiếp cận hơn, những người có rất ít kiến thức kỹ thuật cũng có thể tạo ra các sản phẩm deepfake dễ dàng hơn.
Henry Ajder cho biết: “Tỷ lệ phần trăm hiện thấp hơn, nhưng tổng khối lượng nội dung deepfake mang tính khiêu dâm đã tăng vọt. Chúng ta đang nói về hàng triệu nạn nhân trên khắp thế giới”.
Tuy nội dung deepfake là giả nhưng sự sỉ nhục, cảm giác tổn thương, đe dọa với nạn nhân là rất thật.
BBC News đưa tin một thiếu nữ người Anh đã tự sát vào năm 2021 sau khi những hình ảnh deepfake khiêu dâm về cô được các học sinh khác trong trường tạo ra và chia sẻ trong nhóm Snapchat.
Tháng trước, nội dung deepfake khiêu dâm của Taylor Swift lan truyền trực tuyến, khiến Elon Musk phải chặn tìm kiếm về nữ siêu sao nhạc Pop trên mạng xã hội X.
Tình hình có vẻ nghiệt ngã, nhưng hiện có sẵn các công cụ và phương pháp giúp bảo vệ khỏi việc AI thao túng danh tính của bạn.
Phát hiện deepfake
Hình mờ kỹ thuật số, trong đó nội dung được dán nhãn rõ ràng là do AI tạo ra, đã được chính quyền Biden xác nhận như một giải pháp.
Các nhãn này nhằm mục đích vừa nâng cao nhận thức cộng đồng, vừa giúp các nền tảng dễ dàng thu thập và loại bỏ nội dung deepfake gây hại.
Google và Meta Platforms đều đã công bố kế hoạch bắt đầu dán nhãn nội dung do AI tạo hoặc sửa đổi bằng "thông tin xác thực kỹ thuật số" để làm rõ nguồn gốc của nội dung.
OpenAI, công ty phát triển chatbot ChatGPT và trình tạo hình ảnh DALL-E, lên kế hoạch thêm cả hình mờ trực quan và siêu dữ liệu ẩn tiết lộ lịch sử của hình ảnh, phù hợp với tiêu chuẩn của Liên minh Chứng minh và Xác thực Nội dung (C2PA).
Ngoài ra, hiện còn có các nền tảng chuyên dụng được thiết kế để kiểm tra nguồn gốc của nội dung trực tuyến. Sensity, công ty đứng sau nghiên cứu năm 2019 về deepfake, đã phát triển dịch vụ phát hiện và cảnh báo người dùng qua email khi họ đang xem nội dung có dấu vết rõ ràng của AI. Song ngay cả khi hình ảnh rõ ràng là giả, nạn nhân vẫn có thể cảm thấy mình bị tổn thương.
“Viên thuốc độc nhỏ”
Các công cụ phòng thủ giúp bảo vệ hình ảnh khỏi bị thao túng được coi là giải pháp mạnh mẽ hơn, dù chúng vẫn đang trong giai đoạn phát triển ban đầu. Các công cụ này cho phép người dùng xử lý hình ảnh của họ bằng một tín hiệu không thể nhận ra, mà khi chạy qua bất kỳ hệ thống AI nào sẽ tạo ra một mớ hỗn độn mờ ảo không thể sử dụng được.
Ví dụ: Nightshade, công cụ do các nhà nghiên cứu tại Đại học Chicago (Mỹ) phát triển, thêm các pixel vào hình ảnh. Ảnh sẽ bị hỏng khi xử lý bằng AI nhưng vẫn trông như bình thường với con người.
Ben Zhao, một trong những nhà nghiên cứu, nói với trang NPR: “Bạn có thể coi Nightshade giống như việc thêm một viên thuốc độc nhỏ vào bên trong một tác phẩm nghệ thuật theo cách cố gắng đánh lừa mô hình AI về những gì thực sự có trong hình ảnh”.
Dù được thiết kế để bảo vệ tài sản trí tuệ của nghệ sĩ nhưng công nghệ này có thể hoạt động trên mọi bức ảnh.
Henry Ajder nói: “Đó là một tuyến phòng thủ thực sự tốt cho mọi người để cảm thấy an toàn khi tải ảnh từ bữa tiệc sinh nhật của bạn bè vào cuối tuần”.
Quy định có thể tạo ra sự khác biệt
Theo hãng tin AP, ít nhất 10 bang ở Mỹ đã áp dụng hệ thống pháp lý đa dạng bảo vệ cho nạn nhân của deepfake. Thế nhưng, các vụ việc nghiêm trọng gần đây đã gia tăng áp lực lên các nhà làm luật để ngăn chặn và trừng phạt việc sử dụng AI lẫn deepfake với mục đích xấu.
Ủy ban Truyền thông Liên bang đã cấm các cuộc gọi tự động (robocall) do AI tạo ra. Động thái này diễn ra sau khi cuộc gọi tự động sử dụng âm thanh giả của Tổng thống Mỹ - Joe Biden đã lan truyền tới bang New Hampshire, kêu gọi các cử tri ủng hộ đảng Dân chủ ở nhà và không đi bỏ phiếu để lựa chọn ứng cử viên Tổng thống Mỹ của đảng này.
Nội dung cuộc gọi được ghi âm sẵn này kêu gọi người dân ở New Hampshire "để dành" lá phiếu cho đến cuộc bầu cử Tổng thống Mỹ vào tháng 11.2024 và rằng việc họ đi bỏ phiếu ngày 23.1.2024 tại bang này sẽ chỉ giúp cho nỗ lực của đảng Cộng hòa để đưa ông Donald Trump quay trở lại Nhà Trắng một lần nữa.
Nội dung ghi âm còn kêu gọi cử tri ở New Hampshire ghi tên Tổng thống Joe Biden trên các lá phiếu sẽ được phát ra trong cuộc bầu cử sơ bộ tại bang này.
Vào tháng 1.2024, một nhóm thượng nghị sĩ lưỡng đảng đã đưa ra dự luật liên bang được gọi là Đạo luật DEFIANCE cho phép nạn nhân kiện những người tạo ra và phân phối các nội dung tình dục giả mạo của họ, biến nó thành vấn đề dân sự hơn là hình sự.
Một dự luật được Hạ nghị sĩ Joe Morelle đưa ra vào tháng 5.2023 nhằm hình sự hóa việc chia sẻ nội dung deepfake vẫn chưa tiến triển.
Thế nhưng, phần lớn dự luật mới đang phải đối mặt với sự phản đối từ những người ủng hộ quyền tự do ngôn luận. Theo Henry Ajder, lý do là có người xem việc tạo ra deepfake riêng tư giống như ảo tưởng mà ai đó có thể nảy sinh trong đầu về người họ yêu thích.
Điều này ảnh hưởng đến luật ở Vương quốc Anh, nơi Đạo luật An toàn Trực tuyến đã quy định việc phân phối nội dung khiêu dâm deepfake là bất hợp pháp, nhưng việc tạo ra nó không bị cấm theo quy định hiện tại.
Theo quan điểm của Henry Ajder, dù khó truy tố nhưng việc hình sự hóa nội dung deepfake khiêu dâm vẫn là biện pháp ngăn chặn quan trọng. Ông cho biết một số người đang sử dụng các công cụ AI để tạo nội dung cho mục đích sử dụng cá nhân của riêng họ. Tuy nhiên, Henry Ajder nói thêm rằng việc đảm bảo họ nhận ra đây là hành vi phạm tội là điều quan trọng.
Các chính phủ cũng có thể gây áp lực lên hãng cung cấp công cụ tìm kiếm, nhà phát triển công cụ AI và nền tảng truyền thông xã hội mà nội dung được phân phối.
Tại Ấn Độ, một vụ bê bối nội dung deepfake khiêu dâm liên quan đến các nữ diễn viên Bollywood đã thúc đẩy chính phủ đẩy nhanh việc ban hành luật và gây áp lực lên các hãng công nghệ lớn nhằm ngăn chặn nội dung do AI tạo ra lan truyền trực tuyến.
Henry Ajder thừa nhận: “Chúng ta không nên tự dối lòng rằng có thể loại bỏ hoàn toàn vấn đề. Theo quan điểm của tôi, điều tốt nhất chúng ta có thể làm là tạo ra càng nhiều trở ngại càng tốt để mọi người phải thực sự cố ý khi cố gắng tạo ra nội dung này".