Một vụ lừa đảo ở miền bắc Trung Quốc bằng công nghệ deepfake tinh vi, trong đó nạn nhân đã chuyển 4,3 triệu nhân dân tệ cho thủ phạm. Vụ việc làm dấy lên lo ngại về tiềm năng của các kỹ thuật trí tuệ nhân tạo (AI) trong việc hỗ trợ tội phạm tài chính.
Trung Quốc đã thắt chặt giám sát các công nghệ và ứng dụng như vậy trong bối cảnh gia tăng số vụ lừa đảo dựa trên AI, chủ yếu liên quan đến việc làm giả dữ liệu giọng nói và khuôn mặt. Hồi tháng 1, Trung Quốc đã áp đặt các quy định mới để bảo vệ pháp lý cho những nạn nhân gặp rủi ro.
Cảnh sát thành phố Bao Đầu, khu vực Nội Mông, Trung Quốc cho biết thủ phạm đã sử dụng công nghệ hoán đổi khuôn mặt (deepfake) do AI cung cấp để đóng giả bạn của nạn nhân trong cuộc gọi video và nhận chuyển khoản 4,3 triệu nhân dân tệ (622.000 USD hay 14,58 tỉ đồng).
Anh ta chuyển tiền với niềm tin rằng bạn của mình cần để đặt cọc trong quá trình đấu thầu, cảnh sát thành phố Bao Đầu cho biết. Nạn nhân chỉ nhận ra mình bị lừa sau khi người bạn thật sự không biết gì về tình huống này. Cảnh sát nói đã thu hồi được hầu hết số tiền anh bị lừa và đang làm việc để tìm ra phần còn lại.
Vụ việc dẫn đến cuộc thảo luận trên mạng xã hội Weibo về mối đe dọa với quyền riêng tư và bảo mật trực tuyến, với hashtag #AI scams are exploding across the country (Lừa đảo AI đang gia tăng trên cả nước) nhận được hơn 120 triệu lượt xem vào ngày 22.5.
"Điều này cho thấy rằng tất cả ảnh, giọng nói và video đều có thể được sử dụng bởi những kẻ lừa đảo. Các quy tắc bảo mật thông tin có thể theo kịp các kỹ thuật của kẻ lừa đảo không?", một người dùng Weibo viết.
Cách đây 2 tuần, cảnh sát Trung Quốc đã lần đầu tiến hành bắt giữ công khai người lạm dụng ChatGPT, 5 tháng sau khi chatbot AI của OpenAI (Mỹ) trở nên phổ biến vì khả năng tạo ra văn bản giống con người.
Theo trang Insider, người đàn ông họ Hong bị buộc tội sử dụng ChatGPT để tạo ra tin tức giả về “vụ tai nạn tàu hỏa nghiêm trọng khiến 9 người thiệt mạng ở tỉnh Cam Túc, phía tây bắc Trung Quốc”. Cảnh sát quận Không Đồng (tỉnh Cam Túc) vừa cho biết thông tin này trên tài khoản WeChat chính thức. Cảnh sát cho thấy vụ bắt giữ Hong thông qua một loạt ảnh trong bài đăng trên WeChat.
Đây là vụ bắt giữ đầu tiên kể từ khi quy định mới về deepfake của Trung Quốc có hiệu lực vào tháng 1. Luật này nhằm ngăn chặn việc lạm dụng công nghệ có thể thay đổi dữ liệu khuôn mặt và giọng nói.
Trong khi ChatGPT bị chặn ở Trung Quốc, vẫn có cách để để truy cập chatbot này như sử dụng mạng riêng ảo (VPN).
Đơn vị cảnh sát an ninh mạng địa phương đã được thông báo về bài viết “vụ tai nạn tàu hỏa nghiêm trọng” (xuất bản vào ngày 25.4), sau đó thực hiện cuộc điều tra về vấn đề này.
Cảnh sát đã phát hiện ra 21 tài khoản dạng blog trên công cụ tìm kiếm Baidu đã xuất bản tin giả đó đồng thời với nội dung tương tự tại các địa điểm khác nhau. Khi đó, những bài đăng này đã được xem hơn 15.000 lần, theo cảnh sát tỉnh Cam Túc.
Cảnh sát an ninh mạng Cam Túc tìm ra các bài đăng giả mạo liên kết với một công ty do Hong điều hành, đăng ký tại thành phố Thâm Quyến - trung tâm công nghệ phía nam Trung Quốc.
Hong sau đó thừa nhận anh đã sử dụng ChatGPT để tạo tin giả về "vụ tai nạn tàu hỏa nghiêm trọng" trước khi đăng chúng lên mạng, theo cảnh sát Cam Túc.
Anh ta đang bị giam giữ vì bi nghi có hành vi "chống đối và gây rối", tội danh có mức án tù tối đa là 10 năm. Theo bài đăng trên WeChat của cảnh sát Tân Cương, cuộc điều tra đang tiếp tục diễn ra.
Hồi tháng 2, cảnh sát Bắc Kinh (thủ đô Trung Quốc) đã khuyên người dân cảnh giác với tin đồn do ChatGPT tạo ra. Đó là một trong những bình luận đầu tiên mà bộ máy an ninh Trung Quốc đưa ra về chatbot AI của OpenAI.
“ChatGPT thú vị và đã lan truyền gần đây, nhưng hãy cẩn thận rằng những kẻ xấu có thể sử dụng điều này để phạm tội và lan truyền tin đồn. Các viện nghiên cứu đã thử nghiệm và phát hiện ra rằng khi được hỏi những câu hỏi liên quan đến âm mưu và gây hiểu lầm, ChatGPT có thể nhanh chóng tạo ra thông tin hấp dẫn mà không trích dẫn nguồn”, theo bài đăng trên tài khoản WeChat chính thức của Cục Công an thành phố Bắc Kinh. Bài đăng không đưa ra bất kỳ ví dụ cụ thể nào về những tin đồn mà cảnh sát lo ngại.
Tại thành phố Hàng Châu (tỉnh Chiết Giang, Trung Quốc), ChatGPT đã bị đổ lỗi cho việc truyền bá thông tin sai lệch.
Hôm 17.2, cơ quan truyền thông có trụ sở tại Chiết Giang công bố trường hợp liên quan đến một cư dân Hàng Châu đã sử dụng ChatGPT để tạo bài đăng giống như thông báo từ chính quyền thành phố, nói rằng họ sẽ dỡ bỏ các hạn chế lái xe dựa trên biển số chẵn và lẻ, biện pháp mà nhiều thành phố ở Trung Quốc đã thực hiện để giảm tắc nghẽn giao thông.
Bài viết cho biết người dân thấy thông báo của ChatGPT rất thú vị và sau đó chia sẻ nó trong nhiều nhóm mạng xã hội.
Người đăng tin giả đã xin lỗi các thành viên khác trong nhóm WeChat: “Tôi nhận ra hành động của mình đã gây bất tiện cho chính quyền”, theo một ảnh chụp màn hình được công bố cùng với bài viết.
Theo The Paper (hãng tin có trụ sở tại thành phố Thượng Hải), cảnh sát ở Hàng Châu đã điều tra vụ việc sau đó.
Cảnh sát Bắc Kinh cảnh báo rằng OpenAI không cung cấp bất kỳ dịch vụ nào hoặc ủy quyền cho bất kỳ công ty nào vận hành ChatGPT ở Trung Quốc. Họ cảnh báo công chúng nên hết sức thận trọng vì chatbot này có thể mang thông tin sai lệch và gây mối lo ngại về an ninh quốc gia.
Cảnh sát Bắc Kinh cho biết ngày càng có nhiều sản phẩm kỹ thuật số ở Trung Quốc bắt chước ChatGPT, dụ người dùng sử dụng dịch vụ rồi tính phí cao, trong khi các vụ lừa đảo khác liên quan đến tội phạm nước ngoài sử dụng AI để tạo email lừa đảo nhằm gây hại cho người dùng Trung Quốc.
ChatGPT đã gây bão trên toàn thế giới, châm ngòi cho một cuộc đua AI toàn cầu khi các hãng công nghệ Trung Quốc đổ xô xây dựng và tung ra các dịch vụ tương tự ChatGPT.
Giống như hầu hết sản phẩm internet không thuộc Trung Quốc, ChatGPT không điều chỉnh các cuộc thảo luận chính trị theo quan điểm của Bắc Kinh.
Nhận diện cuộc gọi lừa đảo deepfake: Kết nối kém, âm thanh chập chờn
Đầu tháng 5, Trung tâm Giám sát an toàn không gian mạng quốc gia Việt Nam (NCSC) thuộc Cục An toàn thông tin (Bộ TT-TT) cảnh báo việc thực hiện cuộc gọi lừa đảo trực tuyến deepfake. Kẻ xấu sử dụng AI để tạo ra những video hoặc hình ảnh giả, sao chép chân dung tạo ra đoạn video giả người thân, bạn bè để thực hiện các cuộc gọi lừa đảo.
Deepfake đang là mối đe dọa với sự trung thực và tin cậy của video và hình ảnh. Nó có thể được sử dụng không chỉ để lừa đảo trực tuyến mà còn cho các mục đích khác như tạo ra những tin tức giả mạo hoặc phá hoại danh tiếng của người khác…
Các chuyên gia NCSC cho biết các yếu tố bất thường cần được lưu tâm chính là thời gian cuộc gọi, khuôn mặt, màu da, âm thanh, kết nối kém. Đó đều là dấu hiệu của depfake.
Cụ thể, thời gian của các cuộc gọi deepfake thường rất ngắn, chỉ vài giây. Khuôn mặt của người gọi thiếu tính cảm xúc và khá “trơ” khi nói hoặc tư thế trông lúng túng, không tự nhiên, hoặc hướng đầu và cơ thể của họ trong video không nhất quán với nhau…
Ngoài ra, màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí, video trông rất giả tạo và không tự nhiên.
“Âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào video hoặc video không có âm thanh”, NCSC phân tích.
Theo đó, các chuyên gia đề nghị người dân cần cảnh giác và tuyệt đối bình tĩnh. Việc phát hiện và ngăn chặn các cuộc gọi deepfake là cực kỳ quan trọng bởi chúng có thể gây ra những hậu quả nghiêm trọng như mất thông tin cá nhân, tiền bạc và danh tiếng.