Những vụ lừa đảo tinh vi dưới sự trợ giúp của trí tuệ nhân tạo (AI) đang ngày càng nở rộ.

Cảnh báo hình thức lừa đảo bằng trí tuệ nhân tạo giả giọng người thân

Đan Thuỳ | 07/03/2023, 13:38

Những vụ lừa đảo tinh vi dưới sự trợ giúp của trí tuệ nhân tạo (AI) đang ngày càng nở rộ.

Bà Ruth Card (73 tuổi) ở Regina (Canada) vô cùng lo lắng khi nhận được cuộc gọi từ người lạ nói rằng, cháu bà, anh Brandon đang bị tạm giam, không thể liên lạc và cần tiền để được tại ngoại.

"Lúc đó tôi chỉ nghĩ rằng tôi phải giúp cháu mình bằng mọi cách", bà Card nói với Washington Post.

Bà đã cùng chồng đến ngân hàng và rút 2.207 USD, mức tối đa bà có thể rút hàng ngày. Cả hai định qua ngân hàng thứ hai để lấy số tiền tương tự. Song một vị giám đốc ngân hàng đã gọi cả hai vào văn phòng và cho biết: một khách hàng khác cũng nhận được cuộc gọi bị giả giọng người thân với mức "chính xác đến kỳ lạ". Sau đó cả hai gọi điện cho cháu trai và đúng là anh không bị bắt.

"Chúng tôi bị cuốn theo câu chuyện mà không tìm hiểu kỹ. Khi đó, tôi tin chắc đang nói chuyện với Brandon mà không nghi ngờ", bà Card nói.

anh-chup-man-hinh-2023-03-07-luc-11.26.37.png
Bà Ruth Card - Ảnh: Internet

Trường hợp tương tự cũng xảy ra với gia đình anh Perkin (39 tuổi). Cha mẹ anh nhận được cuộc gọi từ một người tự nhận là luật sư và nói rằng anh đã gây ra vụ tai nạn xe khiến một nhà ngoại giao Mỹ tử vong. Người này cho biết, Perkin đang ở trong tù và cần tiền cho các chi phí pháp lý. Thậm chí, người này còn chuyển máy cho Perkin, thực chất là kết nối với thiết bị AI giả giọng và nói rất cần tiền.

"Giọng nói thật đến nỗi khiến cha mẹ tôi tin đó là tôi", Perkin kể với Washington Post.

Vài giờ sau, người này liên tục hối thúc cha mẹ anh chuyển tiền, nên họ đã ra ngân hàng rút và gửi đi 15.449 USD thông qua một hệ thống chuyển đổi sang Bitcoin. Cha mẹ anh nói, họ có cảm giác cuộc gọi "có gì đó bất thường", nhưng vẫn làm theo vì lo sợ có chuyện xảy ra với con trai. Tối hôm đó, khi Perkin gọi điện về thì tất cả mới biết đã bị lừa.

Perkin nghi ngờ các video anh đăng trên YouTube là nguồn âm thanh cho kẻ lừa đảo huấn luyện AI. "Tiền đã mất. Không có bảo hiểm. Lấy lại là không thể", anh nói.

Khi các vụ lừa đảo mạo danh ở Mỹ gia tăng, câu chuyện như của bà Card cho thấy một xu hướng đáng lo ngại. Công nghệ đang giúp những kẻ lừa đảo bắt chước giọng nói dễ dàng để lừa tiền của mọi người, đặc biệt là người già.

Vào năm 2022, mạo danh là hình thức lừa đảo phổ biến thứ hai ở Mỹ, với hơn 36.000 báo cáo về việc mọi người bị lừa bởi những kẻ giả danh bạn bè và gia đình, theo dữ liệu từ Ủy ban Thương mại Liên bang (FTC). Các quan chức FTC cho biết, hơn 5.100 vụ lừa đảo được thực hiện điện thoại, gây thiệt hại hơn 11 triệu USD.

Những tiến bộ trong trí tuệ nhân tạo (AI) đã tạo cơ hội cho những kẻ xấu sao chép giọng nói chỉ bằng một mẫu âm thanh của một vài câu nói thu thập được. 

Các chuyên gia cho biết các cơ quan quản lý, cơ quan thực thi pháp luật và tòa án đang gặp khó khăn trong việc hạn chế nạn lừa đảo mạo danh. Hầu hết nạn nhân đều khó xác định thủ phạm vì kẻ lừa đảo hoạt động trên khắp thế giới. Các công ty tạo ra AI cũng chưa phải chịu trách nhiệm về việc chúng bị kẻ khác lạm dụng.

types-of-phishing-hero.jpeg
Chiêu trò của những kẻ lừa đảo đang ngày càng tinh vi - Ảnh: Internet

Hany Farid, Giáo sư pháp y kỹ thuật số tại Đại học California (Mỹ), cho biết: "Thật đáng sợ. Chỉ cần một bản ghi âm từ Facebook, TikTok, giọng nói của bạn sẽ được sao chép chỉ trong 30 giây".

Mặc dù lừa đảo kiểu mạo danh có nhiều hình thức, nhưng về cơ bản chúng hoạt động theo cùng một cách: kẻ lừa đảo mạo danh một người đáng tin cậy như trẻ em, người yêu hoặc bạn bè và thuyết phục nạn nhân gửi tiền. 

Farid cho biết, phần mềm tạo giọng nói AI phân tích yếu tố khiến giọng nói của một người trở nên độc đáo bao gồm tuổi tác, giới tính và giọng nói, đồng thời tìm kiếm cơ sở dữ liệu khổng lồ về các giọng nói để tìm những giọng nói tương tự và dự đoán các mẫu. Sau đó, nó có thể tạo lại cao độ, âm vực và âm thanh riêng lẻ của giọng nói của một người để tạo ra hiệu ứng tổng thể. Nó yêu cầu một mẫu âm thanh ngắn, được lấy từ những nơi như YouTube, podcast, quảng cáo, TikTok, Instagram hoặc Facebook.

ElevenLabs, công ty đứng sau VoiceLab - công cụ AI tái tạo giọng nói, cảnh báo ngày càng nhiều phần mềm giả giọng có mặt trên thị trường, dẫn đến tình trạng lạm dụng. VoiceLab có thể miễn phí hoặc có giá từ 5 USD - 330 USD mỗi tháng để sử dụng, ở mức giá cao hơn cho phép người dùng tạo ra nhiều âm thanh hơn.

Trong một bài đăng trên Twitter, ElevenLabs cho biết họ đang kết hợp các biện pháp bảo vệ để ngăn chặn việc lạm dụng, bao gồm cấm người dùng miễn phí tạo giọng nói tùy chỉnh và khởi chạy công cụ phát hiện âm thanh do AI tạo ra.

Will Maxson, trợ lý giám đốc bộ phận thực hành tiếp thị của FTC, cho biết việc theo dõi những kẻ lừa đảo bằng giọng nói có thể "đặc biệt khó khăn" vì chúng có thể sử dụng điện thoại ở bất kỳ đâu trên thế giới, khiến cho việc xác định cơ quan nào có thẩm quyền đối với một vụ lừa đảo trở nên khó khăn. 

Maxson kêu gọi mọi người nên cảnh giác khi nhận được một cuộc gọi từ người thân nói rằng họ đang cần tiền. Trong trường hợp như vậy hãy tạm dừng cuộc gọi và thử gọi riêng cho thành viên gia đình. Nếu một cuộc gọi đáng ngờ đến từ số của một thành viên trong gia đình, hãy hiểu rằng cuộc gọi đó cũng có thể bị giả mạo. 

Bài liên quan
Cảnh báo thủ đoạn mới giả mạo ứng dụng CSKH EVNSPC để lừa đảo khách hàng
Hiện nay, trên mạng internet đã xuất hiện thủ đoạn mới, tinh vi giả mạo nền tảng tải app của Google Play nhằm lừa khách hàng tải ứng dụng mạo danh app CSKH EVNSPC để lừa đảo khách hàng sử điện tại khu vực miền Nam nói riêng và cả nước nói chung.​

(0) Bình luận
Nổi bật Một thế giới
Sau sắp xếp bộ máy tổ chức, TP.HCM giảm 129 đầu mối
1 giờ trước Theo dòng thời sự
Ngày 22.11, Thành ủy TP.HCM tổ chức hội thảo “Tiếp tục xây dựng hệ thống chính trị tinh gọn, hiệu lực, hiệu quả; đổi mới nội dung, phương thức lãnh đạo của các cấp ủy, quản lý của chính quyền; xây dựng đội ngũ cán bộ, công chức, viên chức đáp ứng nhiệm vụ trong tình hình mới”.
Đừng bỏ lỡ
Mới nhất
POWERED BY ONECMS - A PRODUCT OF NEKO
Cảnh báo hình thức lừa đảo bằng trí tuệ nhân tạo giả giọng người thân