Hacker dùng ChatGPT để tạo ra dòng phần mềm độc hại mới
Nhịp đập khoa học - Ngày đăng : 18:48, 27/05/2023
Kẻ xấu đang khai thác sức mạnh của chatbot AI phổ biến nhất thế giới để tạo ra các dòng phần mềm độc hại (malware) mới.
Công ty an ninh mạng WithSecure (Phần Lan) xác nhận rằng đã tìm thấy các dòng phần mềm độc hại mới do ChatGPT tạo ra. Điều đặc biệt nguy hiểm là ChatGPT có thể tạo ra vô số biến thể của phần mềm độc hại, khiến chúng khó bị phát hiện.
WithSecure là công ty an ninh mạng chuyên cung cấp các giải pháp và dịch vụ bảo mật nhằm bảo vệ khỏi các mối đe dọa mạng đa dạng. Công ty cung cấp thông tin tình báo về mối đe dọa, đánh giá lỗ hổng, phản ứng sự cố và tư vấn bảo mật. Mục tiêu của WithSecure là hỗ trợ các tổ chức nâng cao khả năng bảo mật mạng và phòng ngừa các hoạt động độc hại.
Những kẻ xấu chỉ cần cung cấp cho ChatGPT các ví dụ về mã phần mềm độc hại hiện có và hướng dẫn chatbot AI này tạo ra các biến thể mới dựa trên đó. Thế nên kẻ xấu có thể tạo ra các dòng mã độc mới mà không mất nhiều thời gian, nỗ lực và chuyên môn như trước đây.
“Trò chơi giữa AI tốt và AI xấu”
Tin tức này xuất hiện khi có rất nhiều cuộc nói chuyện về việc điều chỉnh AI, để ngăn không cho công nghệ này bị sử dụng cho mục đích xấu.
Khi ChatGPT ra mắt vào tháng 11.2022, thực tế là không có quy định nào quản lý việc sử dụng nó. Chỉ sau đó 1 tháng, chatbot AI của OpenAI (Mỹ) đã bị lạm dụng để viết các email và tạo file độc hại.
Có một số biện pháp bảo vệ cụ thể đã được áp dụng bên trong mô hình ngôn ngữ lớn nhằm ngăn chặn việc thực hiện các lời gợi ý xấu xa, nhưng kẻ tấn công có thể tìm cách vượt qua những biện pháp này.
Juhani Hintikka, Giám đốc điều hành WithSecure, nói với trang Infosecurity rằng AI thường được các nhà bảo vệ an ninh mạng sử dụng để tìm và loại bỏ phần mềm độc hại do kẻ xấu tạo thủ công. Song bây giờ, với sự sẵn có miễn phí của các công cụ AI mạnh mẽ như ChatGPT, tình thế đang thay đổi. Các công cụ truy cập từ xa đã được dùng cho mục đích bất hợp pháp và giờ đây AI cũng vậy.
Tim West, người đứng đầu bộ phận tình báo về mối đe dọa tại WithSecure, nói thêm rằng: “ChatGPT sẽ hỗ trợ kỹ thuật phần mềm cả điều tốt lẫn xấu. Nó là một công cụ trợ giúp cũng như hạ thấp rào cản xâm nhập cho các kẻ đe dọa phát triển phần mềm độc hại”.
Theo Juhani Hintikka, các email lừa đảo mà ChatGPT có thể viết thường được con người phát hiện. Song khi mô hình ngôn ngữ lớn ngày càng trở nên tiên tiến hơn thì việc ngăn chặn những trò lừa đảo như vậy trong tương lai gần sẽ khó khăn hơn.
Hơn nữa, với sự thành công của các cuộc tấn công ransomware ngày càng tăng với tốc độ đáng lo ngại, những kẻ đe dọa đang tái đầu tư và trở nên có tổ chức hơn, mở rộng hoạt động bằng cách thuê bên ngoài và phát triển hơn nữa hiểu biết về AI để tiến hành các cuộc tấn công thành công hơn.
Ransomware là một loại phần mềm độc hại mà kẻ tấn công sử dụng để mã hóa dữ liệu trên hệ thống của nạn nhân và yêu cầu một khoản tiền chuộc để giải mã dữ liệu. Khi hệ thống bị nhiễm ransomware, người dùng sẽ không thể truy cập hoặc sử dụng dữ liệu mà không có khóa giải mã.
Khi nhìn vào bối cảnh an ninh mạng phía trước, Juhani Hintikka kết luận rằng: "Đây sẽ là trò chơi giữa AI tốt và AI xấu".
Chuyên gia lên dark web, phát hiện hacker lạm dụng ChatGPT để tấn công mạng dễ dàng hơn
Sergey Shykevich, nhà nghiên cứu ChatGPT hàng đầu tại công ty an ninh mạng Check Point (Israel), đã chứng kiến tội phạm mạng khai thác sức mạnh của AI để tạo mã có thể được sử dụng trong một cuộc tấn công ransomware.
Đội của Sergey Shykevich bắt đầu nghiên cứu khả năng AI có thể tiếp tay cho tội phạm mạng vào tháng 12.2021. Bằng cách sử dụng mô hình ngôn ngữ lớn của AI, hacker đã tạo ra các email lừa đảo và mã độc. Khi nắm rõ ChatGPT có thể được sử dụng cho các mục đích bất hợp pháp, Sergey Shykevich nói với trang Insider rằng muốn xem liệu phát hiện của họ có phải là "lý thuyết" hay liệu có thể tìm thấy "những kẻ xấu đang sử dụng chatbot này trong thế giới thực hay không".
Vì rất khó để biết liệu một email gây hại gửi đến ai đó có được viết bằng ChatGPT hay không, đội của Sergey Shykevich đã chuyển sang dark web để xem chatbot này đang được sử dụng như thế nào.
Dark web là một phần của internet không được tìm thấy trên các công cụ tìm kiếm thông thường và yêu cầu sử dụng phần mềm đặc biệt để truy cập. Dark web thường được sử dụng để tạo ra các hoạt động trái phép và phi pháp như buôn bán ma túy, vũ khí, bán dữ liệu cá nhân, các hoạt động mạng lưới tội phạm và hoạt động bất hợp pháp khác. Tại đây, người dùng có thể duyệt web hoàn toàn ẩn danh và truy cập vào các nội dung mà không được chính phủ và các tổ chức kiểm duyệt.
Vào ngày 21.12.2022, họ đã tìm thấy bằng chứng đầu tiên: Tội phạm mạng đang dùng ChatGPT để tạo một tập lệnh python có thể được sử dụng trong cuộc tấn công bằng phần mềm độc hại.
Sergey Shykevich nói rằng mã có một số lỗi, nhưng phần lớn là đúng. "Điều thú vị là những người đăng nó chưa từng phát triển bất cứ thứ gì trước đây", Sergey Shykevich chia sẻ.
Ngoài ra, Sergey Shykevich nói ChatGPT và Codex sẽ "cho phép những người ít kinh nghiệm hơn được coi là nhà phát triển". Codex là dịch vụ OpenAI có thể viết mã cho các nhà phát triển.
Việc lạm dụng ChatGPT khiến các chuyên gia an ninh mạng lo lắng vì nhận thấy tiềm năng chatbot này trong hỗ trợ tấn công phishing (lừa đảo trực tuyến), malware và hacking (tìm kiếm và khai thác các lỗ hổng trong các hệ thống máy tính, mạng hoặc phần mềm để truy cập trái phép vào các tài nguyên hoặc thông tin của hệ thống đó).
Justin Fier, Giám đốc Điều tra và Phân tích An ninh mạng tại công ty Darktrace, chia sẻ với Insider rằng, khi nói đến các cuộc tấn công phishing, ChatGPT có thể giúp tạo ra hàng chục email lừa đảo được nhắm mục tiêu một cách dễ dàng miễn là đưa ra yêu cầu thích hợp.
"Với phishing, tất cả là về số lượng - hãy tưởng tượng 10.000 email, được nhắm mục tiêu cao. Bây giờ, thay vì 100 lần nhấp tích cực, hacker có được 3.000 hoặc 4.000. Đó là con số rất lớn", Justin Fier đề cập đến số lượng người giả định có thể nhấp vào một email lừa đảo, yêu cầu người dùng cung cấp thông tin cá nhân, chẳng hạn như mật khẩu tài khoản ngân hàng.
"Một phim khoa học viễn tưởng"
Đầu tháng 2, Blackberry đã công bố cuộc khảo sát từ 1.500 chuyên gia công nghệ thông tin, 74% trong số họ cho biết họ lo lắng về việc ChatGPT hỗ trợ tội phạm mạng.
Cuộc khảo sát cũng chỉ ra 71% tin rằng ChatGPT có thể đã được các quốc gia sử dụng để tấn công các nước khác thông qua nỗ lực hacking và phishing.
"Đã có nhiều tài liệu chứng minh rằng những người có ý định xấu đang thử nghiệm ChatGPT, nhưng trong năm nay, chúng ta sẽ thấy những kẻ tấn công có khả năng sử dụng chatbot này hiệu quả hơn để thực hiện các mục đích độc hại", Shishir Singh, Giám đốc Công nghệ của Bảo mật mạng tại BlackBerry, viết trong một thông cáo báo chí.
Shishir Singh nói những lo ngại này bắt nguồn từ sự tiến bộ nhanh chóng của AI trong năm qua. Các chuyên gia cho rằng những tiến bộ trong các mô hình ngôn ngữ lớn, hiện thành thạo hơn trong việc bắt chước lời nói của con người, đã tiến triển nhanh hơn dự kiến.
Shishir Singh mô tả những sự đổi mới nhanh chóng như một thứ gì đó bước ra từ bộ phim khoa học viễn tưởng.
“Bất cứ điều gì đã thấy trong 9 đến 10 tháng qua, chúng ta từng chỉ thấy ở Hollywood”, ông nhấn mạnh.
Open AI có thể chịu trách nhiệm với việc tội phạm mạng khai thác ChatGPT
Khi tội phạm mạng bắt đầu thêm những thứ như ChatGPT vào bộ công cụ của chúng, các chuyên gia như cựu công tố viên liên bang Mỹ - Edward McAndrew đang tự hỏi liệu các công ty có chịu trách nhiệm về những tội lỗi này hay không.
Edward McAndrew, người làm việc với Bộ Tư pháp Mỹ điều tra tội phạm mạng, chỉ ra rằng nếu ChatGPT hoặc chatbot tương tự khuyến khích ai đó phạm tội trên mạng thì các công ty hỗ trợ những chatbot này có thể cũng phải chịu trách nhiệm.
Khi xử lý nội dung bất hợp pháp hoặc tội phạm trên trang web của mình từ người dùng bên thứ ba, hầu hết hãng công nghệ đều trích dẫn Điều 230 của Đạo luật về Khuôn phép trong giao tiếp năm 1996. Đạo luật quy định rằng các nhà cung cấp trang web cho phép mọi người đăng nội dung, như Facebook hoặc Twitter, không chịu trách nhiệm về phát ngôn của họ trên nền tảng.
Song vì bài phát ngôn đến từ chính ChatGPT, Edward McAndrew cho biết luật có thể không bảo vệ OpenAI khỏi các vụ kiện dân sự hoặc truy tố, dù phiên bản mã nguồn mở có thể làm cho việc liên kết các tội phạm mạng với OpenAI khó khăn hơn.
Phạm vi bảo vệ pháp lý cho các hãng công nghệ theo Điều 230 cũng đang bị thách thức trước Tòa án Tối cao Mỹ bởi gia đình của cô gái bị những kẻ khủng bố ISIS giết vào năm 2015. Gia đình này lập luận rằng Google phải chịu trách nhiệm pháp lý về thuật toán của họ quảng cáo các video cực đoan.
Edward McAndrew nói ChatGPT cũng có thể cung cấp "kho tàng thông tin" cho những người được giao nhiệm vụ thu thập bằng chứng cho những tội ác như vậy nếu họ có thể yêu cầu công ty như OpenAI đưa ra tài liệu.
“Đó là những câu hỏi thực sự thú vị, nhưng dành cho nhiều năm tới. Như chúng ta đã thấy từ thời khởi đầu của internet, tội phạm mạng là một trong những người sớm nhất thích ứng với công nghệ mới. Và chúng ta lại thấy điều đó, với rất nhiều công cụ AI”, Edward McAndrew cho hay.
Đối diện với những câu hỏi này, Edward McAndrew nói ông nhìn thấy cuộc tranh luận chính sách về cách mà Mỹ và thế giới nói chung sẽ đặt ra các thông số cho các hãng AI và công nghệ.
Trong cuộc khảo sát của Blackberry, 95% số người được hỏi về CNTT cho biết các chính phủ phải chịu trách nhiệm tạo và thực hiện các quy định.
Edward McAndrew nói việc quản lý nó có thể gặp nhiều thách thức, vì không có cơ quan hoặc cấp chính phủ nào được giao độc quyền tạo ra các yêu cầu cho ngành công nghiệp AI và vấn đề về công nghệ AI vượt xa khỏi ranh giới Mỹ.
"Chúng ta sẽ phải có các liên minh quốc tế và các chuẩn mực quốc tế về hành vi mạng. Tôi cho rằng điều đó sẽ mất hàng thập kỷ để phát triển nếu chưa có”, ông nói.
Công nghệ vẫn chưa hoàn hảo cho tội phạm mạng
Các chuyên gia nói với Insider rằng điều có thể gây khó cho tội phạm mạng là ChatGPT trả lời sai sót nhưng trông đáng tin cậy. Việc này có thể gây ra vấn đề cho tội phạm mạng khi cố gắng soạn thảo một email nhằm bắt chước người khác. Trong đoạn mã mà Sergey Shykevich và các đồng nghiệp của ông phát hiện ra trên dark web, các lỗi cần được sửa trước khi có thể hỗ trợ cho một vụ lừa đảo.
Ngoài ra, ChatGPT tiếp tục triển khai các biện pháp bảo vệ để ngăn chặn hoạt động bất hợp pháp, song có thể vượt qua các biện pháp này bằng tập lệnh phù hợp.
Sergey Shykevich chỉ ra rằng một số tội phạm mạng đang dựa vào các mô hình API của ChatGPT, các phiên bản nguồn mở của ứng dụng không có các giới hạn nội dung giống như giao diện người dùng web. Ông cũng cho biết tại thời điểm này, ChatGPT không thể hỗ trợ tạo phần mềm độc hại tinh vi hoặc trang web giả mạo, chẳng hạn website một ngân hàng nổi tiếng.
Song một ngày nào đó, điều này có thể trở thành hiện thực vì cuộc chạy đua AI do những gã khổng lồ công nghệ tạo ra thúc đẩy sự phát triển của các chatbot tốt hơn, theo Sergey Shykevich.
“Tôi quan tâm nhiều hơn đến tương lai và có vẻ như bây giờ tương lai không phải là 4 - 5 năm nữa mà là 1 hoặc 2 năm nữa”, ông nhận định.