Các cơ quan tình báo Mỹ vật lộn với thách thức mới là làm cho trí tuệ nhân tạo (AI) trở nên an toàn với những điệp viên nước này.
Một bộ phận của Văn phòng Giám đốc Tình báo Quốc gia Mỹ (ODNI) tận dụng sự hỗ trợ từ các công ty và trường đại học để khai thác công nghệ trí tuệ nhân tạo (AI) đang phát triển nhanh chóng, có thể mang lại lợi thế trước các đối thủ toàn cầu, điển hình là Trung Quốc. Thách thức là đảm bảo AI không mở cửa hậu vào các bí mật hàng đầu của quốc gia hoặc tạo ra dữ liệu giả mạo.
Tim McKinnon, nhà khoa học dữ liệu quản lý một trong những dự án của ODNI được gọi là Bengal, nói: “Cộng đồng tình báo muốn tận dụng các mô hình ngôn ngữ lớn ngoài kia, nhưng còn rất nhiều điều chưa biết. Mục tiêu cuối cùng là có thể làm việc với một mô hình đáng tin cậy”.
Mô hình ngôn ngữ lớn là một loại mô hình máy học được huấn luyện để hiểu và tạo ra ngôn ngữ tự nhiên. Đây là các mô hình có khả năng xử lý và tạo ra văn bản ngôn ngữ tự nhiên với độ phức tạp cao. Thông thường, mô hình ngôn ngữ lớn được huấn luyện trên dữ liệu lớn từ internet, gồm các đoạn văn bản, bài báo, trang web và nguồn thông tin khác.
Một ví dụ tiêu biểu của mô hình ngôn ngữ lớn là GPT phát triển bởi công ty khởi nghiệp OpenAI (Mỹ). GPT sử dụng kiến trúc Transformer để hiểu và tạo ra văn bản theo cách có thể đánh giá cao sự phức tạp và linh hoạt trong ngôn ngữ.
Những mô hình ngôn ngữ lớn giống GPT được cộng đồng AI quan tâm vì có khả năng trong nhiều ứng dụng, như dịch ngôn ngữ, tóm tắt văn bản và thậm chí là tạo ra nội dung sáng tạo. Song cũng như bất kỳ công nghệ nào, cần phải đảm bảo rằng mô hình ngôn ngữ lớn được sử dụng một cách đạo đức và an toàn, đặc biệt là khi liên quan đến thông tin nhạy cảm và bảo mật quốc gia, như trong trường hợp của các tổ chức tình báo.
Việc tập trung vào độ tin cậy lẫn an ninh là một phần trong chiến dịch tình báo và quân sự rộng lớn hơn của Mỹ nhằm khai thác sức mạnh của AI để cạnh tranh với Trung Quốc – vốn đang tìm cách trở thành quốc gia dẫn đầu toàn cầu trong lĩnh vực AI vào năm 2030. Điều đó cũng đang thúc đẩy một làn sóng tăng cường nhân sự liên quan đến AI ở khu vực Washington khi chính phủ Mỹ và các nhà thầu của họ áp dụng công nghệ mới nổi này.
Mối quan tâm cấp bách nhất tập trung vào các mô hình ngôn ngữ lớn, sử dụng các tập dữ liệu khổng lồ để hỗ trợ các công cụ AI như ChatGPT của OpenAI nhằm cung cấp phản hồi chi tiết cho các lời nhắc và câu hỏi từ người dùng.
Emily Harding, Giám đốc Chương trình Tình báo, An ninh Quốc gia và Công nghệ tại Trung tâm Nghiên cứu Chiến lược và Quốc tế, cho biết: “Cộng đồng tình báo nhìn nhận AI với thái độ đánh giá khách quan và nhiệt tình”, đề cập đến khả năng của các nhà phân tích xử lý lượng thông tin lớn nhưng nảy sinh nghi ngờ về độ tin cậy của các mô hình ngôn ngữ lớn hiện tại. Bà nói thêm: “Nó là một công cụ đang trong giai đoạn đầu mang lại lợi ích”.
Nand Mulchandani, Giám đốc công nghệ của Cơ quan Tình báo Trung ương (CIA), nhận thấy AI có khả năng tăng năng suất bằng cách xử lý khối lượng nội dung khổng lồ và tìm ra các mô hình mà con người khó hoặc không thể nhận ra. Ông cũng coi đây là cách để cạnh tranh so với lợi thế về số lượng nhân viên tình báo của Trung Quốc.
Nand Mulchandani nói trong một cuộc phỏng vấn: “Công nghệ mang đến khả năng bù đắp cho những giới hạn về quy mô của con người. Tận dụng sức mạnh của công nghệ để nâng cao năng lực con người là hướng đi sáng suốt”.
Các cơ quan tình báo Mỹ đã bắt đầu thử nghiệm những chương trình AI riêng. CIA đang chuẩn bị tung ra một tính năng tương tự như ChatGPT nhằm giúp các nhà phân tích tiếp cận tốt hơn với thông tin nguồn mở, trang Bloomberg News đưa tin vào tháng 9.2023.
Theo một nhà phân tích tình báo, AI có sức hấp dẫn với tình báo Mỹ một phần xuất phát từ tiềm năng của nó trong việc phân biệt tín hiệu từ sự nhiễu loạn trong kho dữ liệu được thu thập hàng ngày, cũng như phát triển những cách sáng tạo để xem xét vấn đề. Thông tin này được cung cấp bởi một nhà phân tích tình báo yêu cầu không tiết lộ danh tính khi thảo luận về các vấn đề nội bộ.
Nhà phân tích này nói vẫn có nhiều cách để tác động và can thiệp vào các mô hình AI, điều này mang lại rủi ro mới.
Đe dọa, can thiệp
Tim McKinnon cho biết AI dễ bị tổn thương trước các mối đe dọa từ nội bộ và sự can thiệp bên ngoài. Những mối đe dọa đó có thể là việc con người đang cố gắng lừa hệ thống tiết lộ thông tin mật, một nỗ lực nhằm “bẻ khóa” mô hình AI. Hoặc ngược lại, một hệ thống bị xâm nhập “có thể cố gắng lấy thông tin từ con người mà lẽ ra nó không nên làm”, ông nói.
Chương trình Bengal của Tim McKinnon được điều hành bởi Intelligence Advanced Research Projects Activity, tổ chức ít được biết đến thuộc ODNI. Bengal đã thu thập thông tin đầu vào từ các công ty, trong đó có một đơn vị của Amazon, nhưng Tim McKinnon từ chối cho biết liệu họ có đang làm việc với bất kỳ công ty cụ thể nào hay không.
Chương trình Bengal được thiết kế để giảm bớt một số rủi ro của AI bằng cách phát triển các cách xử lý các thành kiến tiềm ẩn hoặc kết quả đầu ra độc hại, chẳng hạn như “ảo giác”, khi một ứng dụng AI bịa đặt thông tin hoặc đưa ra kết quả không chính xác, điều không hiếm gặp.
Tim McKinnon nói: “Hiện tại chỉ có một số mô hình ngôn ngữ lớn được công bố rộng rãi, nhưng chúng sẽ trở nên phổ biến hơn và cách huấn luyện chúng có thể bị sai lệch. Nếu có một mô hình bị nhiễm độc, chúng tôi muốn có thể giảm thiểu tác động từ đó”.
Hồi tháng 7.2023, Quân đội Mỹ thông báo thử nghiệm thành công mô hình ngôn ngữ lớn trong xử lý dữ liệu mật.
Theo Bloomberg News, nhóm chuyên gia quân đội Mỹ đã thử nghiệm mô hình ngôn ngữ lớn với dữ liệu mật để thực hiện một nhiệm vụ quân sự và đạt kết quả thành công.
Đại tá Không quân Matthew Strohmeier cho biết đã làm việc tại Bộ Quốc phòng Mỹ nhiều năm nhưng đây là lần đầu tiên ông thử nghiệm mô hình ngôn ngữ lớn để thực hiện một nhiệm vụ quân sự.
Theo Matthew Strohmeier, thử nghiệm này tỏ ra “rất thành công và rất nhanh chóng”. Theo ông, hiện nay việc yêu cầu cung cấp thông tin từ một bộ phận cụ thể trong Quân đội Mỹ có thể mất nhiều giờ hoặc nhiều ngày khi nhân viên phải gọi điện thoại hay đến tận nơi tìm hiểu. Trong quá trình thử nghiệm, một mô hình ngôn ngữ lớn đã hoàn thành yêu cầu này trong vòng 10 phút.
Matthew Strohmeier nhắc đến cuộc thử nghiệm: "Điều đó không có nghĩa là mô hình ngôn ngữ lớn đã hoàn thiện. Chúng tôi đã làm điều đó với các dữ liệu mật", đồng thời nói rằng công nghệ AI này có thể được quân đội đưa vào sử dụng trong thời gian tới.
Theo Matthew Strohmeier, nhóm thử nghiệm của Quân đội Mỹ đã cung cấp cho mô hình thông tin nghiệp vụ bí mật để trả lời các câu hỏi nhạy cảm. Mục tiêu dài hạn là nâng cấp hệ thống quân sự Mỹ để sử dụng dữ liệu với sự hỗ trợ của AI rồi đưa ra quyết định trong các hệ thống cảm biến và cho các mục đích liên quan đến điều khiển hỏa lực.
Quân đội Mỹ đã thử nghiệm 5 mô hình ngôn ngữ lớn trong chương trình do Ban Quản lý Kỹ thuật số và AI của Lầu Năm Góc cùng ban lãnh đạo quân sự cấp cao chủ trì, với sự tham gia của một số nước đồng minh.
Lầu Năm Góc không tiết lộ mô hình ngôn ngữ lớn nào được thử nghiệm, nhưng công ty khởi nghiệp Scale AI (có trụ ở thành phố San Francisco, Mỹ) nói rằng sản phẩm Donovan của họ nằm trong danh sách đó.