OpenAI nới lỏng các hạn chế về việc dùng ChatGPT cho mục đích quân sự

Thế giới số - Ngày đăng : 08:35, 14/01/2024

Trong bản cập nhật không báo trước về chính sách sử dụng của mình mới đây, OpenAI đã dỡ bỏ lệnh cấm rộng rãi với việc sử dụng công nghệ của công ty, gồm cả ChatGPT, cho mục đích “quân sự và chiến tranh”.
Thế giới số

OpenAI nới lỏng các hạn chế về việc dùng ChatGPT cho mục đích quân sự

Sơn Vân 14/01/2024 08:35

Trong bản cập nhật không báo trước về chính sách sử dụng của mình mới đây, OpenAI đã dỡ bỏ lệnh cấm rộng rãi với việc sử dụng công nghệ của công ty, gồm cả ChatGPT, cho mục đích “quân sự và chiến tranh”.

Người phát ngôn OpenAI nói với trang Insider rằng chính sách mới vẫn cấm sử dụng các dịch vụ của công ty này cho các mục đích cụ thể như phát triển vũ khí, gây thương tích cho người khác hoặc phá hủy tài sản.

"Công ty hướng đến việc tạo ra một bộ nguyên tắc phổ quát vừa dễ nhớ vừa dễ áp dụng, đặc biệt là khi các công cụ của chúng tôi đang được người dùng hàng ngày sử dụng trên toàn cầu. Đó là những người cũng có thể xây dựng GPT", người này nói thêm.

Hôm 10.1.2024, OpenAI đã triển khai GPT Store, thị trường để người dùng chia sẻ và duyệt các phiên bản ChatGPT tùy chỉnh được gọi là GPT. GPT Store được OpenAI triển khai dựa trên sự thành công của ChatGPT, chatbot AI trình làng vào tháng 11.2022, khiến người dùng choáng ngợp với khả năng viết văn xuôi và thơ giống con người. ChatGPT nhanh chóng trở thành một trong những ứng dụng phát triển nhanh nhất từ trước đến nay.

OpenAI cho biết GPT Store ban đầu sẽ được triển khai cho những người dùng đang sử dụng gói ChatGPT trả phí. Trong vài tháng tới, công ty dự định bổ sung một cách để người sáng tạo GPT kiếm tiền từ AI được cá nhân hóa của họ.

Người phát ngôn OpenAI cho biết chính sách sử dụng mới của công ty hiện bao gồm cả các nguyên tắc như "Không làm hại người khác, tuy rộng nhưng dễ nắm bắt và phù hợp trong nhiều bối cảnh" cũng như cấm các trường hợp sử dụng cụ thể như phát triển hoặc sử dụng vũ khí.

Một số chuyên gia AI lo ngại rằng việc OpenAI viết lại chính sách quá khái quát, đặc biệt khi công nghệ AI đã được sử dụng trong cuộc xung đột ở Gaza. Quân đội Israel cho biết đã sử dụng AI để xác định chính xác các mục tiêu để ném bom bên trong lãnh thổ Palestine.

Sarah Myers West, Giám đốc điều hành Viện AI Now (từng là nhà phân tích chính sách AI tại Ủy ban Thương mại Liên bang Mỹ), nói với trang The Intercept: “Ngôn ngữ trong chính sách vẫn còn mơ hồ và đặt ra câu hỏi về cách OpenAI dự định tiếp cận việc thực thi”.

Dù OpenAI không đưa ra nhiều thông tin cụ thể về kế hoạch của mình nhưng những thay đổi chính sách sử dụng có thể mở ra viễn cảnh cho các hợp đồng trong tương lai với quân đội Mỹ.

Người phát ngôn của OpenAI nói rằng có những trường hợp sử dụng vì an ninh quốc gia phù hợp với sứ mệnh của công ty, đó cũng là một phần lý do dẫn đến những thay đổi này. Chẳng hạn, OpenAI đã hợp tác với Cơ quan Chỉ đạo các Dự án Nghiên cứu Quốc phòng Tiên tiến (DARPA) “để thúc đẩy việc tạo ra các công cụ an ninh mạng mới nhằm bảo mật phần mềm nguồn mở mà cơ sở hạ tầng và ngành công nghiệp quan trọng phụ thuộc vào”.

DARPA là cơ quan nghiên cứu và phát triển thuộc Bộ Quốc phòng Mỹ, chịu trách nhiệm về việc nghiên cứu và phát triển công nghệ tiên tiến, đặc biệt là trong lĩnh vực quốc phòng và an ninh quốc gia. Được thành lập vào năm 1958, DARPA đã đóng góp đáng kể vào nhiều lĩnh vực công nghệ quan trọng, gồm mạng internet, công nghệ hình ảnh y tế tiên tiến cùng nhiều dự án nghiên cứu và phát triển quân sự khác.

openai-noi-long-cac-han-che-ve-viec-dung-chatgpt-cho-muc-dich-quan-su.jpg
OpenAI đã dỡ bỏ lệnh cấm rộng rãi với việc sử dụng công nghệ của công ty, gồm cả ChatGPT, cho mục đích “quân sự và chiến tranh” - Ảnh: Internet

Thời gian qua, các nhà khoa học Trung Quốc đã dạy hệ thống AI quân sự thử nghiệm nhiều hơn về cách đối phó với những kẻ thù khó đoán với sự trợ giúp từ mô hình ngôn ngữ lớn giống GPT-4 của OpenAI (nền tảng để ChatGPT hoạt động).

Theo các nhà khoa học tham gia dự án, một phòng thí nghiệm nghiên cứu thuộc Lực lượng Hỗ trợ Chiến lược của Quân đội Trung Quốc, đã tạo ra liên kết vật lý giữa hệ thống AI của họ với Ernie của gã khổng lồ tìm kiếm internet Baidu và Spark của hãng công nghệ iFlyTek.

Ernie và Spark là hai mô hình ngôn ngữ lớn tương tự GPT-4. Lực lượng Hỗ trợ Chiến lược của Quân đội Trung Quốc làm nhiệm vụ giám sát không gian, mạng, tình báo và chiến tranh điện tử.

Hệ thống AI quân sự này có thể chuyển đổi một lượng lớn dữ liệu cảm biến và thông tin do các đơn vị tiền tuyến báo cáo thành ngôn ngữ hoặc hình ảnh mô tả và đưa chúng sang các mô hình ngôn ngữ lớn thương mại. Sau khi Ernie và Spark xác nhận đã hiểu, hệ thống AI quân sự sẽ tự động đưa ra lời nhắc để trao đổi sâu hơn về các nhiệm vụ khác nhau, chẳng hạn như mô phỏng chiến đấu. Toàn bộ quá trình hoàn toàn không có sự tham gia của con người.

Sun Yifeng (nhà khoa học thuộc dự án này) và nhóm của ông từ Đại học Kỹ thuật Thông tin thuộc Quân đội Trung Quốc viết rằng cả con người và máy móc đều có thể hưởng lợi từ dự án.

Họ viết: “Các kết quả mô phỏng hỗ trợ cho việc ra quyết định của con người, có thể được sử dụng để tinh chỉnh kho kiến thức chiến đấu và nâng cao hơn nữa trình độ nhận thức chiến đấu của máy móc”.

Nhóm của Sun Yifeng nhấn mạnh rằng công việc này chỉ mang tính sơ bộ và nhằm mục đích nghiên cứu. Sun Yifeng và các đồng nghiệp cho biết mục tiêu của họ là làm cho AI quân sự trở nên “giống con người” hơn, hiểu rõ hơn ý định của chỉ huy các cấp và thành thạo hơn trong việc giao tiếp với con người.

Đây là lần đầu tiên Quân đội Trung Quốc công khai xác nhận việc sử dụng các mô hình ngôn ngữ lớn mang tính thương mại. Vì lý do an ninh, các cơ sở thông tin quân sự thường không được kết nối trực tiếp với mạng dân sự.

Nhiều tướng lĩnh từ các quân chủng khác nhau của Mỹ đã công khai bày tỏ sự quan tâm đến ChatGPT và các công nghệ tương tự, đồng thời giao nhiệm vụ cho những tổ chức nghiên cứu quân sự và nhà thầu quốc phòng tương ứng khám phá các ứng dụng có thể có của AI tạo sinh (generative AI) trong các hoạt động quân sự, như phân tích tình báo, chiến tranh tâm lý, điều khiển và liên lạc bằng máy bay không người lái, giải mã mã truyền thông.

Hồi tháng 7.2023, Quân đội Mỹ thông báo thử nghiệm thành công mô hình ngôn ngữ lớn trong xử lý dữ liệu mật.

Theo hãng tin Bloomberg, nhóm chuyên gia quân đội Mỹ đã thử nghiệm mô hình ngôn ngữ lớn với dữ liệu mật để thực hiện một nhiệm vụ quân sự và đạt kết quả thành công.

Đại tá Không quân Matthew Strohmeier cho biết đã làm việc tại Bộ Quốc phòng Mỹ nhiều năm nhưng đây là lần đầu tiên ông thử nghiệm mô hình ngôn ngữ lớn để thực hiện một nhiệm vụ quân sự.

Theo Matthew Strohmeier, thử nghiệm này tỏ ra “rất thành công và rất nhanh chóng”. Theo ông, hiện nay việc yêu cầu cung cấp thông tin từ một bộ phận cụ thể trong Quân đội Mỹ có thể mất nhiều giờ hoặc nhiều ngày khi nhân viên phải gọi điện thoại hay đến tận nơi tìm hiểu. Trong quá trình thử nghiệm, một mô hình ngôn ngữ lớn đã hoàn thành yêu cầu này trong vòng 10 phút.

Matthew Strohmeier nhắc đến cuộc thử nghiệm: "Điều đó không có nghĩa là mô hình ngôn ngữ lớn đã hoàn thiện. Chúng tôi đã làm điều đó với các dữ liệu mật", đồng thời nói rằng công nghệ AI này có thể được quân đội đưa vào sử dụng trong thời gian tới.

Theo Matthew Strohmeier, nhóm thử nghiệm của Quân đội Mỹ đã cung cấp cho mô hình thông tin nghiệp vụ bí mật để trả lời các câu hỏi nhạy cảm. Mục tiêu dài hạn là nâng cấp hệ thống quân sự Mỹ để sử dụng dữ liệu với sự hỗ trợ của AI rồi đưa ra quyết định trong các hệ thống cảm biến và cho các mục đích liên quan đến điều khiển hỏa lực.

Quân đội Mỹ đã thử nghiệm 5 mô hình AI trong chương trình do Ban Quản lý Kỹ thuật số và AI của Lầu Năm Góc cùng ban lãnh đạo quân sự cấp cao chủ trì, với sự tham gia của một số nước đồng minh.

Lầu Năm Góc không tiết lộ mô hình ngôn ngữ lớn nào được thử nghiệm, nhưng công ty khởi nghiệp Scale AI (có trụ ở thành phố San Francisco, Mỹ) nói rằng sản phẩm Donovan của họ nằm trong danh sách đó.

Sơn Vân