OpenAI vừa cho biết đã phá vỡ 5 hoạt động gây ảnh hưởng bí mật nhằm tìm cách sử dụng các mô hình trí tuệ nhân tạo (AI) cho hoạt động lừa đảo trên internet.
OpenAI tiết lộ các tác nhân đe dọa đã sử dụng mô hình AI của họ để tạo ra bình luận ngắn, bài viết dài bằng nhiều ngôn ngữ, tạo tên và tiểu sử cho một số tài khoản mạng xã hội trong ba tháng qua.
Các chiến dịch này, gồm tác nhân đe dọa từ Nga, Trung Quốc, Iran và Israel, cũng tập trung vào vấn đề như Nga tấn công Ukraine, cuộc xung đột tại Gaza, bầu cử ở Ấn Độ, chính trị tại châu Âu và Mỹ, cùng những vấn đề khác.
OpenAI cho biết các hoạt động lừa đảo là “nỗ lực nhằm thao túng dư luận hoặc gây ảnh hưởng đến kết quả chính trị”.
Báo cáo của OpenAI, công ty có trụ sở tại thành phố San Francisco (Mỹ) được Microsoft hậu thuẫn, làm dấy lên mối lo ngại về an toàn về khả năng lạm dụng AI tạo sinh, công nghệ có thể tạo ra văn bản, hình ảnh, âm thanh giống con người nhanh chóng và dễ dàng.
OpenAI tuyên bố các chiến dịch lừa đảo đã không được hưởng lợi từ việc tăng cường tương tác hoặc phạm vi tiếp cận nhờ các dịch vụ của công ty này.
Ngoài ra, OpenAI nói các hoạt động đó không chỉ sử dụng tài liệu do AI tạo ra mà còn gồm cả văn bản viết thủ công hoặc meme được sao chép từ khắp nơi trên internet.
Cuối tháng 2, OpenAI thông báo xóa các tài khoản được sử dụng bởi một số nhóm hacker do nhà nước bảo trợ từ Iran, Triều Tiên, Trung Quốc và Nga đang lạm dụng ChatGPT nhằm thực hiện các hành vi độc hại.
OpenAI cho biết sẽ tiếp tục theo dõi và ngăn chặn các hacker bằng cách sử dụng công nghệ giám sát chuyên dụng lẫn thông tin từ đối tác và những nhóm bảo mật thuộc nhiều tổ chức, công ty an ninh mạng trên thế giới.
Trong báo cáo bảo mật hàng quý hôm 29.5, Meta Platforms cho biết đã tìm thấy nội dung "có thể do AI tạo ra" được sử dụng một cách lừa đảo trên nền tảng Facebook và Instagram của mình, gồm bình luận ca ngợi cách Israel xử lý cuộc chiến ở Gaza được đăng bên dưới bài của các tổ chức tin tức toàn cầu và nhà làm luật Mỹ.
Hôm 28.5, OpenAI thông báo bắt đầu đào tạo mô hình AI tiên tiến mới, đồng thời thành lập Ủy ban An toàn và Bảo mật.
Ủy ban An toàn và Bảo mật này sẽ do các thành viên hiện tại của hội đồng quản trị OpenAI dẫn dắt, gồm Bret Taylor (Chủ tịch hội đồng quản trị OpenAI, đồng sáng lập công ty khởi nghiệp dịch vụ khách hàng Sierra AI, cựu lãnh đạo Google Maps và cựu Giám đốc công nghệ của Facebook), Adam D’Angelo (Giám đốc điều hành Quora và ứng dụng tổng hợp mô hình AI Poe), Nicole Seligman (cựu Phó chủ tịch điều hành và cố vấn pháp lý toàn cầu của Sony Corporation) và Sam Altman (nhà đồng sáng lập và Giám đốc điều hành OpenAI).
OpenAI viết trong một bài đăng trên blog của công ty: “OpenAI gần đây đã bắt đầu đào tạo mô hình tiên tiến tiếp theo của mình và dự đoán các hệ thống kết quả sẽ đưa chúng tôi lên một tầm cao mới về khả năng trên con đường tiến tới AGI (AI tổng quát). Dù tự hào xây dựng và cho ra mắt những mô hình dẫn đầu ngành về cả khả năng lẫn độ an toàn, chúng tôi hoan nghênh một cuộc tranh luận mạnh mẽ vào thời điểm quan trọng này”.
AGI là AI siêu thông minh, tiên tiến đến mức có thể làm được nhiều việc ngang bằng hoặc tốt hơn con người.
OpenAI phác thảo vai trò của Ủy ban An toàn và Bảo mật trong việc chỉ đạo phát triển mô hình AI tiên tiến mới: “Nhiệm vụ đầu tiên của Ủy ban sẽ là đánh giá và phát triển hơn nữa các quy trình và biện pháp bảo vệ của OpenAI trong 90 ngày tới. Khi kết thúc 90 ngày, Ủy ban sẽ chia sẻ các khuyến nghị của họ với toàn thể hội đồng quản trị. Sau khi toàn thể hội đồng quản trị xem xét, OpenAI sẽ chia sẻ công khai bản cập nhật về các khuyến nghị đã được thông qua theo cách phù hợp về an toàn và bảo mật”.
Do đó, thật hợp lý khi kết luận rằng bất kể mô hình tiên tiến mới là gì, có thể được gọi là GPT-5 hay cái gì khác, nó sẽ không được phát hành trong ít nhất 90 ngày nữa, để ủy ban mới có thời gian cần thiết để đánh giá và phát triển thêm các quy trình và biện pháp bảo vệ của OpenAI, nhằm đưa ra các khuyến nghị đầy đủ cho hội đồng quản trị.
Điều đó đồng nghĩa hội đồng quản trị OpenAI sẽ nhận được khuyến nghị của Ủy ban An toàn và Bảo mật chậm nhất là ngày 26.8 tới.
Tại sao lại là 90 ngày mà không phải dài hơn, ngắn hơn hoặc một khoảng thời gian khác? OpenAI không thực sự nêu rõ, nhưng đây là tiêu chuẩn thông dụng được sử dụng trong kinh doanh để đánh giá và cung cấp phản hồi về các quy trình, đồng thời có vẻ phù hợp vì không quá ngắn, không quá dài.
Một số người lưu ý rằng ủy ban mới hoàn toàn do các thành viên hội đồng quản trị OpenAI điều hành, nghĩa là việc đánh giá các biện pháp an toàn của công ty sẽ không độc lập.
Hội đồng quản trị cũ của OpenAI từng là nguồn gây tranh cãi khi sa thải Altman khỏi vị trí giám đốc điều hành công ty vào ngày 17.11.2023, chỉ 5 ngày trước lễ kỷ niệm 1 năm ra mắt ChatGPT, với lý do rằng ông "không luôn trung thực với họ". Thế nhưng, hành động này phải bị phản đối gay gắt bởi đa số nhân viên và các nhà đầu tư vào OpenAI, gồm cả nhà tài trợ lớn nhất là Microsoft.
Sam Altman đã được phục hồi chức vụ Giám đốc điều hành OpenAI vào ngày 21.11.2023. OpenAI lập ra hội đồng quản trị mới gồm Bret Taylor, Larry Summers và Adam D'Angelo, còn Microsoft tham gia với tư cách là quan sát viên không bỏ phiếu. Thời điểm đó, hội đồng quản trị OpenAI bị chỉ trích vì không có nữ giới.
Ngày 8.3.2024, hội đồng quản trị mới của OpenAI có thêm Sam Altman và ba thành viên nữ là Nicole Seligman, Sue Desmond-Hellmann (cựu Giám đốc điều hành của Quỹ Bill và Melinda Gates), Fidji Simo (Giám đốc điều hành và Chủ tịch của Instacart).