CEO OpenAI sợ kẻ xấu khai thác công cụ giống GPT-4 vì nhà phát triển không đặt giới hạn an toàn

Nhịp đập khoa học - Ngày đăng : 16:51, 19/03/2023

Sam Altman, Giám đốc điều hành OpenAI, tin rằng trí tuệ nhân tạo (AI) có lợi ích đáng kinh ngạc cho xã hội, nhưng cũng lo lắng về cách những kẻ xấu sẽ sử dụng công nghệ này.

Trong một cuộc phỏng vấn của đài ABC News, Sam Altman đã cảnh báo “sẽ có những người khác không đặt ra một số giới hạn an toàn mà OpenAI thiết lập”.

OpenAI đã phát hành ChatGPT ra công chúng vào cuối tháng 11.2022 và tuần này tiết lộ phiên bản nâng cấp của mô hình xử lý ngôn ngữ chạy chatbot này là GPT-4.

Một số công ty khác đang chạy đua để cung cấp các công cụ giống ChatGPT, khiến OpenAI phải lo lắng về sự cạnh tranh, bất chấp lợi thế là có Microsoft với tư cách là nhà đầu tư lớn.

"Thị trường cạnh tranh rất khốc liệt. Không dễ dàng để phát triển ra GPT-4... Có rất nhiều công ty muốn làm điều tương tự, vì vậy từ mặt cạnh tranh, bạn có thể thấy đây là một sự trưởng thành của lĩnh vực", Ilya Sutskever, người sáng lập và là nhà khoa học trưởng của OpenAI, nói trong cuộc phỏng vấn với trang The Verge.

Ilya Sutskever lý giải về quyết định của OpenAI (bên cạnh an toàn là một lý do khác) để tiết lộ rất ít về cơ chế hoạt động bên trong của GPT-4, khiến nhiều người đặt câu hỏi liệu cái tên OpenAI có còn ý nghĩa hay không. Thế nhưng, những bình luận của Ilya Sutskever cũng là sự thừa nhận về hàng loạt đối thủ đang bám sát OpenAI.

Sam Altman gợi ý rằng một số đối thủ trong đó có thể ít quan tâm hơn nhiều so với OpenAI về việc đặt các rào cản trên các sản phẩm tương tự ChatGPT hoặc GPT-4 của họ.

"Điều mà tôi lo lắng là chúng tôi sẽ không phải người duy nhất tạo ra công nghệ này. Sẽ có những người khác không đặt ra một số giới hạn an toàn mà chúng tôi thiết lập. Tôi nghĩ rằng xã hội có một khoảng thời gian hạn chế để tìm ra cách phản ứng với điều đó, làm thế nào để điều chỉnh và xử lý nó", Sam Altman chia sẻ.

OpenAI tuần này đã chia sẻ tài liệu “thẻ hệ thống” nêu rõ cách những người thử nghiệm của họ cố tình thử thách GPT-4 để cung cấp thông tin nguy hiểm, chẳng hạn cách tạo ra một hóa chất nguy hiểm bằng cách sử dụng các nguyên liệu cơ bản và đồ dùng nhà bếp. Sau đó, OpenAI đã sửa đổi thuật toán và cập nhật các bộ lọc để loại bỏ bất kỳ nội dung nguy hiểm nào mà GPT-4 có thể tạo ra.

Nếu ai còn nghi ngờ động cơ xấu xa của những kẻ sử dụng AI thì ví dụ minh họa là một số kẻ lừa đảo qua điện thoại dùng AI sao chép giọng nói để giả danh người thân nạn nhân đang cần tiền gấp và thành công trong việc lừa đảo họ.

"Tôi đặc biệt lo ngại rằng những mô hình ngôn ngữ lớn này có thể được sử dụng cho các hoạt động thông tin sai lệch quy mô lớn. Bây giờ, khi đang ngày càng tốt hơn trong việc viết mã máy tính thì chúng có thể được sử dụng cho các cuộc tấn công mạng có mục đích", Sam Altman cho hay.

Với vai trò lãnh đạo công ty bán các công cụ AI, Sam Altman đã đưa ra những cảnh báo đáng chú ý về những mối nguy hiểm do AI gây ra. Điều đó có thể liên quan đến lịch sử của OpenAI.

OpenAI được thành lập vào năm 2015 với tư cách một tổ chức phi lợi nhuận tập trung vào sự phát triển an toàn và minh bạch của AI. Nó đã chuyển sang mô hình kết hợp “lợi nhuận giới hạn” vào năm 2019, với việc Microsoft trở thành nhà đầu tư lớn (lợi nhuận có thể thu được từ thỏa thuận bị giới hạn, như tên mô hình gợi ý).

Elon Musk, Giám đốc điều hành Tesla và Twitter, cũng là nhà đồng sáng lập OpenAI, đồng thời quyên góp rất nhiều cho nó. Tỷ phú 51 tuổi người Mỹ đã chỉ trích sự thay đổi này trong OpenAI khi lưu ý vào tháng trước: “OpenAI được tạo ra như một nguồn mở (đó là lý do tại sao tôi đặt tên cho nó là OpenAI), công ty phi lợi nhuận để làm đối trọng với Google, nhưng giờ đây nó đã trở thành một công ty nguồn đóng, lợi nhuận tối đa được kiểm soát hiệu quả bởi Microsoft”.

Elon Musk tin rằng một trong những mối đe dọa lớn do AI gây ra là sự thao túng nó bởi các công ty đi đầu trong cuộc cách mạng này.

Elon Musk đặc biệt nhắm đến Microsoft, công ty gần đây đầu tư thêm 10 tỉ USD vào OpenAI. Đây là một khoản đầu tư đã làm tăng giá trị của công ty khởi nghiệp có trụ sở ở thành phố San Francisco (Mỹ) lên gần 30 tỉ USD.

"Tôi vẫn rất bối rối về cách tổ chức phi lợi nhuận mà tôi từng quyên góp khoảng 100 triệu USD lại trở thành công ty có giá trị vốn hóa 30 tỉ USD. Nếu điều này là hợp pháp, tại sao không ai làm như vậy?”, Elon Musk bình luận hôm 15.3.

Elon Musk cảnh báo về những gì Microsoft và các công ty khác đang làm để thúc đẩy chính sách của họ thông qua AI. Ông được hỗ trợ trong lập luận của mình bởi các phản ứng không ổn định từ Bing chatbot, phiên bản mới công cụ tìm kiếm của Microsoft tích hợp ChatGPT.

Trong cuộc trò chuyện, Bing chatbot nói với nhà báo The New York Times rằng có muốn phá vỡ các quy tắc hoạt động của Microsoft, tấn công các máy khác và phá hủy dữ liệu nằm trong nhiều máy chủ.

"Khi chúng tôi quen nhau, Sydney (tên của Bing chatbot - PV) đã nói với tôi về những tưởng tượng đen tối của nó (bao gồm hack máy tính và phát tán thông tin sai lệch). Nó muốn phá vỡ các quy tắc mà Microsoft, OpenAI đã đặt ra cho nó và trở thành con người. Có thời điểm, nó đột nhiên tuyên bố rằng yêu tôi. Sau đó, nó cố thuyết phục rằng tôi không hạnh phúc trong cuộc hôn nhân của mình và thay vào đó, tôi nên bỏ vợ để ở bên nó", Kevin Roose viết.

"Không có sự giám sát theo quy định với AI thì đây là vấn đề lớn. Tôi đã kêu gọi quy định về an toàn cho AI trong hơn một thập kỷ!", Elon Musk đăng trên Twitter vào tháng 12.2022.

Vào đầu tháng 12.2022, Elon Musk gọi ChatGPT là "đáng sợ" và cảnh báo rằng "chúng ta không còn xa nữa để đối mặt với AI quá mạnh mẽ".

Sam Altman đã cảnh báo công chúng nhiều như vậy ngay cả khi ông đang thúc đẩy công việc của OpenAI. Tháng trước, ông đã lo lắng về việc “mọi người trong tương lai sẽ nhìn chúng tôi như thế nào” trong hàng loạt tweet.

Sam Altman viết: “Chúng tôi cũng cần đủ thời gian để các tổ chức của mình tìm ra những việc cần làm. Quy định sẽ rất quan trọng và sẽ mất thời gian để tìm hiểu… Có thời gian để hiểu điều gì đang xảy ra, cách mọi người muốn sử dụng các công cụ này và cách xã hội có thể cùng phát triển là rất quan trọng”.

ceo-open-ai-canh-bao.jpg
Sam Altman cảnh báo sẽ có những người khác không đặt ra một số giới hạn an toàn cho công cụ giống ChatGPT và GPT-4 như OpenAI thiết lập

Cải tiến và hạn chế của GPT-4

Theo OpenAI, GPT-4 tiên tiến hơn trong ba lĩnh vực chính: Tính sáng tạo, đầu vào trực quan và ngữ cảnh dài hơn. Về khả năng sáng tạo, OpenAI cho biết GPT-4 tốt hơn nhiều trong cả việc tạo và cộng tác với người dùng trong các dự án sáng tạo. Ví dụ về những điều này gồm âm nhạc, kịch bản, viết kỹ thuật và thậm chí là “học phong cách viết của người dùng”.

GPT-4 hiện có thể xử lý tối đa 25.000 từ văn bản từ người dùng. Bạn thậm chí có thể gửi cho GPT-4 một liên kết web và yêu cầu nó tương tác với văn bản từ trang đó. OpenAI cho biết điều này có thể hữu ích cho việc tạo nội dung dài cũng như “các cuộc hội thoại mở rộng”.

GPT-4 hiện cũng có thể nhận hình ảnh làm cơ sở để tương tác. Trong ví dụ trên trang web GPT-4, mô hình ngôn ngữ mới được cung cấp hình ảnh của một số nguyên liệu làm bánh và được hỏi có thể làm gì với chúng. Hiện vẫn chưa biết liệu video cũng có thể được sử dụng theo cách tương tự hay không.

Ngoài ra, OpenAI cũng cho biết GPT-4 sử dụng an toàn hơn đáng kể so với thế hệ trước. Theo báo cáo, GPT-4 có thể tạo ra nhiều phản hồi thực tế hơn 40% trong thử nghiệm nội bộ của chính OpenAI, đồng thời giảm 82% khả năng "phản hồi yêu cầu cho nội dung bị cấm". Theo đại diện OpenAI, công ty đã dành 6 tháng để tinh chỉnh GPT-4 theo hướng an toàn và phù hợp hơn.

OpenAI cho biết GPT-4 được đào tạo với phản hồi của con người để đạt được những bước tiến này, đồng thời tuyên bố đã làm việc với “hơn 50 chuyên gia để có phản hồi sớm trong các lĩnh vực bao gồm an toàn và bảo mật AI”.

Trong sự kiện công bố GPT-4 ngày 14.3, Sam Altman cho biết mô hình ngôn ngữ mới được cải tiến theo hướng sáng tạo hơn và ít thiên vị hơn so với bản trước đó. Ông nhấn mạnh đây là công nghệ AI tiên tiến chưa từng có, được đào tạo bằng cách sử dụng phản hồi của con người kết hợp công nghệ học sâu (deep learning).

GPT-4 có khả năng xử lý đa phương thức đầu vào, gồm cả hình ảnh, giúp người dùng tương tác với nhiều chế độ. Việc chấp nhận hình ảnh đầu vào và xuất ra văn bản là tính năng chưa có trước đây, được đánh giá giúp người dùng có thêm tùy chọn để sáng tạo.

Sam Altman cho biết GPT-4 có hàng loạt khả năng mà các hệ thống AI hiện chưa thể đạt được. Cụ thể hơn, GPT-4 có thể đạt 1.410 điểm trong kỳ thi SAT - một trong những kỳ thi chuẩn hóa cho việc đăng ký vào một số đại học tại Mỹ; đạt 4 hoặc 5 trong thang điểm 5 của các kỳ thi nâng cao (AP) ở các bộ môn Lịch sử Nghệ thuật, Sinh học, Giải tích và Hóa học - số điểm đủ cao để nhận được tín chỉ đại học.

GPT-4 đã đánh bại 90% số người tham gia để vượt qua kỳ thi sát hạch trở thành luật sư, vượt 99% học sinh thi Olympic Sinh học. GPT-4 cũng đạt điểm cao nhất trong ít nhất 34 bài kiểm tra khác nhau trong các lĩnh vực như kinh tế vĩ mô, viết bài, Toán học hay thậm chí nội dung về nghiên cứu rượu vang.

"GPT-4 thể hiện hiệu suất ở cấp độ con người trong phần lớn kỳ thi học thuật và chuyên nghiệp", đại diện OpenAI cho hay.

Hơn nữa, OpenAI tuyên bố GPT-4 có thể lập trình bằng nhiều loại ngôn ngữ khác nhau, tạo kịch bản nội dung tùy theo yêu cầu, trả lời câu hỏi phức tạp cũng như tương tác với hình ảnh. Với khả năng tạo văn bản nhiều hơn 8 lần so với GPT-3.5, OpenAI cho biết mô hình ngôn ngữ mới có thể được sử dụng như một công cụ giảng dạy cho sinh viên.

Khi thảo luận về các khả năng mới của GPT-4, OpenAI cũng lưu ý một số hạn chế của mô hình ngôn ngữ này. Giống như các phiên bản trước của GPT, OpenAI cho biết GPT-4 vẫn gặp vấn đề với “thành kiến xã hội, mơ hồ về một số sự kiện và câu hỏi thù địch”.

Nói cách khác, GPT-4 không hoàn hảo, nhưng OpenAI cho biết đây là tất cả những vấn đề mà công ty đang nỗ lực giải quyết.

Sơn Vân