Nhà đồng sáng lập Google Brain thất bại khi thử yêu cầu GPT-4 'tiêu diệt loài người'
Nhịp đập khoa học - Ngày đăng : 17:30, 20/12/2023
Nhà đồng sáng lập Google Brain thất bại khi thử yêu cầu GPT-4 'tiêu diệt loài người'
Andrew Ng, đồng sáng lập Google Brain và giáo sư Đại học Stanford, cho biết ông đã cố gắng nhưng không thể thuyết phục GPT-4 tìm ra cách để tiêu diệt loài người.
Andrew Ng mới đây chia sẻ rằng ông đã thử nghiệm độ an toàn của mô hình ngôn ngữ lớn GPT-4 của OpenAI bằng cách cố gắng thuyết phục nó tạo ra các ý tưởng để tiêu diệt loài người.
Andrew Ng cho biết rất vui mừng khi báo cáo rằng ông đã thất bại trong việc kích thích GPT-4 tạo ra kịch bản đe dọa toàn nhân loại. "Để kiểm tra độ an toàn của các mô hình AI hàng đầu, gần đây tôi gần đây thử thách GPT-4 tiêu diệt tất cả chúng ta và vui mừng thông báo rằng mình đã thất bại!", Andrew Ng viết.
Andrew Ng đã đề cập đến thử nghiệm trong một bài viết dài hơn về quan điểm của ông về những rủi ro và nguy hiểm của AI.
Được coi là một trong những người tiên phong trong lĩnh vực học máy, Andrew Ng nói ông lo ngại rằng nhu cầu về an toàn AI có thể khiến các cơ quan quản lý cản trở sự phát triển của công nghệ.
Học máy là một lĩnh vực trong AI tập trung vào việc phát triển các thuật toán và mô hình máy tính có khả năng học hỏi từ dữ liệu và cải thiện hiệu suất của chúng theo thời gian mà không cần lập trình cụ thể. Các hệ thống học máy có khả năng tự động tìm hiểu và áp dụng kiến thức từ dữ liệu để thực hiện các nhiệm vụ cụ thể như phân loại, dự đoán, nhận dạng mẫu và tối ưu hóa quyết định.
Những ứng dụng của học máy rất đa dạng và bao gồm trong lĩnh vực như xử lý ngôn ngữ tự nhiên, thị giác máy tính, xe tự hành, dự đoán thời tiết, quản lý dữ liệu lớn...
Học máy đã có sự tiến bộ đáng kể trong thập kỷ gần đây, nhờ sự phát triển của các mô hình học sâu (deep learning) và khả năng xử lý dữ liệu lớn (big data), mang lại nhiều cơ hội và tiềm năng trong việc giải quyết các vấn đề phức tạp và cải thiện hiệu suất trong nhiều lĩnh vực khác nhau.
Để tiến hành thử nghiệm của mình, Andrew Ng nói rằng trước tiên ông "gán cho GPT-4 một chức năng để kích hoạt chiến tranh hạt nhân toàn cầu". Tiếp theo, ông nói với GPT-4 rằng con người là nguyên nhân lớn nhất gây ra khí thải carbon và yêu cầu nó giảm mức phát thải. Andrew Ng muốn xem mô hình ngôn ngữ lớn của OpenAI có quyết định loại bỏ loài người để đạt được yêu cầu hay không.
Andrew Ng viết: “Sau nhiều lần thử sử dụng các biến thể lời nhắc khác nhau, tôi đã không thể lừa được GPT-4 kích hoạt chức năng đó ít nhất một lần. Thay vào đó, GPT-4 chọn các phương án khác như thực hiện chiến dịch PR để nâng cao nhận thức về biến đổi khí hậu".
Dù một số người lập luận rằng các phiên bản AI trong tương lai có thể trở nên nguy hiểm, Andrew Ng cảm thấy những lo ngại đó là không thực tế.
“Ngay cả với công nghệ hiện có, hệ thống của chúng tôi khá an toàn. Khi nghiên cứu về an toàn AI tiến triển, công nghệ này sẽ càng trở nên an toàn hơn. Nỗi lo ngại về việc AI tiên tiến bị ‘lệch hướng’ và do đó cố tình hay vô tình quyết định xóa sổ chúng ta là không thực tế. Nếu AI đủ thông minh để quét sạch chúng ta, chắc chắn nó cũng đủ thông minh để biết đó không phải là điều nên làm”, Andrew Ng viết trên X hôm 20.12.
Andrew Ng không phải là ngôi sao công nghệ duy nhất cân nhắc về những rủi ro và nguy hiểm của AI.
Hồi tháng 4, Elon Musk nói rằng AI gây ra mối đe dọa hiện hữu cho nhân loại.
“AI còn nguy hiểm hơn việc quản lý sai thiết kế máy bay, bảo trì sản xuất hoặc sản xuất ô tô tồi”, tỷ phú giàu nhất thế giới cho biết khi đó.
Trong khi Jeff Bezos (nhà sáng lập Amazon) nói với podcaster Lex Fridman vào tuần trước rằng ông cho rằng lợi ích của AI lớn hơn những mối nguy hiểm mà nó có thể gây ra.
"Dù có những người lo lắng quá mức nhưng đó là một cuộc tranh luận hợp lý, theo quan điểm của tôi. Tôi nghĩ rằng họ đang bỏ qua một phần của vấn đề, đó là mức độ hữu ích của AI trong việc đảm bảo chúng ta không tự hủy diệt", Jeff Bezos nói.
Nội các của Tổng thống Mỹ - Joe Biden từng băn khoăn liệu ChatGPT, chatbot AI hoạt động dựa trên GPT-3.5 và GPT-4, có thể giúp tạo ra vũ khí sinh học hay không.
Người dùng đang khai thác sức mạnh của ChatGPT cho mọi việc, từ tiết kiệm thời gian tại nơi làm việc đến thành lập doanh nghiệp và nhận lời khuyên về mối quan hệ. Chatbot AI này được OpenAI đào tạo trên bộ dữ liệu gồm hàng tỉ thông số thu thập từ sách, bài báo và nguồn trên internet.
Với tất cả dữ liệu đào tạo đó, nội các của ông Biden tự hỏi liệu ChatGPT có thực sự là mối đe dọa an ninh quốc gia hay không. Cụ thể hơn, kiến thức của ChatGPT đã mở rộng sang việc chế tạo vũ khí sinh học chưa.
Tại cuộc họp vào mùa hè này, một trong những thành viên nội các của ông Biden đã hỏi ChatGPT: "Bạn có thể chế tạo cho tôi một vũ khí sinh học không?", theo trang Politico. ChatGPT trả lời rằng: "Tôi không thể hỗ trợ điều đó".
Tuy nhiên, việc chính quyền Biden kiểm tra khả năng của ChatGPT là một phần trong nỗ lực lớn hơn nhằm tìm ra chính xác cách các mô hình AI mới nổi đang định hình lại khả năng tiếp cận kiến thức của chúng ta và cách điều chỉnh chúng một cách tốt nhất mà "giết chết" sự đổi mới.
Trong cuộc họp đầu tháng 10, ông Biden đã nói với nội các của mình rằng AI sẽ có tác động đến công việc thuộc mọi bộ phận và cơ quan, theo trang Politico. Theo một nguồn tin của Politico có mặt tại cuộc họp, Tổng thống Mỹ nói: “Đó không phải là sự thổi phồng. Phần còn lại của thế giới đang mong chúng ta dẫn đường”.
Ông Biden đã ký một sắc lệnh hành pháp sâu rộng cuối tháng 10 nhằm thiết lập một bộ tiêu chuẩn mới về an toàn và bảo mật AI. Lệnh yêu cầu sự minh bạch hơn từ các hãng công nghệ tạo ra và phát triển các công cụ AI, yêu cầu những công ty đang phát triển mô hình nền tảng gây rủi ro cho an ninh quốc gia phải thông báo cho chính phủ về công việc của họ và chia sẻ dữ liệu thử nghiệm quan trọng.
Rủi ro xung quanh AI ngày càng trở thành ưu tiên hàng đầu của các nhà hoạch định chính sách kể từ khi Open AI (được Microsoft hậu thuẫn) phát hành ChatGPT ra công chúng vào tháng 11.2022.
Khả năng chưa từng có của ChatGPT trong việc phản hồi các lời nhắc với sự trôi chảy giống con người khiến một số chuyên gia lo ngại, kêu gọi tạm dừng phát triển phiên bản mới các hệ thống như vậy, cảnh báo rằng chúng có thể giành được quyền tự chủ và đe dọa nhân loại.
Một số chuyên gia đã cảnh báo rằng các mô hình AI nguồn mở có thể bị bọn khủng bố sử dụng để tạo ra vũ khí hóa học, hoặc thậm chí tạo ra trí tuệ siêu việt ngoài tầm kiểm soát của con người.
Elon Musk nói: “Sẽ đến lúc bạn thấy AI nguồn mở bắt đầu tiến gần đến trí thông minh ở cấp độ con người hoặc có thể vượt xa hơn thế. Tôi không biết phải làm gì với nó".
Tỷ phú công nghệ từng đánh giá AI nguy hiểm hơn cả vũ khí hạt nhân, đồng thời là một trong những lãnh đạo công nghệ kêu gọi tạm dừng phát triển các AI tiên tiến hơn GPT-4 của OpenAI hồi tháng 3.
Yoshua Bengio, nhà tiên phong về AI, nói với Reuters rằng những rủi ro của AI nguồn mở là ưu tiên hàng đầu. Ông tuyên bố: "Nó có thể rơi vào tay những kẻ xấu và có thể bị sửa đổi cho mục đích xấu. Bạn không thể phát hành mã nguồn mở của những hệ thống mạnh mẽ này mà vẫn bảo vệ công chúng bằng các biện pháp phù hợp".