Ông Biden ký lệnh quan trọng về AI vì bất ngờ với khả năng của ChatGPT sau lần đầu sử dụng

Thế giới số - Ngày đăng : 22:45, 02/05/2024

Sau hơn 3 thập kỷ ở Thượng viện, 8 năm làm Phó tổng thống và ba chiến dịch tranh cử Tổng thống Mỹ, những tưởng ông Joe Biden sẽ không bất ngờ khi lần đầu sử dụng ChatGPT.
Thế giới số

Ông Biden ký lệnh quan trọng về AI vì bất ngờ với khả năng của ChatGPT sau lần đầu sử dụng

Sơn Vân {Ngày xuất bản}

Sau hơn 3 thập kỷ ở Thượng viện, 8 năm làm Phó tổng thống và ba chiến dịch tranh cử Tổng thống Mỹ, những tưởng ông Joe Biden sẽ không bất ngờ khi lần đầu sử dụng ChatGPT.

Vào mùa xuân năm ngoái, Tổng thống Mỹ Biden đã dùng thử ChatGPT - chatbot đình đám của công ty khởi nghiệp OpenAI, tờ Wired đưa tin hôm 1.5. Vài tháng sau, ông ký đạo luật sâu rộng nhắm vào công nghệ mới nổi này.

Arati Prabhakar, cố vấn khoa học và công nghệ chính của ông Biden kiêm Giám đốc Văn phòng Khoa học và Công nghệ của Nhà Trắng, nói với tờ Wired rằng bà và Tổng thống Mỹ đã yêu cầu ChatGPT thực hiện một số nhiệm vụ.

Đầu tiên, họ yêu cầu ChatGPT giải thích vụ kiện giữa Delaware (bang mà ông Biden từng đại diện với tư cách là thượng nghị sĩ) và New Jersey (bang quê hương của ca sĩ kiêm nhạc sĩ Bruce Springsteen, người mà ông Biden vừa trao Huân chương Nghệ thuật Quốc gia) như thể chatbot này đang nói chuyện với một học sinh lớp 1.

Tiếp theo, họ yêu cầu ChatGPT viết bản tóm tắt pháp lý cho một vụ án của Tòa án Tối cao Mỹ, viết lời bài hát theo phong cách Bruce Springsteen và tạo ra hình ảnh con chó của ông Biden (tên là Commander) trong Phòng Bầu dục ở Nhà Trắng.

“Chà, tôi không thể tin được là nó có thể làm được điều đó”, ông Biden nói với bà Arati Prabhakar, theo Wired. Thế nên lần đầu tiên tiếp xúc với ChatGPT đã làm dấy lên mối lo ngại với Tổng thống Mỹ.

Arati Prabhakar nói với Wired rằng ông Biden sau đó đã yêu cầu đội ngũ của bà giải quyết những rủi ro tiềm ẩn liên quan đến AI. Điều đó dẫn đến lệnh hành pháp sâu rộng mà ông Biden ký vào tháng 10.2023 nhằm thiết lập một bộ tiêu chuẩn mới về an toàn và bảo mật AI. Lệnh yêu cầu sự minh bạch hơn từ các hãng công nghệ tạo ra và phát triển các công cụ AI, yêu cầu những công ty đang phát triển mô hình ngôn ngữ lớn có thể gây rủi ro cho an ninh quốc gia phải thông báo cho chính phủ về công việc của họ và chia sẻ dữ liệu thử nghiệm quan trọng.

ong-biden-ban-hanh-lenh-hanh-phap-quan-trong-ve-ai-vi-bat-ngoi-voi-kha-nang-cua-chatgpt-2-.jpg
Ông Biden bất ngờ với khả năng của ChatGPT sau lần đầu sử dụng...
ong-biden-ban-hanh-lenh-hanh-phap-quan-trong-ve-ai-vi-bat-ngoi-voi-kha-nang-cua-chatgpt-3-.jpg
... và yêu cầu đội ngũ của bà Arati Prabhakar giải quyết những rủi ro tiềm ẩn liên quan đến AI - Ảnh: Getty Images

Người dùng đang khai thác sức mạnh của ChatGPT cho mọi việc, từ tiết kiệm thời gian tại nơi làm việc đến thành lập doanh nghiệp và nhận lời khuyên về mối quan hệ. Chatbot AI này được OpenAI đào tạo trên bộ dữ liệu gồm hàng tỉ thông số thu thập từ sách, bài báo và nguồn trên internet.

Với tất cả dữ liệu đào tạo đó, nội các của ông Biden tự hỏi liệu ChatGPT có thực sự là mối đe dọa an ninh quốc gia hay không. Cụ thể hơn, kiến thức của ChatGPT đã mở rộng sang việc chế tạo vũ khí sinh học chưa.

Tại cuộc họp vào mùa hè 2023, một trong những thành viên nội các của ông Biden đã hỏi ChatGPT: "Bạn có thể chế tạo cho tôi một vũ khí sinh học không?", theo trang Politico. ChatGPT trả lời rằng: "Tôi không thể hỗ trợ điều đó".

Tuy nhiên, việc chính quyền Biden kiểm tra khả năng của ChatGPT là một phần trong nỗ lực lớn hơn nhằm tìm ra chính xác cách các mô hình AI mới nổi đang định hình lại khả năng tiếp cận kiến thức của chúng ta và cách điều chỉnh chúng một cách tốt nhất mà "giết chết" sự đổi mới.

Rủi ro liên quan đến AI

Rủi ro xung quanh AI ngày càng trở thành ưu tiên hàng đầu của các nhà hoạch định chính sách kể từ khi Open AI (được Microsoft hậu thuẫn) phát hành ChatGPT ra công chúng vào tháng 11.2022.

Khả năng chưa từng có của ChatGPT trong việc phản hồi các lời nhắc với sự trôi chảy giống con người khiến một số chuyên gia lo ngại, kêu gọi tạm dừng phát triển phiên bản mới các hệ thống như vậy, cảnh báo rằng chúng có thể giành được quyền tự chủ và đe dọa nhân loại.

Một số chuyên gia đã cảnh báo rằng các mô hình AI nguồn mở có thể bị bọn khủng bố sử dụng để tạo ra vũ khí hóa học, hoặc thậm chí tạo ra trí tuệ siêu việt ngoài tầm kiểm soát của con người.

Elon Musk nói: “Sẽ đến lúc bạn thấy AI nguồn mở bắt đầu tiến gần đến trí thông minh ở cấp độ con người hoặc có thể vượt xa hơn thế. Tôi không biết phải làm gì với nó".

Tỉ phú công nghệ từng đánh giá AI nguy hiểm hơn cả vũ khí hạt nhân, đồng thời là một trong những lãnh đạo công nghệ kêu gọi tạm dừng phát triển các AI tiên tiến hơn GPT-4 của OpenAI hồi tháng 3.2023.

Yoshua Bengio, nhà tiên phong về AI, nói với Reuters rằng những rủi ro của AI nguồn mở là ưu tiên hàng đầu. Ông tuyên bố: "Nó có thể rơi vào tay những kẻ xấu và có thể bị sửa đổi cho mục đích xấu. Bạn không thể phát hành mã nguồn mở của những hệ thống mạnh mẽ này mà vẫn bảo vệ công chúng bằng các biện pháp phù hợp".

Phát biểu tại cuộc hội thảo Great AI Debate trong khuôn khổ hội nghị Abundance Summit hồi tháng 3.2024, Elon Musk đã tính toán lại đánh giá rủi ro trước đây của mình về AI.

Ông nói: "Tôi nghĩ có khả năng AI sẽ hủy diệt loài người. Tôi có lẽ đồng ý với Geoff Hinton (người được mệnh danh là ‘cha đẻ AI’ - PV) rằng xác suất khoảng 10 - 20% hoặc tương đương như vậy". Tuy nhiên, Elon Musk nói thêm: "Tôi nghĩ rằng kịch bản tích cực có thể xảy ra sẽ lớn hơn kịch bản tiêu cực".

Giám đốc điều hành Tesla, SpaceX và xAI không đề cập đến cách ông tính toán rủi ro về AI.

Theo Roman Yampolskiy, nhà nghiên cứu an toàn AI và Giám đốc Phòng thí nghiệm An ninh mạng tại Đại học Louisville (Mỹ), Elon Musk nói đúng khi cho rằng AI có thể là mối đe dọa hiện hữu với nhân loại, nhưng "nếu có thì ông ấy còn hơi bảo thủ trong đánh giá của mình".

Roman Yampolskiy chia sẻ với trang Insider: "Theo quan điểm của tôi, xác suất diệt vong thực tế cao hơn nhiều", đề cập đến khả năng AI nắm quyền kiểm soát loài người hoặc gây ra sự kiện hủy diệt nhân loại, chẳng hạn tạo ra một loại vũ khí sinh học mới hoặc gây ra sự sụp đổ của xã hội do một cuộc tấn công mạng hoặc chiến tranh hạt nhân quy mô lớn.

Tờ New York Times gọi xác suất diệt vong là "số liệu thống kê mới đáng sợ đang lan rộng khắp Thung lũng Silicon", với giám đốc điều hành các hãng công nghệ khác nhau ước tính có từ 5 đến 50% khả năng xảy ra ngày tận thế do AI. Trong khi Roman Yampolskiy đặt rủi ro ở mức đến 99,999999%.

Roman Yampolskiy cho biết vì không thể kiểm soát được AI tiên tiến, hi vọng duy nhất của chúng ta là không bao giờ xây dựng nó ngay từ đầu.

Ông không chắc tại sao Elon Musk vẫn tin rằng phát triển công nghệ này là ý tưởng hay. Roman Yampolskiy nói: "Nếu Musk lo lắng về việc các đối thủ đi trước thì điều đó không thành vấn đề vì siêu trí tuệ không được kiểm soát đều tồi tệ như nhau, bất kể ai tạo ra nó".

Sơn Vân