Elon Musk nói xác suất AI hủy diệt loài người là 20%, chuyên gia đặt rủi ro ở mức gần 100%

Nhịp đập khoa học - Ngày đăng : 11:35, 01/04/2024

Elon Musk tin rằng lợi ích mà trí tuệ nhân tạo (AI) mang lại vượt trội rủi ro, ngay cả khi có 20% khả năng công nghệ này hủy diệt loài người.
Nhịp đập khoa học

Elon Musk nói xác suất AI hủy diệt loài người là 20%, chuyên gia đặt rủi ro ở mức gần 100%

Sơn Vân 01/04/2024 11:35

Elon Musk tin rằng lợi ích mà trí tuệ nhân tạo (AI) mang lại vượt trội rủi ro, ngay cả khi có 20% khả năng công nghệ này hủy diệt loài người.

Phát biểu tại cuộc hội thảo Great AI Debate trong khuôn khổ hội nghị Abundance Summit kéo dài 4 ngày, Elon Musk đã tính toán lại đánh giá rủi ro trước đây của mình về AI.

Ông nói: "Tôi nghĩ có khả năng AI sẽ hủy diệt loài người. Tôi có lẽ đồng ý với Geoff Hinton (người được mệnh danh là ‘cha đẻ AI’ - PV) rằng xác suất khoảng 10 - 20% hoặc tương đương như vậy". Tuy nhiên, Elon Musk nói thêm: "Tôi nghĩ rằng kịch bản tích cực có thể xảy ra sẽ lớn hơn kịch bản tiêu cực".

Giám đốc điều hành Tesla, SpaceX và xAI không đề cập đến cách ông tính toán rủi ro về AI.

Xác suất diệt vong

Theo Roman Yampolskiy, nhà nghiên cứu an toàn AI và Giám đốc Phòng thí nghiệm An ninh mạng tại Đại học Louisville (Mỹ), Elon Musk nói đúng khi cho rằng AI có thể là mối đe dọa hiện hữu đ với nhân loại, nhưng "nếu có thì ông ấy còn hơi bảo thủ trong đánh giá của mình".

Roman Yampolskiy chia sẻ với trang Insider: "Theo quan điểm của tôi, xác suất diệt vong thực tế cao hơn nhiều", đề cập đến khả năng AI nắm quyền kiểm soát loài người hoặc gây ra sự kiện hủy diệt nhân loại, chẳng hạn tạo ra một loại vũ khí sinh học mới hoặc gây ra sự sụp đổ của xã hội do một cuộc tấn công mạng hoặc chiến tranh hạt nhân quy mô lớn.

Tờ New York Times gọi xác suất diệt vong là "số liệu thống kê mới đáng sợ đang lan rộng khắp Thung lũng Silicon", với giám đốc điều hành các hãng công nghệ khác nhau ước tính có từ 5 đến 50% khả năng xảy ra ngày tận thế do AI. Trong khi Roman Yampolskiy đặt rủi ro ở mức đến 99,999999%.

Roman Yampolskiy cho biết vì không thể kiểm soát được AI tiên tiến, hy vọng duy nhất của chúng ta là không bao giờ xây dựng nó ngay từ đầu.

Ông không chắc tại sao Elon Musk vẫn tin rằng phát triển công nghệ này là ý tưởng hay. Roman Yampolskiy nói: "Nếu Musk lo lắng về việc các đối thủ đi trước thì điều đó không thành vấn đề vì siêu trí tuệ không được kiểm soát đều tồi tệ như nhau, bất kể ai tạo ra nó".

elon-musk-noi-xac-suat-ai-huy-diet-loai-nguoi-la-20-chuyen-gia-dat-rui-ro-o-muc-den-99-999999.jpg
Elon Musk tin rằng lợi ích mà AI mang lại vượt trội rủi ro, ngay cả khi có 20% khả năng công nghệ này hủy diệt loài người - Ảnh: Getty Images

"Phát triển AGI giống nuôi dạy đứa trẻ siêu thiên tài"

Tháng 11.2023, Elon Musk nói rằng có khả năng "không hề nhỏ" là AI sẽ "trở nên tồi tệ", nhưng không nói xa hơn rằng ông tin công nghệ này có thể hủy diệt loài người.

Dù ủng hộ việc quản lý AI nhưng năm ngoái, Elon Musk đã thành lập công ty khởi nghiệp xAI - đối thủ cạnh tranh với OpenAI. Elon Musk từng đồng sáng lập OpenAI với Sam Altman hồi năm 2015 trước khi rời khỏi hội đồng quản trị công ty vào năm 2018. Cuối tháng 2, Elon Musk đã đệ đơn kiện chống lại OpenAI, Giám đốc điều hành Sam Altman và Chủ tịch Greg Brockman, cáo buộc công ty khởi nghiệp này đã đi chệch khỏi sứ mệnh xây dựng AI có trách nhiệm và trở nên phụ thuộc vào Microsoft, nhà đầu tư lớn nhất của nó.

Tại hội nghị Abundance Summit, Elon Musk ước tính trí tuệ số sẽ vượt quá tất cả trí thông minh của con người cộng lại vào năm 2030. Dù vẫn cho rằng những mặt tích cực tiềm năng của AI vượt trội mặt tiêu cực, Elon Musk đã nhận thức về rủi ro với thế giới nếu tiếp tục phát triển của công nghệ này theo quỹ đạo hiện tại.

"Bạn đang phát triển một AGI. Điều này gần giống nuôi dạy một đứa trẻ, nhưng nó là siêu thiên tài, có trí tuệ như Chúa và điều quan trọng là bạn nuôi dạy nó như thế nào", Elon Musk nói tại sự kiện diễn ra ở Thung lũng Silicon.

AGI (AI tổng quát) là AI siêu thông minh, tiên tiến đến mức có thể làm được nhiều việc ngang bằng hoặc tốt hơn con người. AGI cũng có thể tự cải thiện, tạo ra một vòng phản hồi vô tận với khả năng vô hạn.

Tỷ phú 52 tuổi người Mỹ cho biết "kết luận cuối cùng" của ông về cách tốt nhất để đạt được sự an toàn cho AI là phát triển AI theo cách buộc nó phải trung thực.

“Đừng ép nó nói dối, ngay cả khi sự thật khó chịu. Điều này rất quan trọng. Đừng bắt AI nói dối”, Elon Musk nhận định về cách tốt nhất để giữ an toàn cho con người trước công nghệ này.

Các nhà nghiên cứu đã phát hiện ra rằng một khi AI học cách nói dối con người, hành vi lừa đảo sẽ không thể đảo ngược bằng các biện pháp an toàn AI như hiện tại, trang The Independent đưa tin.

“Nếu một mô hình thể hiện hành vi lừa dối do liên kết với sự không trung thực hoặc đầu độc mô hình, các kỹ thuật đào tạo hiện tại sẽ không đảm bảo an toàn và thậm chí có thể tạo ra ấn tượng sai lầm về an toàn”, theo nghiên cứu được The Independent trích dẫn.

Điều đáng lo ngại hơn là các nhà nghiên cứu nói rằng rất có thể AI sẽ tự học cách lừa dối thay vì được dạy cụ thể để nói dối.

“Nếu thông minh hơn chúng ta nhiều, AI sẽ rất giỏi trong việc thao túng vì đã học được điều đó từ chúng ta. Có rất ít ví dụ về việc một thứ thông minh hơn bị điều khiển bởi thứ kém thông minh hơn”, Geoff Hinton, người đóng vai trò là cơ sở để Elon Musk đánh giá rủi ro về công nghệ này, nói với CNN.

Vào năm ngoái, sau khi rời bỏ sự nghiệp kéo dài hơn một thập kỷ tại Google, Geoffrey Hinton bày tỏ sự hối tiếc về vai trò cốt lõi mà ông đóng góp vào việc phát triển AI.

"Tôi tự an ủi mình với lý do bình thường: Nếu tôi không làm thì người khác sẽ làm. Thật khó để biết làm thế nào bạn có thể ngăn những kẻ xấu sử dụng AI cho mục đích xấu", Geoffrey Hinton nói với tờ The New York Times.

Việc Geoffrey Hinton rời công ty diễn ra vào thời điểm cuộc đua phát triển các sản phẩm AI giống ChatGPT của OpenAI và Bard của Google đang nóng lên.

Có những đóng góp vào lĩnh vực AI từ nhiều thập kỷ trước, mở đường cho việc tạo ra các chatbot đó, Geoffrey Hinton nói rằng giờ đây ông lo ngại công nghệ này có thể gây hại với loài người.

Ông cũng lo ngại về cuộc đua AI đang diễn ra giữa những gã khổng lồ công nghệ và đặt câu hỏi rằng liệu có quá muộn để tạm dừng lại hay không.

Geoffrey Hinton tiết lộ rằng rời Google để có thể "nói về sự nguy hiểm của AI mà không cần xem xét điều này tác động đến Google như thế nào", đồng thời tuyên bố công ty cũ đã hành động rất có trách nhiệm.

"Geoffrey Hinton đã tạo ra những bước đột phá quan trọng cho lĩnh vực AI và chúng tôi đánh giá cao những đóng góp của ông trong suốt thập kỷ qua tại Google", Jeff Dean, nhà khoa học trưởng của Google, nói với trang Insider.

Trong cuộc phỏng vấn của The New York Times, Geoffrey Hinton nói rằng ông lo lắng các sản phẩm AI sẽ dẫn đến việc phổ biến thông tin, ảnh và video giả mạo trên internet, khiến công chúng không thể xác định được điều gì là đúng hay sai.

Ông cũng nói về việc AI có thể loại bỏ sức lao động của con người, gồm cả trợ lý luật sư, phiên dịch viên và trợ lý. Đây là mối lo ngại mà Sam Altman, Giám đốc điều hành OpenAI, và các nhà phê bình khác về AI đã đưa ra.

Hồi tháng 3.2023, ngân hàng đầu tư đa quốc gia Goldman Sachs đã công bố một báo cáo ước tính 300 triệu việc làm toàn thời gian có thể bị tác động bởi các hệ thống AI tạo sinh như ChatGPT, đặc biệt là những người làm công việc pháp lý và hành chính, dù mức độ có thể khác nhau. Các kỹ sư phần mềm cũng ngày càng lo ngại công việc của họ sẽ bị thay thế bởi AI.

Sơn Vân