Damion Hankejh đặt cược 10 triệu USD để chứng minh Elon Musk dự đoán sai về AI

Nhịp đập khoa học - Ngày đăng : 11:10, 11/04/2024

Damion Hankejh đã đặt cược 10 triệu USD để chống lại dự đoán của Elon Musk rằng AI thông minh hơn bất kỳ người nào sẽ xuất hiện vào khoảng cuối năm 2025.
Nhịp đập khoa học

Damion Hankejh đặt cược 10 triệu USD để chứng minh Elon Musk dự đoán sai về AI

Sơn Vân 11/04/2024 11:10

Damion Hankejh đã đặt cược 10 triệu USD để chống lại dự đoán của Elon Musk rằng AI thông minh hơn bất kỳ người nào sẽ xuất hiện vào khoảng cuối năm 2025.

Trong một cuộc phỏng vấn trực tiếp của Nicolai Tangen trên X, Elon Musk cho biết trí tuệ nhân tạo (AI) là công nghệ tiến bộ nhanh nhất mà ông từng thấy và dự đoán AI thông minh hơn bất kỳ người nào sẽ xuất hiện vào khoảng cuối năm 2025.

"Tôi đoán là chúng ta sẽ có AI thông minh hơn bất kỳ người nào vào khoảng cuối năm tới. Tôi nghĩ tổng lượng tính toán giống như có tri giác của AI có thể sẽ vượt quá tất cả con người trong 5 năm”, Elon Musk dự đoán.

Nicolai Tangen là Giám đốc điều hành Norges Bank Investment Management – chi nhánh của ngân hàng trung ương Na Uy chịu trách nhiệm quản lý quỹ đầu tư quốc gia lớn nhất thế giới.

Gary Marcus, người sáng lập và Giám đốc điều hành Geometric Intelligence - công ty khởi nghiệp AI về học máy được Uber mua lại vào năm 2016, không đồng tình với những dự đoán của Elon Musk. Gary Marcus đề nghị đặt cược 1 triệu USD để chứng minh Elon Musk dự đoán sai.

Gary Marcus viết trên mạng xã hội X: “Kính gửi Elon Musk. 1 triệu USD để chứng minh dự đoán mới nhất của ông – rằng AI sẽ thông minh hơn bất kỳ cá nhân nào vào cuối năm 2025 – là sai. Lưu ý rằng ở một số khía cạnh (nhưng không phải tất cả), máy tính đã thông minh hơn người thông minh nhất trong nhiều thập kỷ. Không người nào có thể dịch nhiều ngôn ngữ như Google Translate, không người nào có thể đánh bại máy tính trong môn cờ vua…”.

Ngay sau khi Gary Marcus đăng bài trên X, Damion Hankejh, nhà đầu tư và Giám đốc điều hành ingk.com (trang web của tập đoàn Ingka), đã đề nghị tăng mức cược lên 10 triệu USD.

damion-hankejh-dat-cuoc-10-trieu-usd-de-chung-minh-elon-musk-du-doan-sai-ve-ai.jpg
Gary Marcus đề nghị đặt cược 1 triệu USD để chứng minh Elon Musk dự đoán sai về AI - Ảnh: YouTube
damion-hankejh-dat-cuoc-10-trieu-usd-de-chung-minh-elon-musk-du-doan-sai-ve-ai1.jpg
Damion Hankejh nâng mức cược lên 10 triệu USD - Ảnh: Internet

Gary Marcus cho biết Elon Musk vẫn chưa phản hồi và đây không phải là lần đầu tiên ông không nhận được phản hồi từ chủ mạng xã hội X về một vụ cá cược.

Trước đó, Gary Marcus đã đặt cược 100.000 USD chống lại tuyên bố của Elon Musk rằng AGI (AI tổng quát) sắp đến. Số tiền đặt cược đã tăng lên 500.000 USD. AGI là AI siêu thông minh, tiên tiến đến mức có thể làm được nhiều việc ngang bằng hoặc tốt hơn con người.

Với Gary Marcus, vấn đề không chỉ là thắng cược. Ông nói với trang Insider rằng muốn có một cuộc thảo luận công khai với Elon Musk về tình trạng thực sự của AI.

Gary Marcus cho hay: “Trong nhiều năm, rất nhiều người trong ngành công nghệ đã đưa ra những tuyên bố mà tôi cảm thấy không hợp lý từ góc độ khoa học. Đã có rất nhiều lời hứa thất bại nhưng hầu như không có bất kỳ trách nhiệm giải trình nào".

Ví dụ, Gary Marcus trích dẫn công nghệ như ô tô không người lái và nói rằng việc giới thiệu các bản demo thì dễ nhưng thực sự tạo ra một thiết bị đáng tin cậy khó hơn nhiều.

Gary Marcus nói mọi người cần hiểu thực tế là gì và theo ông, các mô hình ngôn ngữ lớn sẽ không thông minh hơn con người trong 5 năm tới.

Giám đốc điều hành Geometric Intelligence cho rằng chúng ta có thể phải mất hàng thập kỷ nữa mới có những cỗ máy đáng tin cậy và suy nghĩ như con người.

Gary Marcus nói dù các mô hình ngôn ngữ lớn là công nghệ tốt nhất trong AI hiện nay nhưng chúng không thực sự tốt.

Ông trích dẫn ảo giác (trả lời sai y như thật), rò rỉ dữ liệu bảo mật và các vấn đề về độ tin cậy là một số mối lo ngại. Gary Marcus cũng cho biết mô hình ngôn ngữ lớn đang được sử dụng để cung cấp thông tin sai lệch và dùng dữ liệu có bản quyền để lấy chất xám từ các nghệ sĩ.

“Chúng ta nên mong muốn thế giới tìm ra những cách tốt hơn, đáng tin cậy hơn để xây dựng AI”, Gary Marcus nói.

Ông cho biết một trong những cách để làm như vậy là thông qua một số cơ quan cấp phép yêu cầu chứng minh lợi ích của AI.

Tại cuộc hội thảo Great AI Debate trong khuôn khổ hội nghị Abundance Summit gần đây, Elon Musk tin rằng lợi ích AI mang lại vượt trội rủi ro, ngay cả khi có 20% khả năng công nghệ này hủy diệt loài người.

Ông nói: "Tôi nghĩ có khả năng AI sẽ hủy diệt loài người. Tôi có lẽ đồng ý với Geoff Hinton (người được mệnh danh là ‘cha đẻ AI’) rằng xác suất khoảng 10 - 20% hoặc tương đương như vậy". Tuy nhiên, Elon Musk nói thêm: "Tôi nghĩ rằng kịch bản tích cực có thể xảy ra sẽ lớn hơn kịch bản tiêu cực".

Giám đốc điều hành Tesla, SpaceX và xAI không đề cập đến cách ông tính toán rủi ro về AI.

Theo Roman Yampolskiy, nhà nghiên cứu an toàn AI và Giám đốc Phòng thí nghiệm An ninh mạng tại Đại học Louisville (Mỹ), Elon Musk nói đúng khi cho rằng AI có thể là mối đe dọa hiện hữu với nhân loại, nhưng "nếu có thì ông ấy còn hơi bảo thủ trong đánh giá của mình".

Roman Yampolskiy chia sẻ với trang Insider: "Theo quan điểm của tôi, xác suất diệt vong thực tế cao hơn nhiều", đề cập đến khả năng AI nắm quyền kiểm soát loài người hoặc gây ra sự kiện hủy diệt nhân loại, chẳng hạn tạo ra một loại vũ khí sinh học mới hoặc gây ra sự sụp đổ của xã hội do một cuộc tấn công mạng hoặc chiến tranh hạt nhân quy mô lớn.

Tờ New York Times gọi xác suất diệt vong là "số liệu thống kê mới đáng sợ đang lan rộng khắp Thung lũng Silicon", với giám đốc điều hành các hãng công nghệ khác nhau ước tính có từ 5 đến 50% khả năng xảy ra ngày tận thế do AI. Trong khi Roman Yampolskiy đặt rủi ro ở mức đến 99,999999%.

Roman Yampolskiy cho biết vì không thể kiểm soát được AI tiên tiến, hy vọng duy nhất của chúng ta là không bao giờ xây dựng nó ngay từ đầu.

Ông không chắc tại sao Elon Musk vẫn tin rằng phát triển công nghệ này là ý tưởng hay. Roman Yampolskiy nói: "Nếu Musk lo lắng về việc các đối thủ đi trước thì điều đó không thành vấn đề vì siêu trí tuệ không được kiểm soát đều tồi tệ như nhau, bất kể ai tạo ra nó".

elon-musk-noi-xac-suat-ai-huy-diet-loai-nguoi-la-20-chuyen-gia-dat-rui-ro-o-muc-den-99-999999.jpg
Gary Marcus công khai ủng hộ Elon Musk trong vụ kiện OpenAI - Ảnh: Getty Images

Cuối tháng 2, Elon Musk đã đệ đơn kiện chống lại OpenAI, Giám đốc điều hành Sam Altman và Chủ tịch Greg Brockman, cáo buộc công ty khởi nghiệp này đã đi chệch khỏi sứ mệnh xây dựng AI có trách nhiệm và trở nên phụ thuộc vào Microsoft, nhà đầu tư lớn nhất của nó. OpenAI phủ nhận các cáo buộc của Elon Musk.

Elon Musk đồng sáng lập OpenAI năm 2015, nhưng rời hội đồng quản trị công ty này vào 2018 do bất đồng quan điểm.

Gary Marcus cho biết đã công khai ủng hộ Elon Musk trong vụ kiện. Ông nói: “Tôi thực sự khá ủng hộ Musk. Tôi nghĩ rằng việc chú ý đến những vấn đề đó là điều tốt”.

Cuối cùng, Gary Marcus tin rằng AI có thể giúp ích cho nhân loại, nhưng không quá lạc quan về việc công nghệ này sẽ đáng tin cậy trong tương lai gần.

Tại hội nghị Abundance Summit, Elon Musk ước tính trí tuệ số sẽ vượt quá tất cả trí thông minh của con người cộng lại vào năm 2030. Dù vẫn cho rằng những mặt tích cực tiềm năng của AI vượt trội mặt tiêu cực, Elon Musk đã nhận thức về rủi ro với thế giới nếu tiếp tục phát triển của công nghệ này theo quỹ đạo hiện tại.

"Bạn đang phát triển một AGI. Điều này gần giống nuôi dạy một đứa trẻ, nhưng nó là siêu thiên tài, có trí tuệ như Chúa và điều quan trọng là bạn nuôi dạy nó như thế nào", Elon Musk nói tại sự kiện diễn ra ở Thung lũng Silicon.

Tỷ phú 52 tuổi người Mỹ cho biết "kết luận cuối cùng" của ông về cách tốt nhất để đạt được sự an toàn cho AI là phát triển AI theo cách buộc nó phải trung thực.

“Đừng ép nó nói dối, ngay cả khi sự thật khó chịu. Điều này rất quan trọng. Đừng bắt AI nói dối”, Elon Musk nhận định về cách tốt nhất để giữ an toàn cho con người trước công nghệ này.

Các nhà nghiên cứu đã phát hiện ra rằng một khi AI học cách nói dối con người, hành vi lừa đảo sẽ không thể đảo ngược bằng các biện pháp an toàn AI như hiện tại, trang The Independent đưa tin.

“Nếu một mô hình thể hiện hành vi lừa dối do liên kết với sự không trung thực hoặc đầu độc mô hình, các kỹ thuật đào tạo hiện tại sẽ không đảm bảo an toàn và thậm chí có thể tạo ra ấn tượng sai lầm về an toàn”, theo nghiên cứu được The Independent trích dẫn.

Điều đáng lo ngại hơn là các nhà nghiên cứu nói rằng rất có thể AI sẽ tự học cách lừa dối thay vì được dạy cụ thể để nói dối.

“Nếu thông minh hơn chúng ta nhiều, AI sẽ rất giỏi trong việc thao túng vì đã học được điều đó từ chúng ta. Có rất ít ví dụ về việc một thứ thông minh hơn bị điều khiển bởi thứ kém thông minh hơn”, Geoff Hinton, người đóng vai trò là cơ sở để Elon Musk đánh giá rủi ro về công nghệ này, nói với CNN.

Sơn Vân