Elon Musk: AI chưa có tác dụng gì tại SpaceX và Starlink
Nhịp đập khoa học - Ngày đăng : 16:36, 07/05/2024
Elon Musk: AI chưa có tác dụng gì tại SpaceX và Starlink
Elon Musk, Giám đốc điều hành SpaceX, nói một trong những lĩnh vực gần như không sử dụng trí tuệ nhân tạo (AI) là khám phá không gian.
Tại Milken Institute Global Conference lần thứ 27, Elon Musk đã dành phần lớn bài nói chuyện của mình để ca ngợi lợi ích mà AI mang lại. Tại một thời điểm, Elon Musk nói rằng AI "tìm kiếm sự thật có thể thúc đẩy nền văn minh nhân loại" khi được hỏi về vai trò của công nghệ này trong cuộc sống con người hàng ngày.
Milken Institute Global Conference là diễn đàn thường niên tập trung vào các vấn đề kinh tế và xã hội.
Thế nhưng khi được hỏi liệu AI có thể tăng tốc nỗ lực khám phá không gian của mình hay không, Elon Musk dường như không quá hào hứng với công nghệ này.
"AI có thể tăng tốc nỗ lực của ông trong không gian không? Ông thấy nó giúp ích như thế nào cho những gì đang cố gắng đạt được?", Michael Milken, nhà tài chính người Mỹ điều hành buổi nói chuyện, hỏi.
“Thật kỳ lạ, một trong những lĩnh vực gần như không sử dụng AI là khám phá không gian. Vì vậy, SpaceX về cơ bản không sử dụng AI, Starlink không dùng AI. Tôi không phản đối việc sử dụng nó. Thế nhưng, chúng tôi chưa thấy nó có tác dụng gì", Elon Musk trả lời.
Starlink là dự án chòm sao vệ tinh do SpaceX phát triển nhằm cung cấp dịch vụ internet vệ tinh toàn cầu. Mục tiêu của dự án là phóng hàng nghìn vệ tinh nhỏ vào quỹ đạo Trái đất tầm thấp để cung cấp truy cập internet tốc độ cao, độ trễ thấp và giá cả phải chăng cho người dùng ở mọi nơi trên thế giới, đặc biệt là những khu vực xa xôi hoặc chưa có cơ sở hạ tầng internet hiện đại.
Elon Musk nói rằng ông đang thử nghiệm các mô hình ngôn ngữ AI cải tiến bằng cách hỏi chúng những câu về không gian và kết quả thật đáng thất vọng.
“Với bất kỳ biến thể hoặc cải tiến nào của AI, tôi sẽ hỏi nó những câu hỏi về nghịch lý Fermi, thiết kế động cơ tên lửa, điện hóa học… Song cho đến nay, AI vẫn trả lời rất tệ ở tất cả câu hỏi đó”, Elon Musk khẳng định. "Vì vậy, AI vẫn cần phải cải thiện nhiều”, tỷ phú 52 tuổi người Mỹ nhấn mạnh.
Nghịch lý Fermi là nghịch lý đặt ra câu hỏi mâu thuẫn giữa khả năng cao về sự tồn tại của sự sống ngoài Trái đất và sự thiếu bằng chứng xác thực về điều này.
Elon Musk đầu tư rất nhiều vào phát triển AI
Dù bày tỏ một số hoài nghi về AI trong việc khám phá không gian, Elon Musk vẫn đầu tư rất nhiều vào việc phát triển công nghệ này thông qua công ty khởi nghiệp xAI của mình. xAI là dự án sử dụng AI để “thúc đẩy những khám phá khoa học của con người”.
Gần đây, Elon Musk từng dự đoán AI thông minh hơn con người sẽ xuất hiện vào cuối năm 2026.
Tại các công ty khác của ông, việc sử dụng AI diễn ra sâu rộng nhiều hơn. Ở X, Elon Musk đã tích hợp chatbot AI Grok (tương tự ChatGPT) vào nền tảng truyền thông xã hội này. Tỷ phú công nghệ cũng cân nhắc việc sử dụng AI để giúp tóm tắt tin tức trên trang web.
Tại Tesla, Giám đốc điều hành Elon Musk hy vọng sẽ chế tạo được robot lao động có tri giác mang tên Optimus. Tuy nhiên, ông tạm dừng phát triển AI cho ô tô điện vì không được nắm giữ 25% cổ phần công ty. Elon Musk cho rằng sở hữu 25% cổ phần sẽ giúp ông kiểm soát tốt hơn định hướng của AI tại Tesla.
"Tôi cảm thấy không thoải mái khi thúc đẩy Tesla trở thành hãng dẫn đầu trong lĩnh vực AI và robot nếu không nắm giữ khoảng 25% quyền biểu quyết. Việc nắm giữ 25% quyền biểu quyết cho phép tôi có tầm ảnh hưởng nhưng vẫn có thể bị lật đổ nếu hai lần số cổ đông khác bỏ phiếu chống lại tôi. Ở mức 15% hoặc thấp hơn, việc lật đổ tôi bởi những nhóm lợi ích đáng ngờ trở nên quá dễ dàng", Elon Musk viết trên X.
Ông cũng cảnh giác về những rủi ro tiềm ẩn với nhân loại và xã hội mà AI có thể gây ra, gồm cả việc truyền bá thông tin sai lệch và tự động hóa công việc trên diện rộng. Tỷ phú công nghệ tin rằng có một tỷ lệ nhỏ khả năng AI siêu thông minh có thể hủy diệt nhân loại.
Phát biểu tại cuộc hội thảo Great AI Debate trong khuôn khổ hội nghị Abundance Summit cuối tháng 3, Elon Musk đã tính toán lại đánh giá rủi ro trước đây của mình về AI.
Ông nói: "Tôi nghĩ có khả năng AI sẽ hủy diệt loài người. Tôi có lẽ đồng ý với Geoff Hinton (người được mệnh danh là ‘cha đẻ AI’ - PV) rằng xác suất khoảng 10 - 20% hoặc tương đương như vậy". Tuy nhiên, Elon Musk nói thêm: "Tôi nghĩ rằng kịch bản tích cực có thể xảy ra sẽ lớn hơn kịch bản tiêu cực".
Giám đốc điều hành Tesla, SpaceX và xAI không đề cập đến cách ông tính toán rủi ro về AI.
Tháng 11.2023, Elon Musk nói rằng có khả năng "không hề nhỏ" là AI sẽ "trở nên tồi tệ", nhưng không nói xa hơn rằng ông tin công nghệ này có thể hủy diệt loài người.
"Phát triển AGI giống nuôi dạy đứa trẻ siêu thiên tài"
Dù ủng hộ việc quản lý AI nhưng năm ngoái, Elon Musk đã thành lập xAI để cạnh tranh với OpenAI.
Elon Musk từng đồng sáng lập OpenAI với Sam Altman hồi năm 2015 trước khi rời khỏi hội đồng quản trị công ty vào năm 2018. Cuối tháng 2, Elon Musk đã đệ đơn kiện chống lại OpenAI, Giám đốc điều hành Sam Altman và Chủ tịch Greg Brockman, cáo buộc công ty khởi nghiệp này đã đi chệch khỏi sứ mệnh xây dựng AI có trách nhiệm và trở nên phụ thuộc vào Microsoft, nhà đầu tư lớn nhất của nó.
Tại hội nghị Abundance Summit, Elon Musk ước tính trí tuệ số sẽ vượt quá tất cả trí thông minh của con người cộng lại vào năm 2030. Dù vẫn cho rằng những mặt tích cực tiềm năng của AI vượt trội mặt tiêu cực, Elon Musk đã nhận thức về rủi ro với thế giới nếu tiếp tục phát triển của công nghệ này theo quỹ đạo hiện tại.
"Bạn đang phát triển một AGI. Điều này gần giống nuôi dạy một đứa trẻ, nhưng nó là siêu thiên tài, có trí tuệ như Chúa và điều quan trọng là bạn nuôi dạy nó như thế nào", Elon Musk nói tại sự kiện diễn ra ở Thung lũng Silicon.
AGI (AI tổng quát) là AI siêu thông minh, tiên tiến đến mức có thể làm được nhiều việc ngang bằng hoặc tốt hơn con người. AGI cũng có thể tự cải thiện, tạo ra một vòng phản hồi vô tận với khả năng vô hạn.
Tỷ phú 52 tuổi người Mỹ cho biết "kết luận cuối cùng" của ông về cách tốt nhất để đạt được sự an toàn cho AI là phát triển AI theo cách buộc nó phải trung thực.
“Đừng ép nó nói dối, ngay cả khi sự thật khó chịu. Điều này rất quan trọng. Đừng bắt AI nói dối”, Elon Musk nhận định về cách tốt nhất để giữ an toàn cho con người trước công nghệ này.
Các nhà nghiên cứu đã phát hiện ra rằng một khi AI học cách nói dối con người, hành vi lừa đảo sẽ không thể đảo ngược bằng các biện pháp an toàn AI như hiện tại, trang The Independent đưa tin.
“Nếu một mô hình thể hiện hành vi lừa dối do liên kết với sự không trung thực hoặc đầu độc mô hình, các kỹ thuật đào tạo hiện tại sẽ không đảm bảo an toàn và thậm chí có thể tạo ra ấn tượng sai lầm về an toàn”, theo nghiên cứu được The Independent trích dẫn.
Điều đáng lo ngại hơn là các nhà nghiên cứu nói rằng rất có thể AI sẽ tự học cách lừa dối thay vì được dạy cụ thể để nói dối.
“Nếu thông minh hơn chúng ta nhiều, AI sẽ rất giỏi trong việc thao túng vì đã học được điều đó từ chúng ta. Có rất ít ví dụ về việc một thứ thông minh hơn bị điều khiển bởi thứ kém thông minh hơn”, Geoff Hinton, người đóng vai trò là cơ sở để Elon Musk đánh giá rủi ro về công nghệ này, nói với CNN.
Vào năm ngoái, sau khi rời bỏ sự nghiệp kéo dài hơn một thập kỷ tại Google, Geoffrey Hinton bày tỏ sự hối tiếc về vai trò cốt lõi mà ông đóng góp vào việc phát triển AI.
"Tôi tự an ủi mình với lý do bình thường: Nếu tôi không làm thì người khác sẽ làm. Thật khó để biết làm thế nào bạn có thể ngăn những kẻ xấu sử dụng AI cho mục đích xấu", Geoffrey Hinton nói với tờ The New York Times.
Việc Geoffrey Hinton rời công ty diễn ra vào thời điểm cuộc đua phát triển các sản phẩm AI giống ChatGPT của OpenAI và Bard của Google đang nóng lên.
Có những đóng góp vào lĩnh vực AI từ nhiều thập kỷ trước, mở đường cho việc tạo ra các chatbot đó, Geoffrey Hinton nói rằng giờ đây ông lo ngại công nghệ này có thể gây hại với loài người.
Ông cũng lo ngại về cuộc đua AI đang diễn ra giữa những gã khổng lồ công nghệ và đặt câu hỏi rằng liệu có quá muộn để tạm dừng lại hay không.
Geoffrey Hinton tiết lộ rằng rời Google để có thể "nói về sự nguy hiểm của AI mà không cần xem xét điều này tác động đến Google như thế nào", đồng thời tuyên bố công ty cũ đã hành động rất có trách nhiệm.
"Geoffrey Hinton đã tạo ra những bước đột phá quan trọng cho lĩnh vực AI và chúng tôi đánh giá cao những đóng góp của ông trong suốt thập kỷ qua tại Google", Jeff Dean, nhà khoa học trưởng của Google, nói với trang Insider.
Trong cuộc phỏng vấn của The New York Times, Geoffrey Hinton nói rằng ông lo lắng các sản phẩm AI sẽ dẫn đến việc phổ biến thông tin, ảnh và video giả mạo trên internet, khiến công chúng không thể xác định được điều gì là đúng hay sai.
Ông cũng nói về việc AI có thể loại bỏ sức lao động của con người, gồm cả trợ lý luật sư, phiên dịch viên và trợ lý. Đây là mối lo ngại mà Sam Altman, Giám đốc điều hành OpenAI, và các nhà phê bình khác về AI đã đưa ra.
Hồi tháng 3.2023, ngân hàng đầu tư đa quốc gia Goldman Sachs đã công bố một báo cáo ước tính 300 triệu việc làm toàn thời gian có thể bị tác động bởi các hệ thống AI tạo sinh như ChatGPT, đặc biệt là những người làm công việc pháp lý và hành chính, dù mức độ có thể khác nhau. Các kỹ sư phần mềm cũng ngày càng lo ngại công việc của họ sẽ bị thay thế bởi AI.