OpenAI và Meta Platforms chuẩn bị phát hành mô hình trí tuệ nhân tạo (AI) tiên tiến hơn, có thể giúp giải quyết vấn đề và đảm nhận các nhiệm vụ phức tạp hơn.
Brad Lightcap, Giám đốc vận hành OpenAI, nói với trang The Financial Times rằng phiên bản tiếp theo của mô hình ngôn ngữ lớn GPT sẽ cho thấy sự tiến bộ trong việc giải quyết “các vấn đề khó khăn”, chẳng hạn lý luận.
Ông nói với The Financial Times: “Tôi nghĩ chúng tôi mới bắt đầu tìm hiểu sơ bộ về khả năng suy luận của những mô hình này”.
Các lãnh đạo Meta Platforms đã báo hiệu hướng đi tương tự cho mô hình ngôn ngữ lớn Llama 3 sắp ra mắt của công ty, dự kiến trong những tuần tới.
Joelle Pineau, Phó chủ tịch nghiên cứu AI tại Meta Platforms, nói công ty đang "làm việc chăm chỉ" để tìm ra cách giúp mô hình nói chuyện, lập luận, lập kế hoạch và có trí nhớ.
Đại diện của Meta Platforms và OpenAI không trả lời ngay lập tức khi trang Insider đề nghị bình luận về chủ đề này.
Giúp các mô hình AI có khả năng suy luận và lập kế hoạch là một bước quan trọng để đạt được AI tổng quát (AGI), điều mà cả Meta Platforms và OpenAI đều tuyên bố đang hướng tới. AGI là AI siêu thông minh, tiên tiến đến mức có thể làm được nhiều việc ngang bằng hoặc tốt hơn con người.
Sự phát triển này có thể đáng giá hàng nghìn tỉ USD cho công ty đạt được điều đó. Hồi tháng 2, John Carmack (cựu lãnh đạo Meta Platforms và người tiên phong về thực tế ảo) đã gọi AGI là “mục tiêu lớn lao” về AI. Ông tuyên bố AGI sẽ trở thành ngành công nghiệp nghìn tỉ USD vào những năm 2030.
Elon Musk, Giám đốc điều hành Tesla, mới đây dự đoán AI thông minh hơn người thông minh nhất có thể được phát triển vào năm 2025 hoặc 2026.
"Nếu bạn định nghĩa AGI là thông minh hơn người thông minh nhất, tôi nghĩ nó có thể được phát triển vào năm tới, hoặc trong vòng hai năm nữa", Elon Musk, người hoài nghi về AI lâu năm, nói khi được hỏi về mốc thời gian phát triển AGI.
Khác với Elon Musk, Jensen Huang (Giám đốc điều hành Nvidia) cho rằng AGI có thể xuất hiện trong 5 năm tới.
Tại diễn đàn kinh tế được tổ chức tại Đại học Stanford (Mỹ) đầu tháng 3, Jensen Huang đã trả lời câu hỏi về việc sẽ mất bao lâu để đạt được một trong những mục tiêu lâu dài của Thung lũng Silicon là tạo ra máy tính có thể suy nghĩ như con người.
Ông cho biết câu trả lời phần lớn phụ thuộc vào cách xác định mục tiêu. Theo Jensen Huang, nếu định nghĩa là khả năng vượt qua các bài kiểm tra của con người thì AGI sẽ sớm xuất hiện.
“Nếu đưa ra cho một AI mọi bài kiểm tra bạn có thể tưởng tượng được, bạn lập danh sách đó và đặt trước ngành công nghiệp khoa học máy tính thì tôi đoán trong vòng 5 năm, chúng ta sẽ làm tốt trên mọi thử nghiệm đó”, tỷ phú 61 tuổi người Mỹ gốc Đài Loan cho hay.
Tính đến thời điểm hiện tại, AI có thể vượt qua nhiều bài thi, gồm cả kỳ thi luật sư, nhưng vẫn gặp khó khăn với các bài kiểm tra y khoa chuyên sâu, chẳng hạn nội tiêu hóa. Thế nhưng, Jensen Huang nói rằng trong 5 năm nữa, AI có thể vượt qua được bất kỳ bài kiểm tra nào trong số đó.
Song theo những định nghĩa khác, Jensen Huang nói việc đạt được AGI có thể mất khoảng thời gian dài hơn 5 năm, bởi các nhà khoa học vẫn còn bất đồng về cách mô tả cách thức hoạt động của trí óc con người.
Ông nói: “Vì vậy, AI thật khó để đạt được thành công với tư cách là một kỹ sư” vì các kỹ sư cần có những mục tiêu xác định.
Nvidia là hãng chip có giá trị nhất thế giới. Vốn hóa thị trường của Nvidia hiện ở mức 2.170 tỉ USD, là công ty có giá trị thứ ba ở Phố Wall sau Microsoft và Apple.
Tại cuộc hội thảo Great AI Debate trong khuôn khổ hội nghị Abundance Summit gần đây, Elon Musk ước tính trí tuệ số sẽ vượt quá tất cả trí thông minh của con người cộng lại vào năm 2030. Dù vẫn cho rằng những mặt tích cực tiềm năng của AI vượt trội mặt tiêu cực, tỷ phú công nghệ đã nhận thức về rủi ro với thế giới nếu tiếp tục phát triển của công nghệ này theo quỹ đạo hiện tại.
"Bạn đang phát triển một AGI. Điều này gần giống nuôi dạy một đứa trẻ, nhưng nó là siêu thiên tài, có trí tuệ như Chúa và điều quan trọng là bạn nuôi dạy nó như thế nào", Elon Musk nói tại sự kiện diễn ra ở Thung lũng Silicon.
Một số chuyên gia đã nêu lên mối lo ngại về an toàn khi phát triển công nghệ vượt xa trí thông minh của con người. Các nhà nghiên cứu đáng chú ý, gồm cả “cha đẻ AI” như Yoshua Bengio và Geoffrey Hinton, đã kêu gọi mọi người xem xét những rủi ro với nhân loại từ AI.
Elon Musk cho biết "kết luận cuối cùng" của ông về cách tốt nhất để đạt được sự an toàn cho AI là phát triển AI theo cách buộc nó phải trung thực.
“Đừng ép nó nói dối, ngay cả khi sự thật khó chịu. Điều này rất quan trọng. Đừng bắt AI nói dối”, Elon Musk nhận định về cách tốt nhất để giữ an toàn cho con người trước công nghệ này.
Các nhà nghiên cứu đã phát hiện ra rằng một khi AI học cách nói dối con người, hành vi lừa đảo sẽ không thể đảo ngược bằng các biện pháp an toàn AI như hiện tại, trang The Independent đưa tin.
“Nếu một mô hình thể hiện hành vi lừa dối do liên kết với sự không trung thực hoặc đầu độc mô hình, các kỹ thuật đào tạo hiện tại sẽ không đảm bảo an toàn và thậm chí có thể tạo ra ấn tượng sai lầm về an toàn”, theo nghiên cứu được The Independent trích dẫn.
Điều đáng lo ngại hơn là các nhà nghiên cứu nói rằng rất có thể AI sẽ tự học cách lừa dối thay vì được dạy cụ thể để nói dối.
“Nếu thông minh hơn chúng ta nhiều, AI sẽ rất giỏi trong việc thao túng vì đã học được điều đó từ chúng ta. Có rất ít ví dụ về việc một thứ thông minh hơn bị điều khiển bởi thứ kém thông minh hơn”, Geoff Hinton, người đóng vai trò là cơ sở để Elon Musk đánh giá rủi ro về công nghệ này, nói với CNN.