Theo một báo cáo của Bloomberg Intelligence, việc phát hành các công cụ AI như ChatGPT và Google Bard đã tạo ra sự quan tâm bùng nổ trong ngành công nghiệp generative AI, có thể chứng kiến doanh thu tăng lên hơn 1.300 tỉ USD một thập kỷ tới.
Generative AI là một loại trí tuệ nhân tạo mà máy tính được lập trình để tự động tạo ra nội dung mới, như văn bản, hình ảnh, âm thanh và video. Nó khác với các hệ thống AI khác như máy học sâu hoặc học máy trong việc dự đoán kết quả từ dữ liệu đã có sẵn. Thay vì dựa trên dữ liệu huấn luyện, hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn.
Báo cáo của Bloomberg Intelligence cho thấy rằng vào năm 2022, ngành generative AI tạo ra doanh thu khoảng 40 tỉ USD. Báo cáo cho biết đến năm 2032, con số đó có thể là 1.320 tỉ USD, với tốc độ tăng trưởng gộp hàng năm của ngành là 42%.
Được chia nhỏ theo lĩnh vực kinh doanh, báo cáo của Bloomberg Intelligence cho thấy phần mềm AI như trợ lý AI, sản phẩm cơ sở hạ tầng và chương trình tăng tốc mã hóa có thể tạo ra 280 tỉ USD vào năm 2032, với tốc độ tăng trưởng hàng năm là 69%. Tuy nhiên, phần cứng sẽ chiếm phần lớn trong số 1.320 tỉ USD doanh thu, chiếm 641 tỉ USD vào năm 2032, theo ước tính của Bloomberg Intelligence. Trong số 641 tỉ USD đó, 168 tỉ USD đến từ thiết bị và 473 tỉ USD đến từ cơ sở hạ tầng.
Doanh thu phần cứng sẽ đến từ máy chủ AI, bộ lưu trữ AI, sản phẩm AI thị giác máy tính cũng như các công cụ chatbot AI, trị giá 108 tỉ USD.
Quảng cáo kỹ thuật số liên quan đến AI sẽ đạt doanh thu 192 tỉ USD, trong khi phần mềm trợ lý AI sẽ trị giá 89 tỉ USD, theo báo cáo.
Generative AI được dự báo sẽ chiếm khoảng 10 đến 12% thị trường phần cứng CNTT, dịch vụ phần mềm, chi tiêu quảng cáo và thị trường game vào năm 2032, so với mức dưới 1% hiện tại, theo Bloomberg Intelligence.
Mandeep Singh, nhà phân tích công nghệ cao cấp tại Bloomberg Intelligence và là tác giả chính của báo cáo, cho biết: “Thế giới đã sẵn sàng chứng kiến sự bùng nổ tăng trưởng ở lĩnh vực generative AI trong 10 năm tới, hứa hẹn sẽ thay đổi căn bản cách thức hoạt động của lĩnh vực công nghệ”.
“Công nghệ này sẽ trở thành một phần ngày càng thiết yếu trong chi tiêu CNTT, chi tiêu quảng cáo và an ninh mạng khi nó phát triển”, Mandeep Singh nói thêm.
ChatGPT của OpenAI đã được ra mắt công chúng vào tháng 11.2022 và bùng nổ về mức độ phổ biến nhờ khả năng thực hiện các cuộc trò chuyện thông minh, soạn nhạc, viết mã và thậm chí viết bài luận. ChatGPT đã trở thành ứng dụng tiêu dùng phát triển nhanh nhất trong lịch sử internet, đạt 100 triệu người dùng chỉ sau hai tháng trình làng.
ChatGPT đã thúc đẩy sự cường điệu xung quanh AI dẫn đến việc các gã khổng lồ công nghệ cạnh tranh để phát hành các ứng dụng tương tự như Google Bard và Bing phiên bản mới được tích họp AI.
Sự trỗi dậy của AI đã dẫn đến những lo ngại ngày càng tăng, gồm cả những vấn đề quan trọng với sự phát triển của nó, rằng công nghệ này có thể gây ra mối đe dọa cho nhân loại. Trong một bức thư ngỏ tuần này, Giám đốc điều hành các hãng AI lớn cho biết AI có "nguy cơ gây diệt vong" loài người nếu không được quản lý hợp lý.
Trong cảnh báo dài 22 từ bằng tiếng Anh, các chuyên gia cho rằng siêu AI nguy hiểm không kém vũ khí hạt nhân hay đại dịch.
"Giảm thiểu nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu, bên cạnh những rủi ro ở quy mô xã hội khác như đại dịch hay chiến tranh hạt nhân", thông báo do Trung tâm An toàn AI (CAIS) tại thành phố San Francisco (Mỹ) đăng trên website ngày 30.5.
Thông điệp được ký bởi 350 người, là các lãnh đạo và chuyên gia đầu ngành AI. Ngoài Sam Altman (Giám đốc điều hành OpenAI) còn có Demis Hassabis (Giám đốc điều hành Google DeepMind), Dario Amodei (Giám đốc điều hành Anthropic), chuyên gia Yoshua Bengio và Geoffrey Hinton (người được coi là "cha đỡ đầu" của ngành AI, vừa rời Google để có thể trực tiếp cảnh báo về mối đe dọa của AI). Trong số này không có ai từ Meta Platforms, công ty cũng đang theo đuổi siêu AI.
Cuối tháng 3, hơn 1.800 người được xem là "giới tinh hoa" trong lĩnh vực công nghệ, trong đó có Elon Musk và Steve Wozniak (đồng sáng lập Apple), cũng ký một bức thư kêu gọi các công ty, tổ chức toàn cầu ngừng phát triển hệ thống AI mạnh hơn GPT-4 của OpenAI trong 6 tháng để cùng xây dựng bộ quy tắc chung về công nghệ này.
Giữa tháng 4, Sundar Pichai (Giám đốc điều hành Alphabet) nói AI khiến ông mất ngủ nhiều đêm vì nó có thể gây nguy hiểm hơn bất kỳ thứ gì con người từng thấy, trong khi xã hội chưa sẵn sàng cho sự phát triển nhanh chóng của AI.
"Nó có thể là thảm họa nếu triển khai sai. Một ngày nào đó, AI sẽ có những khả năng vượt xa trí tưởng tượng của con người và chúng ta chưa thể hình dung hết những điều tồi tệ nhất có thể xảy ra", Sundar Pichai nói.
Tương tự, Sam Altmam cho rằng AI có thể mang lại lợi ích to lớn, nhưng gây nỗi lo về thông tin sai lệch, cú sốc kinh tế, hoặc thứ gì đó "ở mức độ vượt xa bất cứ những gì con người đã chuẩn bị". Ông liên tục nhắc đến cảm giác lo lắng về AI và thừa nhận đã sốc vì ChatGPT quá phổ biến.
Trong cơn sốt AI, các chuyên gia đang lo ngại về một mô hình cao hơn là AGI. Khảo sát của Đại học Stanford tháng trước cho thấy 56% nhà khoa học máy tính và nhà nghiên cứu tin generative AI sẽ bắt đầu chuyển dịch sang AGI trong tương lai gần. Theo trang Fortune, AGI được đánh giá phức tạp hơn nhiều so với mô hình generative AI nhờ khả năng tự nhận thức những gì nó nói và làm. Về mặt lý thuyết, công nghệ này sẽ khiến con người phải lo sợ trong tương lai.
Cũng theo kết quả khảo sát, 58% chuyên gia AI đánh giá AGI là "mối lo lớn", 36% nói công nghệ này có thể dẫn đến "thảm họa cấp hạt nhân". Một số cho biết AGI có thể đại diện cho cái gọi là "điểm kỳ dị về công nghệ" - điểm giả định trong tương lai, khi máy móc vượt qua khả năng của con người theo cách không thể đảo ngược và có thể gây ra mối đe dọa cho nền văn minh.
"Sự tiến bộ về AI và các mô hình AGI vài năm qua thật đáng kinh ngạc. Tôi không thấy bất kỳ lý do nào khiến tiến độ đó chậm lại. Chúng ta chỉ còn khoảng vài năm, hoặc muộn nhất là một thập kỷ để chuẩn bị", Demis Hassabis nói với Fortune.
OpenAI: Cần có tổ chức như Cơ quan Năng lượng Nguyên tử Quốc tế để ngăn nguy cơ siêu AI hủy diệt loài người
Các nhà lãnh đạo OpenAI cho biết cần có một tổ chức tương đương Cơ quan Năng lượng Nguyên tử Quốc tế để bảo vệ chống lại những rủi ro do trí tuệ nhân tạo (AI) "siêu thông minh" gây ra.
Thuật ngữ "siêu thông minh" liên quan đến khái niệm về AI tự tiến hóa, trong đó AI có khả năng trở thành hệ thống tự phát triển, vượt qua sự hiểu biết và khả năng kiểm soát của con người.
Trong khi việc phát triển các hệ thống AI như vậy mang lại triển vọng lớn để giải quyết các vấn đề phức tạp và thúc đẩy các lĩnh vực khác nhau, có những lo ngại về những rủi ro tiềm ẩn nếu không được quản lý đúng cách.
Những nhà lãnh đạo OpenAI, công ty khởi nghiệp phát triển ChatGPT, đã kêu gọi áp đặt quy định về các AI “siêu thông minh”. Họ lập luận rằng cần có tổ chức tương đương với Cơ quan Năng lượng Nguyên tử Quốc tế (IAEA) để bảo vệ chúng ta khỏi nguy cơ vô tình tạo ra thứ gì đó có sức mạnh hủy diệt loài người.
Trong một ghi chú ngắn đăng trên trang web OpenAI, ba người đồng sáng lập công ty gồm Greg Brockman, Ilya Sutskever và Giám đốc điều hành Sam Altman kêu gọi thành lập một cơ quan quản lý quốc tế để bắt đầu làm việc về cách "kiểm tra hệ thống, yêu cầu kiểm toán, thử nghiệm tuân thủ các tiêu chuẩn an toàn và đặt hạn chế về mức triển khai cùng bảo mật" nhằm giảm thiểu nguy cơ mà các AI “siêu thông minh” có thể gây ra.
Họ viết: “Có thể hình dung rằng trong vòng 10 năm tới, các hệ thống AI sẽ vượt qua trình độ chuyên gia trong hầu hết các lĩnh vực và thực hiện nhiều hoạt động hiệu quả như một trong những tập đoàn lớn nhất hiện nay. Xét về mặt tích cực và tiêu cực, AI 'siêu thông minh' sẽ mạnh hơn so với các công nghệ khác mà nhân loại phải đối mặt trong quá khứ. Chúng ta có thể có một tương lai thịnh vượng hơn nhiều, nhưng phải quản lý rủi ro để đạt được điều đó. Với khả năng xảy ra rủi ro hiện hữu, chúng ta không thể chỉ phản ứng mà phải có cách tiếp cận tích cực”.
Trong tương lai ngắn hạn, ba nhà đồng sáng lập OpenAI kêu gọi có "mức độ phối hợp" giữa các công ty đang làm việc ở lĩnh vực nghiên cứu AI tiên tiến, nhằm đảm bảo việc phát triển các mô hình mạnh mẽ hơn tích hợp một cách suôn sẻ với xã hội nhưng vẫn ưu tiên sự an toàn. Sự phối hợp đó có thể thông qua một dự án do chính phủ dẫn đầu hoặc thỏa thuận tập thể để hạn chế sự phát triển khả năng của AI.
Các nhà nghiên cứu đã cảnh báo về những rủi ro tiềm ẩn của AI siêu thông minh trong nhiều thập kỷ, nhưng khi sự phát triển AI đang diễn ra nhanh chóng, những nguy cơ đó đã trở nên cụ thể hơn.
Trung tâm An toàn AI (CAIS) có trụ sở tại Mỹ, hoạt động nhằm “giảm thiểu rủi ro ở quy mô xã hội do AI gây ra”, đã nêu 8 loại rủi ro “thảm họa” và “hiện hữu” mà sự phát triển AI có thể gây ra.
Trong khi một số người lo lắng về việc AI mạnh mẽ sẽ hủy diệt hoàn toàn loài người, dù vô tình hay cố ý, CAIS mô tả những tác hại nguy hiểm khác. Theo CAIS, một thế giới trong đó hệ thống AI được chuyển giao công việc ngày càng nhiều có thể dẫn đến nhân loại "mất khả năng tự quản và hoàn toàn phụ thuộc vào máy móc", được mô tả là "sự suy yếu". Một nhóm nhỏ người kiểm soát các hệ thống mạnh mẽ có thể "biến AI thành một lực lượng tập trung", dẫn đến "khóa giá trị" (hệ thống phân tầng vĩnh viễn giữa kẻ cai trị và bị cai trị).
Các lãnh đạo OpenAI cho biết những nguy cơ đó đồng nghĩa “người dân trên khắp thế giới nên quyết định theo hình thức dân chủ về các giới hạn và thiết lập mặc định cho các hệ thống AI”, nhưng thừa nhận rằng họ chưa biết cách thiết kế một cơ chế như vậy. Tuy nhiên, các lãnh đạo OpenAI nói rằng việc tiếp tục phát triển các hệ thống AI mạnh mẽ đáng để mạo hiểm.