Meta Platforms vừa công bố Movie Gen, mô hình trí tuệ nhân tạo (AI) mới có thể tạo ra các đoạn video và âm thanh sống động dựa trên yêu cầu bằng văn bản từ người dùng.
Meta tuyên bố Movie Gen có thể cạnh tranh với các công cụ từ các công ty khởi nghiệp hàng đầu trong lĩnh vực truyền thông như OpenAI và ElevenLabs.
Các video mẫu do Movie Gen tạo ra cho thấy các cảnh động vật bơi và lướt sóng.
Ngoài ra, Movie Gen có thể tạo ra các video trong đó sử dụng ảnh chụp người dùng và ghép vào tình huống hoạt động cụ thể, chẳng hạn vẽ tranh trên một tấm vải dày.
Movie Gen có khả năng tạo ra nhạc nền và hiệu ứng âm thanh phù hợp với nội dung của video, theo Meta Platforms.
Chưa hết, mô hình AI này cũng có thể được sử dụng để chỉnh sửa video hiện có. Trong một video, Meta đã sử dụng Movie Gen để thêm pom-pom vào tay người đàn ông đang chạy một mình trên sa mạc.
Pom-pom là vật trang trí làm từ sợi bông, lông hoặc chất liệu khác, thường có hình dạng tròn và bông xù. Pom-pom thường được dùng trong các hoạt động cổ vũ, đặc biệt là trong các đội cổ động viên. Những người cổ vũ thường cầm pom-pom trong tay và lắc chúng để tạo hiệu ứng thu hút sự chú ý và thể hiện tinh thần cổ vũ sôi nổi.
Ở một video khác, Movie Gen đã thay đổi bãi đậu xe mà người đàn ông đang trượt ván từ mặt đất khô thành vũng nước bắn tung tóe.
Các video được tạo bởi Movie Gen có thời lượng 16 giây, còn âm thanh có thể kéo dài tới 45 giây, Meta Platforms cho biết.
Chủ sở hữu Facebook đã chia sẻ dữ liệu một số thử nghiệm mù chỉ ra rằng Movie Gen hoạt động tốt hơn so với sản phẩm từ công ty khởi nghiệp OpenAI, Runway, ElevenLabs và Kling.
Thử nghiệm mù (blind test) là phương pháp thử nghiệm mà người tham gia không biết trước các chi tiết cụ thể về sản phẩm hoặc đối tượng mà họ đang đánh giá, để đảm bảo tính khách quan,
Thông báo về Movie Gen của Meta Platforms được đưa ra trong bối cảnh Hollywood đang vật lộn với việc khai thác công nghệ video AI tạo sinh trong năm nay, sau khi OpenAI hồi tháng 2 giới thiệu cách mô hình Sora có thể tạo ra video giống phim điện ảnh từ gợi ý bằng văn bản.
Các kỹ thuật viên trong ngành giải trí háo hức sử dụng những công cụ như vậy để nâng cao và đẩy nhanh quá trình làm phim. Trong khi một số người khác lo ngại về việc chấp nhận hệ thống AI có vẻ đã được huấn luyện trên các tác phẩm có bản quyền mà không có sự cho phép.
Nhiều nhà làm luật cũng đã nêu lên mối lo ngại về việc các video giả do AI tạo ra (hay deepfake) đang được sử dụng trong cuộc bầu cử trên khắp thế giới, gồm cả ở Mỹ, Pakistan, Ấn Độ và Indonesia.
Các phát ngôn viên của Meta Platforms cho biết công ty khó có thể phát hành Movie Gen để các nhà phát triển sử dụng công khai, như từng làm với loạt mô hình ngôn ngữ lớn Llama. Các phát ngôn viên nói rằng Meta Platforms cân nhắc các rủi ro riêng cho từng mô hình AI và chưa có thông tin chi tiết về đánh giá của công ty với riêng Movie Gen.
Thay vào đó, họ cho biết Meta Platforms đang làm việc trực tiếp với cộng đồng giải trí cùng các nhà sáng tạo nội dung khác về việc sử dụng Movie Gen và sẽ tích hợp nó vào các sản phẩm Meta Platforms vào thời điểm nào đó trong năm 2025.
"Movie Gen hiện chỉ là một ý tưởng nghiên cứu AI và ngay ở giai đoạn đầu này, sự an toàn vẫn là ưu tiên hàng đầu như với tất cả công nghệ AI tạo sinh của chúng tôi", một đại diện Meta Platforms trả lời các câu hỏi từ trang TechCrunch.
Meta Platforms đã sử dụng kết hợp dữ liệu được cấp phép và dữ liệu công khai để phát triển Movie Gen, theo bài đăng trên blog và tài liệu nghiên cứu về công cụ do công ty công bố.
Hồi tháng 3, OpenAI đã gặp gỡ các giám đốc và nhà đại diện Hollywood để thảo luận về khả năng hợp tác liên quan đến Sora, dù chưa có thỏa thuận nào được báo cáo là đã thành công.
Tờ Financial Times đưa tin Sam Altman (Giám đốc điều hành OpenAI) và Brad Lightcap (Giám đốc vận hành OpenAI) đã tổ chức hàng loạt cuộc họp về Sora với các nhà điều hành Hollywood từ công ty Paramount, Universal và Warner Bros Discovery.
Sam Altman và Brad Lightcap đã yêu cầu lãnh đạo các hãng phim giúp họ triển khai Sora, theo những người tham dự cuộc họp.
Một số hãng phim sẵn sàng sử dụng Sora trong sản xuất, nói rằng nó có thể tiết kiệm thời gian và tiền bạc, nhưng OpenAI không cố gắng ký kết các thỏa thuận chính thức, theo nguồn tin của Financial Times.
Lo ngại về cách tiếp cận của OpenAI gia tăng vào tháng 5 khi nữ diễn viên Scarlett Johansson tố cáo công ty bắt chước giọng nói cô mà không được phép.
Lions Gate Entertainment, hãng giải trí đứng sau phim The Hunger Games và Twilight, gần đây công bố sẽ cho phép Runway truy cập vào thư viện phim và truyền hình của mình để huấn luyện mô hình AI. Đổi lại, Lions Gate Entertainment và các nhà làm phim của họ có thể sử dụng mô hình AI này để hỗ trợ công việc.
Hôm 26.9, Meta Platforms giới thiệu nguyên mẫu đầu tiên của kính thực tế tăng cường (AR) có tên Orion tại hội nghị Connect thường niên, khi công ty mẹ Facebook phác thảo tham vọng của mình về các sản phẩm sẽ đưa thế giới ảo vào thế giới thực.
"Đây là thế giới vật lý với các hình ảnh ba chiều (3D) được phủ lên trên đó", Giám đốc điều hành Meta Platforms - Mark Zuckerberg nói sau khi rút chiếc kính đen dày ra khỏi hộp kim loại.
"Hiện tại, tôi nghĩ cách đúng đắn để nhìn nhận Orion là như một cỗ máy thời gian. Những chiếc kính này tồn tại, chúng thật tuyệt vời và là cái nhìn thoáng qua về tương lai mà tôi nghĩ sẽ rất thú vị", tỷ phú 40 tuổi người Mỹ phát biểu.
Kính Orion làm bằng hợp kim magiê và được cung cấp sức mạnh bởi silicon tùy chỉnh do Meta Platforms thiết kế. Người dùng sẽ có thể tương tác với kính Orion thông qua theo dõi bằng tay, giọng nói và giao diện thần kinh dựa trên cổ tay. Mark Zuckerberg cho biết Meta Platforms có kế hoạch làm cho kính Orion nhỏ hơn, đẹp hơn và chi phí thấp hơn trước khi phát hành cho người tiêu dùng sau này.
Các hãng công nghệ lớn phát triển thiết bị AR trong nhiều năm, nhưng một số sản phẩm đáng chú ý đã thất bại, chẳng hạn kính Google Glass.
Mark Zuckerberg định vị công nghệ AR như một kiệt tác khi chuyển hướng công ty truyền thông xã hội lớn nhất thế giới sang xây dựng các hệ thống metaverse nhập vai vào năm 2021. Tuy nhiên, việc cung cấp sản phẩm đã bị cản trở bởi chi phí phát triển cao và các rào cản công nghệ.
Paolo Pescatore, nhà phân tích tại hãng PP Foresight, nói không có nghi ngờ gì về tham vọng của Meta Platforms trong việc tạo ra các sản phẩm thực tế ảo (VR) và AR trở nên phổ biến với giá cả phải chăng nhất có thể. Thế nhưng, ông nói thêm rằng người dùng "vẫn e ngại với AI" và cần được thuyết phục.
Meta Platforms đặt mục tiêu giao chiếc kính AR thương mại đầu tiên đến tay người tiêu dùng vào năm 2027, thời điểm mà những đột phá về mặt kỹ thuật sẽ giúp giảm chi phí sản xuất, một nguồn tin cho biết trước sự kiện.
Mark Zuckerberg không trình diễn trực tiếp khả năng của kính Orion trong hội nghị Connect, thay vào đó ông phát một video cho thấy nhiều người phản ứng như thế nào với thiết bị này khi họ dùng thử. Video cho thấy vài hình ảnh thoáng qua về tin nhắn văn bản, hình ảnh được hiển thị qua kính và Jensen Huang (Giám đốc điều hành Nvidia) là cái tên nổi bật trong số những người thử nghiệm.
Sản phẩm gần giống Orion nhất hiện tại là kính thông minh Ray-Ban Meta, ban đầu không được quan tâm nhiều nhưng đã gây sự chú ý vào năm ngoái sau khi được Meta Platforms bổ sung trợ lý AI. Công ty mẹ Facebook đã công bố những cải tiến về AI cho kính Ray-Ban Meta trong năm nay, chẳng hạn giúp người dùng có thể quét mã QR và phát nhạc từ Spotify để phản hồi gợi ý bằng giọng nói.
Cuối năm nay, Meta Platforms có kế hoạch bổ sung khả năng tạo video và dịch ngôn ngữ theo thời gian thực giữa tiếng Anh và tiếng Pháp, tiếng Ý hoặc tiếng Tây Ban Nha cho kính Ray-Ban Meta.
Mark Zuckerberg đã trò chuyện trực tiếp với võ sĩ MMA Brandon Moreno (Mexico) để trình diễn công cụ ngôn ngữ, trong đó chiếc kính có thể dịch từ tiếng Anh sang tiếng Tây Ban Nha và ngược lại.
Tại hội nghị Connect, Meta Platforms giới thiệu các khả năng chatbot AI mới cho các dịch vụ của mình và chiếc kính thực tế hỗn hợp Quest mới.
Ngoài ra, Meta Platforms còn trình làng Quest 3S, phiên bản cấp thấp của dòng kính thực tế hỗn hợp Quest, có giá khởi điểm 300 USD, đồng thời giảm giá Quest 3 (bán ra năm ngoái).