Bing chatbot và Google Bard có thể gây tốn kém gấp 10 lần tìm kiếm từ khóa thông thường

Nhịp đập khoa học - Ngày đăng : 23:02, 22/02/2023

Khi Alphabet cố quên đi sự cố Bard trả lời sai câu hỏi làm giảm hơn 100 tỉ USD vốn hóa thị trường, thách thức khác đang xuất hiện từ nỗ lực bổ sung generative AI vào công cụ tìm kiếm phổ biến Google, đó là chi phí.

Các nhà lãnh đạo trong lĩnh vực công nghệ đang bàn về cách vận hành chatbot AI như ChatGPT trong khi tính đến chi phí cao. ChatGPT có chi phí tính toán đáng kinh ngạc từ vài xu Mỹ trở lên cho mỗi cuộc trò chuyện, theo Giám đốc điều hành Sam Altman - công ty khởi nghiệp OpenAI (Mỹ).

Trong một cuộc phỏng vấn, Chủ tịch Alphabet - John Hennessy nói với Reuters rằng việc trò chuyện với AI được biết đến là mô hình ngôn ngữ lớn có thể tốn kém gấp 10 lần so với tìm kiếm từ khóa tiêu chuẩn, song việc tinh chỉnh sẽ giúp giảm chi phí nhanh chóng.

Ngay cả khi có thu nhập từ quảng cáo tìm kiếm dựa trên trò chuyện tiềm năng, công nghệ này có thể ảnh hưởng đến lợi nhuận cuối cùng của Alphabet với một số chi phí gây tăng thêm vài tỉ USD, các nhà phân tích cho biết. Lợi nhuận ròng của công ty có trụ sở tại thành phố Mountain View, bang California, Mỹ là gần 60 tỉ USD vào năm 2022.

Ngân hàng đầu tư Morgan Stanley ước tính rằng 3,3 ngàn tỉ truy vấn tìm kiếm của Google vào năm ngoái tiêu tốn khoảng 1/5 xu Mỹ cho mỗi truy vấn, con số này sẽ tăng tùy thuộc vào lượng văn bản mà AI phải tạo ra. Chẳng hạn, các nhà phân tích dự đoán Google có thể phải đối mặt với khoản chi phí tăng 6 tỉ USD vào năm 2024 nếu AI giống như ChatGPT xử lý một nửa số truy vấn mà họ nhận được với câu trả lời dài 50 từ. Google dường như không cần một chatbot để xử lý các tìm kiếm điều hướng cho các trang web như Wikipedia.

SemiAnalysis, công ty nghiên cứu và tư vấn tập trung vào công nghệ chip, cho biết việc thêm AI kiểu ChatGPT vào tìm kiếm có thể tiêu tốn của Alphabet 3 tỉ USD, với điều kiện dùng chip nội bộ Tensor do Google sản xuất cùng các việc tối ưu hóa khác.

Điều làm cho hình thức AI này đắt hơn so với tìm kiếm thông thường là sức mạnh tính toán được sử dụng. Các nhà phân tích cho biết AI như vậy phụ thuộc vào hàng tỉ USD chip, một chi phí phải được phân bổ trong thời gian sử dụng chip trong vài năm. Ngoài ra, điện năng cũng tăng thêm chi phí và gây áp lực cho các công ty có mục tiêu về lượng khí thải carbon.

Quá trình xử lý các truy vấn tìm kiếm do AI cung cấp được gọi là "suy luận", trong đó một "mạng lưới thần kinh" được mô hình hóa dựa trên đặc điểm sinh học của bộ não con người đưa ra câu trả lời cho một câu hỏi từ quá trình đào tạo trước đó.

Ngược lại, trong tìm kiếm truyền thống, trình thu thập dữ liệu web của Google quét toàn bộ internet để tạo một chỉ mục thông tin. Khi người dùng nhập truy vấn, Google sẽ cung cấp các câu trả lời phù hợp nhất được lưu trữ trong chỉ mục.

John Hennessy nói với Reuters: "Đó là chi phí suy luận mà bạn cần giảm xuống" và gọi đó là vấn đề tồi tệ nhất trong vài năm.

Alphabet đang đối mặt với áp lực phải chấp nhận thách thức bất chấp chi phí. Đầu tháng 2, đối thủ của Alphabet là Microsoft đã tổ chức một sự kiện tại trụ sở ở thành phố Redmond, bang Washington, Mỹ để giới thiệu kế hoạch tích hợp công nghệ trò chuyện AI vào công cụ tìm kiếm Bing của mình, với các giám đốc điều hành hàng đầu công ty nhắm đến thị phần tìm kiếm của Google hiện là 91%.

Một ngày sau, Alphabet nói về kế hoạch cải thiện công cụ tìm kiếm của mình, nhưng video quảng cáo Google Bard cho thấy chatbot AI này trả lời sai một câu hỏi, dẫn đến đợt trượt giá cổ phiếu khiến vốn hóa thị trường công ty giảm hơn 100 tỉ USD.

Microsoft sau đó đã tự xem xét kỹ lưỡng khi Bing chatbot thể hiện một số hành vi gây lo ngại, thậm chí nói dối, tranh cãi và mắng người dùng dù trả lời sai. Điều này khiến công ty phải hạn chế các phiên trò chuyện dài mà họ cho là "khiêu khích" Bing chatbot trả lời ngoài ý muốn.

Giám đốc tài chính Microsoft, Amy Hood, nói với các nhà phân tích rằng lợi ích từ việc thu hút người dùng và doanh thu quảng cáo vượt qua chi phí khi Bing phiên bản mới được triển khai đến hàng triệu người tiêu dùng. "Đó là số tiền lợi nhuận gộp tăng thêm cho chúng tôi, ngay cả khi chúng tôi phải bàn bạc về chi phí phục vụ", bà nói.

bing-chatbot-google-bard-co-the-gay-ton-kem-gap-10-lan-tim-kiem-tu-khoa.jpg
Chi phí lớn là lý do chính khiến những gã khổng lồ tìm kiếm và truyền thông xã hội với hàng tỉ người dùng không tung ra chatbot AI trong một sớm một chiều - Ảnh: Internet

Một đối thủ cạnh tranh khác của Google là You.com. Richard Socher, Giám đốc điều hành công cụ tìm kiếm You.com, cho biết việc bổ sung trải nghiệm trò chuyện AI cũng như các ứng dụng cho biểu đồ, video và công nghệ tổng hợp khác làm tăng chi phí từ 30% đến 50%. "Công nghệ sẽ trở nên rẻ hơn theo quy mô và theo thời gian", ông nói.

Một nguồn thân cận với Google cảnh báo rằng còn quá sớm để xác định chính xác chi phí của chatbot vì hiệu quả và cách sử dụng rất khác nhau tùy thuộc vào công nghệ liên quan và AI cung cấp sức mạnh cho các sản phẩm như tìm kiếm.

Theo Paul Daugherty, Giám đốc công nghệ Accenture (công ty tư vấn quản lý chuyên cung cấp dịch vụ chiến lược, tư vấn, kỹ thuật số, công nghệ và hoạt động), việc thanh toán hóa đơn là một trong hai lý do chính khiến những gã khổng lồ tìm kiếm và truyền thông xã hội với hàng tỉ người dùng không tung ra chatbot AI trong một sớm một chiều.

"Một là độ chính xác và thứ hai là bạn phải mở rộng quy mô này theo đúng cách”, ông nói.

Tính toán chi phi

Trong nhiều năm, các chuyên gia tại Alphabet và các nơi khác đã nghiên cứu cách đào tạo và vận hành các mô hình ngôn ngữ lớn với chi phí rẻ hơn. 

AI gây ấn tượng cho người tiêu dùng bởi tính ưu việt giống con người của nó đã tăng lên kích thước rất lớn, đạt tới 175 tỉ tham số hoặc các giá trị khác nhau mà thuật toán cần tính đến, cho mô hình OpenAI được cập nhật thành ChatGPT. Chi phí cũng thay đổi theo độ dài truy vấn của người dùng, được đo bằng token hoặc các phần của từ.

Một giám đốc cấp cao về công nghệ đã nói với Reuters rằng AI như vậy vẫn rất đắt để đưa đến tay hàng triệu người tiêu dùng. “Những mô hình này rất đắt tiền và do đó cấp độ phát minh tiếp theo sẽ giảm chi phí đào tạo và suy luận các mô hình này để chúng tôi có thể sử dụng nó trong mọi ứng dụng”, người này nói với điều kiện giấu tên.

Hiện tại, các nhà khoa học máy tính bên trong OpenAI đã tìm ra cách tối ưu hóa chi phí suy luận thông qua mã phức tạp giúp chip chạy hiệu quả hơn, một người quen thuộc với nỗ lực này cho biết.

Một vấn đề dài hạn là làm thế nào để giảm số lượng tham số trong mô hình AI xuống 10 hoặc thậm chí 100 lần mà không làm giảm độ chính xác.

Naveen Rao, người trước đây điều hành các nỗ lực về chip AI của Intel và đang làm việc để giảm chi phí điện toán AI thông qua công ty khởi nghiệp MosaicML của mình, nói: “Làm thế nào bạn loại bỏ các tham số một cách hiệu quả nhất, đó vẫn là một câu hỏi mở”.

Trong thời gian chờ đợi, một số người đã cân nhắc tính phí truy cập, chẳng hạn trả 20 USD mỗi tháng cho OpenAI để có thể trải nghiệm dịch vụ ChatGPT tốt hơn. Các chuyên gia công nghệ cũng cho biết một giải pháp thay thế là áp dụng các mô hình AI nhỏ hơn cho các tác vụ đơn giản hơn mà Alphabet đang khám phá.

Alphabet thông báo trong tháng này rằng một phiên bản mô hình nhỏ hơn của công nghệ AI LaMDA khổng lồ sẽ cung cấp năng lực cho chatbot Bard, yêu cầu "sức mạnh tính toán ít hơn đáng kể, cho phép chúng tôi mở rộng quy mô tới nhiều người dùng hơn".

Khi được hỏi về các chatbot như ChatGPT và Bard, John Hennessy cho biết tại một hội nghị TechSurge tuần trước rằng các mô hình tập trung hơn, thay vì một hệ thống làm mọi thứ, sẽ giúp "kiểm soát chi phí".

Sơn Vân