OpenAI vừa ra mắt GPT-4o mini, mô hình AI nhỏ gọn, giá rẻ nhằm mục đích làm cho công nghệ của họ trở nên tiết kiệm hơn và tiêu tốn ít năng lượng hơn, giúp công ty này hướng đến nhóm khách hàng rộng lớn hơn.
Nhịp đập khoa học

GPT-4o mini nhỏ gọn, giá rẻ, khả năng trò chuyện tốt hơn GPT-4, điểm cao hơn Google Gemini Flash

Sơn Vân 19/07/2024 09:03

OpenAI vừa ra mắt GPT-4o mini, mô hình AI nhỏ gọn, giá rẻ nhằm mục đích làm cho công nghệ của họ trở nên tiết kiệm hơn và tiêu tốn ít năng lượng hơn, giúp công ty này hướng đến nhóm khách hàng rộng lớn hơn.

Được Microsoft hậu thuẫn, OpenAI là công ty dẫn đầu thị trường trong lĩnh vực phần mềm AI. OpenAI đang nỗ lực để làm cho việc phát triển các ứng dụng dựa trên mô hình AI của họ trở nên rẻ hơn và nhanh hơn, vào thời điểm mà các đối thủ mạnh về tài chính như Meta Platforms và Google cố gắng chiếm một phần lớn hơn trong thị trường.

GPT-4o mini là bản rút gọn của mô hình AI đa phương thức GPT-4o được OpenAI trình làng vào tháng 5, có khả năng trò chuyện bằng giọng nói thực tế và tương tác qua văn bản lẫn hình ảnh.

Theo OpenAI, GPT-4o mini có giá 15 cent cho mỗi triệu token đầu vào và 60 cent cho mỗi triệu token đầu ra, rẻ hơn 60% so với GPT-3.5 Turbo. Token là đơn vị dữ liệu được mô hình AI xử lý.

Hiện GPT-4o mini hoạt động tốt hơn GPT-4 về các khả năng trò chuyện. Điều này đồng nghĩa là khi tương tác với cả hai mô hình AI này, người dùng có xu hướng thích câu trả lời và cách trò chuyện của GPT-4o mini hơn so với GPT-4.

GPT-4o mini đạt 82% trên thang điểm Massive Multitask Language Understanding (MMLU). MMLU là chuẩn đánh giá về trí thông minh và lý luận văn bản của các mô hình ngôn ngữ. Điểm MMLU cao hơn cho thấy mô hình có thể hiểu và sử dụng ngôn ngữ tốt hơn trong nhiều lĩnh vực khác nhau, nâng cao khả năng sử dụng trong thực tế.

Theo OpenAI, GPT-4o mini đạt điểm số 82% MMLU so với 77.9% của Gemini Flash từ Google và 73.8% từ Claude Haiku của Anthropic. Các mô hình ngôn ngữ nhỏ hơn yêu cầu ít năng lực tính toán hơn để chạy, khiến chúng trở thành một lựa chọn phải chăng hơn cho các công ty có nguồn lực hạn chế muốn triển khai AI tạo sinh trong hoạt động của họ.

Hiện tại, bạn có thể sử dụng GPT-4o mini để xử lý và làm việc với văn bản và hình ảnh thông qua giao diện lập trình ứng dụng (API). Trong tương lai, OpenAI sẽ mở rộng khả năng của GPT-4o mini để có thể xử lý cả video và âm thanh, không chỉ giới hạn ở văn bản và hình ảnh.

Người dùng ChatGPT miễn phí, Plus và Team sẽ có thể truy cập GPT-4o mini (kiến thức cập nhật đến tháng 10.2023) bắt đầu từ ngày 18.7 thay cho GPT-3.5 Turbo. Trong khi người dùng doanh nghiệp có thể truy cập GPT-4o mini bắt đầu từ tuần tới, OpenAI cho biết.

gpt-4o-mini-nho-gon-gia-re-kha-nang-tro-chuyen-tot-hon-gpt-4-diem-cao-hon-google-gemini-flash.jpg
GPT-4o mini là mô hình AI nhỏ gọn, giá rẻ nhằm mục đích làm cho công nghệ của OpenAI trở nên tiết kiệm hơn và tiêu tốn ít năng lượng hơn - Ảnh: Internet

Theo Reuters, OpenAI đang phát triển phương pháp suy luận mới cho các mô hình AI của mình trong dự án có tên mã Strawberry.

Dự án này, chi tiết chưa từng được báo cáo trước đây, đến vào lúc công ty khởi nghiệp được Microsoft hậu thuẫn đang chạy đua để chứng minh rằng các loại mô hình AI của mình có khả năng cung cấp khả năng suy luận tiên tiến.

Các nhóm bên trong OpenAI đang làm việc trên Strawberry, theo một bản sao của tài liệu nội bộ gần đây của OpenAI mà Reuters thấy vào tháng 5. Tài liệu này nêu chi tiết kế hoạch về cách OpenAI dự định sử dụng Strawberry để thực hiện nghiên cứu. Nguồn tin của Reuters mô tả kế hoạch này là việc được đang tiến hành. Thế nhưng, Reuters không thể xác định Strawberry sắp ra mắt công chúng hay chưa.

Cách hoạt động với Strawberry là bí mật, được giữ kín ngay cả trong OpenAI, nguồn tin của Reuters cho biết. Theo Reuters, tài liệu mô tả một dự án sử dụng các mô hình Strawberry với mục đích giúp AI của công ty không chỉ trả lời câu hỏi từ truy vấn của người dùng mà còn lên kế hoạch đủ để điều hướng internet một cách tự động và đáng tin cậy nhằm thực hiện cái mà OpenAI gọi là "nghiên cứu sâu". Đây là điều mà các mô hình AI hiện tại chưa đạt được, theo các cuộc phỏng vấn của Reuters với hơn 12 nhà nghiên cứu AI.

Dự án Strawberry trước đây được biết đến với tên gọi Q*, là một bước đột phá trong OpenAI mà Reuters từng đưa tin. Hai nguồn tin của Reuters cho biết đã xem các bản demo Q* vào đầu năm nay, có khả năng trả lời những câu hỏi khoa học và toán học phức tạp mà nhiều mô hình hiện AI tại chưa thể làm được.

Tại cuộc họp hôm 9.7, OpenAI đã trình diễn một dự án nghiên cứu mà họ tuyên bố có kỹ năng suy luận mới giống con người, theo hãng tin Bloomberg. Một phát ngôn viên của OpenAI xác nhận có cuộc họp nhưng từ chối cung cấp chi tiết về nội dung. Reuters chưa thể xác định liệu dự án được trình diễn hôm 9.7 có phải là Strawberry hay không.

OpenAI hy vọng sự đổi mới này sẽ cải thiện đáng kể khả năng suy luận cho các mô hình AI của mình. Một người quen thuộc với dự án nói rằng Strawberry bao gồm cả cách xử lý chuyên biệt một mô hình AI sau khi nó đã được đào tạo dựa trên các tập dữ liệu rất lớn.

Các nhà nghiên cứu mà Reuters phỏng vấn cho biết suy luận là chìa khóa để AI đạt được trí thông minh ngang bằng hoặc vượt trội con người. Trong khi các mô hình ngôn ngữ lớn hiện tại thể tóm tắt các văn bản dày đặc và viết văn xuôi thanh lịch nhanh hơn bất kỳ người nào, công nghệ này thường không đạt được ở những vấn đề thông thường mà con người giải quyết một cách trực quan, như lỗi sai trong lập luận và chơi cờ caro.

Khi gặp phải những vấn đề này, mô hình AI thường bị ảo giác và đưa ra thông tin sai lệch. Nhìn chung, các nhà nghiên cứu AI mà Reuters phỏng vấn đồng ý rằng suy luận, trong bối cảnh AI, liên quan đến việc hình thành mô hình cho phép AI lên kế hoạch trước, phản ánh cách thế giới vật lý hoạt động và giải quyết các vấn đề phức tạp nhiều bước một cách đáng tin cậy.

Cải thiện khả năng suy luận được coi là chìa khóa để mở ra khả năng cho các mô hình AI trong việc thực hiện mọi thứ, từ việc phát hiện các khám phá khoa học lớn đến lập kế hoạch và xây dựng ứng dụng phần mềm mới.

Sam Altman, Giám đốc điều hành OpenAI, nói đầu năm nay rằng “các lĩnh vực tiến bộ quan trọng nhất trong AI sẽ xoay quanh khả năng suy luận”.

Một số công ty khác như Google, Meta Platforms và Microsoft cũng đang thử nghiệm các kỹ thuật khác nhau để cải thiện khả năng suy luận trong mô hình AI, giống hầu hết phòng thí nghiệm học thuật thực hiện nghiên cứu về AI.

Các nhà nghiên cứu có quan điểm khác nhau về việc liệu mô hình ngôn ngữ lớn có khả năng đưa những ý tưởng và kế hoạch dài hạn vào cách chúng thực hiện dự đoán hay không.

Yann LeCun, Giám đốc Khoa học AI tại Meta Platforms (một trong những người tiên phong về AI), đã thường xuyên nói rằng các mô hình ngôn ngữ lớn không có khả năng suy luận giống con người.

Cuối tháng 4, Microsoft (nhà đầu tư lớn nhất vào OpenAI) đã trình làng Phi-3-mini, mô hình AI nhỏ gọn, tiết kiệm chi phí, có thể thực hiện các nhiệm vụ như tạo nội dung và bài đăng trên mạng xã hội trong khi sử dụng lượng dữ liệu nhỏ hơn đáng kể so với các mô hình thông thường.

Theo tuyên bố của Microsoft, Phi-3-mini hoạt động tốt hơn các mô hình AI có kích thước gấp đôi nó về hiệu suất trên nhiều bài kiểm tra đánh giá kỹ năng ngôn ngữ, lập trình và toán học. Điều này biến Phi-3-mini thành lựa chọn hấp dẫn cho các công ty có nguồn lực hạn chế, vốn thường gặp khó khăn trong việc triển khai và vận hành các mô hình AI lớn.

Theo Microsoft, một doanh nghiệp có thể sử dụng Phi-3-mini để tóm tắt các điểm chính của tài liệu dài, trích xuất các thông tin có liên quan và xu hướng ngành từ các báo cáo nghiên cứu thị trường.

Phi-3-mini sẽ có sẵn ngay trên danh mục mô hình AI của nền tảng dịch vụ đám mây Azure, nền tảng mô hình học máy Hugging Face và Ollama (cấu trúc để chạy các mô hình AI trên máy tính cá nhân).

Giữa tháng 4, Microsoft đã đầu tư 1,5 tỉ USD vào G42 - công ty AI đặt trụ sở tại UAE. Gã khổng lồ phần mềm Mỹ từng hợp tác với công ty khởi nghiệp Mistral AI (Pháp) để đưa mô hình AI của họ trên Azure.

Microsoft đặt mục tiêu nội bộ là tích lũy 1,8 triệu bộ xử lý đồ họa (GPU) vào cuối năm 2024, theo tài liệu mà trang Insider nhìn thấy.

Microsoft đang cố gắng tạo ra mô hình AI nhanh hơn, tốt hơn và rẻ hơn, nhưng nỗ lực này chủ yếu phụ thuộc vào việc công ty mua chip, chủ yếu là GPU từ Nvidia.

Tài liệu nội bộ gợi ý rằng Microsoft có kế hoạch tăng gấp ba số lượng GPU mà hãng đang có vào năm 2024.

Hợp tác với OpenAI, Microsoft đang dẫn đầu trong sự bùng nổ AI tạo sinh. Thế nhưng, duy trì vị trí hàng đầu trong lĩnh vực này là việc khó khăn và rất tốn kém.

Từ năm tài chính hiện tại đến năm tài chính 2027, Microsoft dự kiến sẽ chi khoảng 100 tỉ USD cho GPU và trung tâm dữ liệu, hai người quen thuộc với kế hoạch này nói với Insider.

Frank Shaw (người phát ngôn của Microsoft) từ chối bình luận.

Những gã khổng lồ công nghệ khác cũng đang xây dựng kho GPU khổng lồ. Đó là một trong những lý do giúp Nvidia tăng trưởng mạnh và hiện có vốn hóa thị trường hơn 2.100 tỉ USD. Nvidia hiện là nhà cung cấp GPU số 1 thế giới.

Mark Zuckerberg, Giám đốc điều hành Meta Platforms, hồi đầu năm nay cho biết công ty truyền thông xã hội này sẽ mua khoảng 350.000 GPU Nvidia H100 vào năm 2024. Kết hợp với số GPU tương đương từ các nhà cung cấp khác, Meta Platforms sẽ có tổng cộng khoảng 600.000 GPU vào cuối năm 2024, theo Mark Zuckerberg.

Nvidia gần đây đã giới thiệu Blackwell, GPU mới nhất và nhanh nhất của hãng. Trong khi H100 của Nvidia (giá 30.000 USD) là một trong những GPU mạnh nhất hiện có trên thị trường, nhưng rất khan hiếm.

Theo Nvidia, Blackwell có tốc độ xử lý một số tác vụ nhanh hơn 30 lần so với H100. Jensen Huang, Giám đốc điều hành Nvidia, nói với trang CNBC rằng Blackwell sẽ có giá từ 30.000 đến 40.000 USD (gần 1 tỉ đồng). Sau đó, ông nói rằng Nvidia sẽ đưa Blackwell vào các hệ thống máy tính lớn hơn và giá sẽ thay đổi tùy theo giá trị mà chúng mang lại.

Theo Nvidia, Blackwell dự kiến ​​sẽ xuất xưởng vào quý 3/2024. Nvidia cho biết các khách hàng lớn gồm Amazon, Google, Microsoft, OpenAI và Oracle dự kiến sẽ sử dụng Blackwell trong các dịch vụ điện toán đám mây mà họ cung cấp, cũng như các dịch vụ AI riêng.

Insider mới đây có được một tài liệu khác tiết lộ Microsoft đang đảm bảo có số lượng GPU kỷ lục để xử lý khối lượng công việc AI mới trong các trung tâm dữ liệu.

Trong nửa cuối năm ngoái, Microsoft đã cung cấp "lượng GPU ở mức kỷ lục", tăng hơn gấp đôi tổng số GPU đã được lắp đặt của mình, tài liệu nêu rõ mà không đề cập đến con số thực tế.

Số lượng và phạm vi GPU của Microsoft đã mở rộng sang thêm 39 trung tâm dữ liệu trong giai đoạn này. Gã khổng lồ công nghệ Mỹ hiện có nhóm các máy tính được kết nối và tối ưu hóa để thực hiện các tác vụ AI hoạt động tại 98 địa điểm trên toàn cầu.

Các nhà phân tích tại hãng DA Davidson ước tính rằng Microsoft đã chi 4,5 tỉ USD cho GPU Nvidia vào năm ngoái, con số mà một nhà quản lý tại Microsoft nói là gần với mức chi tiêu thực tế của họ.

Bài liên quan
Người đàn ông quyền lực hàng đầu làng giải trí Mỹ gọi CEO OpenAI là 'kẻ lừa đảo'
Ari Emanuel, Giám đốc điều hành tập đoàn thể thao và giải trí Endeavour, gọi Sam Altman là “kẻ lừa đảo” và là người không thể tin cậy được với trí tuệ nhân tạo (AI). Ari Emanuel là một trong những người đàn ông quyền lực nhất làng giải trí Mỹ

(0) Bình luận
Nổi bật Một thế giới
Nhiều giải pháp ngăn chặn thông tin xấu, sai sự thật trên mạng xã hội
1 giờ trước Khoa học - công nghệ
Thời gian qua, Bộ TT-TT đã chủ động nghiên cứu, tìm kiếm các giải pháp nhằm quản lý hiệu quả hơn nội dung trên không gian mạng.
Đừng bỏ lỡ
Mới nhất
POWERED BY ONECMS - A PRODUCT OF NEKO
GPT-4o mini nhỏ gọn, giá rẻ, khả năng trò chuyện tốt hơn GPT-4, điểm cao hơn Google Gemini Flash