Các mô hình AI lớn đủ mạnh để tạo ra công cụ AI nhỏ mà không cần sự trợ giúp của con người

Nhịp đập khoa học - Ngày đăng : 19:24, 19/12/2023

Các nhà khoa học cho biết mô hình AI lớn giờ đây có thể tạo ra công cụ AI nhỏ hơn mà không cần con người và huấn luyện nó như một “người anh lớn” với em mình.
Nhịp đập khoa học

Các mô hình AI lớn đủ mạnh để tạo ra công cụ AI nhỏ mà không cần sự trợ giúp của con người

Sơn Vân {Ngày xuất bản}

Các nhà khoa học cho biết mô hình AI lớn giờ đây có thể tạo ra công cụ AI nhỏ hơn mà không cần con người và huấn luyện nó như một “người anh lớn” với em mình.

Nhóm các nhà khoa học từ Viện Công nghệ Massachusetts (MIT), một số cơ sở của Đại học California cùng hãng AI Aizip nói rằng họ có thể làm cho các mô hình ngôn ngữ lớn (mô hình AI lớn), giống GPT-3.5 hay GPT-4 làm nền tảng cho chatbot ChatGPT, tự động sao chép.

GPT (Generative Pre-training Transformer) là một mô hình ngôn ngữ lớn do nhà nghiên cứu AI có tên Alec Radford viết, sau đó được OpenAI phát triển và nâng cấp lên phiên bản GPT-4 mạnh mẽ.

Yan Sun, Giám đốc điều hành Aizip, nói với Fox News: “Chúng tôi đang sử dụng các mô hình AI lớn hơn để xây dựng mô hình nhỏ hơn, giống như một người anh lớn giúp đỡ em nó cải thiện. Đó là bước đầu tiên hướng tới công việc lớn hơn về AI tự phát triển. Đây là bước đầu tiên trên con đường chứng tỏ rằng các mô hình AI có thể xây dựng các mô hình AI khác”.

Yubei Chen, một trong những nhà nghiên cứu nói thêm: “Công nghệ này là bước đột phá theo nghĩa lần đầu tiên chúng tôi đã thiết kế một quy trình hoàn toàn tự động. Nó có thể thiết kế một mô hình AI mà không cần sự can thiệp của con người vào quá trình này”.

Trong khi mô hình ngôn ngữ lớn như GPT-4 tiêu tốn ít nhất 700.000 USD mỗi ngày để chạy, các mô hình AI nhỏ (thường được gọi là học máy nhỏ hoặc TinyML) có thể chạy với chi phí thấp và mang theo trên những thiết bị.

TinyML có thể được sử dụng cho các tác vụ cụ thể trong mọi lĩnh vực, từ nhận dạng khuôn mặt đến thiết bị trợ thính và thiết bị gia dụng.

Yan Sun cho biết: “Chúng tôi đang thực hiện những nhiệm vụ thực sự cụ thể, những giải pháp chi phí rất thấp có thể được sử dụng ở mọi nơi trên thế giới. Chúng tôi đang đưa trí tuệ vào cuộc sống hàng ngày, giúp cuộc sống trở nên an toàn hơn”.

Nhóm nghiên cứu tập trung vào việc tạo ra những công cụ AI nhỏ này và cho biết quá trình thiết kế hiện nay có thể tự động được thực hiện bởi AI thông minh hơn.

Yubei Chen nói: “Trong tương lai, chúng tôi tin rằng mô hình AI lớn và nhỏ sẽ hợp tác, xây dựng một hệ sinh thái trí tuệ hoàn chỉnh”.

cac-mo-hinh-ai-lon-du-manh-de-tao-ra-cong-cu-ai-nho-ma-khong-can-su-tro-giup-cua-con-nguoi.jpg
Mô hình AI lớn giờ đây có thể tạo ra công cụ AI nhỏ hơn mà không cần con người và huấn luyện nó như một “người anh lớn” với em mình - Ảnh: Internet

OpenAI tung ra GPT-4 Turbo, Microsoft phát triển mô hình AI giá rẻ và nhỏ hơn GTP-4

Sự phổ biến bất ngờ của ChatGPT của OpenAI phát triển đã đánh thức gã khổng lồ công nghệ Microsoft, Google và châm ngòi cho cuộc chạy đua AI đang diễn ra trong thế giới công nghệ.

Tuy nhiên, trang The Information đưa tin Microsoft đang cố gắng giảm sự phụ thuộc vào OpenAI. Quyết định này phần lớn được thúc đẩy bởi chi phí ngày càng tăng của việc chạy các mô hình AI tiên tiến.

Một nhân viên hiện tại và một cựu nhân viên vừa rời Microsoft nói với The Information rằng người giám sát 1.500 nhà nghiên cứu tại Microsoft đã hướng dẫn một số người trong số họ phát triển mô hình ngôn ngữ lớn nội bộ.

Nguồn tin nói với The Information rằng Microsoft muốn các mô hình ngôn ngữ lớn nội bộ của mình rẻ hơn và nhỏ hơn so với GPT-4 của OpenAI, ngay cả khi điều này có nghĩa là chúng hoạt động không tốt.

Theo trang The Information, các nhóm sản phẩm đang nỗ lực tích hợp các chương trình AI nội bộ của Microsoft vào các sản phẩm như Bing Chat.

Microsoft đã không ngại ngùng khi hợp tác với OpenAI. Vào năm 2019, Microsoft đã đầu tư 1 tỉ USD vào OpenAI.

Cuối tháng 1.2023, Microsoft đang mở rộng quan hệ đối tác lâu dài với OpenAI thông qua một “khoản đầu tư mới nhiều năm, nhiều tỉ USD”.

Satya Nadella, Giám đốc điều hành Microsoft, nói: “Chúng tôi đã thiết lập quan hệ đối tác với OpenAI xung quanh tham vọng chung nhằm thúc đẩy nghiên cứu AI tiên tiến một cách có trách nhiệm và dân chủ hóa AI như một nền tảng công nghệ mới. Ở giai đoạn hợp tác tiếp theo của chúng tôi, các nhà phát triển và tổ chức trong các ngành sẽ có quyền truy cập vào cơ sở hạ tầng, mô hình và chuỗi công cụ AI tốt nhất với Azure để xây dựng và chạy các ứng dụng của họ”.

Thỏa thuận này sẽ chứng kiến ​​Microsoft tăng cường đầu tư vào việc phát triển và triển khai các hệ thống siêu máy tính để hỗ trợ nghiên cứu của OpenAI. Phần quan trọng của thỏa thuận: Microsoft là đối tác đám mây độc quyền cho OpenAI. Các dịch vụ đám mây của Microsoft sẽ hỗ trợ tất cả khối lượng công việc của OpenAI trên các sản phẩm, dịch vụ API và nghiên cứu.

Gã khổng lồ công nghệ đã tích hợp công nghệ của OpenAI vào các sản phẩm chủ lực, gồm cả công cụ tìm kiếm Bing.

Theo tin đồn về thỏa thuận này, Microsoft có thể nhận được 75% lợi nhuận của OpenAI cho đến khi đảm bảo hoàn vốn đầu tư và 49% cổ phần trong công ty. OpenAI cho biết vẫn là một công ty có giới hạn lợi nhuận sau thỏa thuận này, cho phép họ tiếp tục huy động vốn.

Sam Altman, Giám đốc điều hành OpenAI, nói: “Ba năm hợp tác vừa qua của chúng tôi thật tuyệt vời. Microsoft chia sẻ các giá trị của chúng tôi. Chúng tôi rất vui mừng được tiếp tục nghiên cứu độc lập của mình và hướng tới việc tạo ra AI tiên tiến mang lại lợi ích cho mọi người”.

Microsoft đã mua giấy phép độc quyền cho công nghệ cơ bản đằng sau GPT-3 vào năm 2020 sau khi đầu tư 1 tỉ USD vào OpenAI hồi năm 2019. Hãng đã xây dựng mối quan hệ chặt chẽ với OpenAI và cũng đang lên kế hoạch thêm mô hình chuyển văn bản thành hình ảnh AI vào Bing được cung cấp bởi DALL-E 2 của OpenAI.

Theo hãng tin Reuters, Microsoft đã xây dựng một hệ thống với hơn 10.000 chip Nvidia cho OpenAI để sử dụng trong việc phát triển các công nghệ làm nền tảng cho ChatGPT, cụ thể là GPT.

Có trụ sở tại thành phố Santa Clara (bang California, Mỹ), Nvidia đã thống trị lĩnh vực bán chip được sử dụng để phát triển các công nghệ generative AI (AI tạo sinh).

Generative AI là loại trí tuệ nhân tạo mà máy tính được lập trình để tự động tạo ra nội dung mới, như văn bản, hình ảnh, âm thanh và video. Nó khác với các hệ thống AI khác như máy học sâu (deep learning) hoặc học máy (machine learning) trong việc dự đoán kết quả từ dữ liệu đã có sẵn. Thay vì dựa trên dữ liệu huấn luyện, hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn.

Những công nghệ mới này dựa trên việc sử dụng hàng ngàn chip Nvidia cùng lúc để huấn luyện hệ thống AI trên kho dữ liệu khổng lồ.

Tại hội nghị nhà phát triển đầu tiên của mình đầu tháng 11, OpenAI đã giới thiệu GPT-4 Turbo - mô hình ngôn ngữ lớn mạnh mẽ hơn và rẻ hơn GPT-4. Các cải tiến của GPT-4 Turbo bao gồm bộ nhớ lớn hơn để ghi nhớ tới 300 trang văn bản chỉ trong một lời nhắc, giá rẻ hơn cho nhà phát triển và ngày được đào tạo kiến thức đến tháng 4.2023, theo Sam Altman - Giám đốc điều hành OpenAI.

GPT-4 Turbo gồm hai phiên bản, một phiên bản phân tích văn bản chặt chẽ và phiên bản còn lại có tìm hiểu về bối cảnh của văn bản, hình ảnh.

OpenAI cho biết đã tối ưu hóa hiệu suất để có thể cung cấp GPT-4 Turbo với mức giá cho chuỗi ký tự đầu vào và đầu ra lần lượt chỉ bằng 1/3 và 1/2 so với giá GPT-4.

Nếu như GPT-4 được cập nhật dữ liệu lấy từ các trang web đến tháng 9.2021 thì GPT-4 Turbo lấy dữ liệu cập nhật tới tháng 4.2023. GPT-4 Turbo có thể đưa ra câu trả lời với độ dài tương đương hơn 300 trang văn bản trong một lần nhận yêu cầu.

Sơn Vân