OpenAI, công ty khởi nghiệp gây bão trên toàn thế giới với chatbot trí tuệ nhân tạo ChatGPT, đang đăng ký thương hiệu GPT-6 và GPT-7, khi tiếp tục đẩy mạnh giới hạn của công nghệ này.
Nhịp đập khoa học

OpenAI đăng ký thương hiệu GPT-6 và GPT-7 ở Trung Quốc, thúc đẩy giới hạn của công nghệ

Sơn Vân 04/12/2023 07:39

OpenAI, công ty khởi nghiệp gây bão trên toàn thế giới với chatbot trí tuệ nhân tạo ChatGPT, đang đăng ký thương hiệu GPT-6 và GPT-7, khi tiếp tục đẩy mạnh giới hạn của công nghệ này.

OpenAI đã nộp hai đơn đăng ký thương hiệu tại Trung Quốc cho GPT-6 thuộc nhóm 9 (bao gồm thiết bị và dụng cụ cho mục đích khoa học hoặc nghiên cứu) và nhóm 42 (đề cập đến các dịch vụ và thiết kế công nghệ) cùng hai hồ sơ khác cho GPT-7 trong hai danh mục tương tự, theo hồ sơ trên trang web của Văn phòng Thương hiệu của Cục Sở hữu Trí tuệ Quốc gia Trung Quốc.

Các đơn đăng ký vẫn đang được xem xét được tạo bởi OpenAI OpCo, đơn vị chính của OpenAI - công ty khởi nghiệp được thành lập tại thành phố San Francisco, bang California, Mỹ do Microsoft hậu thuẫn. Chưa dịch vụ nào của OpenAI có sẵn ở Trung Quốc, kể cả Hồng Kông.

OpenAI không trả lời ngay lập tức câu hỏi của trang SCMP về việc đăng ký thương hiệu.

openai-nop-don-dang-ky-thuong-hieu-gpt-6-gpt-7-o-trung-quoc.jpg
OpenAI đang đăng ký thương hiệu GPT-6 và GPT-7 khi tiếp tục đẩy mạnh giới hạn của công nghệ này - Ảnh: Internet

Trước đó, OpenAI đã nộp đơn đăng ký thương hiệu GPT-4 và Whisper hồi tháng 4, cùng một thương hiệu khác có tên GPT-5 vào tháng 7, nhưng chưa có thương hiệu nào nhận được sự chấp thuận cuối cùng, theo hồ sơ trên trang web Cục Sở hữu Trí tuệ Quốc gia Trung Quốc.

Kể từ khi ra mắt ChatGPT hồi tháng 11.2022, OpenAI đã nâng cao khả năng của các mô hình ngôn ngữ lớn, một thuật toán học sâu có khả năng đạt được sự hiểu biết và tạo ra ngôn ngữ cho mục đích chung.

Học sâu (deep learning) là lĩnh vực trong lĩnh vực trí tuệ nhân tạo (AI) tập trung vào việc xây dựng và huấn luyện mô hình học máy có khả năng tự học từ dữ liệu. Cụ thể, học sâu sử dụng mạng nơ-ron nhân tạo (Artificial Neural Networks - ANN), có khả năng mô phỏng cách não bộ người hoạt động.

Mô hình mạng nơ-ron trong học sâu thường bao gồm nhiều lớp (do đó gọi là "sâu"), trong đó mỗi lớp chứa các nơ-ron hoạt động cùng một lúc. Các lớp đầu vào của mạng nhận dữ liệu đầu vào, sau đó thông tin được truyền qua các lớp ẩn để cuối cùng tạo ra kết quả đầu ra.

Điều quan trọng ở học sâu là quá trình huấn luyện, trong đó mô hình được cung cấp với một lượng lớn dữ liệu đã được gán nhãn để học và điều chỉnh trọng số của các kết nối nơ-ron để tối ưu hóa hiệu suất. Học sâu đã đạt được những thành tựu ấn tượng trong nhiều ứng dụng, gồm nhận dạng hình ảnh, ngôn ngữ tự nhiên và nhiều lĩnh vực khác.

ChatGPT ban đầu được xây dựng trên GPT-3.5, mô hình ngôn ngữ lớn có 175 tỉ tham số. Vào tháng 3, OpenAI đã giới thiệu phiên bản GPT-4 tiên tiến hơn. Công ty không tiết lộ GPT-4 có bao nhiêu tham số, nhưng hãng tin Semafor (Mỹ) đưa tin tổng số tham số của GPT-4 ước tính lên tới hơn 1.000 tỉ.

Đầu tháng 11, OpenAI đã giới thiệu GPT-4 Turbo, mô hình ngôn ngữ lớn mạnh hơn, nhanh hơn và rẻ hơn GPT-4, tại hội nghị nhà phát triển đầu tiên của hãng.

Các cải tiến của GPT-4 Turbo gồm bộ nhớ lớn hơn để ghi nhớ tới 300 trang văn bản chỉ trong một lời nhắc, giá rẻ hơn cho nhà phát triển và ngày được đào tạo kiến thức đến tháng 4.2023, theo Sam Altman – Giám đốc điều hành OpenAI.

GPT-4 Turbo gồm hai phiên bản, một phiên bản phân tích văn bản chặt chẽ và phiên bản còn lại có tìm hiểu về bối cảnh của văn bản, hình ảnh. Theo OpenAI, hai phiên bản GPT-4 Turbo sẽ được cung cấp cho các nhà phát triển vài tuần tới.

OpenAI cho biết đã tối ưu hóa hiệu suất để có thể cung cấp GPT-4 Turbo với mức giá cho chuỗi ký tự đầu vào và đầu ra lần lượt chỉ bằng 1/3 và 1/2 so với giá GPT-4.

Nếu như GPT-4 được cập nhật dữ liệu lấy từ các trang web đến tháng 9.2021 thì GPT-4 Turbo lấy dữ liệu cập nhật tới tháng 4.2023. GPT-4 Turbo có thể đưa ra câu trả lời với độ dài tương đương hơn 300 trang văn bản trong một lần nhận yêu cầu.

Tháng trước, Sam Altman cho biết trong một cuộc phỏng vấn với Financial Times rằng OpenAI đang nghiên cứu GPT-5 và có kế hoạch huy động thêm vốn từ Microsoft để hỗ trợ nỗ lực phát triển nghiên cứu.

Cuộc phỏng vấn được công bố chỉ vài ngày trước khi hội đồng quản trị OpenAI cũ đưa ra thông báo gây sốc về việc sa thải Sam Altman khỏi vị trí giám đốc điều hành. Sam Altman trở lại vị trí Giám đốc điều hành OpenAI chỉ 5 ngày sau đó, khi hầu hết nhân viên công ty dọa sẽ nghỉ việc nếu ông không được trở lại vị trí cũ.

Một trong những lý do đằng sau việc hội đồng quản trị OpenAI cũ sa thải Sam Altman do mối lo ngại từ một số nhà nghiên cứu trong công ty về sự phát triển mạnh mẽ của AI có thể đe dọa loài người. Trang The Information đưa tin một nhóm do Ilya Sutskever, Giám đốc khoa học OpenAI, dẫn đầu đã đạt được bước đột phá vào đầu năm nay, cho phép họ xây dựng một mô hình AI mới có tên Q*.

Reuters cho biết Q* đã gây ra cơn bão tố nội bộ, khi một số nhân viên viết thư cho hội đồng quản trị OpenAI cũ cảnh báo rằng bước đột phá mới có thể đe dọa nhân loại.

Theo một trong những nguồn tin, Mira Murati, Giám đốc công nghệ OpenAI, nói với các nhân viên rằng một bức thư về Q* đã thúc đẩy hành động sa thải Sam Altman của hội đồng quản trị cũ.

Một trong những nguồn tin nói với Reuters rằng OpenAI đã đạt được tiến bộ về Q*. Đây là điều mà một số người trong nội bộ tin rằng có thể là một bước đột phá trong cuộc tìm kiếm siêu trí tuệ, còn được gọi là AGI (trí tuệ nhân tạo tổng hợp). AGI được coi là mục tiêu cuối cùng của lĩnh vực AI vì về mặt lý thuyết, đại diện cho thời điểm khi loài người tạo ra thứ gì đó thông minh bằng hoặc hơn chính mình.

Với nguồn tài nguyên máy tính khổng lồ, Q* có thể giải quyết một số vấn đề toán học nhất định. Nguồn tin cho biết dù chỉ thực hiện phép toán ở cấp độ học sinh tiểu học nhưng việc hoàn thành được những bài kiểm tra như vậy khiến các nhà nghiên cứu rất lạc quan về thành công trong tương lai của Q*.

Khả năng giải các bài toán cơ bản nghe có vẻ không ấn tượng lắm, nhưng các chuyên gia AI nói với trang Insider rằng nó sẽ thể hiện một bước tiến vượt bậc so với các mô hình hiện có, vốn đang gặp khó khăn trong việc khái quát hóa bên ngoài dữ liệu mà chúng được đào tạo.

“Nếu nó có khả năng suy luận một cách hợp lý về các khái niệm trừu tượng, điều mà hiện tại nó đang thực sự gặp khó khăn, thì đó là một bước nhảy vọt khá lớn”, theo Charles Higgins, đồng sáng lập Tromero (công ty khởi nghiệp huấn luyện AI) và là ứng viên tiến sĩ về an toàn AI.

Ông nói thêm: "Toán học là về lý luận tượng trưng. Ví dụ nếu X lớn hơn Y và Y lớn hơn Z thì X lớn hơn Z. Các mô hình ngôn ngữ theo truyền thống thực sự gặp khó khăn ở vấn đề đó bởi chúng không có lý luận logic, mà chỉ có trực giác hiệu quả”.

Sophia Kalanovska, đồng sáng lập Tromero, nói với Insider rằng cái tên Q* ngụ ý rằng nó có thể là sự kết hợp của hai kỹ thuật AI nổi tiếng là Q-learning và A* search. Bà cho biết điều này gợi ý rằng mô hình AI mới có thể kết hợp các kỹ thuật học sâu hỗ trợ ChatGPT với các quy tắc do con người lập trình. Đó là một cách tiếp cận có thể giúp khắc phục vấn đề “ảo giác” (trả lời sai nhưng như thật) của chatbot AI.

Khi trở lại OpenAI, Sam Altman đã nói với các nhân viên rằng một trong những ưu tiên của công ty là “thúc đẩy kế hoạch nghiên cứu của mình”, đồng thời “đầu tư thêm vào các nỗ lực an toàn toàn diện”, theo một bức thư ngỏ do công ty đăng tải.

Bài liên quan
GPT-4 Turbo giúp OpenAI nới rộng khoảng cách với các gã khổng lồ công nghệ Trung Quốc
Mô hình ngôn ngữ lớn GPT-4 Turbo ra mắt tại hội nghị dành cho nhà phát triển đầu tiên của OpenAI hôm 7.11 dự kiến sẽ giúp công ty khởi nghiệp Mỹ nới rộng khoảng cách so với các đối thủ Trung Quốc, theo các nhà phân tích và người trong ngành.

(0) Bình luận
Nổi bật Một thế giới
Bàn giải pháp cấp nước sạch ở ĐBSCL bằng nhà máy di động trong container
4 giờ trước Theo dòng thời sự
Hiện đã có doanh nghiệp làm được nhà máy nước di động, đầu vào sử dụng nước ngọt và cả nước nhiễm mặn để xử lý thành nước sạch với công suất tới 3.000m3/ngày.
Đừng bỏ lỡ
Mới nhất
POWERED BY ONECMS - A PRODUCT OF NEKO
OpenAI đăng ký thương hiệu GPT-6 và GPT-7 ở Trung Quốc, thúc đẩy giới hạn của công nghệ