Hôm 25.4, Nvidia đã công bố phần mềm NeMo Guardrails giúp các công ty ngăn chặn các mô hình AI trả lời sai sự thật, nói về các chủ đề có hại hoặc để lộ lỗ hổng bảo mật.

Nvidia ra mắt phần mềm ngăn các chatbot AI nói chủ đề có hại và sai sự thật

Sơn Vân | 25/04/2023, 23:11

Hôm 25.4, Nvidia đã công bố phần mềm NeMo Guardrails giúp các công ty ngăn chặn các mô hình AI trả lời sai sự thật, nói về các chủ đề có hại hoặc để lộ lỗ hổng bảo mật.

NeMo Guardrails là ví dụ về cách ngành công nghiệp trí tuệ nhân tạo (AI) đang cố gắng giải quyết vấn đề “ảo giác” của thế hệ mô hình ngôn ngữ lớn mới nhất, vốn là trở ngại lớn với các doanh nghiệp.

Các mô hình ngôn ngữ lớn, như GPT của OpenAI và LaMDA từ Google, được đào tạo trên hàng terabyte dữ liệu để tạo ra các chương trình có thể phản hồi giống như con người. Tuy nhiên, chúng cũng có xu hướng tạo ra các thông tin không chính xác, thường được các chuyên gia gọi là "ảo tưởng".

Các ứng dụng ban đầu của công nghệ này, chẳng hạn như tóm tắt tài liệu hoặc trả lời các câu hỏi cơ bản, cần giảm thiểu hiện tượng “ảo giác” để trở nên hữu ích hơn.

NeMo Guardrails có thể làm điều này bằng cách thêm các rào cản để ngăn phần mềm khỏi việc đề cập đến các chủ đề không nên. NeMo Guardrails có thể buộc chatbot AI nói về một chủ đề cụ thể, loại bỏ nội dung độc hại và ngăn các hệ thống mô hình ngôn ngữ lớn thực thi những lệnh có hại trên máy tính.

Bạn có thể viết kịch bản để hệ thống phản hồi theo một cách nhất định nếu có ai đó đề cập về chủ đề cụ thể, bất kể tình huống là gì. Chẳng hạn, nếu người dùng nói về một chủ đề nhạy cảm, kịch bản sẽ được sử dụng để đảm bảo rằng chatbot AI sẽ phản hồi theo cách xác định trước, ngăn chặn các nội dung không thích hợp hoặc nguy hiểm do mô hình ngôn ngữ lớn tạo ra”, Jonathan Cohen, Phó chủ tịch nghiên cứu ứng dụng của Nvidia, nói.

Thông báo này cũng nhấn mạnh chiến lược của Nvidia nhằm duy trì vị trí dẫn đầu trên thị trường chip AI bằng cách đồng thời phát triển phần mềm quan trọng cho máy học.

Nvidia cung cấp hàng ngàn GPU (bộ xử lý đồ họa) cần thiết để đào tạo và triển khai phần mềm như ChatGPT. Theo các nhà phân tích, Nvidia chiếm hơn 95% thị phần chip AI, nhưng sự cạnh tranh đang gia tăng.

nemo-guardrails-ngan-cac-chatbot-noi-chu-de-co-hai-va-sai-su-that.jpg
NeMo Guardrails giúp các công ty ngăn chặn chatbot AI trả lời sai sự thật, nói về các chủ đề có hại hoặc để lộ lỗ hổng bảo mật - Ảnh: Nvidia

NeMo Guardrails hoạt động như thế nào?

NeMo Guardrails là lớp phần mềm nằm giữa người dùng và mô hình ngôn ngữ lớn hoặc các công cụ AI khác. Phần mềm mới của Nvidia loại bỏ những kết quả xấu hoặc những truy vấn xấu trước khi mô hình phản hồi.

Nvidia đề xuất một trong những trường hợp áp dụng NeMo Guardrails khả thi là chatbot dịch vụ khách hàng. Nhà phát triển có thể sử dụng NeMo Guardrails để ngăn nói về các chủ đề không liên quan hoặc lạc đề, điều này dễ dẫn đến khả năng phản hồi vô nghĩa hoặc độc hại.

Nếu có một chatbot dịch vụ khách hàng được thiết kế để nói về sản phẩm của mình, có lẽ bạn không muốn nó trả lời các câu hỏi về đối thủ cạnh tranh. Bạn muốn giám sát cuộc trò chuyện. Nếu điều đó xảy ra, bạn sẽ điều hướng cuộc trò chuyện trở lại các chủ đề mình thích hơn”, Jonathan Cohen lý giải.

Nvidia đưa ra một ví dụ khác về chatbot trả lời các câu hỏi về nguồn nhân lực nội bộ của công ty. Trong ví dụ này, Nvidia có thể thêm “các rào cản” để chatbot dựa trên ChatGPT không trả lời các câu hỏi về hiệu quả tài chính của công ty hoặc truy cập dữ liệu riêng tư về các nhân viên khác.

NeMo Guardrails cũng có thể sử dụng mô hình ngôn ngữ lớn để phát hiện "ảo giác" bằng cách yêu cầu mô hình ngôn ngữ lớn khác kiểm tra sự đúng đắn của câu trả lời từ cái đầu tiên. Sau đó, nó trả lời “Tôi không biết” nếu mô hình không đưa ra các câu trả lời phù hợp.

Hôm 25.4, Nvidia cũng thông báo NeMo Guardrails giúp đảm bảo an ninh và có thể buộc các mô hình ngôn ngữ lớn chỉ tương tác với phần mềm của bên thứ ba trong danh sách được cho phép.

NeMo Guardrails là nguồn mở, được cung cấp thông qua các dịch vụ của Nvidia và có thể sử dụng trong các ứng dụng thương mại. Theo Nvidia, các lập trình viên sẽ sử dụng ngôn ngữ lập trình Golang để viết các quy tắc tùy chỉnh cho mô hình AI.

Các công ty AI khác, gồm cả Google và OpenAI, đã dùng phương pháp học tăng cường từ phản hồi của con người để ngăn chặn chatbot trả lời có hại. Phương pháp này sử dụng những người thử nghiệmđể tạo dữ liệu về câu trả lời nào có thể chấp nhận được hay không, sau đó đào tạo mô hình AI bằng dữ liệu đó.

Nvidia đang ngày càng chuyển sự chú ý của mình sang AI khi đang thống trị các chip được sử dụng để tạo ra công nghệ này. Tận dụng làn sóng AI giúp Nvidia trở thành cổ phiếu tăng điểm nhiều nhất trong S&P 500 đến nay trong năm 2023, tăng 85% tính đến ngày 24.4.

S&P 500 là chỉ số chứng khoán được dựa trên vốn hóa của 500 công ty đại chúng lớn nhất Mỹ, phần nào phản ánh tình trạng của nền kinh tế nước này.

Bài liên quan
Microsoft xây dựng hệ thống với hơn 10.000 chip Nvidia cho OpenAI để phát triển GPT-4
Những công nghệ mới như generative AI dựa trên việc sử dụng hàng ngàn chip Nvidia cùng lúc để huấn luyện hệ thống AI trên kho dữ liệu khổng lồ.

(0) Bình luận
Nổi bật Một thế giới
Temu, Shein... 'đổ bộ' Việt Nam, chuyển đổi số cấp thiết hơn bao giờ hết
7 giờ trước Khoa học - công nghệ
Chuyển đổi số trong linh vực bán buôn, bán lẻ đang cấp thiết hơn bao giờ hết khi các sàn thương mại điện tử như Temu, Shein... "đổ bộ" thị trường Việt Nam.
Đừng bỏ lỡ
Mới nhất
POWERED BY ONECMS - A PRODUCT OF NEKO
Nvidia ra mắt phần mềm ngăn các chatbot AI nói chủ đề có hại và sai sự thật