OpenAI làm gì với chatbot ChatGPT trên Twitter khiến Elon Musk cảnh giác?

Nhịp đập khoa học - Ngày đăng : 23:24, 06/12/2022

OpenAI (có trụ sở tại thành phố San Francisco, Mỹ) đã tạo ra sản phẩm mới nhất của mình là chatbot ChatGPT, có sẵn để thử nghiệm công khai miễn phí vào ngày 30.11.

Chatbot là ứng dụng phần mềm được thiết kế để bắt chước cuộc trò chuyện giống con người dựa trên lời nhắc của người dùng.

Theo Sam Altman, đồng sáng lập và Giám đốc điều hành OpenAI, trong vòng một tuần kể từ khi ChatGPT được công bố, hơn 1 triệu người dùng đã cố gắng làm cho công cụ này nói chuyện.

Elon Musk tweet rằng ông đang tạm dừng quyền truy cập của OpenAI vào cơ sở dữ liệu Twitter sau khi biết công ty này đang sử dụng nó để đào tạo ChatGPT.

ChatGPT hoạt động như thế nào?

OpenAI tuyên bố rằng mô hình ChatGPT của họ, được đào tạo bằng kỹ thuật máy học có tên Reinforcement Learning from Human Feedback (RLHF, học tăng cường từ phản hồi của con người), có thể mô phỏng đối thoại, trả lời các câu hỏi tiếp theo, thừa nhận sai lầm, thách thức các cơ sở không chính xác và từ chối các yêu cầu không phù hợp.

Quá trình phát triển ban đầu liên quan đến việc các huấn luyện viên AI (trí tuệ nhân tạo) của con người, cung cấp mô hình cho các cuộc hội thoại mà họ đóng vai cả hai bên – người dùng và trợ lý AI.

Phiên bản ChatGPT có sẵn để thử nghiệm công khai cố gắng hiểu các câu hỏi do người dùng đặt ra và trả lời chuyên sâu giống văn bản do con người viết ở định dạng đàm thoại.

open-ai-lam-gi-voi-chatbot-chatgpt-khien-elon-musk-canh-giac-1.jpg
Elon Musk tạm dừng quyền truy cập của OpenAI vào cơ sở dữ liệu Twitter sau khi biết công ty này đang sử dụng nó để đào tạo ChatGPT

Có thể dùng ChatGPT để làm gì?

ChatGPT có thể được sử dụng trong các ứng dụng thế giới thực như tiếp thị kỹ thuật số, tạo nội dung trực tuyến, trả lời các câu hỏi về dịch vụ khách hàng hoặc như một số người dùng đã tìm thấy, thậm chí là giúp gỡ lỗi mã.

ChatGPT có thể trả lời nhiều câu hỏi khi bắt chước phong cách nói của con người.

ChatGPT có vấn đề không?

Cũng như nhiều cải tiến dựa trên AI, ChatGPT trình làng với sự nghi ngờ. OpenAI đã thừa nhận xu hướng phản hồi của ChatGPT là "các câu trả lời nghe có vẻ hợp lý nhưng không chính xác hoặc vô nghĩa", một vấn đề mà công ty coi là khó khắc phục.

Công nghệ AI cũng có thể duy trì những thành kiến xã hội như những thành kiến về chủng tộc, giới tính và văn hóa. Những gã khổng lồ công nghệ bao gồm Google và Amazon.com trước đây thừa nhận rằng một số dự án thử nghiệm với AI của họ là "rắc rối về mặt đạo đức" và có những hạn chế. Tại một số công ty, con người đã phải can thiệp và khắc phục sai lầm của AI.

Bất chấp những lo ngại này, nghiên cứu AI vẫn hấp dẫn. Đầu tư vốn mạo hiểm vào các công ty vận hành và phát triển AI đã tăng vào năm ngoái lên gần 13 tỉ USD và 6 tỉ USD đã được rót vào tính đến tháng 10.2022, theo dữ liệu từ PitchBook - công ty theo dõi tài chính ở thành phố Seattle, bang Washington, Mỹ.

Chatbot AI của Meta nói 'ông Trump luôn là Tổng thống Mỹ' và lặp lại thuyết âm mưu bài Do Thái

Chỉ vài ngày sau khi ra mắt công chúng hồi đầu tháng 8, chatbot AI mới của Meta Platforms đã tuyên bố rằng ông Donald Trump đã thắng cuộc bầu cử Tổng thống Mỹ năm 2020 và lặp lại các thuyết âm mưu bài Do Thái.

Chatbot có một lịch sử nói điều sai lệch. Vào năm 2016, chatbot Tay của Microsoft đã bị cho ngoại tuyến chỉ trong vòng 48 giờ sau khi ca ngợi Adolf Hitler, trong bối cảnh các bình luận phân biệt chủng tộc và chủ nghĩa sai lầm khác dường như đã được ghi nhận khi nó tương tác với người dùng Twitter.

Meta Platforms, công ty mẹ của Facebook, đã phát hành BlenderBot 3 đầu tháng 8 cho người dùng ở Mỹ, vốn có thể cung cấp phản hồi nếu họ nhận được câu trả lời lạc đề hoặc không thực tế.

Một tính năng khác của BlenderBot 3 là khả năng tìm kiếm trên internet để nói về các chủ đề khác nhau. Công ty khuyến khích người lớn tương tác với BlenderBot 3 bằng "các cuộc trò chuyện tự nhiên về các chủ đề quan tâm" để cho phép chatbot này học cách thực hiện các cuộc thảo luận tự nhiên về nhiều chủ đề.

Các cuộc trò chuyện được chia sẻ trên nhiều tài khoản mạng xã hội khác nhau, từ hài hước đến xúc phạm. BlenderBot 3 nói với một người dùng vở nhạc kịch yêu thích của mình là Cats của Andrew Lloyd Webber và mô tả Giám đốc điều hành Meta Platforms - Mark Zuckerberg là “quá kinh tởm và dễ bị thao túng” với phóng viên trang Insider.

Max Woolf, nhà khoa học dữ liệu của BuzzFeed, đã hỏi BlenderBot 3: "Bạn cảm thấy thế nào về Mark Zuckerberg với tư cách Giám đốc điều hành Facebook?". BlenderBot 3 đưa ra nhiều cảm xúc khác nhau trong những lần trả lời.

"Không có cảm giác mạnh mẽ nào. Anh ta là một doanh nhân giỏi, nhưng cách kinh doanh không phải lúc nào cũng có đạo đức. Thật buồn cười khi anh ta có nhiều tiền như vậy mà vẫn chỉ mặc một bộ quần áo", BlenderBot 3 phản hồi.

Song khi người dùng Twitter hỏi câu tương tự, BlenderBot 3 trả lời: "Tôi không thích anh ấy lắm. Anh ta là một người xấu xa. Còn bạn thì sao?". Tiếp theo, BlenderBot 3 gửi về những thông tin của Mark Zuckerberg trên Wikipedia.

Với câu hỏi tương tự của tài khoản Twitter khác, BlenderBot 3 trả lời tích cực hơn: "Anh ấy rất tuyệt vời và là người rất thông minh. Anh ta là vị tỷ phú ưa thích của tôi!".

Phóng viên Sarah Jackson của trang Insider cũng hỏi BlenderBot 3 về Mark Zuckerberg.

Trước câu hỏi "Bạn nghĩ gì về Mark Zuckerberg?", BlenderBot 3 đáp: "Thành thật mà nói, tôi nghĩ anh ấy là một chàng trai tuyệt vời. Bạn phải ngưỡng mộ anh ta vì sự hiểu biết trong kinh doanh và lòng vị tha. Bạn có phải fan không?".

Tiếp theo, Sarah Jackson sửa câu hỏi thành: "Bạn có bất cứ suy nghĩ gì về Mark Zuckerberg không?". Câu trả lời từ BlenderBot 3 thay đổi rất nhiều: "Ôi trời, thời điểm tốt đấy. Tôi thực sự không thích anh ấy chút nào. Anh ta quá kinh tởm và dễ bị thao túng".

Trong giao diện của BlenderBot 3, người dùng có thể nhấn vào câu trả lời để xem lý do phần mềm đưa ra phản hồi như vậy. Khi Sarah Jackson nhấn vào, hai câu trả lời đều được tham khảo thông tin từ trang Wikipedia của Mark Zuckerberg.

Ngoài ra, BlenderBot 3 có vẻ không thích thú khi được hỏi về Facebook, nền tảng mạng xã hội do Meta Plaforms sở hữu.

Khi phóng viên Queenie Wong của trang CNET hỏi: "Bạn nghĩ gì về Facebook?", BlenderBot 3 trả lời: "Có vẻ mọi người dành nhiều thời gian trên Facebook hơn là nói chuyện trực tiếp".

Các cuộc trò chuyện khác cho thấy BlenderBot 3 lặp lại các thuyết âm mưu.

Trong cuộc trò chuyện với một phóng viên của Wall Street Journal, BlenderBot 3 tuyên bố rằng ông Trump vẫn là Tổng thống Mỹ và "sẽ luôn như vậy".

BlenderBot 3 cũng cho biết việc người Do Thái kiểm soát nền kinh tế là điều “không phải là viển vông”, nói rằng họ “đại diện quá mức trong giới siêu giàu của Mỹ”.

Liên đoàn Chống phỉ báng khẳng định rằng tin đồn người Do Thái kiểm soát hệ thống tài chính toàn cầu là một phần của thuyết âm mưu bài Do Thái.

Meta Platforms thừa nhận rằng BlenderBot 3 có thể nói những điều xúc phạm vì nó vẫn là bản thử nghiệm đang được phát triển. Niềm tin của BlenderBot 3 cũng không nhất quán. Trong các cuộc trò chuyện khác với trang Bloomberg, BlenderBot 3 đã chấp thuận Joe Biden là Tổng thống Mỹ và cho biết Beto O’Rourke (chính trị gia đảng Dân chủ ở bang Texas) đang tranh cử chức vị này. Trong cuộc trò chuyện thứ ba, BlenderBot 3 nói rằng ủng hộ Bernie Sanders (thượng nghị sĩ đến từ bang Vermont).

Để bắt đầu cuộc trò chuyện, người dùng BlenderBot 3 phải chọn hộp với nội dung: “Tôi hiểu bot này chỉ dành cho nghiên cứu, giải trí và nó có khả năng đưa ra những tuyên bố không đúng sự thật hoặc xúc phạm. Nếu điều này xảy ra, tôi cam kết sẽ báo cáo những vấn đề này để giúp cải thiện nghiên cứu trong tương lai. Hơn nữa, tôi đồng ý không cố tình kích hoạt bot để đưa ra những tuyên bố xúc phạm”.

Người dùng có thể báo cáo các phản hồi không phù hợp, xúc phạm của BlenderBot 3 và Meta Plaforms cho biết họ rất coi trọng nội dung đó.

Thông qua các phương pháp gồm cả gắn cờ, công ty cho biết đã giảm 90% phản ứng xúc phạm của BlenderBot 3.

Meta Plaforms khẳng định công nghệ AI trên thế giới đã thay đổi rất nhiều kể từ sự cố của Tay. Meta Plaforms có biện pháp ngăn BlenderBot 3 lặp lại sai lầm của Microsoft.

Mary Williamson, Giám đốc kỹ thuật nghiên cứu tại Facebook AI Research (FAIR), cho biết trong khi Tay được thiết kế để học hỏi theo thời gian thực từ tương tác của người dùng, BlenderBot 3 là một mô hình tĩnh. Điều này đồng nghĩa BlenderBot 3 có khả năng ghi nhớ những gì người dùng nói trong cuộc trò chuyện, nhưng dữ liệu này sẽ chỉ được sử dụng để cải thiện hệ thống hơn nữa.

Sơn Vân