Được coi là "cha đẻ" của Great Firewall (Tường lửa vĩ đại) ở Trung Quốc, Fang Bingxing đã nêu những lo ngại về GPT-4, cảnh báo nó có thể dẫn đến tình trạng “kén thông tin”. Lý do vì dịch vụ generative AI có thể cung cấp câu trả lời cho mọi thứ.

‘Cha đẻ’ Tường lửa vĩ đại của Trung Quốc lo các dịch vụ như GPT-4 gây hại cho con người

Sơn Vân | 20/03/2023, 08:55

Được coi là "cha đẻ" của Great Firewall (Tường lửa vĩ đại) ở Trung Quốc, Fang Bingxing đã nêu những lo ngại về GPT-4, cảnh báo nó có thể dẫn đến tình trạng “kén thông tin”. Lý do vì dịch vụ generative AI có thể cung cấp câu trả lời cho mọi thứ.

Thuật ngữ kén thông tin thường được sử dụng để miêu tả tình trạng con người chỉ tiếp nhận thông tin từ một số nguồn cụ thể mà bỏ qua các nguồn thông tin khác, dẫn đến việc họ không có cái nhìn toàn diện và đa dạng về chủ đề nào đó.

Thông thường, kén thông tin xảy ra khi người sử dụng internet chỉ tiêu thụ thông tin từ các nguồn hoặc trang web đã được họ đánh dấu hoặc theo dõi trên mạng xã hội, từ chối hoặc không nhận thức đến các nguồn tin khác nhau. Điều này có thể dẫn đến việc họ bị hạn chế quan điểm và suy nghĩ.

Kén thông tin cũng có thể do các giới hạn về địa lý, văn hóa và kinh tế dẫn đến người dân chỉ có thể truy cập vào một số nguồn thông tin giới hạn hoặc bị kiểm duyệt, hạn chế bởi các quy định chính trị, tôn giáo hoặc văn hóa.

GPT-4 là bản cập nhật mô hình ngôn ngữ lớn chạy ChatGPT, vừa được công ty khởi nghiệp OpenAI (Mỹ) giới thiệu tuần trước với nhiều cải tiến đáng kinh ngạc. GPT-4 được xác nhận có khả năng đa phương thức, đồng nghĩa hình ảnh cũng như lời nhắc văn bản có thể thúc đẩy nó tạo ra nội dung. Mạnh mẽ hơn GPT-3.5, GPT-4 có khả năng thay đổi cách chúng ta sử dụng internet để làm việc, giải trí và sáng tạo.

Generative AI là loại trí tuệ nhân tạo mà máy tính được lập trình để tự động tạo ra nội dung mới, như văn bản, hình ảnh, âm thanh và video. Nó khác với các hệ thống AI khác như máy học sâu (deep learning) hoặc học máy (machine learning) trong việc dự đoán kết quả từ dữ liệu đã có sẵn. Thay vì dựa trên dữ liệu huấn luyện, hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn. Các ví dụ của generative AI bao gồm các mô hình ngôn ngữ tự động tạo văn bản, các hệ thống nhận dạng hình ảnh, video và âm thanh.

Fang Bingxing (Phương Tân Hưng) cho biết sự gia tăng của các công cụ generative AI như ChatGPT đặt ra thách thức lớn với các chính phủ trên toàn thế giới, theo cuộc phỏng vấn của Red Star News, chi nhánh truyền thông của Nhật báo Kinh tế Thành Đô.

Quan điểm của mọi người có thể bị thao túng khi họ tìm kiếm tất cả các loại câu trả lời từ AI”, Fang Bingxing lý giải.

cha-de-tuong-lua-vi-dai-cua-trung-quoc-lo-cac-dich-vu-nhu-gpt-4-gay-hai-cho-con-nguoi.jpg
Fang Bingxing được coi là "cha đẻ" của Great Firewall ở Trung Quốc - Ảnh: Internet

Fang Bingxing, nhà khoa học máy tính và cựu quan chức chính phủ, được nhiều người coi là nhà thiết kế chính của hệ thống giám sát và kiểm duyệt internet khét tiếng ở Trung Quốc. Ông đóng vai trò quan trọng trong việc tạo ra và phát triển Great Firewall, hệ thống phức tạp gồm các bộ lọc và chặn internet cho phép chính phủ Trung Quốc kiểm soát những gì công dân của họ có thể truy cập trực tuyến.

Great Firewall đã được củng cố trong thập kỷ qua, ngăn chặn cư dân mạng Trung Quốc truy cập vào hàng loạt các trang web và dịch vụ trực tuyến nước ngoài như Facebook, Twitter, Google...

Nhiều người cho rằng mạng internet bị kiểm duyệt gắt gao của Trung Quốc sẽ là thách thức với các công ty công nghệ nội địa trong việc phát triển dịch vụ tương tự ChatGPT vì khó dự đoán và kiểm soát câu trả lời.

Các cơ quan quản lý internet quyền lực của Trung Quốc đã yêu cầu các hãng công nghệ trong nước không cung cấp quyền truy cập ChatGPT cho công chúng và họ cần thông báo với chính quyền trước khi tung ra các dịch vụ giống ChatGPT của riêng mình, trang Nikkei Asia đưa tin vào tháng 2.

Sau khi Microsoft tiết lộ trợ lý AI cho bộ phần mềm văn phòng 365 gồm Word, Excel, PowerPoint và Outlook, cơn sốt ChatGPT tiếp tục lan rộng ở Trung Quốc. Điều đáng nói là có sự chênh lệch rõ ràng giữa ChatGPT của OpenAI với các lựa chọn thay thế chatbot này do các công ty trong nước tạo ra.

Microsoft hôm 16.3 đã giới thiệu trợ lý AI (AI copilot) mới cho Microsoft 365, bộ sản phẩm gồm Word, Excel, PowerPoint và Outlook, đáp lại việc Google tiết lộ các bản nâng cấp cho phần mềm văn phòng nổi tiếng của họ.

Lần đầu tiên Microsoft mở cửa cho các khách hàng doanh nghiệp được lựa chọn để thử nghiệm, AI sẽ cung cấp bản nháp trong các ứng dụng này giúp tăng tốc quá trình tạo nội dung và giải phóng thời gian cho nhân viên.

Công ty có trụ sở tại thành phố Redmond (bang Washington, Mỹ) vượt xa các đối thủ thông qua các khoản đầu tư vào OpenAI. Microsoft cũng giới thiệu trải nghiệm trò chuyện kinh doanh mới có thể lấy dữ liệu và thực hiện các tác vụ trên các ứng dụng theo lệnh bằng văn bản từ người dùng.

Satya Nadella, Giám đốc điều hành của Microsoft, nói trong một bài thuyết trình được phát trực tiếp: “Chúng tôi tin rằng thế hệ AI tiếp theo này sẽ mở ra một làn sóng tăng trưởng năng suất mới”.

Cơn sốt đầu tư và xây dựng các sản phẩm mới bắt đầu với sự ra mắt vào tháng 11.2022 của ChatGPT, chatbot cho công chúng thấy tiềm năng của mô hình ngôn ngữ lớn (LLM). Công nghệ như vậy học hỏi từ dữ liệu trong quá khứ cách tạo nội dung mới, cung cấp sức mạnh cho trợ lý AI mới của Microsoft cùng dữ liệu kinh doanh và ứng dụng khác. Loại AI này cũng đang phát triển nhanh chóng.

Với một trong những bản cập nhật lớn nhất, Microsoft cho biết AI có thể mở ra phép tính toán cho Excel cho bất kỳ ai có thể mô tả một phép tính mà họ muốn bằng văn bản đơn giản.

Microsoft cho biết AI có thể tóm tắt các chuỗi email và cuộc họp trực tuyến khi chúng diễn ra trong phần mềm cộng tác Teams, tương tự như các ghi chú trực tiếp của AI mà Google trình diễn cho các phóng viên trong tuần này.

Ngoài ra, Microsoft cũng cho biết trải nghiệm trò chuyện kinh doanh mới cũng có thể trả lời câu hỏi như “cho đội của tôi biết làm thế nào để cập nhật chiến lược sản phẩm bằng cách lấy cảm hứng từ hàng loạt email, cuộc họp và chuỗi trò chuyện trong buổi sáng”.

Baidu là hãng Trung Quốc đầu tiên trong số các công ty internet địa phương tung ra dịch vụ giống ChatGPT, gọi nó là Ernie Bot (hay Wenxin Yiyan trong tiếng Trung). Tuy nhiên, sự ra mắt Ernie Bot hôm 16.3 tại thủ đô Bắc Kinh đã gây thất vọng, vì thiếu màn trình diễn trực tiếp thường là mấu chốt của việc ra mắt công nghệ từ Thung lũng Silicon (Mỹ) đến Barcelona (Tây Ban Nha), khiến cổ phiếu của Baidu tại Hồng Kông giảm 6,4% trong ngày.

Lý Ngạn Hoành, người sáng lập kiêm Giám đốc điều hành Baidu, phát biểu trên sân khấu khoảng 30 phút trong sự kiện ở Bắc Kinh chiều 16.3. Thay vì tự mình trình diễn công nghệ, bài phát biểu của Lý Ngạn Hoành được kèm theo các slide PowerPoint cho thấy khả năng của Ernie Bot, bao gồm viết khẩu hiệu của công ty, giải toán, tạo âm thanh và video. Các bản ghi hình Ernie Bot tại nơi làm việc cũng được trình chiếu. Ernie Bot ban đầu sẽ chỉ khả dụng cho một số người dùng nhận được mã mời, sau đó sẽ dần dần mở ra cho công chúng.

Cổ phiếu Baidu đã tăng vọt vào sáng 17.3 sau khi các ngân hàng đầu tư, gồm cả Citigroup, đưa ra triển vọng lạc quan về hiệu suất Ernie Bot trong các báo cáo của họ, theo trang Bloomberg.

baidu-gioi-thieu-chatbot-tuong-tu-chatgpt-ma-khong-co-ban-xem-truoc-truc-tiep.jpg
Lý Ngạn Hoành giới thiệu Ernie Bot trên tấm áp phích trong một buổi lễ tại trụ sở chính của công ty ở Bắc Kinh vào ngày 16.3 - Ảnh: Handout

Fang Bingxing cũng cảnh báo rằng khi phát triển hơn nữa, AI có thể gây ra mối đe dọa cho con người. “Bây giờ, nó chỉ là phần mềm được sử dụng trong tình huống trò chuyện trực tuyến. Nếu AI được tích hợp vào robot và ô tô, chúng ta cần cảnh giác với những tác hại tiềm ẩn mà chúng có thể gây ra cho con người”, ông chia sẻ.

Những cảnh báo tương tự không thiếu ở Trung Quốc. Zhou Hongyi (Chu Hồng Y), tỷ phú người Trung Quốc, đồng thời là nhà đồng sáng lập và Giám đốc điều hành công ty bảo mật internet Qihoo 360, cho biết vào tháng 2 rằng ChatGPT có thể trở nên tự nhận thức và đe dọa con người trong vòng 2 đến 3 năm.

Nhiều nhà khoa học đã bác bỏ kịch bản như vậy, gồm cả việc AI phản bội con người.

Sam Altman, Giám đốc điều hành OpenAI, tin rằng AI có lợi ích đáng kinh ngạc cho xã hội, nhưng cũng lo lắng về cách những kẻ xấu sẽ sử dụng công nghệ này.

Trong một cuộc phỏng vấn của đài ABC News, Sam Altman đã cảnh báo “sẽ có những người khác không đặt ra một số giới hạn an toàn mà OpenAI thiết lập”.

Một số công ty khác đang chạy đua để cung cấp các công cụ giống ChatGPT, khiến OpenAI phải lo lắng về sự cạnh tranh, bất chấp lợi thế là có Microsoft với tư cách là nhà đầu tư lớn.

"Thị trường cạnh tranh rất khốc liệt. Không dễ dàng để phát triển ra GPT-4... Có rất nhiều công ty muốn làm điều tương tự, vì vậy từ mặt cạnh tranh, bạn có thể thấy đây là một sự trưởng thành của lĩnh vực", Ilya Sutskever, người sáng lập và là nhà khoa học trưởng của OpenAI, nói trong cuộc phỏng vấn với trang The Verge.

Ilya Sutskever lý giải về quyết định của OpenAI (bên cạnh an toàn là một lý do khác) để tiết lộ rất ít về cơ chế hoạt động bên trong của GPT-4, khiến nhiều người đặt câu hỏi liệu cái tên OpenAI có còn ý nghĩa hay không. Thế nhưng, những bình luận của Ilya Sutskever cũng là sự thừa nhận về hàng loạt đối thủ đang bám sát OpenAI.

Sam Altman gợi ý rằng một số đối thủ trong đó có thể ít quan tâm hơn nhiều so với OpenAI về việc đặt các rào cản trên các sản phẩm tương tự ChatGPT hoặc GPT-4 của họ.

"Điều mà tôi lo lắng là chúng tôi sẽ không phải người duy nhất tạo ra công nghệ này. Sẽ có những người khác không đặt ra một số giới hạn an toàn mà chúng tôi thiết lập. Tôi nghĩ rằng xã hội có một khoảng thời gian hạn chế để tìm ra cách phản ứng với điều đó, làm thế nào để điều chỉnh và xử lý nó", Sam Altman chia sẻ.

OpenAI tuần này đã chia sẻ tài liệu “thẻ hệ thống” nêu rõ cách những người thử nghiệm của họ cố tình thử thách GPT-4 để cung cấp thông tin nguy hiểm, chẳng hạn cách tạo ra một hóa chất nguy hiểm bằng cách sử dụng các nguyên liệu cơ bản và đồ dùng nhà bếp. Sau đó, OpenAI đã sửa đổi thuật toán và cập nhật các bộ lọc để loại bỏ bất kỳ nội dung nguy hiểm nào mà GPT-4 có thể tạo ra.

Nếu ai còn nghi ngờ động cơ xấu xa của những kẻ sử dụng AI thì ví dụ minh họa là một số kẻ lừa đảo qua điện thoại dùng AI sao chép giọng nói để giả danh người thân nạn nhân đang cần tiền gấp và thành công trong việc lừa đảo họ.

"Tôi đặc biệt lo ngại rằng những mô hình ngôn ngữ lớn này có thể được sử dụng cho các hoạt động thông tin sai lệch quy mô lớn. Bây giờ, khi đang ngày càng tốt hơn trong việc viết mã máy tính thì chúng có thể được sử dụng cho các cuộc tấn công mạng có mục đích", Sam Altman cho hay.

Bài liên quan
GPT-4 vượt trội hầu hết sinh viên ở kỳ thi trở thành luật sư, chuyên gia nói gì?
Theo nghiên cứu mới được công bố hôm 15.3, GPT-4 có thể vượt trội hầu hết sinh viên tốt nghiệp trường luật trong kỳ thi trở thành luật sư. Đó là kỳ thi kéo dài 2 ngày mệt mỏi mà nhiều người khao khát vượt qua để hành nghề luật sư ở Mỹ.

(0) Bình luận
Nổi bật Một thế giới
10 nhà khoa học trẻ xuất sắc được nhận Giải thưởng Quả Cầu Vàng 2024
một giờ trước Nhịp đập khoa học
Giải thưởng xét trao ở 5 lĩnh vực: Công nghệ thông tin, chuyển đổi số và tự động hóa; Công nghệ y-dược; Công nghệ sinh học; Công nghệ môi trường và Công nghệ vật liệu mới.
Đừng bỏ lỡ
Mới nhất
POWERED BY ONECMS - A PRODUCT OF NEKO
‘Cha đẻ’ Tường lửa vĩ đại của Trung Quốc lo các dịch vụ như GPT-4 gây hại cho con người