4 chuyên gia trí tuệ nhân tạo (AI) bày tỏ lo ngại sau khi công trình của họ được trích dẫn trong bức thư ngỏ kêu gọi tạm ngừng đào tạo các hệ thống AI mạnh hơn GPT-4 trong vòng 6 tháng vì nguy cơ tiềm tàng với xã hội và nhân loại.
Có hơn 1.800 chữ ký tính đến hôm 31.3 (gồm cả Elon Musk), bức thư ghi ngày 22.3 do tổ chức phi lợi nhuận Future of Life Institute công bố đã kêu gọi tạm ngừng 6 tháng trong việc đào tạo và phát triển các hệ thống AI mạnh hơn so với GPT-4 của OpenAI, do Microsoft hậu thuẫn.
GPT (Generative Pre-training Transformer) là mô hình ngôn ngữ lớn làm nền tảng cho ChatGPT hoạt động, được nhiều người sử dụng khen ngợi nhưng cũng gây lo lắng bởi phản hồi các truy vấn nhanh chóng và giống con người.
Kể từ khi ChatGPT (ban đầu hoạt động dựa trên mô hình ngôn ngữ lớn GPT-3.5 và hiện là GPT-4) được phát hành vào tháng 11.2022, các công ty đối thủ đã gấp rút tung ra các sản phẩm tương tự.
Bức thư ngỏ cho biết các hệ thống AI có "trí thông minh cạnh tranh với con người" gây ra những rủi ro sâu sắc cho nhân loại, trích dẫn 12 nghiên cứu từ các chuyên gia, gồm cả các học giả đại học cũng như các nhân viên hiện tại và trước đây của OpenAI, Google và đơn vị DeepMind của Alphabet (chủ sở hữu Google).
Kể từ đó, các nhóm xã hội dân sự ở Mỹ và Liên minh châu Âu (EU) đã thúc ép các nhà làm luật kiềm chế nghiên cứu của OpenAI. OpenAI đã không trả lời ngay lập tức khi được đề nghị bình luận.
Các nhà phê bình đã cáo buộc Future of Life Institute, tổ chức đứng sau bức thư, được tài trợ chủ yếu bởi Musk Foundation, đưa ra các kịch bản thảm họa mang tính tưởng tượng hơn là những lo ngại tức thời hơn về AI, chẳng hạn như thành kiến phân biệt chủng tộc hoặc phân biệt giới tính được lập trình trong máy móc.
Musk Foundation là tổ chức phi lợi nhuận được thành lập bởi Elon Musk và cô vợ đầu tiên của ông, Justine Musk. Musk Foundation hỗ trợ các dự án mang tính đột phá trong lĩnh vực năng lượng sạch, giáo dục và nghiên cứu khoa học. Musk Foundation đã tài trợ nhiều dự án, bao gồm cung cấp trang thiết bị và tài chính cho các trường học và tổ chức giáo dục, hỗ trợ nghiên cứu về tế bào gốc, đóng góp cho những chương trình giúp trẻ em có hoàn cảnh khó khăn.
Trong số các nghiên cứu được trích dẫn có bài viết nổi tiếng On the Dangers of Stochastic Parrots, được đồng tác giả bởi bà Margaret Mitchell, người trước đây giám sát nghiên cứu AI có đạo đức tại Google. Hiện là nhà khoa học đạo đức tại công ty trí AI Hugging Face, Margaret Mitchell đã chỉ trích thư này, nói với Reuters rằng không rõ điều gì được xem là "mạnh hơn GPT-4".
"Bằng cách coi hàng loạt ý tưởng đáng ngờ như là điều hiển nhiên, thư khẳng định một tập hợp các ưu tiên và câu chuyện về AI có lợi cho những người ủng hộ Future of Life Institute", bà nói.
Các đồng tác giả của Margaret Mitchell là Timnit Gebru và Emily M. Bender cũng chỉ trích bức thư, với Emily M. Bender gọi một số tuyên bố trong thư là "phi lý".
Max Tegmark, Chủ tịch Future of Life Institute, nói với Reuters rằng chiến dịch không phải là một nỗ lực để cản trở lợi thế kinh doanh của OpenAI.
"Thật buồn cười. Tôi đã thấy mọi người nói 'Elon Musk đang cố chậm lại đối thủ'. Elon Musk không có vai trò nào trong việc soạn thảo thư. Điều này không liên quan đến một công ty nào. Chiến dịch này không phải vì một công ty nào cả”, Max Tegmark tuyên bố.
Rủi ro bây giờ
Shiri Dori-Hacohen, giáo sư tại Đại học Connecticut (Mỹ), cũng không hài lòng khi công trình của mình được đề cập trong thư. Năm ngoái, bà là đồng tác giả của một bài viết nghiên cứu lập luận rằng việc sử dụng rộng rãi AI đã gây ra những rủi ro nghiêm trọng.
Nghiên cứu của Shiri Dori-Hacohen lập luận rằng sử dụng các hệ thống AI ngày nay có thể ảnh hưởng đến việc ra quyết định liên quan đến biến đổi khí hậu, chiến tranh hạt nhân và các mối đe dọa hiện hữu khác.
Bà nói với Reuters: "AI không cần đạt được trình độ thông minh tương đương với con người để làm tăng những nguy cơ đó. Có những rủi ro không liên quan đến sự tồn tại của loài người nhưng thực sự quan trọng và không nhận được sự chú ý tương đương như với Hollywood".
Khi được đề nghị bình luận về những lời chỉ trích, Max Tegmark cho biết cả rủi ro ngắn hạn và dài hạn của AI cần được xem xét nghiêm túc.
"Nếu chúng tôi trích dẫn một ai đó, điều này chỉ đồng nghĩa chúng tôi cho rằng họ đang ủng hộ câu đó. Điều này không có nghĩa là họ đang ủng hộ bức thư hoặc chúng tôi ủng hộ tất cả những gì họ nghĩ", Max Tegmark nói với Reuters.
Dan Hendrycks, Giám đốc Trung tâm An toàn AI có trụ sở tại bang California (Mỹ), người cũng được trích dẫn trong bức thư, đồng ý với những gì được nêu trong thư. Ông nói với Reuters rằng thật hợp lý khi xem xét các sự kiện thiên nga đen (những sự kiện có vẻ khó xảy ra, khó dự đoán trước nhưng sẽ gây ra hậu quả tàn khốc cho toàn cầu).
Bức thư ngỏ này cũng cảnh báo rằng các công cụ generative AI có thể được sử dụng để "tuyên truyền và phát tán thông tin sai lệch" trên internet.
Shiri Dori-Hacohen cho biết Elon Musk “khá hài hước" khi ký vào thư, trích dẫn báo cáo về sự gia tăng thông tin sai lệch trên Twitter sau khi ông mua lại nền tảng này, được ghi lại bởi nhóm xã hội dân sự Common Cause và những người khác.
Twitter sẽ sớm đưa ra một cấu trúc phí mới để truy cập dữ liệu nghiên cứu của mình, có khả năng cản trở nghiên cứu về chủ đề này.
Shiri Dori-Hacohen nói: “Điều đó đã ảnh hưởng trực tiếp đến công việc trong phòng thí nghiệm của tôi và những người khác nghiên cứu thông tin sai lệch. Chúng tôi đang hoạt động với một tay bị trói sau lưng".
Elon Musk và Twitter đã không trả lời ngay lập tức câu hỏi tìm kiếm bình luận về chủ đề trên.
Nhóm đạo đức công nghệ yêu cầu FTC điều tra OpenAI, ngăn phát hành phiên bản GPT-4 mới
Nhóm đạo đức công nghệ Center for Artificial Intelligence and Digital Policy đang yêu cầu Ủy ban Thương mại Liên bang Mỹ (FTC) ngăn OpenAI phát hành các bản thương mại mới của GPT-4.
Trong đơn khiếu nại gửi tới FTC hôm 30.3, Center for Artificial Intelligence and Digital Policy đã gọi GPT-4 là "thiên vị, lừa dối, có nguy cơ với quyền riêng tư và an toàn công cộng", theo bản tóm tắt trên trang web của nhóm này.
OpenAI đã công bố phiên bản thứ tư của GPT hôm 14.3, khiến người dùng phấn khích bằng cách thu hút họ vào các hoạt động giống như con người, trò chuyện, sáng tác bài hát và tóm tắt các tài liệu dài.
Trong đơn khiếu nại, Center for Artificial Intelligence and Digital Policy cho biết ChatGPT-4 của OpenAI không đáp ứng tiêu chuẩn của FTC là "minh bạch, có thể giải thích rõ ràng và dễ hiểu, không thiên vị, có cơ sở kinh nghiệm (được chứng minh bằng các thực nghiệm và chứng cứ khác), đảm bảo sự chịu trách nhiệm trong quá trình thực hiện".
"FTC có trách nhiệm rõ ràng trong việc điều tra và nghiêm cấm các hành vi thương mại không công bằng và lừa dối. Chúng tôi tin rằng FTC nên xem xét kỹ OpenAI và GPT-4", Marc Rotenberg, Chủ tịch Center for Artificial Intelligence and Digital Policy và là người ủng hộ quyền riêng tư lão làng, cho biết trong một tuyên bố trên trang web.
Center for Artificial Intelligence and Digital Policy đã thúc giục FTC "mở cuộc điều tra về OpenAI, ngăn chặn việc tiếp tục phát hành phiên bản GPT-4 thương mại mới và đảm bảo thiết lập các biện pháp bảo vệ cần thiết để bảo vệ người tiêu dùng, doanh nghiệp, thị trường".