Nhóm đạo đức công nghệ yêu cầu FTC điều tra OpenAI, ngăn phát hành phiên bản GPT-4 mới
Nhịp đập khoa học - Ngày đăng : 21:05, 30/03/2023
GPT (Generative Pre-training Transformer) là mô hình ngôn ngữ lớn làm nền tảng cho ChatGPT hoạt động, được nhiều người sử dụng khen ngợi nhưng cũng gây lo lắng bởi phản hồi các truy vấn nhanh chóng và giống con người.
Trong đơn khiếu nại gửi tới FTC hôm 30.3, Center for Artificial Intelligence and Digital Policy đã gọi GPT-4 là "thiên vị, lừa dối, có nguy cơ với quyền riêng tư và an toàn công cộng", theo bản tóm tắt trên trang web của nhóm này.
Được hỗ trợ bởi Microsoft, OpenAI đã công bố phiên bản thứ tư của GPT hôm 14.3, khiến người dùng phấn khích bằng cách thu hút họ vào các hoạt động giống như con người, trò chuyện, sáng tác bài hát và tóm tắt các tài liệu dài.
Trong đơn khiếu nại, Center for Artificial Intelligence and Digital Policy cho biết ChatGPT-4 của OpenAI không đáp ứng tiêu chuẩn của FTC là "minh bạch, có thể giải thích rõ ràng và dễ hiểu, không thiên vị, có cơ sở kinh nghiệm (được chứng minh bằng các thực nghiệm và chứng cứ khác), đảm bảo sự chịu trách nhiệm trong quá trình thực hiện".
"FTC có trách nhiệm rõ ràng trong việc điều tra và nghiêm cấm các hành vi thương mại không công bằng và lừa dối. Chúng tôi tin rằng FTC nên xem xét kỹ OpenAI và GPT-4", Marc Rotenberg, Chủ tịch Center for Artificial Intelligence and Digital Policy và là người ủng hộ quyền riêng tư lão làng, cho biết trong một tuyên bố trên trang web.
Center for Artificial Intelligence and Digital Policy đã thúc giục FTC "mở cuộc điều tra về OpenAI, ngăn chặn việc tiếp tục phát hành phiên bản GPT-4 thương mại mới và đảm bảo thiết lập các biện pháp bảo vệ cần thiết để bảo vệ người tiêu dùng, doanh nghiệp, thị trường".
Động thái trên diễn ra sau khi Elon Musk, nhiều chuyên gia trí tuệ nhân tạo (AI) cùng các nhà quản lý ngành công nghiệp đang kêu gọi tạm ngừng đào tạo các hệ thống AI mạnh hơn GPT-4 trong vòng 6 tháng vì nguy cơ tiềm tàng với xã hội và nhân loại. Họ cho biết điều này trong một bức thư ngỏ.
Bức thư do tổ chức phi lợi nhuận Future of Life Institute công bố và có chữ ký của hơn 1.000 người, gồm cả Marc Rotenberg, Elon Musk, đồng sáng lập Apple - Steve Wozniak và Giám đốc điều hành Stability AI - Emad Mostaque, kêu gọi tạm dừng phát triển AI tiên tiến cho đến khi các giao thức an toàn chung cho các thiết kế như vậy được phát triển, triển khai và được kiểm tra bởi các chuyên gia độc lập.
"Các hệ thống AI mạnh mẽ chỉ nên được phát triển khi chúng tôi tin tưởng rằng tác động của chúng sẽ tích cực và rủi ro của chúng sẽ có thể kiểm soát được", bức thư viết.
Bức thư cũng trình bày chi tiết những rủi ro tiềm ẩn với xã hội và nền văn minh do các hệ thống AI cạnh tranh với con người, dưới hình thức gây ra gián đoạn kinh tế và chính trị, đồng thời kêu gọi các nhà phát triển hợp tác cùng các nhà hoạch định chính sách về quản trị và cơ quan quản lý.
Bức thư được đưa ra khi lực lượng cảnh sát EU Europol hôm 27.3 đã bày tỏ mối lo ngại về đạo đức và pháp lý với AI tiên tiến như ChatGPT, cảnh báo về khả năng lạm dụng hệ thống trong các nỗ lực lừa đảo, phát tán thông tin sai lệch và tội phạm mạng.
Kể từ khi được OpenAI phát hành vào tháng 11.2022, ChatGPT đã gây ra một cơn sốt công nghệ, khiến các đối thủ tung ra các sản phẩm tương tự và các công ty tích hợp nó hoặc các công nghệ tương tự vào các ứng dụng và sản phẩm của họ.
“Do các mô hình ngôn ngữ lớn như GPT đang tích cực được cải tiến, khả năng khai thác tiềm năng của những loại hệ thống AI này bởi các tội phạm dẫn đến tầm nhìn u ám”, Europol nói khi trình bày báo cáo công nghệ đầu tiên của mình bắt đầu với chatbot.
Europol chỉ ra việc sử dụng ChatGPT có hại trong ba lĩnh vực tội phạm.
Europol cho biết: “Khả năng của ChatGPT trong việc soạn thảo văn bản vô cùng thực tế khiến nó trở thành công cụ hữu ích cho mục đích lừa đảo cá nhân”.
Với khả năng tái tạo các mẫu ngôn ngữ để bắt chước phong cách nói chuyện của các cá nhân hoặc nhóm cụ thể, ChatGPT có thể được sử dụng bởi tội phạm để nhắm mục tiêu vào các nạn nhân, cơ quan thực thi pháp luật của EU nói.
Europol nói rằng khả năng của ChatGPT trong việc sản xuất văn bản chân thực với tốc độ và quy mô lớn cũng khiến nó trở thành một công cụ lý tưởng cho hoạt động tuyên truyền và phát tán thông tin sai lệch.
"ChatGPT cho phép người dùng tạo và phổ biến những thông điệp phản ánh một câu chuyện cụ thể với tương đối ít nỗ lực", Europol cho hay.
Europol nói rằng tội phạm không có nhiều kiến thức kỹ thuật có thể sử dụng ChatGPT để tạo ra mã độc.
Theo OpenAI, GPT-4 tiên tiến hơn trong ba lĩnh vực chính: Tính sáng tạo, đầu vào trực quan và ngữ cảnh dài hơn. Về khả năng sáng tạo, OpenAI nói GPT-4 tốt hơn nhiều trong cả việc tạo và cộng tác với người dùng trong các dự án sáng tạo. Ví dụ về những điều này gồm âm nhạc, kịch bản, viết kỹ thuật và thậm chí là “học phong cách viết của người dùng”.
GPT-4 hiện có thể xử lý tối đa 25.000 từ văn bản từ người dùng. Bạn thậm chí có thể gửi cho GPT-4 một liên kết web và yêu cầu nó tương tác với văn bản từ trang đó. OpenAI cho biết điều này có thể hữu ích cho việc tạo nội dung dài cũng như “các cuộc hội thoại mở rộng”.
GPT-4 hiện cũng có thể nhận hình ảnh làm cơ sở để tương tác. Trong ví dụ trên trang web GPT-4, mô hình ngôn ngữ mới được cung cấp hình ảnh của một số nguyên liệu làm bánh và được hỏi có thể làm gì với chúng.
Theo OpenAI, công ty đã dành 6 tháng để tinh chỉnh GPT-4 theo hướng an toàn và phù hợp hơn.
OpenAI cho biết GPT-4 được đào tạo với phản hồi của con người để đạt được những bước tiến này, đồng thời tuyên bố đã làm việc với “hơn 50 chuyên gia để có phản hồi sớm trong các lĩnh vực bao gồm an toàn và bảo mật AI”.
Sam Altman, Giám đốc điều hành OpenAI, cho biết mô hình ngôn ngữ mới được cải tiến theo hướng sáng tạo hơn và ít thiên vị hơn so với bản trước đó. Ông nhấn mạnh đây là công nghệ AI tiên tiến chưa từng có, được đào tạo bằng cách sử dụng phản hồi của con người kết hợp công nghệ học sâu. GPT-4 có khả năng xử lý đa phương thức đầu vào, gồm cả hình ảnh, giúp người dùng tương tác với nhiều chế độ.
Sam Altman nói GPT-4 có hàng loạt khả năng mà các hệ thống AI hiện chưa thể đạt được. Cụ thể hơn, GPT-4 có thể đạt 1.410 điểm trong kỳ thi SAT - một trong những kỳ thi chuẩn hóa cho việc đăng ký vào một số đại học tại Mỹ; đạt 4 hoặc 5 trong thang điểm 5 của các kỳ thi nâng cao (AP) ở các bộ môn Lịch sử Nghệ thuật, Sinh học, Giải tích và Hóa học - số điểm đủ cao để nhận được tín chỉ đại học.
GPT-4 đã đánh bại 90% số người tham gia để vượt qua kỳ thi sát hạch trở thành luật sư, vượt 99% học sinh thi Olympic Sinh học. GPT-4 cũng đạt điểm cao nhất trong ít nhất 34 bài kiểm tra khác nhau trong các lĩnh vực như kinh tế vĩ mô, viết bài, Toán học hay thậm chí nội dung về nghiên cứu rượu vang.
Hơn nữa, OpenAI tuyên bố GPT-4 có thể lập trình bằng nhiều loại ngôn ngữ khác nhau, tạo kịch bản nội dung tùy theo yêu cầu, trả lời câu hỏi phức tạp cũng như tương tác với hình ảnh. Với khả năng tạo văn bản nhiều hơn 8 lần so với GPT-3.5, OpenAI cho biết mô hình ngôn ngữ mới có thể được sử dụng như một công cụ giảng dạy cho sinh viên.
OpenAI cũng lưu ý một số hạn chế của mô hình ngôn ngữ này. Giống như các phiên bản trước của GPT, OpenAI cho biết GPT-4 vẫn gặp vấn đề với “thành kiến xã hội, mơ hồ về một số sự kiện và câu hỏi thù địch”.
Nói cách khác, GPT-4 không hoàn hảo, nhưng OpenAI cho biết đây là tất cả những vấn đề mà công ty đang nỗ lực giải quyết.
Generative AI đe dọa 300 triệu việc làm ở Mỹ và châu Âu
Generative AI (trí tuệ nhân tạo tạo sinh), công nghệ đứng sau cơn sốt chatbot đa năng trong thời gian qua, có thể gây rủi ro cho 300 triệu việc làm ở Mỹ và châu Âu, theo báo cáo nghiên cứu của ngân hàng Goldman Sachs.
Báo cáo của Goldman Sachs nhận định những tiến bộ đột phá của công nghệ AI có thể giúp tự động hóa 25% khối lượng công việc hiện nay ở Mỹ và khu vực 20 nước sử dụng đồng euro (eurozone).
Goldman Sachs cho rằng các hệ thống generative AI như ChatGPT có thể tạo ra những nội dung không thể phân biệt được so với hoạt động sáng tạo của con người. Điều này có thể kích hoạt sự bùng nổ năng suất, giúp nâng GDP toàn cầu tăng thêm 7% trong 10 năm tới.
Nếu chứng minh được các kỳ vọng, generative AI cũng sẽ gây ra sự rối loạn đáng kể trên thị trường lao động, nó khiến tương đương 300 triệu công việc ở các nền kinh tế lớn tại Mỹ châu Âu bị tự động hóa, Joseph Briggs và Devesh Kodnani, hai tác giả của báo cáo nhận định.
Báo cáo cho rằng công việc của luật sư và nhân viên hành chính sẽ nằm trong số những công việc có nguy cơ dư thừa cao nhất do sự phổ cập của generative AI.
Báo cáo ước tính khoảng 2/3 số lượng công việc ở Mỹ và châu Âu có rủi ro bị tự động hóa ở một mức độ nhất định vì sự xuất hiện của generative AI. Hầu hết người lao động ở hai nền kinh tế này sẽ chứng kiến dưới 50% khối lượng công việc của họ được tự động hóa. Những người lao động này sẽ tiếp tục làm việc nhưng một phần thời gian của họ được chuyển sang cho các hoạt động hiệu quả hơn.
Ở Mỹ, generative AI sẽ đảm nhận bớt phần việc của 63% lực lượng lao động. Báo cáo của Goldman Sachs nhận định khoảng 7% lực lượng lao động Mỹ đang làm những công việc mà ít nhất một nửa khối lượng nhiệm vụ của họ có thể thực hiện thông qua công nghệ AI và rất dễ bị thay thế. Các công việc tay chân hoặc ngoài trời, không đòi hỏi tính sáng tạo cao, sẽ không bị ảnh hưởng nhiều.
Goldman Sachs cũng chỉ ra tác động tương tự của generative AI với thị trường việc làm của châu Âu. Ở cấp độ toàn cầu, do công việc chân tay chiếm tỷ trọng lớn hơn ở thị trường việc làm của các nước đang phát triển, Goldman Sachs ước tính AI có thể đảm nhận khoảng 20% trong tổng số công việc hiện nay.
Các ước tính của Goldman Sachs dựa trên phân tích dữ liệu của Mỹ và châu Âu về các nhiệm vụ thường được thực hiện trong hàng ngàn nghề nghiệp khác nhau. Các nhà nghiên cứu Goldman Sachs nhận định AI sẽ có khả năng thực hiện những nhiệm vụ như hoàn thành tờ khai thuế cho doanh nghiệp nhỏ; đánh giá một yêu cầu đòi bồi thường bảo hiểm phức tạp hoặc ghi lại kết quả điều tra hiện trường vụ án.
Tuy nhiên, họ không cho rằng AI sẽ được ứng dụng cho các nhiệm vụ nhạy cảm hơn như phán quyết của tòa án, kiểm tra tình trạng bệnh nhân đang được chăm sóc đặc biệt, hoặc nghiên cứu luật thuế quốc tế.
Báo cáo trên có thể châm ngòi cuộc tranh luận về tiềm năng của công nghệ AI trong nỗ lực phục hồi tăng trưởng năng suất đang trì trệ ở các nước giàu cũng như tạo ra một thế hệ nhân viên “cổ cồn trắng” bị AI giành việc.
Nhân viên "cổ cồn trắng" là thuật ngữ để chỉ người làm công việc văn phòng hoặc trí óc chủ yếu trong các lĩnh vực như tài chính, kinh doanh, giáo dục, luật, y tế và khoa học.
Các ước tính của Goldman Sachs về tác động của AI với bức tranh thị trường lao động thận trọng hơn so với ước tính trong một số nghiên cứu khác.
Một nghiên cứu của OpenAI cho thấy generative AI có thể đảm nhận ít nhất 10% nhiệm vụ của 80% lực lượng lao động ở Mỹ.