Khi Tòa án Tối cao Mỹ quyết định trong những tháng tới liệu có nên làm suy yếu lá chắn mạnh mẽ bảo vệ các công ty internet hay không, phán quyết này cũng có thể tác động đến công nghệ đang phát triển nhanh chóng như chatbot trí tuệ nhân tạo (AI).
Vụ việc mà Tòa án Tối cao Mỹ đang xem xét liên quan đến đơn kháng cáo từ gia đình của Nohemi Gonzalez về việc tòa án cấp dưới bác bỏ vụ kiện của họ chống lại YouTube. Nohemi Gonzalez là nữ sinh viên đại học 23 tuổi đến từ bang California (Mỹ) bị các tay súng Hồi giáo cực đoan bắn chết trong vụ xả súng vào năm 2015 tại Paris, thủ đô Pháp.
Gia đình Nohemi Gonzalez đã khởi kiện YouTube, tuyên bố rằng nền tảng này đã chia sẻ các video liên quan đến các nhóm khủng bố Hồi giáo và thông qua thuật toán đề xuất video, giúp kích thích các tay súng thực hiện cuộc tấn công. Tuy nhiên, tòa án sơ thẩm đã từ chối vụ kiện từ gia đình Nohemi Gonzalez, trích dẫn Điều 230 của đạo luật về Chuẩn mực Truyền thông năm 1996 để bảo vệ YouTube khỏi trách nhiệm pháp lý cho nội dung do người dùng đăng tải trên nền tảng của họ.
Đơn kiện cáo buộc Google cung cấp "hỗ trợ vật chất" cho khủng bố và nói rằng YouTube, thông qua các thuật toán của nền tảng chia sẻ video, đã đề xuất bất hợp pháp cho một số người dùng các video của nhóm chiến binh Nhà nước Hồi giáo (IS), vốn đã nhận trách nhiệm về vụ tấn công ở Paris.
Các thẩm phán Tòa án Tối cao Mỹ sẽ đưa ra phán quyết vào cuối tháng 6 liệu YouTube thuộc Alphabet có thể bị kiện vì các đề xuất video của họ cho người dùng hay không. Trường hợp này kiểm tra xem luật Mỹ bảo vệ các nền tảng công nghệ khỏi trách nhiệm pháp lý với nội dung do người dùng đăng trực tuyến có được áp dụng hay không khi các công ty sử dụng thuật toán để nhắm mục tiêu người dùng bằng các đề xuất.
Phán quyết của tòa án về vấn đề đó có ý nghĩa quan trọng không chỉ với các nền tảng truyền thông xã hội. Cụ thể hơn, phán quyết này có thể ảnh hưởng đến cuộc tranh luận mới về việc liệu chatbot AI như ChatGPT do OpenAI phát triển với sự hậu thuẫn của Microsoft, hay Bard của Google có nên được bảo vệ khỏi các khiếu nại pháp lý như phỉ báng hoặc vi phạm quyền riêng tư, theo các chuyên gia công nghệ và pháp lý.
Điều này là bởi các thuật toán điều khiển các công cụ generative AI như ChatGPT và mô hình ngôn ngữ lớn mới nhất GPT-4 hoạt động theo cách tương tự những thuật toán đề xuất video cho người dùng YouTube, theo các chuyên gia.
"Cuộc tranh luận thực sự xoay quanh việc liệu việc tổ chức thông tin trực tuyến tin có sẵn thông qua các công cụ đề xuất có ý nghĩa đến mức nào trong việc hình thành nội dung để phải chịu trách nhiệm pháp lý. Bạn sẽ gặp các vấn đề tương tự với một chatbot", theo Cameron Kerry, nhà nghiên cứu tại Viện Brookings tại bang Washington (Mỹ) và là một chuyên gia về AI.
Đại diện của OpenAI và Google đã không trả lời khi được Reuters đề nghị bình luận về chuyện trên.
Trong các cuộc tranh luận vào tháng 2, các thẩm phán của Tòa án Tối cao Mỹ đã bày tỏ sự không chắc chắn về việc có nên làm suy yếu các biện pháp bảo vệ được quy định trong luật, cụ thể là Điều 230 của đạo luật về Chuẩn mực Truyền thông năm 1996 hay không.
Dù vụ việc không liên quan trực tiếp đến generative AI, Thẩm phán Neil Gorsuch lưu ý rằng các công cụ AI tạo ra "thơ ca" và "cuộc tranh luận" có thể sẽ không được hưởng các biện pháp bảo vệ pháp lý như vậy.
Trường hợp này chỉ là một khía cạnh của cuộc trò chuyện đang nổi lên về việc liệu quyền miễn trừ theo Điều 230 có nên áp dụng cho các mô hình AI được đào tạo trên kho dữ liệu trực tuyến hiện tại nhưng có khả năng tạo ra các tác phẩm sáng tạo hay không.
Các biện pháp bảo vệ theo Điều 230 thường áp dụng cho nội dung của bên thứ ba từ người dùng nền tảng công nghệ chứ không phải thông tin mà một công ty đã giúp phát triển. Các tòa án vẫn chưa cân nhắc liệu phản hồi từ chatbot AI có được bảo vệ hay không.
“Không nên bảo vệ các công ty khỏi hậu quả từ hành động và sản phẩm của chính họ”
Từng giúp soạn thảo đạo luật đó khi còn ở Hạ viện Mỹ, Thượng nghị sĩ đảng Dân chủ Ron Wyden cho biết lá chắn trách nhiệm pháp lý không nên áp dụng cho các công cụ generative AI vì chúng "tạo ra nội dung".
"Điều 230 nói về việc bảo vệ người dùng cùng các trang web lưu trữ và sắp xếp phát ngôn của người dùng. Điều 230 không nên bảo vệ các công ty khỏi hậu quả từ hành động và sản phẩm của chính họ", Ron Wyden nói trong một tuyên bố với Reuters.
Ngành công nghệ đã thúc đẩy việc duy trì Điều 230 bất chấp sự phản đối của lưỡng đảng với việc miễn trừ trách nhiệm pháp lý. Họ cho biết các chatbot như ChatGPT hoạt động giống công cụ tìm kiếm, hướng người dùng đến nội dung hiện có để đáp ứng một truy vấn.
Carl Szabo, Phó chủ tịch kiêm Tổng cố vấn pháp lý của NetChoice, một nhóm thương mại ngành công nghệ, nhận xét: "AI không thực sự tạo ra bất cứ thứ gì. Nó chỉ lấy nội dung đã có sẵn và đưa ra dưới một cách khác hoặc định dạng khác".
Carl Szabo nói Điều 230 sẽ bị suy yếu nếu đưa ra nhiệm vụ bất khả thi với các nhà phát triển AI, có nguy cơ khiến họ phải hứng chịu hàng loạt vụ kiện tụng có thể kìm hãm sự đổi mới.
Một số chuyên gia dự đoán rằng các tòa án có thể chọn giải pháp trung gian, xem xét bối cảnh mà mô hình AI tạo ra phản hồi có thể gây hại.
Trong trường hợp mô hình AI dường như diễn giải từ các nguồn tin hiện có, chính sách bảo vệ theo Điều 230 vẫn có thể được áp dụng. Thế nhưng, các chatbot như ChatGPT từng tạo ra các phản hồi hư cấu không có mối liên hệ nào với thông tin được tìm thấy trên mạng. Đây là tình huống mà các chuyên gia cho biết có thể sẽ không được bảo vệ theo Điều 230.
Hany Farid, nhà công nghệ và giáo sư Đại học California ở thành phố Berkeley (Mỹ), nói rằng việc lập luận rằng các nhà phát triển AI nên được miễn trách nhiệm với vụ kiện về các mô hình mà họ "lập trình, đào tạo và triển khai" là điều không tưởng.
“Khi phải chịu trách nhiệm trong vụ kiện dân sự về những tác hại từ sản phẩm do mình tạo, các công ty sẽ sản xuất ra sản phẩm an toàn hơn. Khi không chịu trách nhiệm pháp lý, họ sẽ tạo ra những sản phẩm kém an toàn hơn", Hany Farid nhận định.