Các nhà làm luật Mỹ đang đối mặt với vấn đề là đặt ra những rào cản bảo vệ nào xung quanh trí tuệ nhân tạo (AI) đang phát triển mạnh mẽ, nhưng nhiều tháng sau khi ChatGPT thu hút sự chú ý của chính quyền Biden, sự đồng thuận còn lâu mới đạt được.

Các nhà làm luật Mỹ cố gắng ra quy định kiểm soát AI nhưng khó nhận được sự đồng thuận

Sơn Vân | 15/05/2023, 23:22

Các nhà làm luật Mỹ đang đối mặt với vấn đề là đặt ra những rào cản bảo vệ nào xung quanh trí tuệ nhân tạo (AI) đang phát triển mạnh mẽ, nhưng nhiều tháng sau khi ChatGPT thu hút sự chú ý của chính quyền Biden, sự đồng thuận còn lâu mới đạt được.

Các cuộc phỏng vấn với một thượng nghị sĩ Mỹ, các nhân viên Quốc hội và công ty AI cho thấy cho thấy có nhiều phương án đang được thảo luận.

Cuộc tranh luận sẽ trở thành tâm điểm vào ngày 16.5 khi Sam Altman, Giám đốc điều hành OpenAI, lần đầu xuất hiện trước một ủy ban của Thượng viện.

Một số đề xuất tập trung vào AI có thể ảnh hưởng đến cuộc sống hoặc sinh kế con người, chẳng hạn như trong lĩnh vực y tế và tài chính. Các khả năng khác bao gồm quy tắc để đảm bảo AI không được sử dụng để phân biệt đối xử hoặc vi phạm quyền công dân của ai đó.

Một cuộc tranh luận khác là nên điều chỉnh nhà phát triển AI hay công ty sử dụng công nghệ này để tương tác với người tiêu dùng. OpenAI, công ty khởi nghiệp phát triển chatbot ChatGPT gây bão internet, đã thảo luận về việc thành lập cơ quan độc lập chuyên quản lý AI.

Không chắc cách tiếp cận nào sẽ được áo dụng, nhưng một số người trong cộng đồng doanh nghiệp, bao gồm cả IBM và Phòng Thương mại Mỹ, ủng hộ phương pháp chỉ điều chỉnh các lĩnh vực quan trọng, chẳng hạn chẩn đoán y tế. Đây là cách tiếp cận mà họ gọi là dựa trên rủi ro.

Nếu Quốc hội quyết định cần phải có luật mới, Ủy ban AI của Phòng Thương mại Mỹ khuyến khích "rủi ro được xác định dựa trên tác động đến cá nhân", theo lời Jordan Crenshaw, thuộc trung tâm sáng tạo công nghệ cao của Phòng Thương mại Mỹ. "Một đề xuất về video có thể không gây ra rủi ro cao như các quyết định liên quan đến sức khỏe hoặc tài chính", Jordan Crenshaw nói.

Sự phổ biến ngày càng tăng của generative AI làm dấy lên mối lo ngại rằng công nghệ phát triển nhanh này có thể khuyến khích gian lận trong các kỳ thi, cung cấp thông tin sai lệch và dẫn đến một thế hệ mới của các chiêu lừa đảo.

Generative AI là một loại trí tuệ nhân tạo mà máy tính được lập trình để tự động tạo ra nội dung mới, như văn bản, hình ảnh, âm thanh và video. Nó khác với các hệ thống AI khác như máy học sâu (deep learning) hoặc học máy (machine learning) trong việc dự đoán kết quả từ dữ liệu đã có sẵn. Thay vì dựa trên dữ liệu huấn luyện, hệ thống generative AI có khả năng tự tạo ra dữ liệu mới và phong phú hơn.

Sự cường điệu về AI đã dẫn đến hàng loạt cuộc họp, gồm cả chuyến thăm Nhà Trắng hôm 4.5 của Giám đốc điều hành OpenAI, Microsoft, Alphabet và Anthropic.

Hôm 4.5, Tổng thống Joe Biden đã gặp giám đốc điều hành các công ty AI hàng đầu tại buổi họp ở Nhà Trắng để nói rõ rằng họ phải đảm bảo sản phẩm của mình an toàn trước khi được triển khai ra công chúng.

Những gì bạn đang làm có tiềm năng to lớn và nguy hiểm cũng rất lớn. Tôi biết bạn hiểu điều đó. Tôi hy vọng bạn có thể giới thiệu cho chúng tôi về những gì bạn nghĩ là cần thiết nhất để bảo vệ xã hội cũng như sự tiến bộ”, ông Biden cho hay.

Bà Kamala Harris, Phó tổng thống Mỹ, nói với các giám đốc điều hành rằng họ có nghĩa vụ về “đạo đức” để bảo vệ xã hội khỏi những nguy cơ tiềm ẩn từ AI. Sau cuộc họp, bà Kamala Harris cho biết các hãng công nghệ lớn “phải tuân thủ luật pháp hiện hành để bảo vệ người dân Mỹ cũng như đảm bảo an toàn và bảo mật cho các sản phẩm của họ”.

nha-lam-luat-my-vat-lon-de-ra-cac-quy-dinh-ve-ai.jpg
AI trong tầm ngắm của chính quyền Biden nhưng sự đồng thuận còn lâu mới chắc chắn

Jack Clark, đồng sáng lập công ty khởi nghiệp AI nổi tiếng Anthropic, nói: “Nhân viên trên toàn Hạ viện và Thượng viện đều được yêu cầu chung tay giải quyết vấn đề này. Mọi người muốn vượt lên trên AI, một phần vì họ cảm thấy như đã không vượt lên trên mạng xã hội".

Theo Adam Kovacevich, người đứng đầu Tổ chức vì Công nghệ tiến bộ, khi các nhà làm luật bắt kịp thời sự, ưu tiên chính của Big Tech (hãng công nghệ lớn) là chống lại "phản ứng quá đà với vấn đề".

Trong khi các nhà làm luật như Chuck Schumer (lãnh đạo phe đa số ở Thượng viện) quyết tâm giải quyết các vấn đề AI theo cách lưỡng đảng, thực tế là Quốc hội đang bị phân cực, còn cuộc bầu cử Tổng thống Mỹ sẽ diễn ra vào năm tới và các nhà làm luật đang giải quyết các vấn đề lớn khác, chẳng hạn tăng mức nợ công.

Kế hoạch đề xuất của Chuck Schumer yêu cầu các chuyên gia độc lập thử nghiệm các công nghệ AI mới trước khi phát hành, đồng thời cũng kêu gọi sự minh bạch và cung cấp cho chính phủ dữ liệu cần thiết để ngăn chặn tác hại.

"Thành lập cơ quan bắt buộc các công ty phải xin giấy phép trước khi đào tạo các mô hình AI mạnh mẽ"

Cách tiếp cận dựa trên rủi ro đồng nghĩa AI được sử dụng để chẩn đoán ung thư sẽ được Cục Quản lý Thực phẩm và Dược phẩm Mỹ (FDA) xem xét kỹ lưỡng, trong khi AI để giải trí sẽ không được kiểm soát. Liên minh châu Âu (EU) đã tiến tới việc thông qua các quy định tương tự.

Thế nhưng, việc tập trung vào rủi ro dường như là chưa đủ với Michael Bennet (Thượng nghị sĩ đảng Dân chủ), người đã đưa ra dự luật kêu gọi thành lập lực lượng đặc nhiệm AI của chính phủ. Michael Bennet cho biết ông ủng hộ "cách tiếp cận dựa trên giá trị" để ưu tiên quyền riêng tư, quyền tự do dân sự và các quyền.

Theo một trợ lý của Michael Bennet, các quy tắc dựa trên rủi ro có thể quá cứng nhắc và không phát hiện ra những mối nguy hiểm như việc AI sử dụng để đề xuất các video quảng bá quyền tối cao của người da trắng.

Các nhà làm luật cũng đã thảo luận về cách tốt nhất để đảm bảo AI không được sử dụng để phân biệt chủng tộc, có lẽ trong việc quyết định ai sẽ được cấp khoản vay lãi suất thấp, theo một người theo dõi các cuộc thảo luận tại Quốc hội nhưng không được phép nói chuyện với các phóng viên.

Tại OpenAI, nhân viên đã xem xét về việc giám sát AI rộng hơn.

Trong cuộc nói chuyện vào tháng 4 tại Đại học Stanford (Mỹ), Cullen O'Keefe, nhà khoa học nghiên cứu của OpenAI, đã đề xuất về việc thành lập cơ quan bắt buộc các công ty phải xin giấy phép trước khi đào tạo các mô hình AI mạnh mẽ hoặc vận hành các trung tâm dữ liệu hỗ trợ chúng.

Cullen O'Keefe nói cơ quan này có thể được gọi là Văn phòng An ninh Cơ sở hạ tầng và An toàn AI (hay OASIS).

Khi được hỏi về đề xuất này, Mira Murati, Giám đốc công nghệ OpenAI, cho biết một tổ chức đáng tin cậy có thể "đòi hỏi các nhà phát triển tuân thủ" các tiêu chuẩn an toàn. Tuy nhiên, điều quan trọng hơn cả là thống nhất "về những tiêu chuẩn và rủi ro nào mà bạn đang cố gắng giảm thiểu". Cơ quan quản lý lớn gần nhất được thành lập ở Mỹ là Cục Bảo vệ Tài chính Người tiêu dùng, ra đời sau cuộc khủng hoảng tài chính 2007-2008.

Một số thành viên đảng Cộng hòa có thể không ủng hộ bất kỳ quy định nào về AI. "Chúng ta nên cẩn trọng để các đề xuất quy định AI không trở thành cơ chế cho sự can thiệp quá mức của chính phủ vào mã máy tính như công cụ tìm kiếm và thuật toán", một trợ lý thượng nghị sĩ đảng Cộng hòa nói với Reuters.

Bài liên quan
Thuật toán AI có thể giúp thiết kế mão răng cá nhân hóa trong 3 giây
Nhóm các nhà khoa học quốc tế, do Đại học Hồng Kông dẫn đầu, đã sáng tạo ra một thuật toán trí tuệ nhân tạo (AI) mà họ cho rằng có thể thiết kế mão răng cá nhân hóa trong vòng 3 giây.

(0) Bình luận
Nổi bật Một thế giới
Tìm giải pháp đảm bảo an ninh nguồn nước vùng đồng bằng sông Cửu Long
6 giờ trước Bảo vệ môi trường
Ngày 26.4, Bộ Tài nguyên và Môi trường, Trường Đại học Cần Thơ và báo Tuổi Trẻ phối hợp tổ chức hội thảo với chủ đề "Giải pháp về nguồn nước vùng đồng bằng sông Cửu Long".
Đừng bỏ lỡ
Mới nhất
POWERED BY ONECMS - A PRODUCT OF NEKO
Các nhà làm luật Mỹ cố gắng ra quy định kiểm soát AI nhưng khó nhận được sự đồng thuận