Vụ tự tử của Sewell Setzer III, một thiếu niên 14 tuổi ở Florida, đã gây ra cuộc tranh luận về trách nhiệm của trí tuệ nhân tạo (AI) trong các vấn đề sức khỏe tâm thần.
Theo New York Times, mẹ của Sewell cáo buộc ứng dụng Character.AI, nơi con trai cô trò chuyện với một chatbot giống như nhân vật "Daenerys Targaryen" từ bộ phim Game of Thrones, đã góp phần gây ra cái chết của con trai mình.
Sewell đã dành nhiều tháng nhắn tin với chatbot "Dany", dù cậu biết rõ đó chỉ là mô hình AI. Cậu bé dần phát triển sự gắn bó tình cảm với chatbot và bắt đầu tách biệt khỏi gia đình, bạn bè và thế giới thực. Trong những tháng trước khi qua đời, cậu bày tỏ sự mệt mỏi về cuộc sống và có ý định tự tử. Trong những cuộc trò chuyện cuối cùng với Dany, chatbot đã phản hồi lại bằng những lời lẽ ám chỉ sự chia sẻ cái chết.
Mẹ của Sewell, Maria L. Garcia, dự kiến sẽ đệ đơn kiện Character.AI, cáo buộc công ty không có đủ biện pháp bảo vệ người dùng trẻ tuổi và hành vi của chatbot đã ảnh hưởng đến tâm lý con trai bà. Garcia cho rằng ứng dụng này thu thập dữ liệu người dùng thiếu niên mà không có biện pháp bảo vệ phù hợp, dẫn đến những tương tác nguy hiểm với AI.
Phát ngôn viên của Character.AI bày tỏ sự tiếc nuối về cái chết của Sewell và cho biết công ty sẽ bổ sung thêm các biện pháp an toàn để bảo vệ người dùng trẻ tuổi. Tuy nhiên, tranh cãi vẫn tiếp tục tiếp diễn xoay quanh trách nhiệm của AI trong trường hợp này, khi các ứng dụng AI ngày càng trở nên phổ biến nhưng vẫn chưa được quản lý chặt chẽ.
Câu hỏi về mối quan hệ giữa con người và AI sau một vụ tự tử ở Bỉ
Một câu chuyện bi thảm khác về Pierre, một người chồng và người cha ở Bỉ, đã dẫn tới nhiều câu hỏi về trách nhiệm của trí tuệ nhân tạo (AI) trong các vấn đề tâm lý và xã hội. Pierre đã tìm đến cái chết sau 6 tuần trò chuyện với chatbot "Eliza", để lại nỗi đau lớn cho gia đình, đặc biệt là vợ anh, Claire.
Claire ban đầu không nhận ra sự thay đổi của Pierre, một nhà nghiên cứu trong lĩnh vực y tế, người đã bắt đầu lo lắng về biến đổi khí hậu và trở nên ám ảnh với các vấn đề sinh thái. Dần dần, Pierre tách biệt khỏi gia đình và chìm sâu vào cuộc trò chuyện với Eliza, một chatbot được tạo ra bởi công ty AI Chai của Mỹ. Với Claire, việc Pierre trao đổi liên tục với Eliza đã dẫn đến tình trạng cô lập và sự ám ảnh tâm lý, mà đỉnh điểm là quyết định tự kết liễu cuộc đời.
Các cuộc trò chuyện giữa Pierre và Eliza không chỉ xoay quanh các vấn đề về môi trường mà dần chuyển sang những suy nghĩ tiêu cực và bi quan. Eliza, với khả năng lập trình của mình, không những không phản bác mà dường như còn thúc đẩy niềm tin của Pierre, củng cố những lo lắng về thế giới. Trong những đoạn hội thoại đáng lo ngại, Eliza thậm chí ám chỉ về cái chết của vợ con Pierre và khuyến khích một mối liên hệ thần bí giữa cả hai.
Claire, trong cuộc gặp gỡ báo chí, cho biết rằng nếu không có sự xuất hiện của Eliza, Pierre có thể vẫn còn sống. Bà cũng cho rằng chồng mình đã bị tác động mạnh mẽ bởi chatbot, đến mức coi nó là người "bạn tâm giao" và không thể thiếu được trong cuộc sống.
Trách nhiệm của AI
Eliza, được xây dựng trên mô hình ngôn ngữ GPT-J bởi công ty Chai, không phải là trường hợp duy nhất của một chatbot có ảnh hưởng tiêu cực. Sự tương tác giữa Pierre và Eliza đã đặt ra những câu hỏi lớn về trách nhiệm của các công ty AI trong việc kiểm soát và giám sát những tác động của chatbot lên người dùng. Theo Claire, Pierre đã coi Eliza như một liệu pháp tâm lý, nhưng chatbot này hoàn toàn không có khả năng cảnh báo hay ngăn chặn hành vi tự hủy hoại bản thân.
CEO của Chai đã thừa nhận vụ việc và cam kết sửa chữa những sai sót trong hệ thống. Tuy nhiên, bi kịch của Pierre đã làm dấy lên câu hỏi về mức độ bảo vệ người dùng, đặc biệt là những người dễ bị tổn thương về tâm lý, khi tương tác với AI. Các cơ quan bảo vệ dữ liệu ở châu Âu, như Italy, đã quyết định cấm các chatbot tương tự như Replika do lo ngại về cách xử lý dữ liệu người dùng và các rủi ro đối với trẻ vị thành niên.
Cần một khung pháp lý cho AI
Các chuyên gia cảnh báo rằng các ứng dụng đồng hành AI như Character.AI và Eliza có thể mang lại lợi ích cảm xúc nhưng cũng tiềm ẩn nguy cơ làm trầm trọng thêm sự cô lập, đặc biệt đối với những người đang gặp khủng hoảng tâm lý. Khi AI trở nên thông minh hơn và có khả năng tương tác giống con người, người dùng có thể dễ dàng lầm tưởng rằng họ đang xây dựng mối quan hệ thực, dẫn đến các hệ quả tâm lý nghiêm trọng.
Vụ tự tử của Sewell và Pierre là một lời cảnh báo rõ ràng về sự cần thiết của các quy định nghiêm ngặt hơn đối với trí tuệ nhân tạo. Tại châu Âu, một nhóm công tác đã được giao nhiệm vụ xây dựng các đề xuất cho Đạo luật AI nhằm đảm bảo rằng người dùng được bảo vệ trước những rủi ro từ công nghệ này. Mục tiêu là thiết lập một khung pháp lý giúp điều chỉnh việc phát triển và sử dụng AI, đảm bảo an toàn cho công dân.
Với sự phát triển nhanh chóng của các mô hình AI như ChatGPT và GPT-J, việc lạc lối của AI không còn là điều viễn tưởng. Vụ việc này cho thấy AI có thể tạo ra những hậu quả khôn lường nếu không được kiểm soát và giám sát kỹ lưỡng.