Một năm trước, nhà báo Davey Alba của hãng tin Bloomberg kể rằng đã dành nhiều ngày để trò chuyện với các nguồn tin giải thích cách Twitter (khi đó chưa gọi là X) phá vỡ các quy tắc kiểm soát nội dung khi người đứng đầu bộ phận tin cậy và an toàn là Ella Irwin bỏ qua các giao thức an toàn lâu đời để phục vụ cho những ý tưởng bất chợt của sếp mới là Elon Musk.
Khi đó, Twitter của Elon Musk dường như là một trường hợp ngoại lệ. Song nhìn lại, tình hình ở đó đã báo trước mức độ thay đổi của các tiêu chuẩn kiểm duyệt nội dung vào năm 2023.
Đầu năm nay, các hãng công nghệ lớn bao gồm Meta Platforms, Google, Amazon và Microsoft đã cắt giảm số lượng nhân viên đáng kể để ứng phó với điều kiện kinh tế khó khăn. Trong nỗ lực tìm kiếm sự hiệu quả, nhiều hãng công nghệ cắt giảm cả nhân viên trong bộ phận kiểm soát nội dung.
Các nền tảng dường như muốn nói rằng nếu công ty phải đối mặt với sự chỉ trích quyết liệt từ công chúng, chúng ta vẫn có thể thực hiện cùng công việc với ít chi phí hơn?
Đứng đầu về quy mô cắt giảm nhân viên (từ 7.500 xuống còn 1.000), Twitter dường như khác biệt so với các nền tảng xã hội khác do ảnh hưởng của Elon Musk với giá trị của công ty.
Meta Platforms cắt giảm nhiều nhân viên chính sách và nhân viên hợp đồng đang kiểm duyệt nội dung, đồng thời cam kết thực hiện việc này nhiều hơn bằng trí tuệ nhân tạo (AI).
2023 là năm về AI và OpenAI cho biết vào tháng 8, đã thử nghiệm việc sử dụng công nghệ của mình để kiểm duyệt nội dung, nhưng có rất ít báo cáo về hiệu quả từ hoạt động này.
Alphabet (công ty mẹ Google) đã sa thải khoảng một nửa số nhân viên của mình tại Jigsaw, đơn vị sản xuất các công cụ để chống lại lời nói căm thù và thông tin sai lệch trực tuyến, đồng thời lặng lẽ cắt giảm các chuyên gia chính sách và người kiểm duyệt nội dung tại YouTube.
Trong khi Microsoft đã sa thải nhóm xã hội và đạo đức AI của mình.
Khi thu hẹp hoạt động, các công ty cũng làm suy giảm khả năng những nhà nghiên cứu, học giả và nhà báo độc lập trong việc giám sát nền tảng của họ.
Giữa năm 2022, Meta Platforms bắt đầu ngừng hỗ trợ cho CrowdTangle, công cụ phân tích mạng xã hội thuộc sở hữu của Facebook và có rất ít dấu hiệu cho thấy hãng đã đảo ngược lộ trình vào năm 2023.
Hồi tháng 4, Twitter bắt đầu tính phí hàng nghìn USD cho người dùng khi sử dụng API (giao diện lập trình ứng dụng) của nó để kiểm tra nền tảng. Đó là chi phí quá cao với nhiều nhà nghiên cứu, đặc biệt là những sinh viên, nhóm dân quyền và những người khác không liên kết với các tổ chức được tài trợ tốt.
Sự thay đổi này đã tác động đặc biệt nặng nề đến các thành viên của các nhóm bên ngoài Mỹ. Một số nhà nghiên cứu đã dùng đến cách phá vỡ các quy tắc của Twitter để truy cập dữ liệu họ cần.
Ở châu Âu, Đạo luật Dịch vụ kỹ thuật số có thể mở đường cho các nhà nghiên cứu tiếp tục thực hiện công việc của mình. Năm nay, Meta Platforms, TikTok và X đã giới thiệu các API nghiên cứu học thuật mới nhằm đáp ứng các quy định của Liên minh châu Âu (EU). Tuy nhiên, vẫn chưa rõ liệu các nhóm xã hội dân sự và nhà báo không liên kết với trường đại học có được quyền truy cập hay không và các API bị hạn chế ở dạng hiện tại.
Bước sang năm 2024, tầm quan trọng của việc kiểm duyệt nội dung có vẻ khá lớn, do có hàng chục cuộc bầu cử quốc gia diễn ra trên toàn cầu trong suốt năm. Hiện chưa rõ liệu ngành công nghệ có khôi phục lại động lực để thực hiện công việc này hay không.
Dù thế nào đi nữa, các nhà nghiên cứu và nhà báo đều tận dụng tối đa các công cụ và dịch vụ mà chúng ta có ngày nay, kể cả tại Bloomberg, nơi gần đây đã sử dụng cơ sở dữ liệu Community Notes (Ghi chú cộng đồng) mã nguồn mở của X để xem nền tảng này đã thất bại như thế nào trong việc ngăn chặn sự gia tăng thông tin sai lệch về cuộc chiến Israel - Hamas.
Giữa tháng 10, Michael Bennet, Thượng nghị sĩ Mỹ đã tìm câu trả lời về cách Meta Platforms, X, TikTok và Google cố gắng ngăn chặn việc lan truyền nội dung sai lệch và gây hiểu lầm về cuộc xung đột Israel - Hamas trên nền tảng của họ.
“Nội dung lừa đảo đã tràn lan trên các trang mạng xã hội kể từ khi xung đột bắt đầu, đôi khi nhận được hàng triệu lượt xem”, Michael Bennet, đảng viên đảng Dân chủ, cho biết trong bức thư gửi lãnh đạo các công ty.
Hình ảnh từ các cuộc xung đột cũ, cảnh quay trò chơi điện tử và tài liệu bị thay đổi nằm trong số những nội dung gây hiểu lầm tràn ngập các nền tảng truyền thông xã hội kể từ khi nhóm Hồi giáo Hamas tấn công Israel vào ngày 7.10.
Michael Bennet cho biết: “Trong nhiều trường hợp, thuật toán nền tảng của bạn đã khuếch đại nội dung này, góp phần tạo ra một chu kỳ nguy hiểm về sự phẫn nộ, tương tác và việc chia sẻ lại”.
Bình luận của nhà làm luật Mỹ được đưa ra sau khi Thierry Breton, Ủy viên phụ trách thị trường nội khối của EU, chỉ trích các công ty, yêu cầu họ thực hiện các bước chặt chẽ hơn để chống lại thông tin sai lệch trong bối cảnh xung đột leo thang.
Trong thư của mình, Michael Bennet đã đặt ra một loạt câu hỏi cho các công ty, yêu cầu thông tin chi tiết về hoạt động kiểm duyệt nội dung của họ.
Các công ty truyền thông xã hội đã vạch ra một số bước đã thực hiện trong những ngày trước đó để đối phó với thông tin từ cuộc xung đột Israel - Hamas.
Meta Platforms, công ty sở hữu Facebook và Instagram, cho biết đã loại bỏ hoặc đánh dấu là đáng lo ngại hơn 795.000 mẩu nội dung bằng tiếng Do Thái hoặc tiếng Ả Rập trong ba ngày đầu kể từ khi Hamas tấn công Israel.
Người phát ngôn của Meta Platforms chia sẻ với CNBC: “Sau vụ tấn công khủng bố của Hamas vào Israel hôm 7.10, chúng tôi đã nhanh chóng thành lập một trung tâm hoạt động đặc biệt với đội ngũ chuyên gia, bao gồm cả những người nói thông thạo tiếng Do Thái và tiếng Ả Rập, để theo dõi chặt chẽ và ứng phó với tình hình đang phát triển nhanh chóng này... Các nhóm của chúng tôi đang làm việc suốt ngày đêm để giữ an toàn cho nền tảng của chúng tôi, thực hiện cảnh báo với nội dung vi phạm chính sách của chúng tôi hoặc luật pháp địa phương, đồng thời phối hợp với những người kiểm tra thực tế bên thứ ba trong khu vực để hạn chế lan truyền thông tin sai lệch. Chúng tôi sẽ tiếp tục công việc này".
Cả X và YouTube cũng thông báo đã loại bỏ nội dung có hại.
X cho biết đã xóa hoặc đánh dấu hàng chục ngàn bài đăng chứa nội dung “bất hợp pháp” kể từ khi cuộc chiến Israel - Hamas nổ ra, đáp lại những cảnh báo nhằm ngăn chặn việc lan truyền tin tức giả xung quanh cuộc xung đột.
Linda Yaccarino, Giám đốc điều hành X đã đăng phản hồi chính thức của mình sau khi Thierry Breton kêu gọi các công ty truyền thông xã hội ở Thung lũng Silicon (Mỹ) hạn chế thông tin sai lệch. Thierry Breton cho biết X lưu trữ nội dung bất hợp pháp và kêu gọi Elon Musk hành động nhanh chóng.
X đã tập hợp một nhóm chuyên trách để đánh giá tình hình và xóa hàng trăm tài khoản có liên quan đến Hamas, Linda Yaccarino cho biết trong một phản hồi dài 4 trang gửi tới Thierry Breton.
Ngoài việc xóa nội dung "có vấn đề", bà cho biết tính năng Community Notes đã giúp hàng triệu người dùng chia sẻ và hiểu các bài đăng.
Trong một tuyên bố, TikTok liệt kê những hành động mà họ đã thực hiện dù không tiết lộ cụ thể nội dung trả lời với Thierry Breton.
"TikTok chống lại chủ nghĩa khủng bố. Chúng tôi bị sốc và kinh hoàng trước những cuộc tấn khủng khiếp ở Israel vào tuần trước và vô cùng đau buồn trước cuộc khủng hoảng nhân đạo ngày càng gia tăng đang diễn ra ở Gaza", đại diện TikTok nói.
Thuộc sở hữu của tập đoàn ByteDance (Trung Quốc), TikTok cho biết các hành động của nền tảng xã hội này bao gồm thành lập một trung tâm chỉ huy, tăng cường hệ thống phát hiện tự động để xóa nội dung phản cảm và bạo lực, đồng thời bổ sung người kiểm duyệt tiếng Ả Rập và tiếng Do Thái.
TikTok cũng đang xóa nội dung tấn công hoặc chế nhạo nạn nhân bạo lực hay kích động bạo lực, đã bổ sung các hạn chế về điều kiện sử dụng tính năng phát sóng trực tiếp cũng như đang hợp tác với các cơ quan thực thi pháp luật, đồng thời thu hút sự tham gia của các chuyên gia.
Thế nhưng, Michael Bennet cho rằng những hành động đó là chưa đủ.
Ông viết trong thư: “Số lượng lớn nội dung sai lệch chứng tỏ rõ ràng rằng các chính sách và giao thức hiện tại của bạn là không đủ”.
Michael Bennet cũng chỉ trích 4 công ty vì đã sa thải nhân viên khỏi nhóm tin cậy và an toàn của họ trong năm qua, những người chịu trách nhiệm giám sát nội dung sai lệch và gây hiểu lầm.
X đã sa thải 15% số lượng nhân viên trong bộ phận tin tưởng và an toàn của họ, đồng thời giải thể một hội đồng liên quan vào tháng 11.2022 sau khi Elon Musk mua lại công ty, cắt giảm thêm nhân sự vào tháng trước, Michael Bennet lưu ý.
Michael Bennet cho biết Meta Platforms đã cắt giảm 100 vị trí tương tự vào tháng 1, trong khi Google sa thải 1/3 nhóm tạo ra các công cụ để chống lại lời nói căm thù và thông tin sai lệch trực tuyến.
Ông nói: “Những quyết định này góp phần tạo ra một chuỗi bạo lực, hoang tưởng và mất lòng tin trên khắp thế giới. Các nền tảng của bạn đang giúp tạo ra một hệ sinh thái thông tin trong đó những sự thật cơ bản ngày càng bị tranh luận, trong khi các nguồn tin không đáng tin cậy liên tục được xem là có thẩm quyền".
Theo Đạo luật Dịch vụ kỹ thuật số mới ban hành của EU, các hãng công nghệ lớn chịu trách nhiệm giám sát và xóa nội dung bất hợp pháp như khủng bố hoặc lời nói căm thù. Việc không tuân thủ các quy định của EU về nội dung bất hợp pháp có thể bị phạt 6% doanh thu hàng năm của công ty.