Nhân viên kiểm duyệt nội dung là gì năm 2024

Một nhân viên kiểm duyệt nội dung 25 tuổi của nền tảng video Bilibili được cho là tử vong do làm việc quá sức trong kỳ nghỉ Tết.

"Trưởng nhóm kiểm duyệt nội dung của Bilibi đột ngột qua đời do làm việc cường độ cao trong kỳ nghỉ Tết Nguyên đán" đang là một trong những chủ đề được quan tâm nhất trên Weibo - mạng xã hội lớn nhất Trung Quốc. Chủ đề thu hút hơn 580 triệu lượt đọc và 170.000 lượt thảo luận.

Theo Insinder, nam nhân viên này mới 25 tuổi, quê ở Vũ Hán và mất ngày 4/2. Nguyên nhân được cho là xuất huyết não sau khi làm việc 12 tiếng mỗi ngày trong 5 ngày liên tục. Cái chết của người này làm nổ ra một cuộc tranh luận gay gắt về những áp lực của người kiểm duyệt nội dung ở các công ty công nghệ Trung Quốc.

Logo nền tảng video Bilibili tại Hội chợ và Triển lãm Giải trí Kỹ thuật số Trung Quốc hồi tháng 7/2021. Ảnh: Reuters

Bilibili - nền tảng xem video lớn bậc nhất Trung Quốc - phủ định cáo buộc bắt nhân viên làm việc quá sức. Tuy nhiên ngay sau sự cố, công ty cam kết sẽ thuê thêm 1.000 kiểm duyệt viên trong năm nay và sẽ quan tâm hơn đến sức khỏe nhân viên.

"Chúng tôi nên thực hiện các biện pháp chủ động hơn để đảm bảo sức khỏe của nhân viên kiểm duyệt cũng như ngăn những đau thương tương tự tái diễn", Bilibili viết trên trang Weibo của công ty.

Thông báo của Bilibili cũng làm dấy lên lo ngại về áp lực của người làm công tác kiểm duyệt nội dung trên Internet. Trong thông tin tuyển dụng, công ty yêu cầu kiểm duyệt viên có khả năng làm ca đêm và chịu được áp lực.

Bilibili cũng nhấn mạnh trách nhiệm và vai trò của người kiểm duyệt là làm "mọi lúc mọi nơi, dù có là Tết thì nhiệm vụ đảm bảo nội dung an toàn cũng không thể dừng lại. Giống nhiều công việc vì cộng đồng khác, trách nhiệm này phải được luân chuyển thực hiện theo ca".

Theo báo cáo thường niên của Bilibili năm 2020, công ty có 2.414 kiểm duyệt viên làm việc 24/7. Trong khi đó, nền tảng thu hút 267 triệu người dùng hàng tháng. Số lượng kiểm duyệt viên quá ít so với lượng người dùng và yêu cầu từ phía chính quyền về một "Internet văn minh" càng khiến những người làm công việc kiểm duyệt thêm áp lực. Khi các công ty công nghệ tăng cường đáp ứng yêu cầu gắt gao của chính phủ, nhân viên của họ cũng phải chịu áp lực lớn khi duyệt nội dung trực tuyến.

"Ngoài ra, nhiều gã khổng lồ công nghệ Trung Quốc cũng tự mình đưa ra quy định về kiểm duyệt nếu thấy nội dung không phù hợp do e ngại các vấn đề pháp lý. Tất cả dẫn đến việc kiểm duyệt quá mức cần thiết tại Trung Quốc", phó giáo sư Henry Gao của đại học Singaporre Management nói với Insider.

Do liên tục đối mặt với nội dung phản cảm, khiêu dâm hoặc bạo lực, nhiều kiểm duyệt viên gặp vấn đề về sức khỏe như căng thẳng tâm lý, kiệt sức. Sau cái chết của nhân viên Bilibili, nhiều người ở vị trí tương tự cũng lên tiếng.

"Những gì chúng tôi đang làm là đổi mạng lấy tiền. Làm việc 12, 13 tiếng một ngày là bình thường khi tôi còn là kiểm duyệt viên tại ByteDance", một người dùng Weibo nói.

Một người khác. tự nhận là nhân viên hiện tại của ByteDance, cho biết một ngày anh phải xem hơn 500 video, khiến anh cảm thấy như một công nhân trong một dây chuyền sản xuất và muốn bỏ cuộc bất cứ lúc nào.

Ngoài áp lực của nghề kiểm duyệt nội dung trên Internet, cái chết của nam nhân viên trẻ tuổi còn khiến văn hóa 996 của các công ty công nghệ Trung Quốc bị phản đối mạnh mẽ. Trước đó, đã có một số cái chết được cho là do làm việc quá sức trong môi trường áp lực. Đặc biệt trong lĩnh vực công nghệ, nhiều người đã quyết liệt yêu cầu điều kiện lao động tốt hơn. Các công ty cũng hứa hẹn đưa ra các chính sách giúp nhân viên cân bằng giữa công việc và cuộc sống.

Mới đây, tờ The Guardian đã công bố những tài liệu thu thập được về các tiêu chuẩn kiểm duyệt của Facebook. Nó cho thấy gã khổng lồ mạng xã hội đang phải vật lộn trong vai trò nhà quản lý nội dung.

Facebook có bảng hướng dẫn chi tiết cho nhân viên kiểm duyệt nội dung

Báo cáo dựa vào tài liệu nội bộ công ty rò rỉ gồm các nguyên tắc và luật lệ mà Facebook hướng dẫn nhân viên kiểm duyệt. Chúng sẽ quyết định xem một bài viết có phải là nội dung thuộc các dạng bị cấm hay không, như bạo lực, phát ngôn gây thù hận, ảnh khỏa thân, tự tử và khủng bố. Nó cho thấy nỗ lực của Facebook trong việc loại bỏ nội dung độc hại nhưng vẫn đảm bảo quyền tự do ngôn luận.

The Guardian cho biết các tài liệu đã được “gửi đến những người kiểm duyệt của Facebook trong năm qua”. Facebook chưa xác nhận thông tin nhưng cũng không đưa ra bất kỳ bình luận phản bác nào.

“Chúng tôi làm việc chăm chỉ để tạo môi trường Facebook an toàn nhất có thể mà không ảnh hưởng tới quyền tự do ngôn luận”, Monika Bickert, Giám đốc quản lý chính sách toàn cầu công ty chia sẻ. “Điều này đòi hỏi chúng tôi phải nghiêm túc suy xét kỹ lưỡng từng vướng mắc cụ thể và vấn đề nổi cộm, rồi đưa ra giải pháp đúng đắn nhất”.

CEO Mark Zuckerberg hồi đầu tháng này đã thông báo công ty đang thuê 3.000 nhân viên để giúp “kiểm tra hàng triệu báo cáo mà chúng tôi nhận được mỗi tuần”.

Dưới đây là những điểm chính đáng chú ý từ phát hiện của The Guardian:

Các mối đe dọa lãnh đạo quốc gia là hành động không được chấp nhận

Tài liệu hướng dẫn người kiểm duyệt Facebook xóa tất cả những lời lẽ kiểu như “Hãy bắn *một vị lãnh đạo nào đó đi” bởi họ là đối tượng được bảo vệ đặc biệt. Còn nội dung kiểu "Đánh hắn đi", "Cho hắn một trận đi" có thể không bị xóa bỏ bởi được cho là chưa đến mức nguy hại.

Theo bảng hướng dẫn, các video bạo lực chết người không phải lúc nào cũng bị gỡ xuống bởi một số có thể góp phần tạo ra nhận thức về các vấn đề xã hội như bệnh tâm thần hoặc tội ác chiến tranh. Nội dung như vậy sẽ được đánh dấu với lời cảnh báo chứa hình ảnh gây shock và ẩn với người dùng trẻ vị thành niên.

Facebook cho phép cảnh Livestream tự làm hại bản thân

Facebook cho phép một ai đó livestream tự làm đau bản thân hoặc cố gắng để tự tử, bởi công ty không muốn kiểm duyệt hoặc gây khó dễ với những người đang ở trạng thái căng thẳng. Nếu họ không được giúp đỡ, nội dung sẽ được gỡ xuống, trừ phi nó trở thành đề tài có giá trị cảnh tỉnh xã hội.

Nhân viên giám sát được hướng dẫn nên bỏ kiểm duyệt các nội dung đe dọa tự tử được biểu hiện bằng hashtag, biểu tượng cảm xúc hoặc loại hình không mấy khả thi để thực hiện.

Livestream trở thành tính năng được nhiều người dùng Facebook ưa chuộng

Trước đây, Facebook đã rất nỗ lực để phát hiện sớm tình trạng chán nản của người dùng có thể dẫn đến tự tử. Vào tháng 3, hãng tuyên bố đang thử nghiệm thuật toán trí thông minh nhân tạo để xác định các bài viết mang biểu hiện tự sát hoặc làm hại mình. Nó dựa vào những phản hồi của người dùng về những phát ngôn, tin nhắn hay dòng trạng thái tiêu cực được gắn cờ trước đó.

Facebook trả lời đài CNN cho biết công ty đang nỗ lực hoàn thiện công cụ để những người kiểm duyệt có thể dễ dàng liên hệ với cơ quan chức năng nhằm giúp đỡ ai đó khi thấy dấu hiệu bất thường.

Nội dung khỏa thân

Facebook đã phải thay đổi chính sách kiểm duyệt nội dung khỏa thân sau khi bị cộng đồng chỉ trích nặng nề hồi tháng 9 năm ngoái với việc xóa bức ảnh nổi tiếng “Em bé Napalm” trong chiến tranh Việt Nam với hình ảnh cô bé Phan Thị Kim Phúc không mặc gì. Giờ đây, nội dung như vậy được chấp nhận.

![ Những bức ảnh như Em bé Napalm được phép đăng lên Facebook ][//i0.wp.com/images.careerviet.vn/content/news/20170527/facebook-content-4-1495459534503_1495821641.jpg]

Những bức ảnh như "Em bé Napalm" được phép đăng lên Facebook

Tuy nhiên, những bức ảnh trẻ em khỏa thân trong thảm họa Holocaust [thảm họa giết người Do Thái của Đức Quốc Xã] lại không được phép đăng tải.

Ngoài ra, bản tài liệu quy định, ảnh nghệ thuật vẽ bằng tay miêu tả hoạt động tình dục và khỏa thân được chấp nhận, nhưng nội dung nghệ thuật kỹ thuật số về chủ đề tương tự lại bị cấm.

Hãng cũng mạnh tay với loại hình khiêu dâm trả thù tình, như việc chia sẻ ảnh khỏa thân hoặc gần như khỏa thân của người khác mà khiến nạn nhân tổn thương.

Như thế nào là một nhân viên kiểm duyệt nội dung?

Kiểm duyệt nội dung là quá trình đánh giá, xác định các nội dung được đăng tải trên các nền tảng trực tuyến hoặc website của doanh nghiệp.

Kiểm duyệt nội dung TikTok là gì?

Trên TikTok, nguồn cấp dữ liệu Dành cho bạn phản ánh các tùy chọn dành riêng cho từng người dùng. Việc kiểm soát nội dung sẽ giúp bạn quản lý các video bạn thấy trong ứng dụng. Các cài đặt này có thể khác nhau tùy thuộc vào khu vực và phiên bản ứng dụng của bạn..

Kiểm duyệt nội dung TikTok lượng bao nhiêu?

Về mức thu nhập nhân viên kiểm duyệt nội dung trên nền tảng Tiktok có thể đưa ra con số dao động lên đến 10 – 30 USD/giờ tùy vào các bên tuyển dụng khác nhau mà người dùng có thể cân nhắc lựa chọn.

Nhân viên check mã kiểm duyệt là gì?

Vai trò của nhân viên kiểm duyệt chính là đảm bảo sự an toàn cũng như phù hợp đến từ những video được đăng tải trên TikTok, cụ thể là: Xem xét kỹ lưỡng các video cũng như loại bỏ các video vi phạm những Tiêu chuẩn Cộng đồng hoặc có sự gây hại đến người dùng.

Chủ Đề