Facebook tung ra giới hạn chuyển tiếp giống như WhatsApp cho Messenger

Facebook công bố các tính năng mới để hạn chế tin giả.

Sau khi đối mặt với sự lan truyền của ngôn từ kích động thù địch trên nền tảng của mình ở các quốc gia đang xảy ra xung đột, Facebook đã đưa ra các biện pháp mới để xóa nội dung và tài khoản vi phạm chính sách của mình và hạn chế số lượng chuyển tiếp trên Facebook Messenger ở một số nơi.

Tại Myanmar, Facebook đã bắt đầu giảm phân phối tất cả nội dung được chia sẻ bởi những người đã thể hiện kiểu đăng nội dung vi phạm Tiêu chuẩn cộng đồng của mình. Nếu nó chứng minh thành công trong việc giảm thiểu tác hại, Facebook cũng có thể triển khai phương pháp này ở các quốc gia khác, gã khổng lồ mạng xã hội cho biết trong một tuyên bố hôm thứ Năm.

Samidh Chakrabarti, Giám đốc Quản lý Sản phẩm, Tính toàn vẹn của Công dân cho biết: “Trong trường hợp các cá nhân hoặc tổ chức trực tiếp thúc đẩy hoặc tham gia bạo lực hơn, chúng tôi sẽ cấm họ theo chính sách của chúng tôi đối với các cá nhân và tổ chức nguy hiểm”. và Rosa Birch, Giám đốc Phản ứng Chiến lược.

“Tuy nhiên, việc giảm phân phối nội dung là một đòn bẩy khác mà chúng tôi có thể sử dụng để chống lại sự lan truyền của nội dung và hoạt động thù địch,” gã khổng lồ mạng xã hội cho biết.

Đọc thêm:  Tăng trưởng di động định hình việc sử dụng Internet của Ấn Độ: Google

Facebook cho biết họ cũng đang thực hiện những thay đổi cơ bản đối với các sản phẩm của mình để giải quyết tính lan truyền và giảm sự lan truyền của nội dung có thể khuếch đại và làm trầm trọng thêm bạo lực và xung đột.

Chakrabarti và Birch viết: “Ở Sri Lanka, chúng tôi đã khám phá việc thêm ma sát vào chuyển tiếp tin nhắn để mọi người chỉ có thể chia sẻ tin nhắn với một số chuỗi trò chuyện nhất định trên Facebook Messenger”.

Điều này tương tự như một thay đổi mà Facebook đã thực hiện đối với WhatsApp vào đầu năm nay để giảm các tin nhắn được chuyển tiếp trên toàn thế giới. Facebook cho biết họ đã thành lập một nhóm chuyên trách để chủ động ngăn chặn việc lạm dụng nền tảng của mình và bảo vệ các nhóm dễ bị tổn thương trong các trường hợp xung đột trên toàn thế giới trong tương lai.

Nhóm đang tập trung vào ba lĩnh vực chính: xóa nội dung và tài khoản vi phạm Tiêu chuẩn cộng đồng, giảm sự lan truyền của nội dung ở ranh giới có khả năng khuếch đại và làm trầm trọng thêm căng thẳng, đồng thời thông báo cho mọi người về các sản phẩm và Internet nói chung.

“Để giải quyết nội dung có thể dẫn đến bạo lực ngoại tuyến, nhóm của chúng tôi đặc biệt tập trung vào việc chống lại lời nói căm thù và thông tin sai lệch,” Chakrabarti và Birch viết.

Đọc thêm:  Nghiên cứu mới về sự sẵn sàng của không gian mạng trong đại dịch cho thấy những lỗ hổng bảo mật, cần có giải pháp mới

Facebook cho biết họ cũng đã mở rộng việc sử dụng Trí tuệ nhân tạo (AI) để nhận dạng các bài đăng có thể chứa hình ảnh bạo lực và nhận xét có khả năng bạo lực hoặc phi nhân cách, để chúng tôi có thể giảm mức độ phân phối của chúng trong khi nhóm Hoạt động cộng đồng của chúng tôi xem xét chúng.

“Nếu nội dung này vi phạm chính sách của chúng tôi, chúng tôi sẽ xóa nội dung đó. Bằng cách hạn chế khả năng hiển thị theo cách này, chúng tôi hy vọng sẽ giảm thiểu nguy cơ gây hại và bạo lực ngoại tuyến”, nó nói thêm.

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *