Katana Fatale chia sẻ với hàng ngàn người theo dõi trên Instagram cơ thể ngoại cỡ của mình từ 2014 tới nay.
Chia sẻ với BuzzFeed News, Katana cảm nhận sâu sắc về hình thể của mình, và rồi “khi đang ngoài bãi biển và mở ra xem lại, tôi nhận được thông báo bức ảnh đã bị xóa”.
Dù là ảnh khỏa thân, Katana vẫn theo đúng các qui định đăng tải nội dung, chẳng hạn làm mờ các khu vực nhạy cảm, các hành vi tính dục, ảnh mẹ cho con bú, và khỏa thân trong hội họa và điêu khắc. Nói ngắn gọn, chẳng có gì… sai cả. Vậy mà ảnh cô, và nhiều người ảnh hưởng khác, đều bị đánh dấu và xóa khỏi MXH, không nói chẳng rằng.
Kể cả người nổi tiếng cũng không thoát ách. Mới đây, giọng ca ngoại khổ Lizzo kêu ca video trên TikTok hình cô mặc bikini đã bị xóa – trong khi video các phụ nữ mình dây, phọt mỏng dường như không lâm vào tình trạng tương tự. Có bất công về hình thể nào đó chăng?
Dù vẫn chưa có dữ liệu cụ thể về thực trạng này, các trường hợp xảy ra phổ biến tới nỗi họ, những người quá khổ, khó lòng nghĩ khác. Theo Katana: “Không có lửa sao có khói?”.
Theo các chuyên gia, có thể người ảnh hưởng nói… đúng. Việc quản trị nội dung trên các ứng dụng MXH là trộn lẫn giữa trí tuệ nhân tạo và con người, và cả hai đều sở hữu một thiên kiến nhất định dành cho cơ thể quá khổ.
Theo Mathieu Lemay, sáng lập Lemay.ai chuyên về tư vấn trí tuệ nhân tạo, điều đầu tiên cần phải hiểu chính là AI – trí tuệ nhân tạo – vẫn chưa hoàn thiện, chưa kể còn… lười.
Các công ty như Facebook sử dụng hàng triệu hình ảnh cấp cho AI quản trị hình ảnh và video, để chúng xác định đâu là nội dung phù hợp và đâu là không. Chẳng hạn AI sẽ xác định nội dung khiêu dâm, bikini, hoặc ảnh… đầu ti (vốn vẫn bị cấm!). Khi không hoàn toàn chắc, AI sẽ chuyển tới người quản trị.
Vấn đề nằm ở chỗ có quá nhiều vùng xám, không trắng cũng không đen, mà AI chỉ đoán dựa trên những gì được dạy và học. Vấn đề đầu tiên nảy sinh từ đây: Nếu AI không được cấp hình ảnh phụ nữ ngoại cỡ thì sao?
Tiếp theo, theo Lemay, AI không phân biệt được khác biệt giữa cơ thể khỏa thân nhỏ nhắn và một cơ thể ngoại cỡ đang mặc bikini.
“Nếu sử dụng 2 mẫu, 1 ngoại cỡ và 1 bình thường, khả năng xảy ra là có nhiều điểm ảnh liên quan tới màu da hơn”.
Khi AI không hiểu bối cảnh của điều nó đang thấy, điều này dẫn tới một phân loại sai sót. Ngược lại, AI do con người tạo nên, và con người… đầy dẫy thiên kiến.
Shoog McDaniel là một nghệ sĩ chụp ảnh khỏa thân mẫu ngoại cỡ, làm việc tại Florida. Dù biết và tuân theo luật, Shoog gặp tình trạng không khác Fatale.
“Điều này thuộc một phần vào sự kỳ thị sự béo mập, thừa cân mang tính hệ thống mà chúng ta đang gặp phải. Không thể nào chấp nhận được, nhưng chúng ta có thể làm gì đây?”.
McDaniel cho biết chưa bao giờ đòi lại một bức ảnh nào đã bị gỡ xuống. Facebook, sở hữu Instagram, hoàn toàn kín tiếng.
“Chúng tôi mong sao các chính sách của công ty luôn bao hàm và phản ảnh mọi bản dạng, và thường trực tìm cách cải thiện. Chúng tôi xóa nội dung vi phạm chính sách, và đồng thời huấn luyện AI sao cho có thể chủ động tìm thấy các nội dung có nhiều khả năng vi phạm”, phát ngôn viên Facebook cho hay.
“Công nghệ này không được huấn luyện để xóa nội dung dựa trên kích cỡ con người, mà chỉ để tìm kiếm những yếu tố vi phạm.”
TikTok cũng có thông điệp tương tự.
Trong khi đó, McDaniel quá rõ các yếu tố “con người” trong chuyện này, nhất là khi tác phẩm của nghệ sĩ thường làm mồi ngon cho các troll (chuyên bắt nạt) ưa thích soi xét, kỳ thị cơ thể.
Kat Lo, một nhà nghiên cứu về quản trị nội dung và quấy rối trực tuyến, cho rằng các báo cáo có thể đóng phần nào đó trong cỗ máy quản trị nội dung, nhưng con người cũng góp phần vào.
“Có quá nhiều bước và cơ hội khiến cho những trường hợp định kiến nhỏ nhất cũng có thể thâm nhập”, theo Kat Lo.
Bởi thiên kiến còn hiện diện trong xã hội, Kat Lo cho rằng mỗi khi hình ảnh một người quá khổ xuất hiện ở người quản trị, họ sẽ dễ đánh dấu bức ảnh đó là “phảnn cảm” hoặc tình dục hóa, còn người nhỏ khổ hơn lại không.
Trong mọi vùng xám như trên, và bởi qui mô thuần túy của các cơ sở dữ liệu này, việc sửa chữa một thực trạng như thế này không chỉ đắt đỏ, tốn thời gian, mà các công ty còn ít có nhu cầu làm theo.
Fatale kết luận rằng, “Tôi không nên bị chẹn tiếng nói của mình, hay bị xóa khỏi tài nguyên chỉ vì các anh các chị tính dục hóa thái quá cơ thể của tôi, chỉ vì nó quá cỡ.”
“Nhưng đừng có mà nghĩ cộng đồng thừa cân sẽ bỏ qua vấn đề này, bởi không bao giờ có chuyện bỏ qua đâu!”.
Đâu chỉ chật chội hai thế giới, như của người tập gym và kẻ không, kẻ có đôi có cặp và... người ế, kỳ thị vẫn như đám mây lơ lửng vô hình lẽo đẽo theo sau mỗi chúng ta...
Tối đa: 1500 ký tự
Hiện chưa có bình luận nào, hãy là người đầu tiên bình luận