“Tôi xin lỗi vì những gì các bạn đã trải qua. Thật khủng khiếp. Không ai đáng phải trải qua điều mà gia đình bạn đã phải gánh chịu”, CEO Meta Mark Zuckerberg nói trước các phụ huynh tham dự phiên điều trần hôm 31/1.
“Đây là lý do chúng tôi đầu tư rất nhiều và sẽ tiếp tục nỗ lực toàn diện để đảm bảo không ai phải trải qua điều như vậy nữa”, ông nhấn mạnh.
Vừa qua, giám đốc điều hành của loạt mạng xã hội Meta, TikTok, X, Snap và Discord đã làm chứng trước Thượng viện Mỹ về những gì các bên đang làm để bảo vệ trẻ em khỏi bị tổn hại trực tuyến.
Trong khi CEO Meta và TikTok tự nguyện trình diện, CEO Evan Spiegel của Snap, Linda Yaccarino của X và Jason Citron của Discor đều bị ủy ban triệu tập, theo CNN.
Thượng nghị sĩ Dick Durbin - Chủ tịch đảng Dân chủ của Ủy ban Tư pháp - lưu ý Citron “chỉ chấp nhận trát đòi điều trần của ông sau khi cảnh sát liên bang được cử đến trụ sở của Discord bằng chi phí của người nộp thuế”.
“Bàn tay dính máu"
Tại buổi điều trần, ông Durbin cáo buộc mạng xã hội gây tổn hại cho sức khỏe tâm thần của trẻ em. Ông cho biết chúng không chỉ “góp phần vào cuộc khủng hoảng này mà còn phải chịu trách nhiệm về nhiều mối nguy hiểm mà con cái chúng ta phải đối mặt trên mạng”.
Các thượng nghị sĩ cũng bày tỏ lo ngại về việc trẻ em bị bóc lột trên mạng. Chẳng hạn, sau khi giả vờ tạo mối quan hệ lãng mạn, những kẻ tống tiền theo hình thức “sextortion” sẽ thuyết phục trẻ em chia sẻ hình ảnh nhạy cảm, sau đó đe dọa công khai hình ảnh đó nếu họ không cung cấp thêm nội dung nhạy cảm hoặc tiền bạc.
Điều này có thể hủy hoại cuộc sống của nhiều người và khiến họ có nguy cơ bị trầm cảm, tự tử.
“Ông Zuckerberg, ông và các công ty (đang ngồi) trước chúng tôi - tôi biết ông không có ý như vậy - nhưng tay ông dính máu”, Thượng nghị sĩ đảng Cộng hòa Lindsey Graham nói.
Trước phiên điều trần, các công ty công nghệ đã công bố sáng kiến mới để bảo vệ trẻ em. Instagram và TikTok đang khuyến khích trẻ em nghỉ giải lao hoặc hạn chế thời gian trước màn hình, đồng thời thay đổi thuật toán để hiển thị cho trẻ em nội dung ít độc hại hơn.
Meta cho biết họ đang ẩn loại nội dung không phù hợp với trẻ em và đã thay đổi cài đặt quyền riêng tư mặc định của thanh thiếu niên để giúp ngăn người không quen biết nhắn tin.
Snapchat đang cung cấp cho các bậc cha mẹ nhiều lựa chọn giám sát hơn, như thông tin về cài đặt an toàn của con họ.
Ông Chew đã làm chứng rằng trên TikTok, tài khoản dành cho trẻ em dưới 16 tuổi được đặt ở chế độ riêng tư và không được đề xuất cho người chúng không biết.
Trong khi đó, bà Yaccarino cho biết trẻ em 13-17 tuổi không thể nhận tin nhắn từ người mà chúng không chấp nhận trên X. Ông Spiegel lưu ý không có lượt thích hoặc bình luận nào được hiển thị công khai trên Snapchat.
Đây đều là những tính năng quan trọng. Nhưng như thế không đủ.
Theo phó giáo sư truyền thông Kara Alaimo tại Đại học Fairleigh Dickinson, các nhà lập pháp và công ty công nghệ cần phải làm nhiều hơn nữa để bảo vệ trẻ em.
Cần nhiều hơn thế
Đạo luật ngăn chặn tài liệu lạm dụng tình dục trẻ em (CSAM) năm 2023 có thể khiến các công ty công nghệ phải chịu trách nhiệm dân sự khi lưu trữ tài liệu lạm dụng tình dục trẻ em. Đây sẽ là biện pháp thiết yếu để khuyến khích các công ty công nghệ nỗ lực nhiều hơn nhằm bảo vệ trẻ em khỏi nạn tống tiền tình dục cùng hình thức lạm dụng trực tuyến khác.
Đạo luật SHIELD sẽ hình sự hóa việc chia sẻ hoặc đe dọa chia sẻ hình ảnh thân mật mà không có sự đồng ý của người trong cuộc. Đây cũng là cách quan trọng để bảo vệ trẻ em và ngay cả người trưởng thành.
Các công ty công nghệ cũng còn rất nhiều việc phải làm. Theo Phó giáo sư Kara Alaimo, mặc dù các bên tuyên bố rằng họ đang hiển thị bài đăng ít gây hại hơn đối với trẻ em, vẫn chưa rõ họ xác định nội dung này bằng cách nào.
Bà nhận định các công ty nên hợp tác với chuyên gia về sức khỏe vị thành niên để phát triển và chia sẻ tiêu chuẩn về nội dung. Điều này nhằm đảm bảo những bài đăng có thể gây hại không xuất hiện trên dòng thời gian và nhà sáng tạo nội dung cần tuân thủ chúng.
“Chúng ta không thể tin tưởng vào công cụ trí tuệ nhân tạo để thực hiện việc kiểm tra này”, bà Kara Alaimo nói thêm.
Trong phiên điều trần, CEO Zuckerberg cho biết “99% hoặc hơn” nội dung mà Meta xóa được tự động xác định bằng AI. Tuy nhiên, một tài liệu nội bộ cho thấy hệ thống tự động chỉ loại bỏ ít hơn 1% nội dung vi phạm quy tắc của công ty về bạo lực và kích động.
“Chúng ta cũng cần biết xu hướng nào mà con cái chúng ta đang tiếp xúc trực tuyến. Hiện tại, không có nền tảng nào trong số này cung cấp số liệu chất lượng về những gì phổ biến trên nền tảng của họ”, bà Kara Alaimo đánh giá.
Theo bà, các ứng dụng xã hội nên cung cấp công cụ hiển thị xu hướng, cùng phân tích chi tiết đối với nhóm người dùng dưới 18 tuổi để phụ huynh biết nên trò chuyện gì với con cái mình.
Bà chia sẻ thêm các ứng dụng nên xác định đâu là ảnh đã qua chỉnh sửa để nhắc nhở trẻ em rằng hình ảnh chúng thấy về ngoại hình người khác có thể không phải thật. Điều này giúp trẻ em có cái nhìn thực tế hơn.
Cuối cùng, các công ty công nghệ nên làm tốt hơn trong việc sử dụng nền tảng của mình để cung cấp cho trẻ em thông tin hữu ích và trao quyền cho chúng - như bài học về cách sử dụng mạng xã hội lành mạnh.
Ví dụ, khi hình ảnh deepfake nhạy cảm của ngôi sao nhạc pop Taylor Swift lan truyền trực tuyến, các mạng xã hội nên hiển thị nội dung cho trẻ em về cách nhận biết hình ảnh giả mạo và tại sao không bao giờ nên tạo ra chúng.
“Khi hình ảnh khỏa thân của một người phụ nữ lan truyền trên mạng, điều đó khiến cô ấy có nguy cơ bị tấn công tình dục, thất nghiệp, khó hẹn hò, trầm cảm và thậm chí tự tử”, bà nhấn mạnh.