Berpartisipasi dalam Menyebarluaskan Konten Kekerasan Melalui Instagram

Pendahuluan

Meta, perusahaan induk Instagram, telah menjadi sorotan setelah penelitian dari Denmark mengungkapkan bahwa konten yang berkaitan dengan kekerasan, seperti gambar melukai diri sendiri dan foto-foto eksplisit, dibiarkan berkembang di platform tersebut. Hal ini menimbulkan kekhawatiran terkait moderasi konten yang dianggap sangat tidak memadai.

Metode Penelitian

Para peneliti Denmark menciptakan jaringan pribadi di Instagram untuk menguji sejauh mana konten terkait melukai diri sendiri dapat dikenali dan dihapus oleh platform. Mereka juga membuat profil palsu dengan usia 13 tahun dan membagikan 85 gambar yang berhubungan dengan perilaku melukai diri sendiri.

Temuan Penelitian

Dalam percobaan tersebut, tidak ada satu pun gambar yang dihapus oleh Meta. Bahkan, alat AI sederhana yang dikembangkan oleh Digitalt Ansvar mampu mengidentifikasi sebagian besar gambar yang berkaitan dengan melukai diri sendiri. Temuan ini menunjukkan bahwa meskipun Meta memiliki teknologi untuk mengatasi masalah ini, penerapannya tidak maksimal.

Kritik terhadap Meta

Digitalt Ansvar menilai bahwa moderasi konten di Instagram sangat tidak memadai dan Meta tidak mematuhi peraturan Uni Eropa terkait pengurangan risiko sistemik, termasuk dampak negatif terhadap kesehatan fisik dan mental pengguna.

Respons dari Meta

Sebagai respons, juru bicara Meta menyatakan bahwa konten yang mempromosikan melukai diri sendiri bertentangan dengan kebijakan perusahaan, dan mereka menghapusnya saat terdeteksi. Meta juga telah memperkenalkan fitur Akun Remaja Instagram untuk mengatur konten sensitif bagi remaja.

Dampak Konten Berbahaya

Penyebaran konten berbahaya, terutama di kalangan remaja, dapat memiliki dampak serius pada kesehatan fisik dan mental pengguna. Algoritme Instagram juga disorot karena membantu memperluas jaringan konten melukai diri sendiri.

READ  Tim RIDO Mengadakan Sayembara untuk Melaporkan Kecurangan dalam Pilkada Jakarta

Kesimpulan

Temuan dari penelitian Denmark menunjukkan bahwa meskipun Meta memiliki teknologi untuk mengidentifikasi konten berbahaya, penerapannya masih kurang efektif. Hal ini menimbulkan kekhawatiran terhadap keselamatan pengguna, terutama remaja, yang terpapar konten berbahaya di platform Instagram.

Akhir Kata

Penelitian ini memperlihatkan pentingnya moderasi konten yang efektif dalam menjaga lingkungan online yang aman dan sehat. Diperlukan upaya lebih lanjut dari Meta dan platform lainnya untuk meningkatkan kemampuan dalam menghapus konten berbahaya dan melindungi pengguna, khususnya kalangan remaja.

(jsn/afr)

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *