Meta, perusahaan induk Facebook, Instagram, dan Threads, baru-baru ini mengumumkan perubahan besar dalam kebijakan moderasi kontennya. Mereka memutuskan untuk mengakhiri program fact-checking dan menggantinya dengan model crowdsourced yang lebih mengedepankan “kebebasan berekspresi”. Perubahan ini memicu perdebatan sengit tentang dampaknya terhadap penyebaran disinformasi dan ujaran kebencian di platform sosial terbesar dunia.
Pergeseran Dalam Moderasi Konten
Meta telah menggunakan program fact-checking sejak 2016, dengan menggandeng organisasi independen seperti Associated Press dan Snopes untuk memverifikasi informasi yang beredar. Namun, kebijakan ini mendapat banyak kritik, terutama dari kelompok konservatif yang merasa bahwa program tersebut lebih mengekang kebebasan berpendapat mereka. Tekanan politik dari beberapa pihak, termasuk ancaman dari Donald Trump terhadap CEO Meta, Mark Zuckerberg, mempercepat keputusan perusahaan untuk mengubah arah moderasi kontennya.
Penerapan Model Community Notes
Meta memutuskan untuk mengadopsi sistem yang serupa dengan model Community Notes yang dipopulerkan oleh Twitter (sekarang X) di bawah Elon Musk. Model ini memungkinkan pengguna untuk memberikan konteks atau koreksi terhadap konten yang dianggap menyesatkan. Walaupun ada beberapa studi yang menunjukkan keberhasilan pendekatan ini, banyak ahli khawatir bahwa tanpa sistem moderasi yang lebih ketat, disinformasi bisa semakin mudah tersebar, terutama ketika konsensus sulit tercapai di antara pengguna.
Kritik dan Kekhawatiran Tentang Dampaknya
Walaupun beberapa kalangan, terutama konservatif, menyambut keputusan ini dengan positif, para pengamat media sosial mengingatkan bahwa model berbasis crowdsourced berpotensi berisiko. Valerie Wirtschafter, seorang ahli dari Brookings Institution, menegaskan bahwa model kebijaksanaan kerumunan ini belum terbukti efektif, terutama dalam skala besar seperti yang dimiliki Meta. Meta sendiri sudah kesulitan mengatasi konten bermasalah, dan langkah ini bisa memperburuk situasi.
Dampak Pada Industri Fact-Checking dan Regulasi Konten
Keputusan untuk meninggalkan fact-checking juga berisiko memberikan dampak besar bagi industri fact-checking itu sendiri. Pada tahun 2023, Meta menyumbang sekitar 45% dari total pendapatan organisasi fact-checking, dan perubahan kebijakan ini dapat memperburuk masalah pendanaan bagi sektor yang sudah kekurangan dana. Selain itu, keputusan ini juga akan memengaruhi diskusi tentang bagaimana regulasi konten akan berkembang di masa depan, terutama terkait penyebaran informasi berbahaya.
Kesimpulan: Risiko atau Langkah Berani?
Langkah Meta untuk beralih ke model crowdsourced ini merupakan keputusan besar yang akan menguji efektivitas pendekatan baru dalam moderasi konten. Meskipun ini bertujuan untuk mengurangi kesan bias politik dan mendukung kebebasan berekspresi, dampak jangka panjangnya terhadap penyebaran disinformasi tetap menjadi pertanyaan besar. Meta harus memastikan bahwa kebebasan berpendapat yang dijaga tidak justru memperburuk penyebaran informasi palsu dan konten berbahaya di platformnya.