Orang Secara alami menilai fakta dari fiksi dalam pengaturan sosial offline, jadi mengapa online begitu sulit?
JAKARTA, GESAHKITA COM—Saat melawan penyebaran informasi yang salah, platform media sosial biasanya menempatkan sebagian besar pengguna di kursi penumpang.
Platform sering kali menggunakan algoritme pembelajaran mesin atau pemeriksa fakta manusia untuk menandai konten yang salah atau memberikan informasi yang salah kepada pengguna.
“Hanya karena ini adalah status quo tidak berarti ini adalah cara yang benar atau satu-satunya cara untuk melakukannya,” kata Farnaz Jahanbakhsh, seorang mahasiswa pascasarjana di Laboratorium Ilmu Komputer dan Kecerdasan Buatan (CSAIL) MIT dilansir big think ditulis Adam Zewe.
Dia dan kolaboratornya melakukan studi di mana mereka menempatkan kekuatan itu ke tangan pengguna media sosial.
Mereka pertama kali mensurvei orang untuk mempelajari bagaimana mereka menghindari atau memfilter informasi yang salah di media sosial.
Dengan menggunakan temuan mereka, para peneliti mengembangkan platform prototipe yang memungkinkan pengguna menilai keakuratan konten, menunjukkan pengguna mana yang mereka percayai untuk menilai keakuratan, dan memfilter postingan yang muncul di umpan mereka berdasarkan penilaian tersebut.
Melalui studi lapangan, mereka menemukan bahwa pengguna dapat secara efektif menilai postingan yang memberikan informasi yang salah tanpa menerima pelatihan sebelumnya.
Selain itu, pengguna menghargai kemampuan untuk menilai postingan dan melihat penilaian dengan cara yang terstruktur. Para peneliti juga melihat bahwa peserta menggunakan filter konten secara berbeda misalnya, beberapa memblokir semua konten yang salah informasi sementara yang lain menggunakan filter untuk mencari artikel semacam itu.
Pekerjaan ini menunjukkan bahwa pendekatan moderasi yang terdesentralisasi dapat menghasilkan keandalan konten yang lebih tinggi di media sosial, kata Jahanbakhsh.
Pendekatan ini juga lebih efisien dan terukur daripada skema moderasi terpusat, dan mungkin menarik bagi pengguna yang tidak mempercayai platform, tambahnya.
“Banyak penelitian tentang misinformasi mengasumsikan bahwa pengguna tidak dapat memutuskan mana yang benar dan mana yang tidak, jadi kami harus membantu mereka. Kami tidak melihat itu sama sekali. Kami melihat bahwa orang benar-benar memperlakukan konten dengan cermat dan mereka juga mencoba untuk saling membantu. Tapi upaya ini saat ini tidak didukung oleh platform,” katanya.
Jahanbakhsh menulis makalah dengan Amy Zhang, asisten profesor di Fakultas Ilmu dan Teknik Komputer Universitas Washington Allen; dan penulis senior David Karger, profesor ilmu komputer di CSAIL.
Penelitian ini akan dipresentasikan pada ACM Conference on Computer-Supported Cooperative Work and Social Computing.
Memerangi misinformasi
Penyebaran informasi yang salah secara online adalah masalah yang tersebar luas. Namun, metode yang digunakan platform media sosial saat ini untuk menandai atau menghapus konten yang salah informasi memiliki kelemahan.
Misalnya, saat platform menggunakan algoritme atau pemeriksa fakta untuk menilai postingan, hal itu dapat menimbulkan ketegangan di antara pengguna yang menafsirkan upaya tersebut sebagai pelanggaran kebebasan berbicara, di antara masalah lainnya.
“Kadang-kadang pengguna ingin informasi yang salah muncul di feed mereka karena mereka ingin tahu apa yang diketahui teman atau keluarga mereka, jadi mereka tahu kapan dan bagaimana membicarakannya dengan mereka,” tambah Jahanbakhsh.
Pengguna sering kali mencoba menilai dan menandai misinformasi sendiri, dan mereka berusaha membantu satu sama lain dengan meminta teman dan pakar untuk membantu mereka memahami apa yang mereka baca.
Namun upaya ini bisa menjadi bumerang karena tidak didukung oleh platform. Seorang pengguna dapat meninggalkan komentar di postingan yang menyesatkan atau bereaksi dengan emoji marah, tetapi sebagian besar platform menganggap tindakan tersebut sebagai tanda keterlibatan.
Di Facebook, misalnya, itu mungkin berarti konten yang salah informasi akan ditampilkan ke lebih banyak orang, termasuk teman dan pengikut pengguna kebalikan dari apa yang diinginkan pengguna ini.
Untuk mengatasi masalah dan jebakan ini, para peneliti berusaha membuat platform yang memberi pengguna kemampuan untuk menyediakan dan melihat penilaian akurasi terstruktur pada postingan, menunjukkan orang lain yang mereka percayai untuk menilai postingan, dan menggunakan filter untuk mengontrol konten yang ditampilkan di umpan mereka.
Pada akhirnya, tujuan para peneliti adalah untuk memudahkan pengguna saling membantu menilai informasi yang salah di media sosial, yang mengurangi beban kerja semua orang.
Para peneliti memulai dengan mensurvei 192 orang, yang direkrut menggunakan Facebook dan milis, untuk melihat apakah pengguna menghargai fitur ini.
Survei mengungkapkan bahwa pengguna sangat sadar akan informasi yang salah dan mencoba untuk melacak dan melaporkannya, tetapi takut penilaian mereka dapat disalahtafsirkan.
Mereka skeptis terhadap upaya platform untuk menilai konten mereka. Dan, meskipun mereka menginginkan filter yang memblokir konten yang tidak dapat diandalkan, mereka tidak akan mempercayai filter yang dioperasikan oleh platform.
Dengan menggunakan wawasan ini, para peneliti membangun platform prototipe mirip Facebook, yang disebut Trustnet. Di Trustnet, pengguna memposting dan membagikan artikel berita lengkap yang aktual dan dapat mengikuti satu sama lain untuk melihat konten yang diposkan orang lain.
Namun sebelum pengguna dapat memposting konten apa pun di Trustnet, mereka harus menilai konten tersebut sebagai akurat atau tidak akurat, atau menanyakan tentang kebenarannya, yang akan terlihat oleh orang lain.
“Alasan orang membagikan informasi yang salah biasanya bukan karena mereka tidak tahu mana yang benar dan mana yang salah. Sebaliknya, pada saat berbagi, perhatian mereka salah arah ke hal lain. Jika Anda meminta mereka untuk menilai konten sebelum membagikannya, itu membantu mereka untuk lebih cerdas,” katanya.
Pengguna juga dapat memilih individu tepercaya yang penilaian kontennya akan mereka lihat. Mereka melakukan ini secara pribadi, jika mereka mengikuti seseorang yang terhubung dengan mereka secara sosial (mungkin teman atau anggota keluarga) tetapi yang tidak mereka percayai untuk menilai konten.
Platform ini juga menawarkan filter yang memungkinkan pengguna mengonfigurasi feed mereka berdasarkan bagaimana posting dinilai dan oleh siapa.
Menguji Trustnet
Setelah prototipe selesai, mereka melakukan penelitian di mana 14 orang menggunakan platform tersebut selama satu minggu. Para peneliti menemukan bahwa pengguna dapat menilai konten secara efektif, seringkali berdasarkan keahlian, sumber konten, atau dengan mengevaluasi logika sebuah artikel, meskipun tidak menerima pelatihan. Mereka juga dapat menggunakan filter untuk mengelola umpan mereka, meskipun mereka menggunakan filter secara berbeda.
“Bahkan dalam sampel sekecil itu, menarik untuk melihat bahwa tidak semua orang ingin membaca berita dengan cara yang sama. Terkadang orang ingin memposting informasi yang salah di feed mereka karena mereka melihat manfaatnya. Ini menunjukkan fakta bahwa agensi ini sekarang hilang dari platform media sosial, dan harus dikembalikan kepada pengguna, ”katanya.
Pengguna terkadang kesulitan untuk menilai konten ketika berisi banyak klaim, sebagian benar dan sebagian salah, atau jika tajuk utama dan artikel dipisahkan. Ini menunjukkan kebutuhan untuk memberi pengguna lebih banyak opsi penilaian mungkin dengan menyatakan bahwa sebuah artikel benar-tetapi-menyesatkan atau berisi pandangan politik, katanya.
Karena pengguna Trustnet terkadang kesulitan untuk menilai artikel yang kontennya tidak sesuai dengan tajuk utama, Jahanbakhsh meluncurkan proyek penelitian lain untuk membuat ekstensi browser yang memungkinkan pengguna mengubah tajuk berita agar lebih selaras dengan konten artikel.
Meskipun hasil ini menunjukkan bahwa pengguna dapat berperan lebih aktif dalam melawan informasi yang salah, Jahanbakhsh memperingatkan bahwa memberi pengguna kekuatan ini bukanlah obat mujarab.
Pertama, pendekatan ini dapat menciptakan situasi di mana pengguna hanya melihat informasi dari sumber yang berpikiran sama. Namun, filter dan penilaian terstruktur dapat dikonfigurasi ulang untuk membantu mengurangi masalah tersebut, katanya.
Selain mengeksplorasi peningkatan Trustnet, Jahanbakhsh ingin mempelajari metode yang dapat mendorong orang untuk membaca penilaian konten dari sudut pandang yang berbeda, mungkin melalui gamifikasi. Dan karena platform media sosial mungkin enggan melakukan perubahan, dia juga mengembangkan teknik yang memungkinkan pengguna memposting dan melihat penilaian konten melalui penjelajahan web biasa, bukan di platform.
Pekerjaan ini didukung, sebagian, oleh National Science Foundation.
“Memahami bagaimana memerangi kesalahan informasi adalah salah satu masalah terpenting bagi demokrasi kita saat ini. Kami sebagian besar gagal menemukan solusi teknis dalam skala besar. Proyek ini menawarkan pendekatan baru dan inovatif untuk masalah kritis ini yang menunjukkan janji yang cukup besar, ”kata Mark Ackerman, George Herbert Mead Collegiate Professor of Human-Computer Interaction di University of Michigan School of Information, yang tidak terlibat dalam penelitian ini.
“Titik awal studi mereka adalah bahwa orang-orang secara alami memahami informasi melalui orang-orang yang mereka percayai di jejaring sosial mereka, sehingga proyek ini memanfaatkan kepercayaan orang lain untuk menilai keakuratan informasi. Inilah yang dilakukan orang secara alami dalam lingkungan sosial, tetapi sistem teknis saat ini tidak mendukungnya dengan baik. Sistem mereka juga mendukung berita tepercaya dan sumber informasi lainnya. Tidak seperti platform dengan algoritme buramnya, sistem tim mendukung penilaian informasi semacam ini yang kita semua lakukan.”