Facebook dilaporkan tahu algoritmanya mempromosikan kelompok-kelompok ekstremis, tetapi tidak melakukan apa pun
Teknologi

Facebook dilaporkan tahu algoritmanya mempromosikan kelompok-kelompok ekstremis, tetapi tidak melakukan apa pun

Facebook dilaporkan tahu algoritmanya mempromosikan kelompok-kelompok ekstremis, tetapi tidak melakukan apa pun

 

 

Facebook dilaporkan tahu algoritmanya mempromosikan kelompok-kelompok ekstremis, tetapi tidak melakukan apa pun
Facebook dilaporkan tahu algoritmanya mempromosikan kelompok-kelompok ekstremis, tetapi tidak melakukan apa pun

Facebook telah lama berjuang dengan mengendalikan konten ekstremis di platformnya. Dari pemilihan AS 2016, ketika Rusia mampu memanipulasi pemilih Amerika melalui iklan polarisasi, untuk propaganda yang menyebar melalui jaringan sosial dan menyebabkan kekerasan di Myanmar .

Sebuah laporan baru oleh Jeff Horwitz dan Deepa Seetharaman di Wall Street Journal mengemukakan bahwa Facebook tahu bahwa algoritmanya memecah orang, tetapi tidak banyak mengatasi masalah tersebut. Ia mencatat bahwa salah satu presentasi internal perusahaan dari 2018 menggambarkan bagaimana algoritma Facebook memperburuk perilaku polarisasi dalam beberapa kasus.

Konferensi TNW Couch

Bergabunglah dengan lokakarya online & diskusi real-time tentang navigasi tahun depan

DAFTAR SEKARANG
Sebuah slide dari presentasi itu mengatakan jika algoritma ini dibiarkan tidak dicentang mereka akan memberi pengguna konten yang lebih memecah belah:

Algoritme kami memanfaatkan ketertarikan otak manusia terhadap perpecahan. Jika dibiarkan, Facebook akan memberi makan lebih banyak konten yang memecah belah pengguna dalam upaya untuk mendapatkan perhatian pengguna & menambah waktu di platform.

Menurut WSJ, Zuckerberg & Co. mengesampingkan presentasi ini dan memutuskan untuk tidak menerapkan pengamatannya pada produk jejaring sosial mana pun. Plus, Joel Kaplan, kepala kebijakan Facebook, berpikir perubahan ini mungkin mempengaruhi pengguna dan publikasi konservatif.

Joel Kaplan, kepala kebijakan Facebook
Kredit: Facebook
Joel Kaplan, kepala kebijakan Facebook
Dalam sebuah pernyataan, Facebook mengatakan telah belajar banyak sejak 2016 dan telah membangun tim integritas yang kuat untuk mengatasi masalah-masalah seperti:

Kami telah belajar banyak sejak 2016 dan bukan perusahaan yang sama hari ini. Kami telah membangun tim

integritas yang kuat, memperkuat kebijakan dan praktik kami untuk membatasi konten berbahaya, dan menggunakan penelitian untuk memahami dampak platform kami pada masyarakat sehingga kami terus meningkatkan.

Namun, laporan WSJ mencatat bahwa bahkan sebelum perusahaan membentuk tim ini, seorang peneliti Facebook bernama Monica Lee menemukan pada 2016 bahwa “64% dari semua kelompok ekstremis bergabung karena alat rekomendasi kami.”

Facebook bahkan berusaha untuk mengatasi masalah polarisasi dengan ide-ide yang diusulkan seperti mengutak-atik algoritma, dan sub-kelompok sementara untuk menjadi tuan rumah diskusi panas. Namun, konsep-konsep ini ditembak jatuh karena mereka “antigrowth.”

Pada akhirnya, jejaring sosial tidak berbuat banyak, mendukung penegakan prinsip kebebasan berbicara – nilai yang

belakangan ini banyak dibicarakan Zuckerberg .

Awal bulan ini, Facebook menamai Oversight Board – nya – Mahkamah Agung, jika Anda mau, yang dapat menolak keputusan jejaring sosial tentang moderasi konten. Mudah-mudahan, perusahaan akan datang dalam membagikan penelitian dan pembelajarannya kepada dewan, dan tidak menunggu seseorang untuk melaporkan masalah mencolok dengan produknya terlebih dahulu.

Sumber:

https://icanhasmotivation.com/run-shoot-apk-mod/