Kerajaan dan pemerhati di seluruh dunia telah berulang kali membangkitkan kebimbangan mengenai kuasa monopoli syarikat Big Tech dan peranan yang dimainkan oleh syarikat dalam menyebarkan maklumat yang salah. Sebagai tindak balas, syarikat Big Tech telah cuba mendahului peraturan dengan mengawal selia sendiri .
Dengan pengumuman Facebook bahawa Lembaga Pemantauannya akan membuat keputusan sama ada bekas Presiden Donald Trump boleh mendapatkan semula akses kepada akaunnya selepas syarikat itu menggantungnya, ini dan langkah berprofil tinggi lain oleh syarikat teknologi untuk menangani maklumat yang salah telah mencetuskan semula perdebatan tentang diri yang bertanggungjawab. -peraturan oleh syarikat teknologi sepatutnya kelihatan seperti.
Penyelidikan menunjukkan tiga cara utama pengawalseliaan kendiri media sosial boleh berfungsi: mengetepikan penglibatan, maklumat salah label dan pengesahan ketepatan sumber ramai.
Kurangkan keutamaan pertunangan
Platform media sosial dibina untuk interaksi berterusan , dan syarikat mereka bentuk algoritma yang memilih siaran yang dilihat orang untuk memastikan pengguna mereka terlibat. Kajian menunjukkan kepalsuan merebak lebih cepat daripada kebenaran di media sosial , selalunya kerana orang ramai mencari berita yang mencetuskan emosi menjadi lebih menarik , yang menjadikannya lebih berkemungkinan mereka akan membaca, bertindak balas dan berkongsi berita sedemikian. Kesan ini diperkuatkan melalui pengesyoran algoritma. Kerja saya sendiri menunjukkan bahawa orang lebih kerap terlibat dengan video YouTube tentang diabetes apabila video tersebut kurang bermaklumat.
Kebanyakan platform Big Tech juga beroperasi tanpa penjaga pintu atau penapis yang mengawal sumber berita dan maklumat tradisional. yang terperinci dan terperinci memberikan mereka keupayaan untuk "menyasarkan mikro" sejumlah kecil pengguna . Ini, digabungkan dengan penguatan algoritma kandungan yang direka untuk meningkatkan penglibatan, boleh membawa pelbagai akibat negatif kepada masyarakat, termasuk penindasan pengundi digital , penyasaran minoriti untuk maklumat salah dan penyasaran iklan yang mendiskriminasi .
Mengurangkan keutamaan penglibatan dalam pengesyoran kandungan seharusnya mengurangkan kesan "lubang arnab" media sosial , di mana orang melihat siaran demi siaran, video demi video. Reka bentuk algoritma platform Big Tech mengutamakan kandungan baharu dan sasaran mikro, yang memupuk percambahan maklumat salah yang hampir tidak terkawal. Ketua Pegawai Eksekutif Apple Tim Cook baru-baru ini merumuskan masalah itu : "Pada saat penyebaran maklumat palsu dan teori konspirasi yang berleluasa oleh algoritma, kita tidak boleh lagi menutup mata kepada teori teknologi yang mengatakan semua penglibatan adalah penglibatan yang baik - lebih lama lebih baik - dan semuanya dengan matlamat untuk mengumpul data sebanyak mungkin.”
Maklumat salah label
Syarikat teknologi boleh mengguna pakai sistem pelabelan kandungan untuk mengenal pasti sama ada sesuatu berita itu disahkan atau tidak. Semasa pilihan raya, Twitter mengumumkan dasar integriti sivik di mana tweet yang dilabel sebagai dipertikaikan atau mengelirukan tidak akan disyorkan oleh algoritma mereka . Penyelidikan menunjukkan bahawa pelabelan berfungsi. Kajian mencadangkan bahawa menggunakan label pada siaran daripada saluran media yang dikawal oleh kerajaan , seperti daripada saluran media Rusia RT, boleh mengurangkan kesan maklumat salah.
Dalam percubaan, penyelidik mengupah pekerja sementara tanpa nama untuk melabelkan siaran yang boleh dipercayai . Catatan itu kemudiannya dipaparkan di Facebook dengan label yang diberi penjelasan oleh pekerja sumber ramai. Dalam percubaan itu, pekerja ramai dari seluruh spektrum politik dapat membezakan antara sumber arus perdana dan sumber hiperpartisan atau berita palsu, menunjukkan bahawa orang ramai sering melakukan kerja yang baik untuk memberitahu perbezaan antara berita sebenar dan palsu.
Eksperimen juga menunjukkan bahawa individu yang mempunyai sedikit pendedahan kepada sumber berita secara amnya boleh membezakan antara berita sebenar dan palsu. Percubaan lain mendapati bahawa memberikan peringatan tentang ketepatan siaran meningkatkan kemungkinan peserta berkongsi siaran yang tepat berbanding siaran yang tidak tepat.
Dalam kerja saya sendiri, saya telah mengkaji cara gabungan pengotor manusia atau penyederhana kandungan dan algoritma kecerdasan buatan – yang dirujuk sebagai kecerdasan manusia dalam gelung – boleh digunakan untuk mengklasifikasikan video berkaitan penjagaan kesihatan di YouTube . Walaupun tidak mungkin untuk meminta profesional perubatan menonton setiap video YouTube tentang diabetes, kaedah pengelasan manusia dalam gelung adalah mungkin. Sebagai contoh, rakan sekerja saya dan saya merekrut pakar perkara untuk memberi maklum balas kepada algoritma AI, yang menghasilkan penilaian yang lebih baik terhadap kandungan siaran dan video.
Syarikat teknologi telah pun menggunakan pendekatan sedemikian. Facebook menggunakan gabungan penyemak fakta dan algoritma pengesanan persamaan untuk menapis maklumat salah berkaitan COVID-19. Algoritma mengesan pertindihan dan menutup salinan siaran yang mengelirukan.
Penguatkuasaan berasaskan komuniti
Twitter baru-baru ini mengumumkan bahawa ia melancarkan forum komuniti, Birdwatch , untuk memerangi maklumat salah. Walaupun Twitter tidak memberikan butiran tentang cara ini akan dilaksanakan, mekanisme pengesahan berasaskan orang ramai menambah undian atau undian menurun pada siaran yang menjadi sohor kini dan menggunakan algoritma suapan berita untuk menurunkan kedudukan kandungan daripada sumber yang tidak boleh dipercayai boleh membantu mengurangkan maklumat salah.
Idea asasnya adalah serupa dengan sistem sumbangan kandungan Wikipedia , di mana sukarelawan mengklasifikasikan sama ada siaran arah aliran adalah nyata atau palsu. Cabarannya ialah menghalang orang ramai daripada mengundi semula kandungan yang menarik dan menarik tetapi tidak disahkan, terutamanya apabila terdapat usaha yang disengajakan untuk memanipulasi pengundian . Orang ramai boleh memainkan sistem melalui tindakan yang diselaraskan , seperti dalam episod pengepaman stok GameStop .
Masalah lain ialah bagaimana untuk memotivasikan orang ramai untuk mengambil bahagian secara sukarela dalam usaha kolaboratif seperti pengesanan berita palsu sumber ramai. Usaha sedemikian, walau bagaimanapun, bergantung pada sukarelawan yang memberi penjelasan tentang ketepatan artikel berita , sama seperti Wikipedia, dan juga memerlukan penyertaan organisasi penyemakan fakta pihak ketiga yang boleh digunakan untuk mengesan jika sesuatu berita itu mengelirukan.
Walau bagaimanapun, model gaya Wikipedia memerlukan mekanisme tadbir urus komuniti yang untuk memastikan sukarelawan individu mengikut garis panduan yang konsisten apabila mereka mengesahkan dan menyemak fakta siaran. Wikipedia baru-baru ini mengemas kini piawaian komunitinya secara khusus untuk membendung penyebaran maklumat salah . Sama ada syarikat berteknologi besar akan secara sukarela membenarkan dasar penyederhanaan kandungan mereka disemak dengan begitu telus adalah perkara lain.
[ Dapatkan cerita sains, kesihatan dan teknologi terbaik kami. Daftar untuk surat berita sains The Conversation .]
Tanggungjawab Big Tech
Akhirnya, syarikat media sosial boleh menggunakan gabungan penglibatan yang tidak keutamaan, bekerjasama dengan organisasi berita, dan AI dan pengesanan maklumat salah sumber orang ramai. Pendekatan ini tidak mungkin berfungsi secara berasingan dan perlu direka bentuk untuk bekerjasama.
Tindakan yang diselaraskan yang difasilitasi oleh media sosial boleh mengganggu masyarakat, daripada pasaran kewangan kepada politik . Platform teknologi memainkan peranan yang luar biasa besar dalam membentuk pendapat umum, yang bermaksud mereka memikul tanggungjawab kepada orang ramai untuk mentadbir diri mereka dengan berkesan.
Seruan untuk peraturan kerajaan Big Tech berkembang di seluruh dunia, termasuk di AS, di mana tinjauan Gallup baru-baru ini menunjukkan sikap yang semakin buruk terhadap syarikat teknologi dan sokongan yang lebih besar untuk peraturan kerajaan. Jerman mengenai penyederhanaan kandungan mendorong tanggungjawab yang lebih besar ke atas syarikat teknologi untuk kandungan yang dikongsi di platform mereka. Pelbagai peraturan di Eropah yang bertujuan untuk mengurangkan perlindungan liabiliti yang dinikmati oleh platform ini dan peraturan yang dicadangkan di AS yang bertujuan untuk menyusun semula undang-undang internet akan membawa penelitian yang lebih mendalam kepada dasar penyederhanaan kandungan syarikat teknologi.
Beberapa bentuk peraturan kerajaan berkemungkinan di US Big Tech masih mempunyai peluang untuk terlibat dalam pengawalseliaan kendiri yang bertanggungjawab - sebelum syarikat terpaksa bertindak oleh penggubal undang-undang.
Anjana Susarla , Omura-Saxena Profesor AI Bertanggungjawab, Universiti Negeri Michigan
Artikel ini diterbitkan semula daripada The Conversation di bawah lesen Creative Commons. Baca artikel asal .