世界各地的政府和观察人士一再对大型科技公司的垄断力量以及这些公司在传播错误信息方面所扮演的角色表示担忧。作为回应,大型科技公司试图通过自我监管。
Facebook 宣布其监督委员会将就前总统唐纳德·特朗普在公司暂停其帐户后是否可以重新访问其帐户做出决定,这一举措以及科技公司为解决错误信息而采取的其他高调举措重新引发了关于什么是负责任的自我的争论-科技公司的监管应该是这样的。
研究表明,社交媒体自我监管的三种关键方式可以发挥作用:降低参与度、标记错误信息和众包准确性验证。
降低参与度的优先级
社交媒体平台是为了持续互动,公司设计了算法来选择人们看到哪些帖子以保持用户的参与度。研究表明,谎言在社交媒体上的传播速度比真相更快,通常是因为人们发现触发情绪的新闻更具吸引力,这使得他们更有可能阅读、反应和分享此类新闻。通过算法推荐,这种效果会得到放大。我自己的研究表明,当视频信息较少时,人们会更频繁地观看有关糖尿病的 YouTube 视频。
大多数大型科技平台的管理传统新闻和信息来源的看门人或过滤器他们拥有大量细粒度和详细的人口统计数据,使他们能够“微观定位”少量用户。再加上旨在提高参与度的内容算法放大,可能会给社会带来一系列负面后果,包括数字选民压制、针对少数群体的虚假信息和歧视性广告定位。
取消对内容推荐的优先考虑应该会减少社交媒体的“兔子洞”效应,即人们查看一个又一个的帖子、一个又一个的视频。大型科技平台的算法设计优先考虑新的和微观目标的内容,这助长了错误信息几乎不受控制的扩散。苹果首席执行官蒂姆·库克最近总结了这个问题:“在算法助长的虚假信息和阴谋论猖獗的时刻,我们不能再对一种技术理论视而不见,这种技术认为所有的参与都是良好的参与——时间越长越好——一切都是为了收集尽可能多的数据。”
标签错误信息
科技公司可以采用内容标签系统来识别新闻项目是否经过验证。在选举期间,Twitter 宣布了一项公民诚信政策,其算法不会推荐被标记为有争议或误导性的推文。研究表明,标签是有效的。研究表明,对国家控制媒体(例如俄罗斯媒体频道 RT)的帖子贴上标签,可以减轻错误信息的影响。
在一项实验中,研究人员雇佣了匿名临时工来标记值得信赖的帖子。这些帖子随后显示在 Facebook 上,并带有众包工作人员注释的标签。在该实验中,来自不同政治派别的群众工作者能够区分主流来源和超党派或虚假新闻来源,这表明群众通常能够很好地区分真实新闻和虚假新闻。
实验还表明,接触过一些新闻来源的人通常可以区分真实新闻和虚假新闻。其他实验发现,提供有关帖子准确性的提醒会增加参与者分享准确帖子的可能性,而不是分享不准确帖子。
在我自己的工作中,我研究了如何将人类注释者或内容审核者与人工智能算法(即所谓的人机智能)相结合,对YouTube 上的医疗保健相关视频进行分类。虽然让医疗专业人员观看有关糖尿病的每个 YouTube 视频是不可行的,但采用人机交互的分类方法是可能的。例如,我和我的同事招募了主题专家来向人工智能算法提供反馈,从而更好地评估帖子和视频的内容。
科技公司已经采用了此类方法。 Facebook 使用事实检查器和相似性检测算法的组合来筛选与 COVID-19 相关的错误信息。该算法误导性帖子的重复和接近副本
以社区为基础的执法
Twitter 最近宣布将推出一个名为 Birdwatch 的社区论坛,以打击错误信息。虽然 Twitter 尚未提供有关如何实施的详细信息,但基于人群的验证机制可以对热门帖子投票或否决新闻推送算法来降低来自不可信来源的内容的排名,这可能有助于减少错误信息。
基本思想类似于维基百科的内容贡献系统,志愿者对热门帖子的真假进行分类。面临的挑战是防止人们对有趣且引人注目但未经验证的内容进行投票,特别是在有人故意操纵投票的。通过协调一致的行动来操纵系统,就像最近的GameStop 股票炒作事件。
另一个问题是如何激励人们自愿参与众包假新闻检测等协作工作。然而,此类努力依赖于志愿者注释新闻文章的准确性第三方事实核查组织的参与,这些组织可用于检测一条新闻是否具有误导性。
然而,维基百科式的模型需要的社区治理机制,以确保个体志愿者在验证和事实检查帖子时遵循一致的指导方针。维基百科最近专门更新了其社区标准,以阻止错误信息的传播。大型科技公司是否会自愿允许其内容审核政策如此透明地接受审查则是另一回事。
[获取我们最好的科学、健康和技术故事。 订阅《对话》的科学通讯。]
大型科技公司的责任
最终,社交媒体公司可以结合使用降低参与度、与新闻机构合作以及人工智能和众包错误信息检测的组合。这些方法不太可能单独发挥作用,需要设计成协同工作。
社交媒体推动的协调行动可能会扰乱社会,从金融市场到政治。技术平台在塑造舆论方面发挥着极其重要的作用,这意味着它们对公众有效自我治理的责任。
世界各地要求政府监管大型科技公司的呼声越来越高,包括在美国,最近的盖洛普民意调查显示,美国民众对科技公司的态度不断恶化,对政府监管的支持也越来越多。德国关于内容审核的新法律要求科技公司对其平台上共享的内容承担更大的责任。欧洲出台的一系列旨在减少这些平台享有的责任保护的法规,以及美国旨在重组互联网法律的拟议法规,将对科技公司的内容审核政策进行更严格的审查。
美国可能会采取某种形式的政府监管,在立法者迫使公司采取行动之前,大型科技公司仍然有机会进行负责任的自我监管。
Anjana Susarla 密歇根州立大学负责任人工智能 Omura-Saxena 教授
本文是根据知识共享许可The Conversation阅读原文。