Regierungen und Beobachter auf der ganzen Welt haben wiederholt Bedenken hinsichtlich der Monopolstellung von Big-Tech-Unternehmen und der Rolle der Unternehmen bei der Verbreitung von Fehlinformationen geäußert. Als Reaktion darauf haben Big-Tech-Unternehmen versucht, Vorschriften vorzubeugen, indem sie sich selbst regulieren .
Mit der Ankündigung von Facebook, dass sein Aufsichtsgremium eine Entscheidung darüber treffen wird, ob der ehemalige Präsident Donald Trump wieder Zugang zu seinem Konto erhalten kann, nachdem das Unternehmen es gesperrt hat, haben dieser und andere hochkarätige Schritte von Technologieunternehmen zur Bekämpfung von Fehlinformationen die Debatte darüber, was ein verantwortungsvolles Selbst ist, neu entfacht -Regulierung durch Technologieunternehmen aussehen soll.
Die Forschung zeigt drei wichtige Möglichkeiten, wie die Selbstregulierung von Social Media funktionieren kann: Depriorisierung des Engagements, Kennzeichnung von Fehlinformationen und Überprüfung der Crowdsource-Genauigkeit.
Depriorisieren Sie das Engagement
Social-Media-Plattformen sind auf ständige Interaktion , und die Unternehmen entwerfen die Algorithmen, die auswählen, welche Posts die Leute sehen , um ihre Benutzer zu beschäftigen. Studien zeigen, sich Unwahrheiten in den sozialen Medien schneller verbreiten als die Wahrheit , oft weil Menschen Nachrichten, die Emotionen auslösen, ansprechender finden, was die Wahrscheinlichkeit erhöht, dass sie solche Nachrichten lesen, darauf reagieren und sie teilen. Dieser Effekt wird durch algorithmische Empfehlungen verstärkt. Meine eigene Arbeit zeigt, dass Menschen sich häufiger mit YouTube-Videos über Diabetes beschäftigen, wenn die Videos weniger informativ sind.
Die meisten Big-Tech-Plattformen arbeiten auch ohne die Gatekeeper oder Filter , die traditionelle Nachrichten- und Informationsquellen steuern. Ihre riesigen Fundgruben an feinkörnigen und detaillierten demografischen Daten geben ihnen die Möglichkeit, eine kleine Anzahl von Benutzern „mikroanzusprechen“ . In Kombination mit der algorithmischen Verstärkung von Inhalten, die das Engagement steigern sollen, kann dies eine Vielzahl negativer Folgen für die Gesellschaft haben, darunter die Unterdrückung digitaler Wähler , die gezielte Desinformation von Minderheiten und diskriminierendes Ad-Targeting .
Die Depriorisierung des Engagements bei Inhaltsempfehlungen sollte den „ Kaninchenloch“-Effekt von Social Media , bei dem die Leute Post für Post, Video für Video ansehen. Das algorithmische Design von Big-Tech-Plattformen priorisiert neue und mikrozielgerichtete Inhalte, was eine fast unkontrollierte Verbreitung von Fehlinformationen fördert. Apple-CEO Tim Cook hat das Problem kürzlich auf den Punkt gebracht: „In einem Moment grassierender Desinformation und von Algorithmen entsafteter Verschwörungstheorien können wir nicht länger die Augen vor einer Technologietheorie verschließen, die besagt, dass jedes Engagement ein gutes Engagement ist – je länger desto besser – und das alles mit dem Ziel, so viele Daten wie möglich zu sammeln.“
Fehlinformationen kennzeichnen
Die Technologieunternehmen könnten ein Content-Labeling-System einführen, um festzustellen, ob eine Nachricht verifiziert ist oder nicht. Während der Wahl kündigte Twitter eine Richtlinie zur staatsbürgerlichen Integrität an, wonach als umstritten oder irreführend gekennzeichnete Tweets von ihren Algorithmen nicht empfohlen . Die Forschung zeigt, dass die Kennzeichnung funktioniert. Studien deuten darauf hin, dass das Anbringen von Labels auf Posts von staatlich kontrollierten Medien , wie z. B. dem russischen Medienkanal RT, die Auswirkungen von Fehlinformationen mildern könnte.
In einem Experiment stellten Forscher anonyme Zeitarbeiter ein , um vertrauenswürdige Beiträge zu kennzeichnen . Die Posts wurden anschließend auf Facebook mit Labels angezeigt, die von den Crowdsource-Mitarbeitern kommentiert wurden. In diesem Experiment konnten Crowdworker aus dem gesamten politischen Spektrum zwischen Mainstream-Quellen und überparteilichen oder gefälschten Nachrichtenquellen unterscheiden, was darauf hindeutet, dass Massen oft gute Arbeit leisten, um den Unterschied zwischen echten und gefälschten Nachrichten zu erkennen.
Experimente zeigen auch, dass Personen mit einem gewissen Kontakt mit Nachrichtenquellen im Allgemeinen zwischen echten und gefälschten Nachrichten unterscheiden können. Andere Experimente ergaben, dass das Bereitstellen einer Erinnerung an die Richtigkeit eines Beitrags die Wahrscheinlichkeit erhöhte, dass die Teilnehmer zutreffende Beiträge häufiger teilten als ungenaue Beiträge.
In meiner eigenen Arbeit habe ich untersucht, wie Kombinationen aus menschlichen Kommentatoren oder Inhaltsmoderatoren und künstlichen Intelligenzalgorithmen – was als Human-in-the-Loop-Intelligenz bezeichnet wird – verwendet werden können, um gesundheitsbezogene Videos auf YouTube zu klassifizieren . Es ist zwar nicht machbar, dass sich Mediziner jedes einzelne YouTube-Video über Diabetes ansehen, aber eine Human-in-the-Loop-Methode zur Klassifizierung ist möglich. Beispielsweise haben meine Kollegen und ich Fachexperten angeworben, um Feedback zu KI-Algorithmen zu geben, was zu einer besseren Einschätzung des Inhalts von Beiträgen und Videos führt.
Tech-Unternehmen haben bereits solche Ansätze verfolgt. Facebook verwendet eine Kombination aus Faktenprüfern und Ähnlichkeitserkennungsalgorithmen , um COVID-19-bezogene Fehlinformationen zu überprüfen. Die Algorithmen erkennen Duplikate und schließen Kopien irreführender Beiträge.
Community-basierte Durchsetzung
Twitter gab kürzlich bekannt, dass es ein Community-Forum, Birdwatch , einrichtet, um Fehlinformationen zu bekämpfen. Twitter hat zwar keine Details darüber bereitgestellt, wie dies implementiert werden soll, aber ein Crowd-basierter Verifizierungsmechanismus , der Stimmen zu Trendposts hinzufügt oder ablehnt und Newsfeed-Algorithmen verwendet, um Inhalte aus nicht vertrauenswürdigen Quellen herabzustufen, könnte dazu beitragen, Fehlinformationen zu reduzieren.
Die Grundidee ähnelt dem Content Contribution System von Wikipedia , bei dem Freiwillige klassifizieren, ob Trending Posts echt oder gefälscht sind. Die Herausforderung besteht darin, Menschen daran zu hindern, interessante und überzeugende, aber nicht verifizierte Inhalte hochzustimmen, insbesondere wenn bewusst versucht wird, Abstimmungen zu manipulieren . Die Leute können die Systeme durch koordinierte Aktionen , wie in der jüngsten GameStop-Episode zum Aufpumpen der Aktien .
Ein weiteres Problem besteht darin, Menschen dazu zu motivieren, sich freiwillig an einer gemeinsamen Anstrengung wie der Erkennung von Crowdsourcing-Fake-News zu beteiligen. Solche Bemühungen stützen sich jedoch auf Freiwillige, die die Genauigkeit von Nachrichtenartikeln kommentieren , ähnlich wie Wikipedia, und erfordern auch die Teilnahme von externen Organisationen zur Überprüfung von Fakten, die verwendet werden können, um festzustellen, ob eine Nachricht irreführend ist.
Ein Modell im Wikipedia-Stil erfordert jedoch robuste Mechanismen der Community-Governance , um sicherzustellen, dass einzelne Freiwillige einheitliche Richtlinien befolgen, wenn sie Beiträge authentifizieren und auf Fakten prüfen. Wikipedia hat kürzlich seine Community-Standards aktualisiert , um die Verbreitung von Fehlinformationen einzudämmen . Ob die Big-Tech-Konzerne ihre Content-Moderations-Richtlinien freiwillig so transparent überprüfen lassen, steht auf einem anderen Blatt.
[ Holen Sie sich unsere besten Geschichten aus Wissenschaft, Gesundheit und Technologie. Melden Sie sich für den Wissenschaftsnewsletter von The Conversation an .]
Verantwortlichkeiten von Big Tech
Letztendlich könnten Social-Media-Unternehmen eine Kombination aus Depriorisierung des Engagements, Partnerschaften mit Nachrichtenorganisationen und der Erkennung von KI und Crowdsourcing-Fehlinformationen verwenden. Es ist unwahrscheinlich, dass diese Ansätze isoliert funktionieren und müssen so gestaltet werden, dass sie zusammenarbeiten.
Koordinierte Aktionen, die durch soziale Medien ermöglicht werden, können die Gesellschaft stören, von den Finanzmärkten bis zur Politik . Die Technologieplattformen spielen eine außerordentlich große Rolle in der öffentlichen Meinungsbildung und stehen damit in der Verantwortung der Öffentlichkeit , sich selbst effektiv zu regieren.
Rufe nach staatlicher Regulierung von Big Tech werden weltweit lauter, auch in den USA, wo eine aktuelle Gallup-Umfrage eine Verschlechterung der Einstellung gegenüber Technologieunternehmen und eine größere Unterstützung für staatliche Regulierung zeigte. Deutschlands neue Gesetze zur Moderation von Inhalten zwingen Technologieunternehmen zu einer größeren Verantwortung für die auf ihren Plattformen geteilten Inhalte. Eine Reihe von Vorschriften in Europa , die darauf abzielen, den Haftungsschutz dieser Plattformen zu verringern, und vorgeschlagene Vorschriften in den USA, die auf eine Umstrukturierung der Internetgesetze abzielen, werden die Richtlinien von Technologieunternehmen zur Moderation von Inhalten genauer prüfen.
Eine Form staatlicher Regulierung ist in den USA wahrscheinlich. Big Tech hat noch die Möglichkeit, sich an einer verantwortungsvollen Selbstregulierung zu beteiligen – bevor die Unternehmen vom Gesetzgeber zum Handeln gezwungen werden.
Anjana Susarla , Omura-Saxena-Professorin für verantwortungsbewusste KI, Michigan State University
Dieser Artikel wurde von The Conversation unter einer Creative Commons-Lizenz neu veröffentlicht. Lesen Sie den Originalartikel .