banner

Nachricht

May 18, 2023

Algorithmen können hilfreich sein, um Fake News zu erkennen, deren Verbreitung zu stoppen und Fehlinformationen entgegenzuwirken

Professor für Informatik, University of British Columbia

Laks VS Lakshmanan erhält Fördermittel vom Natural Sciences and Engineering Research Council of Canada.

Die University of British Columbia stellt als Gründungspartner von The Conversation CA finanzielle Mittel bereit.

Die University of British Columbia stellt als Mitglied von The Conversation CA-FR finanzielle Mittel bereit.

Alle Partner anzeigen

Fake News sind ein komplexes Problem und können Text, Bilder und Videos umfassen.

Insbesondere bei schriftlichen Artikeln gibt es mehrere Möglichkeiten, Fake News zu generieren. Ein Fake-News-Artikel könnte durch selektive Bearbeitung von Fakten, einschließlich Namen, Daten oder Statistiken von Personen, erstellt werden. Ein Artikel könnte auch vollständig mit erfundenen Ereignissen oder Personen erfunden sein.

Fake-News-Artikel können auch maschinell generiert werden, da Fortschritte in der künstlichen Intelligenz die Generierung von Fehlinformationen besonders einfach machen.

Fragen wie: „Gab es bei den US-Wahlen 2020 Wahlbetrug?“ oder „Ist der Klimawandel ein Schwindel?“ können durch die Analyse verfügbarer Daten auf Fakten überprüft werden. Diese Fragen können mit „richtig“ oder „falsch“ beantwortet werden, es besteht jedoch die Gefahr von Fehlinformationen im Zusammenhang mit Fragen wie diesen.

Fehlinformationen und Desinformationen – oder Fake News – können in kurzer Zeit schädliche Auswirkungen auf eine große Anzahl von Menschen haben. Obwohl die Vorstellung von Fake News schon lange vor dem technologischen Fortschritt existierte, haben soziale Medien das Problem verschärft.

Eine Twitter-Studie aus dem Jahr 2018 ergab, dass falsche Nachrichten häufiger von Menschen als von Bots retweetet wurden und dass die Wahrscheinlichkeit, dass sie retweetet werden, um 70 Prozent höher ist als bei wahren Geschichten. Dieselbe Studie ergab, dass wahre Geschichten etwa sechsmal länger brauchten, um eine Gruppe von 1.500 Menschen zu erreichen, und während wahre Geschichten selten mehr als 1.000 Menschen erreichten, konnten populäre falsche Nachrichten bis zu 100.000 Menschen erreichen.

Die US-Präsidentschaftswahl 2020, die COVID-19-Impfstoffe und der Klimawandel waren allesamt Gegenstand von Fehlinformationskampagnen mit schwerwiegenden Folgen. Es wird geschätzt, dass Fehlinformationen rund um COVID-19 täglich zwischen 50 und 300 Millionen US-Dollar kosten. Die Kosten politischer Fehlinformationen könnten Unruhen, Gewalt oder sogar ein Verlust des Vertrauens der Öffentlichkeit in demokratische Institutionen sein.

Die Erkennung von Fehlinformationen kann durch eine Kombination aus Algorithmen, Modellen des maschinellen Lernens und Menschen erfolgen. Eine wichtige Frage ist, wer dafür verantwortlich ist, die Verbreitung von Fehlinformationen zu kontrollieren, wenn nicht sogar zu stoppen, sobald sie entdeckt werden. Nur Social-Media-Unternehmen sind wirklich in der Lage, die Verbreitung von Informationen über ihre Netzwerke zu kontrollieren.

Ein besonders einfaches, aber wirksames Mittel zur Generierung von Fehlinformationen ist die gezielte Bearbeitung von Nachrichtenartikeln. Betrachten Sie zum Beispiel „Ukrainischer Regisseur und Dramatiker verhaftet und der ‚Rechtfertigung des Terrorismus‘ beschuldigt.“ Dies wurde dadurch erreicht, dass im Originalsatz eines echten Nachrichtenartikels „Russisch“ durch „Ukrainisch“ ersetzt wurde.

Zur Erkennung von Fehlinformationen im Internet ist ein vielschichtiger Ansatz erforderlich, um deren Wachstum und Verbreitung zu kontrollieren.

Kommunikation in sozialen Medien kann als Netzwerk modelliert werden, wobei die Benutzer Punkte im Netzwerkmodell bilden und die Kommunikation Verbindungen zwischen ihnen herstellt; Ein Retweet oder Like eines Beitrags spiegelt eine Verbindung zwischen zwei Punkten wider. In diesem Netzwerkmodell neigen Verbreiter von Fehlinformationen dazu, viel dichter verbundene Kern-Peripherie-Strukturen zu bilden als Nutzer, die Wahrheit verbreiten.

Meine Forschungsgruppe hat effiziente Algorithmen zur Erkennung dichter Strukturen in Kommunikationsnetzwerken entwickelt. Diese Informationen können weiter analysiert werden, um Fälle von Fehlinformationskampagnen zu erkennen.

Da diese Algorithmen allein auf der Kommunikationsstruktur basieren, ist eine von Algorithmen und Menschen durchgeführte Inhaltsanalyse erforderlich, um Fälle von Fehlinformationen zu bestätigen.

Um manipulierte Artikel zu erkennen, bedarf es einer sorgfältigen Analyse. Unsere Forschung nutzte einen auf einem neuronalen Netzwerk basierenden Ansatz, der Textinformationen mit einer externen Wissensdatenbank kombiniert, um solche Manipulationen zu erkennen.

Das Erkennen von Fehlinformationen ist nur die halbe Miete – es sind entschlossene Maßnahmen erforderlich, um ihre Verbreitung zu stoppen. Strategien zur Bekämpfung der Verbreitung von Fehlinformationen in sozialen Netzwerken umfassen sowohl das Eingreifen von Internetplattformen als auch die Durchführung von Gegenkampagnen zur Neutralisierung von Fake-News-Kampagnen.

Der Eingriff kann harte Formen annehmen, etwa die Sperrung des Kontos eines Benutzers, oder sanftere Maßnahmen, etwa die Kennzeichnung eines Beitrags als verdächtig.

Algorithmen und KI-gestützte Netzwerke sind nicht hundertprozentig zuverlässig. Es ist mit Kosten verbunden, versehentlich bei einem echten Artikel einzugreifen oder bei einem gefälschten Artikel nicht einzugreifen.

Zu diesem Zweck haben wir eine intelligente Interventionsrichtlinie entwickelt, die automatisch entscheidet, ob bei einem Artikel auf der Grundlage seines vorhergesagten Wahrheitsgehalts und seiner prognostizierten Beliebtheit interveniert wird.

Bei der Einführung von Gegenkampagnen, um die Auswirkungen von Fehlinformationskampagnen zu minimieren oder sogar zu neutralisieren, müssen die großen Unterschiede zwischen Wahrheit und Fake News berücksichtigt werden, und zwar hinsichtlich der Geschwindigkeit und Reichweite, mit der sich die einzelnen Nachrichten verbreiten.

Weiterlesen: Mit der Öffnung der Provinzen schwindet das Vertrauen, wenn das, was wir erleben, von dem abweicht, was uns die Institutionen sagen

Abgesehen von diesen Unterschieden können die Reaktionen auf Geschichten je nach Benutzer, Thema und Länge des Beitrags variieren. Unser Ansatz berücksichtigt all diese Faktoren und entwickelt eine effiziente Gegenkampagnenstrategie, die die Verbreitung von Fehlinformationen wirksam eindämmt.

Jüngste Fortschritte in der generativen KI, insbesondere solche, die auf großen Sprachmodellen wie ChatGPT basieren, machen es einfacher denn je, Artikel mit großer Geschwindigkeit und großem Volumen zu erstellen, was die Erkennung von Fehlinformationen und die Bekämpfung ihrer Verbreitung in großem Maßstab und in Echtzeit erhöht. Unsere aktuelle Forschung befasst sich weiterhin mit dieser anhaltenden Herausforderung, die enorme gesellschaftliche Auswirkungen hat.

Algorithmen können nützlich sein, um gefälschte Nachrichten zu erkennen, ihre Verbreitung zu stoppen und Fehlinformationen entgegenzuwirken. Weiterlesen: Mit der Öffnung der Provinzen schwindet das Vertrauen, wenn das, was wir erleben, von dem abweicht, was uns Institutionen sagen
AKTIE