Flache Erde, Impfungen und ein Mond ohne Amerikaner: Wie YouTube zum Hauptkanal für die Verbreitung von Verschwörungstheorien und Hoaxes wurde

Empfehlungssysteme sind eine der häufigsten Formen künstlicher Intelligenz

mit denen Benutzer konfrontiert sind, unabhängig davon, ob sie davon wissen oder nicht. Solche Systeme sind in Facebook und Twitter integriert – und natürlich in „empfohlene Videos“ auf YouTube.

Solche Systeme sind äußerst komplex – insbesondere wennWir sprechen von Diensten, die täglich von mehreren zehn Millionen Nutzern besucht werden. Wie andere ähnliche neuronale Netze versucht die KI von YouTube, dem Nutzer die relevantesten Videos anzuzeigen, basierend auf der vorherigen Anzeige von Videos durch den Nutzer oder den bei der Nutzung von Google gesammelten Daten über seine Interessen.

Im Fall von YouTube besteht die KI aus zwei neuronalen Netzen – das erste generiert Empfehlungen und das zweite ordnet sie für einen bestimmten Nutzer.

Erste Auswahl der Kandidaten für den Einstieg in"Recommendations" basiert auf der Analyse der Benutzeraktivität. Dies ist ein Video, das er zuvor gesehen hat, oder Websites, die er besucht hat. Zu diesem Zeitpunkt bietet der neuronale Generator mehrere hundert Optionen, die dann für eine bestimmte Person aktualisiert werden. Das neuronale Netzwerk ist bereit, viele Parameter (Alter, Geschlecht, Ort) aufzugeben, um dem Benutzer zu zeigen, was er kürzlich gesehen hat.

Dann kommt das zweite neuronale Netzwerk, welchesverantwortlich für das Ranking Sie bewertet die Kandidatenvideos nach einer Vielzahl von Kriterien und sieht als Hauptaufgabe die höchste Übereinstimmung des Videos mit den Interessen des Benutzers.

Dafür hat das Empfehlungssystem nicht vielDas bedeutet, dass der Benutzer einige der vorgeschlagenen Videos vermisst - im Allgemeinen werden dabei die wichtigsten Markierungen berücksichtigt. Und basierend auf ihnen zeigen Videos, die schnell Ansichten bekommen.

Das System wird kontinuierlich geschult - ein Netzwerk ist gegebenBenutzeraktivitätsverlauf bis zu einer bestimmten Zeit (t), und das zweite Netzwerk fragt, was der Benutzer zum Zeitpunkt (t + 1) sehen möchte. Dadurch erhalten sie mehr Daten und lernen den Benutzer immer besser kennen. Die KI-Entwickler für YouTube glauben, dass dies eine der besten Möglichkeiten ist, ein Video zu empfehlen.

Warum zeigt YouTube Verschwörungsvideos?

Das YouTube-Empfehlungssystem überhauptAus technischer Sicht gibt es zwar Vorteile, es gibt jedoch einen klaren ethischen Nachteil: Das Hauptziel besteht darin, den Benutzer dazu zu bringen, das Video so lange wie möglich anzusehen und dadurch mehr Werbung zu sehen.

Seitenleiste

Beispielsweise erkennt der Algorithmus, dass ein Clip eines berühmtenDer Musiker gewinnt schnell Aufmerksamkeit und geht viral. Das neuronale Netzwerk schlägt es Benutzern vor, denen es gefallen könnte, und die automatische Videowiedergabe startet eine endlose Reihe von Empfehlungen. Und nun schaut sich der Nutzer kein Musikvideo mehr an, sondern ein Video darüber, wie die Amerikaner nicht auf dem Mond gelandet sind oder über eine Freimaurer-Verschwörung.

Die Funktionsweise dieses Schemas wird durch die Ergebnisse einer Umfrage deutlich, die auf einem Kongress von Befürwortern der Theorie der flachen Erde durchgeführt wurde. 29 von 30 Teilnehmern gaben an, dass sie die Theorie durch ein YouTube-Video kennengelernt hätten.

Die Theorie der flachen Erde basiert auf dieser Ideeim 19. Jahrhundert vom englischen Erfinder Samuel Rowbotham vorgeschlagen. Ihre Befürworter sind der Meinung, dass die Erde eine flache Scheibe mit einem Durchmesser von 40.000 km ist, deren Mittelpunkt der Nordpol ist. Entlang des gesamten Umfangs der Scheibe befindet sich eine Eiswand, die die Ausbreitung der Weltmeere verhindert. Die Theorie besagt, dass Sonne, Mond und andere Sterne über der Erdoberfläche kreisen und alle im Weltraum aufgenommenen Fotos gefälscht sind.

Der einzige Befragte, der wurdeEin Anhänger der Flat Earth-Theorie, bevor er ein Video auf YouTube sah, glaubte an die Idee, nachdem er mit Verwandten gesprochen hatte, die davon erfuhren, nachdem er ein Video auf YouTube gesehen hatte.

YouTube ist der wichtigste Vertreiber von Ideen zu Flat Earth.

Von diesem Programm profitieren alle Teilnehmer: Nutzer erhalten einen endlosen Feed mit Inhalten, YouTube erhält Millionen von Stunden Aufrufe und Werbetreibende profitieren von der Monetarisierung ihrer Videos.

Was macht dieses YouTube?

YouTube-Community-Richtlinien verbieten keine AutorenLaden Sie Videos mit Verschwörungstheorien oder irreführenden Informationen herunter. Trotzdem unternimmt der Videodienst punktuelle Versuche, die Verbreitung von Verschwörungstheorien zu verhindern.

Ende Februar blockierte der Dienst mehrereTausende von Berichten, in denen Videos über Verschwörungstheorien veröffentlicht und verschiedene Falschmeldungen verbreitet wurden. Unter der Schleuse kamen dann Videos und Videos, deren Schöpfer über die Selbstorganisation von Waffen oder deren Verwendung sprachen. Zwei Monate zuvor kündigte YouTube an, die Anzahl der Moderatoren auf 10 Tausend Menschen zu erhöhen.

Neben dem Anstieg der Anzahl der Moderatoren im DezemberLetztes Jahr begann YouTube, Links zu Wikipedia und anderen zuverlässigen Quellen zu zeigen, wenn Sie Videos mit Verschwörungstheorien ansehen, um die Verbreitung gefälschter Nachrichten und falscher Theorien im Videodienst zu begrenzen.

Allerdings funktioniert das System nicht perfekt – der AlgorithmusYouTube verwechselte Übertragungen des Brandes in Notre-Dame de Paris am 15. April mit Aufnahmen der brennenden Twin Towers während der Terroranschläge vom 11. September in New York. Das neuronale Netzwerk zeigte den Benutzern einen Artikel aus Wikipedia über den Terroranschlag, in dem mehrere Versionen des Ereignisses beschrieben wurden – und dann deaktivierten Moderatoren die Anzeige des Artikels manuell.

„Die Panels mit Artikeln starten den Algorithmus, und manchmal ist er falsch. In Live-Übertragungen des Feuers in der Kathedrale von Notre Dame haben wir die Panels manuell ausgeschaltet “, sagte ein YouTube-Vertreter.

Fehler beim YouTube-Algorithmus im Feuer der Kathedrale Notre Dame am 15. April

Ein anderes Beispiel ist ein Video mit dem Titel „Any Cancerkann in wenigen Wochen geheilt werden “, wurde Ende März von iHealthTube.com veröffentlicht. Es fehlt ein Panel mit Bezug auf eine zuverlässige Quelle zum Thema des Videos, während das Video etwa 7 Millionen Mal angesehen wurde.

YouTube-Vertreter als Antwort auf eine Reihe von AnfragenBloomberg weigerte sich zu erklären, wie das Empfehlungssystem funktioniert und wie effektiv die Maßnahmen des Unternehmens zur Bekämpfung der Verbreitung von Verschwörungsvideos sind. Im Allgemeinen zieht es das YouTube-Management vor, direkte Antworten auf sensible Fragen zu vermeiden, und erklärt lieber, dass Probleme mit technischen Mängeln bei Algorithmen oder Fahrlässigkeit von Mitarbeitern erklärt werden, schreibt die Agentur.

YouTube stellt möglicherweise die Verbreitung einVerschwörungstheorien nur in einem Fall – wenn Regulierungsbehörden in mehreren Ländern oder große Werbetreibende dies verlangen. Letztere haben bereits erreicht, dass der Videodienst die Monetarisierung von Videos mit Gewaltdarstellungen verbietet.

Seitenleiste

Wenn das Video über die flache Erde geht, landen die USA auf dem Mondoder die Ineffektivität der Impfung kann nicht monetarisiert werden, ihre Zahl wird drastisch sinken. Andere Möglichkeiten, mit Verschwörungstheorien umzugehen, werden sich kaum als effektiv erweisen - kein einzelner AI-Entwickler weiß, wie er funktioniert - und Google macht da keine Ausnahme. Und um den empfehlenswerten Algorithmus neu zu erstellen, der seine Effizienz bereits unter Beweis gestellt hat, macht das Unternehmen keinen Sinn.

Als Reaktion auf Kritik an der Wachstumspriorität des UnternehmensZur Sicherheit der Nutzer hat Facebook angekündigt, seine Politik der Arbeit mit Daten und Algorithmen für soziale Netzwerke radikal zu ändern. Die YouTube-Führung versucht immer noch, ihre Fehler mit den Interessen der Öffentlichkeit oder der Anleger und manchmal auch mit den Handlungen einzelner Mitarbeiter zu erklären. Und für Google bleibt die Unfähigkeit von Videodiensten, ihre Probleme zu lösen, eines der Hauptprobleme.