Wie bekommen wir den Hass im Netz in den Griff? Google will Künstliche Intelligenz einsetzen, um Kommentare auf Onlineseiten von Medien zu analysieren. Ist es eine gute Idee, Maschinen zu vertrauen?

Der Internetkonzern Alphabet, besser bekannt als Google, steigt in den Kampf gegen Hass im Internet ein. Technologie, genauer gesagt Künstliche Intelligenz (KI), soll auf allen erdenklichen Onlineangeboten Kommentare identifizieren, die ein durchschnittlicher Nutzer als beleidigend einstufen würde. Google schickt dafür sein Projekt „Perspective“ ins Rennen gegen Pöbeleien, Drohungen und Aggression im Netz.

Google bietet „Perspective“ zunächst Verlagen an, die vor allem mit Nutzerkommentaren auf ihren Nachrichten- und Informationsangeboten zu tun haben. In der Entwicklung kooperierte der Konzern mit der „New York Times“, dazu kamen dann die britischen Medien „Guardian“ und „Economist“. Zwar soll das Anti-Hass-Werkzeug künftig auch mit anderen Sprachen funktionieren, aber zunächst spricht „Perspective“ nur Englisch. Später soll die Technologie auch komplett frei verfügbar sein.

„NZZ“ schränkt Kommentare ein

Das Projekt startet zu einer Zeit, in der sich einzelne Medien überlegen oder dazu entschließen, die Kommentarfunktion auf ihren Angeboten einzuschränken oder ganz zu sperren. Die „Neue Zürcher Zeitung“ kündigte gerade an, Leserkommentare unter der Mehrheit der Beiträge nicht mehr zuzulassen. Grund: Leser beschimpften sich immer häufiger, statt zivilisiert miteinander zu diskutieren.

Nun gibt es eine Art von „betreutem Debattieren“ unter bestimmten Artikeln und von der Redaktion ausgesuchten Schwerpunktthemen. Die „NZZ“ sieht sich geradezu dazu verpflichtet, die außer Kontrolle geratenen Kommentare wieder in den Griff zu bekommen.

Kapitulation der Dialogmedien?

Die Revolution des Web war und ist in erster Linie eine Revolution der Kommunikation. Vor allem Medien beriefen sich in den Anfangsjahren und darüber hinaus auf die neuen Möglichkeiten, mit Lesern, Zuhörern und Zuschauern in einen Dialog treten zu können. Doch die Praxis hat gezeigt, dass in den meisten Fällen, vor allem wenn es um gesellschaftspolitische Themen geht, nur streng moderierte Diskussionen halbwegs ergebnisorientiert ablaufen.

Der Rest ist oftmals eine Kakophonie, die jede Talkshow als Kaffeekränzchen unter kultivierten Damen erscheinen lässt. „Ich hab keine Lust mehr“, schrieb bereits 2012 der Gründer von „Netzpolitik.org“, Markus Beckedahl, über seine Frustration mit der sogenannten Meinungskultur im Netz. Die Kommentarfunktion blieb. Wäre die Entscheidung, die Kommentare einfach dichtzumachen, eine Kapitulation?

„Tu das Richtige“

Zurück zu „Perspective“. Warum macht Google das? Ein Weltverbesserungs-Gen hatte Google immer schon, ähnlich wie bei Facebook und anderen Unternehmen aus dem Silicon Valley gehört es mit zum Geschäftsmodell. Der Leitspruch des Tech-Riesen, der sein Geld vor allem mit neben Suchmaschinenergebnissen platzierter Werbung verdient, lautet immerhin: „Sei nicht böse!“

Als Google im Herbst 2015 zu einem Teil der Holding Alphabet wurde, wurde das Motto für die Muttergesellschaft verworfen. Die Mitarbeiter „sollten das Richtige tun“ heißt es in der Beschreibung der Mission – „do the right thing“. Dazu gehöre auch, sich gegenseitig mit Respekt zu behandeln. Man könnte es Altruismus mit Kalkül nennen.

Jigsaw will Technologie sicher machen

„Perspective“ wurde von Jigsaw entwickelt. Jigsaw, „Puzzle“ auf Englisch, ist ein Teil von Alphabet – ein think tank, ein Entwicklungsraum für Projekte, die Antworten auf die Herausforderungen der Welt geben sollen. Der Satz, den Jigsaw-Chef Jared Cohen immer wieder sagt, lautet: „Wir wollen Technologie für die Menschen auf der Welt sicherer machen.“

So gesehen, ist Jigsaw eine Reaktion auf die Erkenntnis, dass Technologie zwar an sich neutral ist und viele gute Dinge hervorbringen kann, dass diese auf vielen Ebenen aber für kriminelle und destruktive Ziele nicht nur genutzt werden kann, sondern längst genutzt wird.

Freie Meinungsäußerung als Ziel

Zu den Jigsaw-Projekten gehört beispielsweise „Shield“, das vor allem Menschenrechts-Aktivisten und Medienangeboten Schutz vor Cyberattacken bieten soll. „Unfiltered News“ ermittelt Themen, über die selten berichtet wird. Die „Redirect Method“, mittlerweile ein eigenständiges Projekt, soll junge Menschen vor der Radikalisierung bewahren, indem sie auf Suchanfragen, die ein Interesse am IS erkennen lassen, auch aufklärende Anzeigen und Links zu YouTube-Videos zu sehen bekommen.

Welchen Projekten sich Jigsaw zuwende, sagt Cohen auf Nachfrage der „Welt“, bestimmten letztlich die Nutzer. In jedem Fall müsse es darum gehen, die Sicherheit im Netz zu stärken. Freie Meinungsäußerung und die Bekämpfung von Extremismus gehören zu den übergeordneten Zielen.

Versteht Technologie Hass?

Nun also „Perspective“. Bisher ist vor allem Facebook als Brutstätte des Online-Hasses ins Visier der Politik genommen worden. Von YouTube, das zu Google gehört und das auch teilweise heftige Kommentare hat, wird weniger gesprochen. Facebook berief sich in der Debatte um die Verantwortung des Netzwerkes eine Weile lang darauf, dass es technisch sehr schwierig sei, zwischen Hass auf der einen und zwar krasser, aber letztlich mit Gesetzen zu vereinbarenden Meinungsäußerungen auf der anderen Seite zu unterscheiden.

Das ist zwar richtig. Und doch verwunderte diese Rechtfertigung ein ums andere Mal. Denn ein Technologie-Unternehmen, das wöchentlich neue Projekte verkündet, das intensiv zu Künstlicher Intelligenz forscht und das das Internet mit Drohnen in technologisch unterentwickelte Regionen bringen will, soll keinen Hass identifizieren können?

Wie toxisch ist ein Kommentar?

Jetzt kommt Rivale Google, dem es bisher nicht gelang, ein populäres soziales Netzwerk aufzubauen, mit einem Aufschlag und einem Gruß in Richtung Mark Zuckerberg. „Perspective“ baut auf Millionen von Kommentaren auf, die unter Beiträgen der „New York Times“ gepostet wurden, sowie Debattenbeiträgen in der englischen Wikipedia-Enzyklopädie. Jeder Kommentar wurde von Menschen mit einem Hinweis versehen, ob er als beleidigend empfunden werden kann oder nicht.

Diese Datenbasis ist Grundlage für die Computeranalyse von „Perspective“. Neue Kommentare werden mit Mustern in der Datenbank verglichen, dann wird ein Artikelwert zwischen 0 und 100 ermittelt. Je höher der Wert, desto „toxischer“ ist ein Kommentar demnach. Diese Auswertung soll nicht statisch sein, die Software lerne ständig dazu, sagt Jigsaw-Chef Cohen.

Moderatoren müssen entscheiden

Mit dem ermittelten Wert ist die Aufgabe von „Perspective“ erledigt. Ähnlich wie Facebook will man bei Google nicht als Zensor auftreten. Tatsächlich tritt Jigsaw als Verfechter der freien Meiungsäußerung auf. Ein Programm, das dabei hilft, Kommentare auszusortieren, ist da ohnehin erklärungsbedürftig. Die Moderatoren der Seiten, die „Perspective“ nutzen, müssen also selbst entscheiden, wie sie die Ergebnisse nutzen.

Die Werte könnten nur intern als Hilfe genutzt werden, anstößige Kommentare zu löschen. Oder der Wert könnte unter dem Kommentar veröffentlicht werden: „94 Prozent der Nutzer finden, dass dieser Kommentar beleidigend ist.“ Es wäre selbst möglich, Kommentare nach ihrem „Gift-Grad“ zu sortieren.

Mensch und Maschine

„Perspective“ sei noch nicht perfekt, betonte Jared Cohen in einer Telefonferenz. Wird es vielleicht auch nie sein. Die Fragen die „Perspective“ aufwirft, sind: Wie weit wollen wir Algorithmen einsetzen, um Beiträge von Menschen nach ihrer echten oder vermeintlichen Nützlichkeit für eine Diskussion zu bewerten? Wird eine solche Bewertung die Diskussionen selbst beeinflussen? Welche Aussagekraft hat ein Wert zwischen 0 und 100?

Klar ist: das Zusammenspiel zwischen Mensch und Maschine wird neu definiert. Was allerdings eine Utopie bleiben wird, und das möglicherweise zu Recht, ist die Idee von einem Internet, das pur ist, gereinigt von allen Flecken und Spritzern. So hässlich sie auch sein mögen.

 

Quelle

Advertisements