Gedanken zur Woche: Bots und Blasen

227/331

Erschienen im P.S.

«Hitler hatte recht. Ich hasse Juden.» Dann: «Bush hat 9/11 selbst verursacht, und Hitler hätte den Job besser gemacht als der Affe, den wir nun haben.» Das twitterte Tay zu ihren 75 000 FollowerInnen. Doch dann war Schluss. Der Grund: Tay ist kein Mensch, sondern eine künstliche Intelligenz. Und ihre MacherInnen von Microsoft zogen den Stecker. Nur 24 Stunden dauerte die Übungsanlage. Tay ist als lernendes Programm konzipiert worden. Durch sozialen Umgang hätte sich die Software, der sogenannte Chat-Bot, weiterentwickeln sollen. Das hat Tay auch getan, bloss nicht zum Guten. Die Software übernahm alle üblen Hetzparolen aus Twitter, verschiedener Filter und eingebauter Schranken zum Trotz.

In der ‹Frankfurter Allgemeinen Zeitung› wird dazu die Goodwin-These ins Spiel gebracht. Der Rechtsanwalt Mike Goodwin hat in den 1990er Jahren postuliert, dass bei Diskussionen im Netz mit zunehmender Dauer auch die Wahrscheinlichkeit wächst, dass jemand einen Vergleich zum Dritten Reich und zu Hitler macht. Ich kann die Goodwin-These aus persönlicher Beobachtung nicht unbedingt bestätigen. Aber mir fällt auf, dass Diskussionen auf Facebook oder Twitter selbst unter Gleichgesinnten schnell eine grosse Gehässigkeit annehmen können.

Der Zukunftsforscher Matthias Horx glaubt, dass es deswegen auch eine Abwanderungsbewegung aus dem Internet und den sozialen Medien geben könnte, einen digitalen ‹backlash›. Je gehässiger die Diskussion im Internet sei, desto mehr Menschen würden sich davon abwenden. Horx vergleicht das Internet mit den frühen Wirtshäusern, wo es häufig Prügeleien gab. Erst wenn sich Regeln etabliert hätten, würde sich das wieder normalisieren. Tatsächlich war es auch beim Aufkommen des E-Mails so, dass sich der eine oder die andere nicht im Griff hatte und bei einem Ärger ein hässiges Mail mit Kopie an die halbe Welt verschickt hat. Worauf dann ein ebenso hässiger Email-Verkehr mit der halben Welt begann. Daraus haben die meisten gelernt und schlafen erst einmal darüber, bevor sie den ‹Senden›-Knopf drücken.

Bei den sozialen Medien und im Internet kommen aber weitere erschwerende Faktoren dazu. Zum einen gibt es die sogenannten Trolle. Also Leute, die sich einen Spass daraus machen, andere zu beleidigen. Die gab es natürlich schon immer. Aber wenn man seine Hassbotschaften auf der Schreibmaschine tippen, dann ein Couvert frankieren und den Brief zum Briefkasten tragen muss, dann ist das anstrengender und die Reichweite weitaus geringer.

Dann gibt es jene, die sich als etwas anderes ausgeben, als sie sind. Beispielsweise beklagten sich Anhängerinnen und Anhänger von Bernie Sanders, dass viele von jenen Sanders-Anhängern, die wegen ihrer sexistischen und rassistischen Äusserungen ins Gerede kamen, in Tat und Wahrheit eigentlich Trump-Anhänger seien. Das kann durchaus sein, da ich ebenfalls vermute, dass auch viele der Online-Kommentatoren, die schreiben, sie hätten immer SP gewählt, aber jetzt sei genug, auch in Wahrheit niemals SP gewählt haben.

Jetzt kommen noch Chatbots wie Tay hinzu. Und Tay ist bei weitem nicht alleine. Simon Hegelich, Professor an der TU München, schätzt gegenüber der ‹FAZ›, dass ungefähr 20 Prozent der Twitter-Nutzer Bots seien – mit stark wachsender Tendenz. Zudem sei es aufgrund der Fortschritte bei der künstlichen Intelligenz immer schwieriger, sie als solche zu erkennen. Im Ukraine-Konflikt seien diese Bots gezielt von beiden Seiten eingesetzt worden. Hegelich glaubt, dass diese Bots aus organisierten Troll-Fabriken stammen. Es gilt ebenfalls als sehr wahrscheinlich, dass der IS solche Bots im Propagandaeinsatz hat.

Zudem ist jüngst Facebook in die Kritik geraten: Sie würden in ihrem Newsstream gezielt linke oder liberale Medien bevorzugen und rechte Publikationen benachteiligen. Das hat Facebook vehement abgestritten. Eine Tatsache ist aber, dass die Realität für linke oder rechte Nutzerinnen auf Facebook ganz anders aussieht. Sie sehen andere Neuigkeiten, Diskussionen und Posts. Das Phänomen nennt sich Filterblase und ist nicht auf Facebook beschränkt. Der Begriff wurde vom Internetaktivisten Eli Pariser geprägt. Damit ist gemeint, dass Webseiten mit Algorithmen versuchen, dem Nutzer diejenigen Informationen zu zeigen, für die er sich interessiert. Dies aufgrund des bisherigen Verhaltens im Netz. Das Internet mit seinen uneingeschränkten Möglichkeiten macht also die Welt für seine BenutzerInnen kleiner und nicht grösser.

Umso problematischer wird die Filterblase dadurch, dass immer mehr Menschen Facebook und Twitter als erste Informationsquelle benützten. Sie lesen zwar noch Artikel aus Zeitungen, aber eben nur jene, die ihnen andere Nutzer aus Facebook und Twitter vorschlagen.

Früher las man vielleicht die Leserbrief-Seite in der Zeitung, um sich ein Bild zur politischen Meinungslage der LeserInnen zu machen.  Das war schon immer problematisch – aber heute mehr denn je. In meiner eigenen Filterblase – um ein Beispiel zu nennen – sind sicher 80 Prozent der Menschen mit Verve gegen das Büpf. Wenn es denn zur Abstimmung kommen wird, dann sieht das Ganze dann wohl anders aus. Zumal es ja auch so ist, dass sich nicht so viele Leute wirklich aktiv in den Sozialen Medien äussern. Die meisten Nutzerinnen und Nutzer sind sogenannte «Lurker». Sie lesen zwar, sie beteiligen sich aber nicht. Die berühmte schweigende Mehrheit eben. Dass in einem solchen Umfeld auch Verschwörungstheorien gut gedeihen, versteht sich von selbst. Auch die gab es schon immer, die Leute wurden aber zumindest noch ab und an mit der Realität konfrontiert. Die einzige Ausnahme: Diktaturen, wo es keine freie Presse gibt.

Die Politik, die Demokratie ist zweifach gefordert. Zum einen muss sie sich mit künstlicher Intelligenz auseinandersetzen und deren mögliche Auswirkungen diskutieren. Dies wird meistens mit der Science Fiction-Keule beantwortet. Böse künstliche Intelligenzen wie HAL aus «2001 – A Space Odyssey» seien total unrealistisch. Aber selbst wenn diese Intelligenzen weder besonders böse noch besonders klug sind, muss man sich damit dennoch auseinandersetzen. Wer haftet zum Beispiel, wenn ein selbstfahrendes Auto einen Unfall baut? Der Hersteller oder der Besitzer? Braucht es internationale Vereinbarungen, wenn es um den Einsatz von unbemannten Drohnen und autonomen Waffensystemen geht? Müsste die Forschung zu künstlicher Intelligenz sich einem ethischen Kodex verpflichten, so wie die MedizinerInnen? Das sind Fragen, die besser früher als später beantwortet werden.

Das zweite ist eine Binsenwahrheit: Demokratie braucht auch Pflege. Der Hass auf Eliten, Lügenpresse, PolitikerInnen und alle sonstigen Übel wird im Netz noch zusätzlich befeuert. Darum ist die Verteidigung der Institutionen, so imperfekt sie sein mögen, zentral für die Demokratie. Die zunehmend populäre Alternative: Der starke Mann, der endlich den Sauladen aufräumt. Zu einer Pflege der Demokratie gehört auch  ein respektvoller Umgang mit Andersdenkenden. Die Bereitschaft sich auf andere Sichten einzulassen und eine echte Diskussion zu führen. Im Netz und ausserhalb.