Ich glaube nicht an Verschwörungstheorien. Kaum jemand ist überhaupt klug genug, sich einen ausgeklügelten Plan zu erdenken, geschweige denn, ihn auch über Jahrhunderte durchzuziehen. Auch auf den oberen Ebenen wird häufig mit Wasser gekocht. Und oft erlebt man eine leise Enttäuschung, wenn sich jene, die man sich als durchtrieben und raffiniert vorstellt, als einfache Dilettanten wie du und ich entpuppen. Und wenn es tatsächlich so wäre, dass eine Gruppe wie, sagen wir Templer, Freimaurer oder Illuminaten, seit Jahrhunderten die Weltgeschicke lenken würde, ohne dass wir es gross mitkriegen, dann müsste man ihnen doch eine gewisse Anerkennung zubilligen.
Eine Gruppe von ProfessorInnen um Gerd Gigerenzer, Direktor am Max-Planck-Institut, und Dirk Helbling, Professor an der ETH, hat jüngst ein Manifest mit dem Titel «Digitale Demokratie statt Datendiktatur» veröffentlicht. In ihrem Manifest warnen die AutorInnen vor den Auswirkungen von künstlicher Intelligenz und Algorithmen auf die Demokratie und die Gesellschaft. Wenn wir die Weichen nicht heute stellen, drohe uns ein Feudalismus 2.0.
Im Jahr 2015 wurden mehr Daten produziert als in der gesamten Geschichte bis 2014 zusammen. Pro Minute werden Hunderttausende von Google-Suchanfragen und Facebook-Posts gesendet. Dort sagen wir, was uns interessiert und beschäftigt. Das «Internet der Dinge» ist der nächste Schritt: Gegenstände unseres Alltags werden mit dem Internet verbunden sein. Der Kühlschrank, das Auto, vielleicht unsere Kleidung. Der letzte Schrei sind im Moment Gesundheitsarmbänder, die Schritte zählen und Gesundheitsdaten messen.
Das Gebiet der künstlichen Intelligenz macht atemberaubende Fortschritte. Sie ist lernfähig und entwickelt sich selbstständig weiter. Schon jetzt werden 70 Prozent aller Finanztransaktionen von Algorithmen gesteuert. Selbst Zeitungsnews werden teilweise automatisch erzeugt. Das wird selbstverständlich Auswirkungen auf den Arbeitsmarkt haben. Die AutorInnen glauben, dass in den nächsten zehn bis zwanzig Jahren die Hälfte der Jobs verschwinden könnte.
1996 besiegte «Deep Blue», ein Computer von IBM, den russischen Schachweltmeister Garri Kasparow. Zuvor dachte man, dass ein Computer zwar viel besser rechnet als Menschen, aber niemals menschliche Kreativität und Intelligenz simulieren könne. Zwanzig Jahr später haben sich Supercomputer noch einmal weiterentwickelt. Das beginnt nun einige zu beunruhigen: Elon Musk von Tesla Motors, Bill Gates von Microsoft, Apple-Mitbegründer Steve Wozniak und Physiker Stephen Hawkings warnen vor der künstlichen Intelligenz als Gefahr für die Menschheit. Stuart Russel, Professor der Universität Berkeley verglich in einem Interview mit der Zeitschrift ‹Science› künstliche Intelligenz mit der Atomenergie: «Es gibt eine begründete Analogie zwischen der Suche nach einer unerschöpflichen Energiequelle und der Suche nach unerschöpflicher Intelligenz.» Beides erscheine wunderbar, bis man die Risiken bedenkt.
Einen Vorgeschmack auf die Implikationen von Algorithmen auf die Gesellschaft zeigt China. Baidu, das chinesische Google, lässt sogenannte Deep-Learning-Algorithmen über die Suchmaschinen laufen, um die Daten intelligent auszuwerten. Geplant ist damit die Überwachung der BürgerInnen. Diese sollen ein Punktekonto erhalten, das darüber entscheiden soll, ob sie Kredite erhalten, welche Berufe sie ausüben dürfen oder ob sie nach Europa reisen können. Das Surf- und Suchverhalten und die sozialen Kontakte in den Netzwerken sollen also die Chancen eines Menschen bestimmen.
Experimentiert wird auch mit der Möglichkeit, das Verhalten von Menschen zu beinflussen. Mittels sogenanntem «Nudging» (anstupsen) sollen Menschen dazu bewegt werden, sich richtig zu verhalten. Das ist nicht ganz neu: Ein klassisches Beispiel für «Nudging» sind die aufgeklebten Fliegen in den Urinalen, die Männer zu mehr Treffsicherheit animinieren sollen. Facebook und die Dating-Plattform OK Cupid haben zugegeben, dass sie soziale Experimente mit Tausenden unwissenden NutzerInnen durchgeführt haben. Dabei ging es bei Facebook darum, wie die Emotionen eines Nutzers andere in ihrer Stimmung beinflussen. Die Ergebnisse waren zwar relativ bescheiden, so gross war der Einfluss nicht – der Skandal besteht aber darin, dass die Versuchskaninchen total ahnungslos waren, dass sie an einem Versuch teilgenommen haben. KritikerInnen warnen davor, dass Konzerne oder der Staat das Verhalten von Menschen zu beinflussen versuchen. Das seien manipulative Techniken, welche die Demokratie gefährden könnten. Ein weiteres Problem ist die sogenannte Filter-Bubble, die in sozialen Netzwerken Ähnlichkeiten gewichtet und darum fast nur noch die Meinungen von Gleichgesinnten aufzeigt.
Viele dieser Digitalisierungs-Szenarien klingen abenteuerlich. Wie ein Science-Fiction-Film, wo Maschinen die Weltherrschaft übernehmen und der militärisch-industrielle Komplex mit Gedankenkontrolle die Menschen beherrscht. Auch mir erscheinen sie zuweilen paranoid. Es riecht nach Verschwörungstheorie. Und nicht in allem ist – wie ich eingangs geschrieben habe – ein raffinierter, böser Wille zu finden.
Ein Nationalrat sagte an einem Anlass zum Thema «E-Voting», dass ihn die ganze Diskussion um Open Source und offene Quellcodes nicht interessiere. Wichtig sei doch, dass das Ganze endlich funktioniere. Das ist eine verbreitete Einstellung zur Technologie, die ich absolut verstehen kann. Muss ich wissen, wie ein Verbrennungsmotor funktioniert, um Auto zu fahren? Muss ich den Unterschied zwischen Bits und Bytes verstehen, um mit dem Computer zu arbeiten? Nein. Denn Hauptsache, es funktioniert.
Das Problem bei Algorithmen, Robotern und künstlicher Intelligenz ist, dass wir als Gesellschaft wie Zauberlehrlinge funktionieren. Wir rufen hier vielleicht Geister, die wir eines Tages nicht mehr loswerden. Die Literaturgeschichte ist voller Beispiele künstlicher Wesen, die zum Leben erweckt wurden. Es endet in der Regel nicht gut.
Ich glaube eigentlich nicht an Verschwörungstheorien. Und auch nicht an Weltuntergangsszenarien. Aber ganz blindlings sollten wir nicht nur auf das blosse Funktionieren setzen. In einem Gespräch mit dem Digitalunternehmer Hannes Gassert brachte dieser einen sehr einleuchtenden Punkt. In der medizinischen Forschung gehören ethische Fragen dazu, es gibt Ethikkomissionen, die Diskussion um ethische Auswirkungen der Forschung ist etabliert. In der Informatik fehlt dies gänzlich. Einzig die Machbarkeit treibt die Forschung an.
In seiner Sammlung von Kurzgeschichten «I, Robot» (1950) formulierte Isaac Asimov die berühmten Robotergesetze. Es gibt nur drei: Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
Fünfundsechzig Jahre später scheint es höchste Zeit, sich – nicht nur literarisch – Gedanken über Roboter- und andere Gesetze zu machen.