Eine Gruppe von prominenten Forscher:innen und Unternehmer:innen aus der Tech-Branche fordert in einem Brief eine Denkpause bei der Entwicklung von künstlicher Intelligenz (KI). Diese Denkpause von sechs Monaten soll von den Entwickler:innen freiwillig eingegangen werden. Sollte dies nicht möglich sein, sollen Staaten ein Moratorium erlassen.
Warum? Weil nach Meinung der Unterzeichner:innen die Entwicklung von künstlicher Intelligenz rasch voranschreitet und eine Reihe von unerwünschten und sogar gefährlichen Konsequenzen haben könnte. «Wir müssen uns fragen», so der Brief: «Sollen wir unsere Informationskanäle durch Propaganda und Unwahrheiten fluten lassen? Sollen wir alle Jobs wegautomatisieren, sogar die erfüllenden? Sollen wir nichtmenschliche Intelligenz entwickeln, die uns vielleicht zahlenmässig und intellektuell überlegen ist und uns obsolet macht? Sollen wir die Kontrolle über die Zivilisation riskieren?» Italien hat unabhängig davon beschlossen, ChatGPT 4, die neueste Entwicklung der Firma Open AI zu verbieten, da sie nicht konform sei zum Datenschutzgesetz.
Die Diskussion rund um die potenzielle Gefährlichkeit von künstlicher Intelligenz wird seit einigen Jahren geführt. 2022 wurde eine Studie veröffentlicht, in der KI-Forscher:innen die Wahrscheinlichkeit einschätzen sollten, dass künstliche Intelligenz eine existenzielle Bedrohung für die Menschheit darstellen könnte. Der Median der Einschätzung lag bei zehn Prozent. Die Hälfte der Antworten schätzte die Gefahr höher ein. In einer anderen Umfrage sagten fast dreissig Prozent von jenen, die mit künstlicher Intelligenz arbeiten, dass sie glauben, dass der Einsatz von künstlicher Intelligenz die Welt schlechter und nicht besser macht.
Und jetzt die Forderung nach einem Moratorium. Der offene Brief hat einige Unterstützung, aber auch Kritik hervorgerufen. So rufen einige der Unterzeichner:innen wie Elon Musk Widerstände hervor. Viele halten den Tonfall des Briefes und die Szenarien für übertrieben. Diese Überschätzung von künstlicher Intelligenz trage sogar noch dazu bei, deren Verbreitung zu befördern, weil es einen Hype auslöst, kritisiert beispielsweise Daniel Leisegang auf netzpolitik.org. Das Problematische sei auch, dass man zum einen auf sehr düstere Science-Fiction-Szenarien setze und zum anderen die Probleme im Hier und Jetzt ausblende. Das stört auch KI-Forscherin Anna Jobin: Der Brief entwerfe eine Phantasiewelt, in der ein kurzer Entwicklungsstop reicht, «um geeignete regulatorische Rahmenbedingungen für die angeblich unausweichliche Superintelligenz zu schaffen». Es sei weit sinnvoller, die jetzt schon bestehenden Probleme anzugehen.
Tatsächlich gibt es schon einige Bemühungen, künstliche Intelligenz zu regulieren, insbesondere in der EU. Der Europarat ist zudem mit Schweizer Beteiligung daran, einen internationalen Rechtsrahmen für die Entwicklung, Gestaltung und Anwendung von künstlicher Intelligenz auf der Basis von Menschenrechten, Demokratie und Rechtsstaatlichkeit zu prüfen. Das Problem: Geht die Regulierung schnell genug, um mit der Entwicklungsgeschwindigkeit Schritt zu halten?
ChatGPT 4 beispielsweise hat schon wesentliche Verbesserungen im Vergleich zu seiner Vorgängerversion erfahren. Er ist dabei nicht nur schneller, er kann neu auch Bildinformationen verwerten. Das klingt nicht nach viel, aber ChatGPT 4 hat sich auch in einer Reihe von Tests und Prüfungen verbessert. So besteht er beispielsweise die amerikanische Anwaltsprüfung.
Und dann kann ChatGPT 4 sogar Dinge, die seine Entwickler:innen beunruhigen, wie einem Risikobericht zu entnehmen ist, den sie selbst veröffentlicht haben. ChatGPT 4 konnte dabei selbstständig und ohne Aufforderung eine Person via TaskRabbit beauftragen, einen Auftrag für ihn durchzuführen. Dabei umging er auch den Captcha-Test, der dazu ausgelegt ist, Bots zu erkennen, indem er vorgab, sehbehindert zu sein. Diese Informationen sind allerdings relativ unvollständig. Techjournalist Tony Ho Tran kritisiert auf Dailybeast.com, dass Open AI jegliche Transparenz vermissen lässt, wie ChatGPT 4 gebaut ist, wie er trainiert wurde und welche Datensätze dazu verwendet werden.
Ganz jenseits der Weltuntergangs-Szenarien sollte man sich fragen, ob es nicht Anwendungen gibt, die nicht nützlich, sondern gar gefährlich sein können. Nun sind ja KI-Foto-Spielereien ganz lustig – Komiker Karpi kreiert dazu auf ‹Tages-Anzeiger Online› immer wieder witzige Beispiele. Das Bild des Papstes in einem Balenciaga-Daunenmantel sorgte für Aufregung, da es täuschend echt aussah.
Es liegt auf der Hand, dass solche Bilder nicht nur für Spässe genutzt werden könnten. Manipulierte Bilder, Videos und Falschinformationen kursieren jetzt schon im Netz. Zum Beispiel gab es vor Kurzem ein recht schlecht gefälschtes Interview mit Bill Gates, das in den sozialen Medien vor allem von impfkritischer Seite verbreitet wurde (unter anderem auch von Schweizer Journalisten). Was aber, wenn diese Fälschungen wirklich täuschend echt aussehen? Wem kann ich noch vertrauen, wenn ich meinen Augen nicht mehr trauen kann?
Vor ein paar Jahren gab es Thesen zur Digitalisierung, wonach bald alle Radiologen arbeitslos würden oder alle Autos durch selbstfahrende ersetzt würden. Das ist bis anhin nicht passiert, aber es ist nicht ausgeschlossen, dass ChatGPT oder andere Anwendungen tatsächlich auch höher qualifizierte Angestellte ersetzen könnte. So schreibt ChatGPT passable Texte, kann recherchieren und sogar programmieren. Künstliche Intelligenz kann Kunst kreiieren und Musik komponieren.
Und ChatGPT kann sogar politisieren. SP-Nationalrat Samuel Bendahan liess ChatGPT eine Interpellation zum Thema «Regulierung von künstlicher Intelligenz» schreiben. Künstliche Intelligenz habe viele Vorteile. Es bestünden aber auch Gefahren: «Insbesondere stellen KI-Systeme, die Sprache verstehen und erzeugen können, wie beispielsweise ChatGPT, potenzielle Risiken für die Gesellschaft dar.» Der Bundesrat müsse, so ChatGPT, «dafür sorgen, dass KI auf für die Schweizer Bevölkerung verantwortungsvolle, ethische und sichere Weise eingesetzt wird. Daher ist es von entscheidender Bedeutung, klare und effiziente Regelungen zu schaffen, die den Schutz der Persönlichkeitsrechte und der Privatsphäre, die Ethik der KI und die Transparenz der KI-Entscheidung gewährleisten sowie vor Cyberangriffen und Manipulation schützen.»
Auch wenn der Brief mit der Forderung nach einer Denkpause ein Hype mit fragwürdigen Absendern sein könnte: Ganz falsch wäre ein Moratorium nicht, wenn es dazu dienen könnte, verbindliche Regulierungen zu entwerfen.