Künstliche Intelligenz: Wie sind Algorithmen zu bändigen?

Nr. 25 –

Das EU-Parlament hat mit dem «AI Act» einen Vorschlag zur Regulierung von KI-Technologien gemacht. Und die Schweiz? Wartet erst mal ab.

Kürzlich hat die Non-Profit-Organisation «Center for AI Safety» einen offenen Brief publiziert, der aus einem einzigen Satz besteht. Das Risiko der Auslöschung der Menschheit durch künstliche Intelligenz (KI) müsse genauso ernst genommen werden wie jenes einer Pandemie oder eines Atomkriegs, hiess es darin. Fast 600 Professorinnen, Forscher und Tech-CEOs haben den Appell unterzeichnet. Unter ihnen findet sich neben Microsoft-Gründer Bill Gates und Googles KI-Chef Demis Hassabis auch Sam Altman, der CEO der Firma OpenAI, die den berühmten Chatbot Chat GPT entwickelt hat.

Als der Textgenerator im November der Öffentlichkeit zugänglich gemacht wurde, löste das einen Boom aus. Schon nach zwei Monaten zählte er hundert Millionen User:innen. Kaum ein Tag vergeht seither ohne spektakuläre Warnungen oder Heilsversprechen: Mal soll eine künstliche Superintelligenz die Menschheit auslöschen, dann wieder erlöst sie uns von der Klimakatastrophe und von seltenen Krankheiten. Vieles davon ist reichlich übertriebener Technizismus (siehe WOZ Nr. 18/23). Und dennoch: Mit der Veröffentlichung von Chat GPT hat sich einiges verändert.

Ein bunter Strauss an Technologien

Kurz nachdem nämlich Microsoft angekündigt hatte, das Sprachmodell von OpenAI in seine Suchmaschine Bing zu integrieren, sah sich Google genötigt, seinen Konkurrenz-Bot «Bard» zu lancieren. Dabei hatte CEO Sundar Pichai zuvor lange vor potenziellen Gefahren gewarnt. Die übrigen Techriesen zogen mit grossspurigen Ankündigungen nach. Der Wettbewerbsdruck und die schiere Dynamik der Konkurrenz überrollen jede Vorsicht. Denn die Profitaussichten sind gigantisch. Allein 2022 wurden knapp 190 Milliarden US-Dollar in die Technologien investiert, wie der «AI Index» der US-Universität Stanford zeigt.

Dem enormen Tempo der Konzerne steht die Trägheit der Politik gegenüber. Zwar gibt es mancherorts bereits vereinzelt KI-spezifische Gesetze, eine umfassende Regulierung ist jedoch noch nirgends in Kraft. Was aber muss überhaupt reguliert werden? Welche Entwicklungen gilt es zu antizipieren, welche gesellschaftlichen Folgen?

Die aktuelle Aufregung geht auf Chatbots zurück, die auf Fragen natürlich und klug klingende Antworten geben. Ihrem jüngsten Siegeszug waren bereits Diskussionen um Bildgeneratoren wie «Dall-E 2» vorausgegangen. Es geht dabei ebenfalls um «generative KI»: um Systeme, die selbstständig Texte, Bilder, Videos, Lieder oder auch Softwarecode erzeugen können. Länger schon wird auch über die gesellschaftlichen Auswirkungen von Gesichtserkennung oder automatischen Entscheidungssystemen debattiert.

Gemeinsam ist diesem bunten Strauss an Anwendungen die Basis. Mittels «Machine Learning» soll ein Computerprogramm quasi selbstständig lernen, in immensen Datenmengen Muster zu erkennen und aus ihnen allgemeine Regeln abzuleiten: ein Gesicht oder Wort wiederzuerkennen, ein Pixel oder Wortfragment in einer Zeichenkette vorherzusagen oder autonom Entscheidungen zu fällen. Was der Algorithmus dabei genau macht, ist meist nicht nur dem öffentlichen Blick entzogen, sondern selbst den Entwickler:innen. Das erschwert die Kontrolle.

All die Technologien werden in der öffentlichen Debatte als «Künstliche Intelligenz» verhandelt. Der Begriff dient als grobes sprachliches Bild, um das Gemeinsame kenntlich zu machen. So unterschiedlich aber die Anwendungen, so vielfältig auch die Gefahren: Deepfakes (gefälschte Bilder, Videos und Tonspuren) von Politiker:innen als Lügenschleudern; diskriminierende Entscheidungsalgorithmen bei Behörden; die Degradierung menschlicher Arbeit; autonome Waffensysteme im Krieg; systematische Überwachung und Datenauswertung.

Wie soll einer solchen Vielzahl an höchst dynamischen Bedrohungen mit einem statischen Gesetz begegnet werden? Das EU-Parlament hat sich vergangene Woche auf einen Entwurf für den «AI Act» geeinigt. KI-Systeme sollen demnach je nach Anwendungsfall und Gefahrenpotenzial reguliert werden – je gefährlicher, desto restriktiver die Regeln. Die KI-basierte Klassifizierung nach ethnischen Merkmalen oder Gesichtserkennung im öffentlichen Raum etwa sollen ganz verboten werden, mit Ausnahme militärischer Zwecke oder solcher der Strafverfolgung in schwerwiegenden Fällen.

Der Gesetzesentwurf wird in der EU seit 2021 diskutiert. Mit Chat GPT wurde der risikobasierte Ansatz aber infrage gestellt, da die Sprachmodelle in verschiedensten Anwendungen Gebrauch finden und bereits von Millionen Menschen genutzt werden. Das EU-Parlament hat für die grossen Sprachmodelle eine softe Regulierungsvariante gewählt: Sie gelten nicht generell als «hochriskant», sondern nur, wenn sie in «kritische» Anwendungen integriert werden, etwa in der Bildung oder bei Wahlen. Erst dann greifen strengere Anforderungen an Transparenz, Qualität und Risikomanagement.

Big Tech hatte sich energisch dafür eingesetzt, dass ihre «allgemein anwendbare» KI mit Samthandschuhen angefasst wird. Während Bill Gates und Demis Hassabis also den offenen Brief gegen die bedrohliche Super-KI unterschrieben, lobbyierten Microsoft und Google im Hintergrund für weniger Regulierung.

Der Harmonisierungsdruck ist hoch

Die Details des Gesetzes müssen nun im ­«Trilog» zwischen EU-Parlament, EU-Kommission und Europarat ausgehandelt werden. Es könnte bereits Mitte 2024 in Kraft treten und wird auch auf die Schweiz Auswirkungen haben: Der AI Act gilt für alle Anbieter, deren Produkte in der Europäischen Union genutzt werden. Der Harmonisierungsdruck dürfte damit hoch sein.

Das sieht man an einem anderen Fall: Derzeit wird ein Vernehmlassungsvorschlag für die Regulierung von Plattformen wie Facebook und Youtube mit ihren KI-Selektionssystemen ausgearbeitet, weil sich die Schweiz dem Digital Service Act der EU angleichen will. Es ist das einzige spezifische KI-Gesetzesvorhaben in der Schweiz.

Justizministerin Elisabeth Baume-Schneider hat zuletzt vor dem Parlament betont, dass man die Entwicklung ansonsten erst einmal beobachten wolle und sich auf bestehende Gesetze wie den Datenschutz verlasse. Zwar existieren seit dem Jahr 2020 Richtlinien für den Einsatz von künstlicher Intelligenz in der Verwaltung, diese gelten aber bloss als allgemeiner Orientierungsrahmen. Und eine Liste, auf der Bundesstellen seit Frühling 2022 ihre KI-Projekte eintragen können, ist nicht verbindlich. Die Informationen, die sich dort zu den bislang 45 Projekten finden lassen, sind zudem oft wenig aussagekräftig.

Im Parlament sind derzeit aber mehrere Vorstösse hängig. Die SP befürchtet, dass unregulierte KI-Anwendungen ein demokratisches Desaster anrichten könnten, und fordert in einem jüngst publizierten Grundsatzpapier, dass die EU-Regeln vollständig übernommen werden. Die Ratsrechte hingegen sieht die Innovation gefährdet, sollte man rasch Regularien einführen.

Das zielt aber an der eigentlichen Problemstellung vorbei. Es ist kaum zu bestreiten, dass KI-Technologien ein immenses Umwälzungspotenzial bergen – gerade darum es ist unerlässlich, das mächtige Instrument der gesellschaftlichen Kontrolle zu unterwerfen, anstatt es den profitgetriebenen Visionen der Konzerne zu überlassen. Darüber muss eine Debatte stattfinden, und zwar abseits der PR-trächtigen Weltrettungs- und Weltuntergangsmärchen der Tech-CEOs.