Nr. 20/2018 vom 17.05.2018

Gift für den Patienten

Der Gesetzgeber soll sich vom Geschwafel über die künstliche Intelligenz nicht ins Boxhorn jagen lassen und lieber an der eigenen Agilität arbeiten.

Von Hansi Voigt

Wo emotionale Intelligenz ein eher rares Gut ist, scheint künstliche Intelligenz derzeit der ganz heisse Scheiss zu sein. Bei der Schweizerischen Depeschenagentur (SDA) sollen bessere Sporttabellen aus smarten Daten entstehen, und Mark Zuckerberg will das akute Problem der Hasskommentare ebenfalls mit Artificial Intelligence (AI) lösen.

Noch liefert Facebook allerdings die besten Beispiele für künstliche Dummheit: Der deutsche Reporter Richard Gutjahr, der kurz hintereinander zufällig Zeuge von zwei Anschlägen geworden war, ist wohl das bekannteste Opfer von ungefiltertem, viral  befeuertem Hatespeech durch VerschwörungstheoretikerInnen. Nun wollte er eine Aufzeichnung seines Auftritts an der Berliner Republica bewerben – hat aber nicht mit Zuckerbergs AI gerechnet. «Facebook hat die Bewerbung meines Anti-Hatespeech-Vortrags abgelehnt – weil er Hatespeech enthält», so Gutjahr auf Twitter.

Eine Million Verurteilungen

Trotzdem muss es AI richten. Denn Facebook sitzt, spätestens seit den Hearings im US-Kongress, in der rechtlichen Falle. Die Tage, in denen man als publizistisch unregulierter Techkonzern agieren kann, scheinen gezählt. Doch als Medienunternehmen muss Facebook die gleiche publizistische Verantwortung übernehmen wie etwa ein hiesiges Onlineportal. Wer etwa persönlichkeitsverletzende LeserInnenbriefe verbreitet, haftet. Im Fall von Facebook würde das nach aktuellem Stand pro Tag gefühlt zu einer Million Verurteilungen führen.

Wenn Zauberlehrling Zuckerberg ankündigt, mit künstlicher Intelligenz «faule Kommentare für die bessere User-Experience herauszufiltern», geht es ihm auch darum, das Problem aus rechtlicher Sicht an Maschinen zu delegieren und Zeit zu gewinnen. Rechner und Algorithmen sind de facto redaktionell tätig, publizistisch aber nicht haftbar. Jedenfalls noch nicht. Denn das Argument, man sei ein Techunternehmen, kann mit zunehmend smarter werdenden Maschinen nicht mehr verfangen.

Es mag künstliche Intelligenz geben, eine künstliche Ethik gibt es nicht. Dass man Moral nicht an Maschinen delegieren kann, weiss niemand besser als Chelsea Manning. Die ebenfalls an der Berliner Republica gefeierte Whistleblowerin hat so lange Rechner mit Daten gefüttert und Algorithmen verbessert, bis die US-Drohnen quasi von alleine wussten, welches Ziel sie als Nächstes bombardieren werden. «Ich habe im Irak mit Datensätzen gearbeitet, und das wurde zu einer Entscheidung über Leben und Tod, basierend auf Algorithmen», sagt die vor einem Jahr begnadigte ehemalige IT-Spezialistin der US Army.

Angesichts der enormen Verzerrung unserer Werte, der Überforderung der ParlamentarierInnen und übermächtigem Lobbyismus glaubt Manning nicht mehr, dass man in der Lage sei, mit der technischen Entwicklung regulatorisch Schritt zu halten. Sie fordert deshalb eine Art hippokratischen Eid für ProgrammiererInnen, analog zu den ÄrztInnen, die zwar giftige Substanzen einsetzen dürfen, aber ausschliesslich dem Wohl der PatientInnen verpflichtet sind.

Der Vorschlag mag etwas naiv klingen. Er zeigt aber, wie grundsätzlich das Problem ist, wenn der technische Fortschritt vom gesellschaftlichen Konsens und der entsprechenden gesetzgeberischen Umsetzung zunehmend entkoppelt ist. Mit einzelnen Gesetzen ist das nicht zu lösen. Sie kommen immer zu spät.

Wertvolle Anstösse

Ein entsprechendes Beispiel liefert die Schweiz mit dem aktuellen Versuch, sich ein neues Mediengesetz zu geben. Trotz völlig neuer Umstände wird im besten Fall gerade einmal die Vergangenheit und nicht einmal der Status quo, geschweige denn die Zukunft, rechtlich vernünftig gefasst werden.

Professor Otfried Jarren, Chef der Eidgenössischen Medienkommission, fordert deshalb bereits Jahre vor Inkrafttreten des Mediengesetzes «eine grundsätzliche Leitbild-Debatte» und «die Ausbildung eines Expertenrats», der wesentlich agiler auf die laufenden Veränderungen, etwa über das Einwirken auf allgemeine Geschäftsbedingungen, reagieren kann.

Es mag befremdlich erscheinen, dass solche «technischen Notstandverordnungen» die Verfassung in Teilen aushebeln würden. Aber das tut die sich immer schneller entwickelnde technische Realität auch. Jarrens Idee und Mannings hippokratischer Eid sind deshalb wertvolle Anstösse. Denn der Frage, wie die demokratischen Legitimierungsprozesse deutlich an Agilität gewinnen können, sollten wir uns dringend stellen.

Hansi Voigt (54) war stellvertretender Chefredaktor bei «Cash», arbeitete beim Onlineportal 20min.ch und gründete «Watson» mit.