Künstliche Intelligenz: Unter Zugzwang
Die USA und China legen im Wettlauf um die Vorherrschaft in der KI-Industrie vor. Was heisst das für Europa? Und was für die Schweiz?

«Dies ist eine Schlacht um Unabhängigkeit.» Die Worte des französischen Präsidenten Emmanuel Macron liessen Anfang Februar aufhorchen. Anlass war der «AI Action Summit», der vergangenen Monat in Paris stattfand. Und die Rede davon, was Europa tun könne, um bei der Entwicklung von künstlicher Intelligenz (KI) nicht abgehängt zu werden. Am Gipfeltreffen, das rund 1500 Vertreter:innen aus Techindustrie, Politik und Wissenschaft versammelte, herrschte Aufbruchstimmung: Mehr als 100 Milliarden Euro an Investorengeldern sollen in den kommenden Jahren in Frankreichs KI-Infrastruktur fliessen, versprach Macron. EU-Kommissionspräsidentin Ursula von der Leyen doppelte nach und kündigte an, 200 Milliarden Euro für KI-Investitionen zu mobilisieren.
Der Zeitpunkt war kein Zufall. Keinen Monat zuvor hatte US-Präsident Donald Trump, kaum im Amt, das Infrastrukturprojekt «Stargate» lanciert: ein Joint Venture der Techfirmen Open AI und Oracle sowie der Techinvestoren Softbank und MGX. Diese wollen in den kommenden Jahren 500 Milliarden US-Dollar in den Bau riesiger Rechenzentren stecken – und so die US-Vorherrschaft in der KI sichern. Ein paar Tage später die Überraschung aus China: Das Start-up Deepseek brachte einen KI-Chatbot auf den Markt, der sich mit den besten Modellen aus den USA messen kann – aber mit bedeutend weniger Ressourcen entwickelt wurde und zudem bdeutend weniger Ressourcen verbraucht.
Für Europa wirkten die Ereignisse wie ein Weckruf. Jetzt oder nie gelte es nachzuziehen, lauteten Appelle aus Wissenschaft, Wirtschaft und Politik. Doch ist ein Aufschliessen zu den grossen Playern aus den USA und China überhaupt möglich? Und erstrebenswert? Wie kann und soll sich Europa im Umgang mit KI positionieren?
Anschluss verpasst
Daran, dass KI eine immer wichtigere Rolle spielen wird, gibt es kaum Zweifel. In der Medizin wird sie zur Diagnose von Krankheiten eingesetzt, im Pharmabereich, um neue Medikamente zu entdecken. Unternehmen nutzen sie zur Effizienzsteigerung, etwa indem sie Arbeitsabläufe automatisieren. Und das ist erst der Anfang.
«Ob unternehmerisch, in der Gesellschaft oder bei der Geopolitik – KI-Forschung wird ausschlaggebend sein für die Erfolge in der nächsten Dekade», sagt Damian Borth. Der Professor für künstliche Intelligenz und maschinelles Lernen an der Universität St. Gallen verfolgt die rasante Entwicklung der Technologie schon lange. Für ihn ist klar: Wollen Staaten wirtschaftlich und geopolitisch nicht ins Hintertreffen geraten, müssen sie jetzt aktiv werden. Die in Paris gesprochenen Milliarden begrüsst er. Man müsse sich aber gut überlegen, wie sie verwendet würden. «Wollen wir in Europa nachmachen, was die USA und China machen? Einfach immer hinterher sein? Oder wollen wir einen eigenen Weg einschlagen?»
In den letzten Jahrzehnten hat Europa bei vielen digitalen Entwicklungen den Anschluss verpasst. Wir verwenden US-Suchmaschinen, Plattformen aus den USA – oder chinesische Pendants wie Tiktok –, setzen auf Cloudspeicher von Microsoft, Amazon oder Google. Bei der KI müsse das anders laufen, warnen kritische Stimmen. Noch aber bauen auch heimische KI-Firmen ihre Modelle häufig auf Technologie aus den USA auf oder nutzen Hochleistungschips des kalifornischen Herstellers Nvidia.
Diese Abhängigkeit sei riskant, sagt Jennifer Victoria Scurrell, KI-Spezialistin am Center for Security Studies der ETH Zürich. Neben ihrer Forschung testet sie KI-Modelle für das US-Unternehmen Open AI. «Wer den Zugang zur neusten KI-Technologie kontrolliert, verfügt über ein bedeutendes Druckmittel», sagt sie. In einer Zeit, in der die Vernetzungen zwischen Regierungen und grossen Techfirmen gerade in den USA immer stärker würden, sei das besonders bedeutend. «Würde die Schweiz nun aus irgendeinem Grund bei den USA in Ungnade fallen, könnten sie uns theoretisch einfach den Techhahn zudrehen.»
Europas Abhängigkeit sei noch aus einem anderen Grund heikel: Gerade bei generativer KI, also solcher, die neue Inhalte, wie Bilder, Videos oder Text erstellt, würden immer auch Werte mittransportiert. «Ein krasses Beispiel ist, dass Deepseek aus China keine Fragen zum Tiananmen-Massaker beantwortet.» Oft geschehe das aber viel subtiler. Dennoch führe das zwangsläufig zu einer Beeinflussung der Gesellschaft. Europa müsse sich daher gut überlegen, auf welche Werte es sich bei der KI-Nutzung stützen wolle.
Mehr Unabhängigkeit wäre also erstrebenswert. Wie aber ist Europa dafür aufgestellt? Bei der Entwicklung von Large Language Models, also grossen Sprachmodellen, wie sie Open AI, Meta, Google oder Anthropic anbieten, liegt der Kontinent zurück. Mithalten kann einzig das französische Unternehmen Mistral mit seinem Chatbot Le Chat. Dieser wird aber noch wenig verwendet. Anders sieht es bei der Forschung aus. «Es gibt gute Grundlagenforschung in Deutschland. Auch in Grossbritannien passiert einiges oder in Barcelona», sagt KI-Professor Borth, «und natürlich ist da die exzellente Wissenschaftslandschaft der Schweiz.» Mit den Eidgenössischen Technischen Hochschulen in Zürich (ETH) und Lausanne (EPFL) verfügt die Schweiz über jenen Baustein, auf den es bei KI neben Geld, Rechenkraft und Daten ankommt: Talente. Mit dem im vergangenen Herbst eingeweihten Supercomputer Alps in Lugano steht auch die nötige Infrastruktur bereit. Forschende der ETH und der EPFL, die sich kürzlich in einem neu gegründeten nationalen Institut für KI stärker vernetzt haben, arbeiten derzeit etwa an einem eigenen Sprachmodell. Borth betont, dass jedoch auch Investitionen in die heimischen Start-ups gestärkt werden müssten. Doch reicht das, um mit den USA mitzuhalten?
Ein anderer Aspekt tritt beim KI-Wettlauf zunehmend in den Hintergrund: die Risiken. Bereits heute verbrauchen Rechenzentren je nach Schätzung 1,5 bis 2 Prozent des weltweiten Strombedarfs. Laut Prognosen dürfte sich dieser Anteil in den nächsten Jahren verdoppeln. Ein Problem, das gerne verschwiegen werde, sagt Estelle Pannatier, Policy Managerin bei der NGO Algorithm Watch Schweiz. Sie sieht die weltweite Investitionseuphorie kritisch. «Es sollte nicht darum gehen, wer die grössten Sprachmodelle bauen kann, sondern darum, wie man nachhaltige KI gestaltet.»
Während es hierzu noch kaum Regulierungen gibt, hat Europa bei anderen Gefahren der KI kürzlich einiges unternommen. Im Mai 2024 verabschiedete der Europarat eine KI-Konvention. Sie soll die Förderung von Menschenrechten, Demokratie und Rechtsstaatlichkeit auf KI ausweiten und den 46 Mitgliedstaaten, darunter die Schweiz, eine Grundlage für regulatorische Standards geben. Kritiker:innen bemängeln allerdings die vielen Ausnahmen und Schlupflöcher.
David Sommer, der bei der Digitalen Gesellschaft die Fachgruppe Automatisierte Entscheidungssysteme leitet, hat als zivilgesellschaftlicher Beobachter an den Verhandlungen der Mitgliedstaaten teilgenommen. Der Spezialist für Cybersecurity zieht ein ernüchterndes Fazit: Der ursprünglich starke Entwurf sei im geopolitischen Machtgerangel zerrieben worden. So etwa können Staaten selbst entscheiden, ob sie Firmen von der Konvention ausnehmen – eine einschneidende Ausnahme, zumal der Grossteil der KI-Modelle auch künftig von der Privatwirtschaft entwickelt werden dürfte. Zudem: Der Bereich nationale Sicherheit ist vollständig ausgeklammert. Darunter fallen etwa Terrorismusbekämpfung, Migration oder Teile der Strafverfolgung. «Also genau die Bereiche mit hohem Missbrauchspotenzial», sagt Sommer.
Ein Gesetz wie ein Weihnachtsbaum
Mehr Beachtung fand der AI Act, das KI-Gesetz der EU, das im vergangenen Sommer verabschiedet wurde. Es gilt als bisher umfassendster Regulierungsansatz weltweit und wird bis August 2027 schrittweise umgesetzt. Teile davon sind bereits seit Februar für alle in der EU tätigen Firmen bindend. Das Gesetz regelt sektorübergreifend Entwicklung, Verkauf und Nutzung von KI-Systemen, indem es diese in Risikokategorien einteilt. Gewisse Systeme (wie biometrische Echtzeitidentifizierung im öffentlichen Raum) werden aufgrund ihres hohen Schadenspotenzials ganz verboten.
Doch auch hier ist die Kritik gross. Während zivilgesellschaftliche Organisationen Lücken beim Schutz der Grundrechte beklagen, fürchtet die Wirtschaft, ins Abseits gedrängt zu werden: Der mit dem Gesetz verbundene bürokratische Aufwand sei für Start-ups und mittelgrosse Betriebe kaum zu stemmen. Das Gesetz wolle zu schnell zu viel, sagt David Sommer. «Wie ein Weihnachtsbaum, an den man zu viele Kugeln gehängt hat und der nun zusammenzubrechen droht.» Das hemme die wirtschaftliche Entwicklung der europäischen Techbranche und begünstige so ausgerechnet die US-Techgiganten. Zwar äusserten auch diese Kritik am EU-Regelwerk. Schliesslich müssen sie sich für den europäischen Markt ebenfalls daran halten. Nachteile könnte aber vor allem die EU davontragen, sagt Borth: wenn die neuste US-Technologie Europa dann später oder gar nicht mehr zur Verfügung stehe.
Schweiz geht eigenen Weg
Vielleicht ist es also gar nicht so verkehrt, dass die Schweiz einen anderen Weg geht. Die kürzlich vom Bundesrat vorgestellte Strategie zur KI-Regulierung sieht vor, nur die KI-Konvention des Europarats zu ratifizieren. Gesetzesanpassungen sollen «möglichst sektorbezogen» geschehen, etwa im Gesundheitswesen und beim Verkehr. Das könnte tatsächlich effizienter sein, sagt Olga Baranova, Geschäftsleiterin von CH++, einer Organisation zur Förderung von Technologiekompetenzen in Politik und Gesellschaft. Allerdings müssten die entsprechenden Gesetze greifen – und genau daran könnte es hapern.
Die Auslegeordnung zur Regulierung von KI des Bundesamts für Kommunikation deutet darauf hin, dass die Schweiz Schlupflöcher nutzen will, um private Akteure weitgehend von der Regelung auszunehmen und stattdessen unter anderem auf «rechtlich nicht verbindliche Massnahmen» wie Selbstdeklarationen und Branchenlösungen zu setzen – ähnlich wie in der Finanzbranche. Wie schlecht das bisher funktionierte, zeigen die UBS-Rettung 2008 und der Notverkauf der Credit Suisse 2023: Die Steuerzahler:innen hafteten mit 270 Milliarden Franken für die Gier und Unfähigkeit der Banker:innen. «Selbstregulierung kann funktionieren», räumt Baranova ein, «aber nur mit einer Aufsichtsbehörde – einer Art Finma für KI – , die über ausreichende Kompetenzen und Ressourcen verfügt.»
In der Schweiz kämen KI-Programme bereits im Recruiting, am Arbeitsplatz und bei Versicherungen zum Einsatz, sagt Estelle Pannatier von Algorithm Watch. Wobei oft nicht bekannt sei, welche Systeme wo eingesetzt würden und inwieweit sie Entscheidungen beeinflussten. «Da diese Systeme erhebliche Auswirkungen auf Menschen haben können, braucht es hier auch sektorübergreifende Massnahmen für mehr Transparenz und einen besseren Schutz vor Diskriminierung.» Eine Vernehmlassungsvorlage mit konkreten Gesetzesentwürfen wird jedoch frühstens Ende 2026 erwartet. In einem sich so rasant entwickelnden Feld ist das eine Ewigkeit und bedeutet fehlende Rechtssicherheit für Start-ups und mittelgrosse Unternehmen.
KI-Forscher Damian Borth sieht die Regulierungsbemühungen Europas dennoch vor allem als Chance: Der Kontinent könnte so eine eigene Nische im globalen KI-Wettlauf schaffen. «Warum sollten wir nicht zu einer Art Türsteher für gute KI-Modelle werden? Indem wir Werkzeuge entwickeln, um diese Modelle zu prüfen und zu verifizieren?» Eine Art Gütesiegel für vertrauenswürdige KI also. «Dann könnten wir als Bindeglied zwischen den grossen Frontmodell-Herstellern und dem Rest der Welt agieren.»