Foto: von Michelangelo Buonarroti auf Pexels
Fehlinformationen, Marktvolatilität und mehr: Angesichts der Notwendigkeit, die Risiken künstlicher Intelligenz zu mindern, schlagen Länder und Regionen unterschiedliche Wege ein
Von Carl-Johan Karlsson 27.01.2025
Einst als ferne Zukunftsvision betrachtet, sind die leistungsstarken Möglichkeiten der künstlichen Intelligenz (KI) schnell Realität geworden. Das Aufkommen moderner KI, die auf fortschrittlichen Techniken des maschinellen Lernens und Deep Learning basiert, stellt Regierungen vor die Herausforderung, den Anschluss zu finden und zu entscheiden, wie sie eine Vielzahl von Bedrohungen für die Gesellschaft abwenden können, darunter zunehmend aufdringliche Propaganda, Cyberangriffe auf die öffentliche Infrastruktur und die Möglichkeit einer beispiellosen Überwachung durch Regierungen und Unternehmen.
Angesichts der Notwendigkeit, KI-Risiken zu minimieren, verfolgen Länder und Regionen unterschiedliche Ansätze. Die Europäische Union ist mit einem umfassenden Rahmenwerk, das den Schutz individueller Rechte und die Verantwortlichkeit der KI-Entwickler in den Mittelpunkt stellt, führend. China hingegen priorisiert staatliche Kontrolle auf Kosten persönlicher Freiheiten. Die USA versuchen, den Rückstand aufzuholen und Innovation mit der Notwendigkeit von Sicherheits- und ethischen Bedenken in Einklang zu bringen.
Diese unterschiedlichen Strategien unterstreichen die Herausforderung der KI-Regulierung – sie müssen konkurrierende Prioritäten berücksichtigen und gleichzeitig ihre weitreichenden Auswirkungen berücksichtigen. Können wir auf nationaler und internationaler Ebene eine gemeinsame Basis finden, um KI verantwortungsvoll zu managen und sicherzustellen, dass sie dem Wohl der Menschheit dient?
Eine Expertin an vorderster Front dieser Debatte ist die Politikwissenschaftlerin Allison Stanger vom Middlebury College. Neben ihrer Professur in Vermont ist Stanger außerordentliche Professorin am Berkman Klein Center for Internet & Society der Harvard University und Autorin mehrerer Bücher, darunter „ Who Elected Big Tech?“, das demnächst erscheint.
In einem Artikel, der im Annual Review of Political Science 2024 veröffentlicht wurde , untersuchen Stanger und Co-Autoren die globale Landschaft der KI-Governance und heben die Herausforderungen hervor, die KI mit sich bringt, und ihre potenzielle Bedrohung für demokratische Systeme.
Das Knowable Magazine sprach mit Stanger darüber, wie KI national reguliert werden kann, um demokratischen Werten zu dienen, und wie wir einen globalen Rahmen schaffen können, der gemeinsame Herausforderungen angeht. Das Interview wurde aus Gründen der Länge und Klarheit gekürzt.
Wie würden Sie KI-Bedrohungen charakterisieren?
Man kann das Ganze aus zwei Perspektiven betrachten. Erstens gibt es Bedrohungen für die Demokratie, da künstliche Intelligenz bestehende Probleme wie Datenschutzbedenken, Marktvolatilität und Fehlinformationen verschärft. Zweitens gibt es existenzielle Bedrohungen für die Menschheit, wie etwa fehlgeleitete KI [KI, die sich nicht im Einklang mit den beabsichtigten menschlichen Zielen und Werten verhält], Drohnenkriege oder die Verbreitung chemischer und biologischer Waffen.
Ein häufiges Argument ist, dass Menschen schon immer Angst vor neuen Technologien hatten und KI nur die jüngste Entwicklung ist. Worin liegt der Unterschied?
Ich denke, das ist eine gültige Antwort für den Großteil der Menschheitsgeschichte: Die Technologie verändert sich, die Menschheit passt sich an, und es entsteht ein neues Gleichgewicht. Doch das Besondere an dieser speziellen technologischen Innovation ist, dass ihre Schöpfer sie nicht vollständig verstehen. Wenn wir an andere technologische Durchbrüche denken, wie zum Beispiel das Automobil, weiß ich vielleicht nicht, wie ich mein Auto reparieren soll, aber es gibt jemanden, der es weiß. Das Problem mit der generativen KI ist, dass ihre Schöpfer zwar neuronale Netzwerke und Deep Learning verstehen – die Algorithmen, die der modernen KI zugrunde liegen –, aber sie können nicht vorhersagen, was ein Modell tun wird.
Das heißt, wenn etwas schrecklich schief geht, wissen sie nicht sofort, wie sie es beheben können. Es ist dieses Wissenselement, das unsere Denk- und Verständnisfähigkeiten übersteigt. In diesem Sinne ähnelt es wirklich außerirdischer Intelligenz.
Wie könnte KI den Drohnenkrieg und die Verbreitung chemischer und biologischer Waffen verschlimmern?
Existenzielle Bedrohungen für die Menschheit bedeuten nicht unbedingt Killerroboter: Es können auch einfach KI-Systeme sein, die außer Kontrolle geraten und Dinge tun, für die sie nicht konzipiert wurden oder die man nicht vorhergesehen hat. Existenzielle Bedrohungen entstehen, wenn KI eine Schwelle erreicht, ab der man ihr zutraut, Entscheidungen ohne menschliches Eingreifen zu treffen.
Drohnen sind ein gutes Beispiel. Man könnte meinen, Kampfpiloten könnten zu Hause bleiben; wir lassen die Computer gegen die Computer kämpfen, und alle gewinnen. Doch bei dieser Art der Kriegsführung gibt es immer Kollateralschäden, und je autonomer diese Systeme sind, desto größer ist die Gefahr.
Hinzu kommt das Risiko, dass KI zur Herstellung biologischer oder chemischer Waffen eingesetzt wird. Die grundlegende Frage ist, wie sich verhindern lässt, dass die Technologie von böswilligen Akteuren missbraucht wird. Dasselbe gilt für Cyberangriffe, bei denen ein einzelner Hacker Open-Source-KI-Modelle – also öffentlich verfügbare Modelle, die individuell angepasst und auf einem Laptop ausgeführt werden können – nutzen könnte, um in alle möglichen Systeme einzudringen.
Und wie verschärft KI unmittelbarere Bedrohungen für die Demokratie, wie etwa Fehlinformationen und Marktvolatilität?
Schon ohne KI ist das bestehende Social-Media-System grundsätzlich unvereinbar mit der Demokratie. Um die besten nächsten politischen Schritte zu diskutieren, braucht man ein Grundgefühl dafür, dass Menschen dasselbe für wahr halten. Dieses Gefühl wird durch Empfehlungsalgorithmen, die hasserfüllte virale Übertragungen hervorbringen, zerstört. Desinformation und Propaganda KI automatisiert all diese Dinge und erleichtert die Verstärkung und Verzerrung menschlicher Sprache. Automatisierung könnte auch zu größerer Volatilität an den Finanzmärkten führen, da wir mittlerweile all diese automatisierten KI-Computermodelle für Finanztransaktionen haben, bei denen alles schnell und ohne menschliches Eingreifen abläuft.
KI stellt auch eine reale Bedrohung für die individuelle Autonomie dar. Am besten kann ich es so beschreiben: Wenn Ihnen schon einmal etwas falsch in Rechnung gestellt wurde, ist es fast unmöglich, einen Menschen ans Telefon zu bekommen. Stattdessen werden Sie von Bots befragt, die sich im Kreis drehen, ohne direkt bedient zu werden. So würde ich die wahre, heimtückische Bedrohung durch KI beschreiben: Wenn sich die Menschen immer mehr auf sie verlassen, werden wir alle irgendwann in dieser kafkaesken Welt gefangen sein, in der wir uns winzig und unbedeutend fühlen und so tun, als hätten wir keine grundlegenden Menschenrechte.
Wie würden Sie KI-Governance definieren?
Die Regierungsführung entscheidet darüber, wie wir auf kommunaler, bundesstaatlicher und globaler Ebene zusammenarbeiten, um mit dieser gewaltigen neuen technologischen Innovation umzugehen, die unsere Gesellschaft und Politik verändern wird.
Welche Gesetze oder sonstigen Initiativen haben die USA zum Schutz vor KI-Bedrohungen umgesetzt?
Die wichtigste Initiative war Joe Bidens 2023 unterzeichnete Executive Order zur KI. Diese Verordnung, die der Bundesregierung vorgibt, welche Prioritäten sie setzen und wie sie ihre Politik gestalten soll, konzentriert sich darauf, die Sicherheit und Ethik von KI zu gewährleisten. Dazu werden Standards für Tests, Datenschutz und die Bewältigung nationaler Sicherheitsrisiken festgelegt und gleichzeitig Innovation und internationale Zusammenarbeit gefördert. Im Wesentlichen skizziert sie Leitplanken, die die Demokratie stützen, anstatt sie zu untergraben. Präsident Donald Trump hat diese Verordnung bereits aufgehoben.
Die Biden-Regierung gründete außerdem das AI Safety Institute , das sich auf die Weiterentwicklung der KI-Sicherheitswissenschaft und -praxis konzentriert und Risiken für die nationale und öffentliche Sicherheit sowie die Rechte des Einzelnen berücksichtigt. Wie es mit diesem Institut unter der Trump-Regierung weitergeht, ist unklar.
Bleiben Sie auf dem Laufenden.
Melden Sie sich noch heute für den Knowable Magazine- Newsletter an.
Welche nationalen Gesetze sind Ihrer Meinung nach am wichtigsten, um KI einzudämmen?
Wir müssen klarstellen, dass Menschen Rechte haben, Algorithmen jedoch nicht. Die nationale Diskussion über die freie Meinungsäußerung auf Online-Plattformen ist derzeit verzerrt und verwirrend. Der Oberste Gerichtshof scheint geglaubt zu haben, dass Social-Media-Plattformen lediglich Informationsträger sind; sie übermitteln lediglich Dinge, die von Menschen gepostet werden, in chronologischer Reihenfolge. Die jüngste einstimmige Entscheidung, das TikTok-Verbot aufrechtzuerhalten, deutet jedoch darauf hin, dass dieses Verständnis zunehmend zutreffender wird .
Alles, was Sie online sehen, wird von einem Algorithmus gesteuert, der speziell auf optimales Engagement ausgerichtet ist. Es zeigt sich, dass Menschen am engagiertesten sind, wenn sie wütend sind. Und wir müssen das Unternehmen, das diesen Algorithmus entwickelt hat, für jeglichen Schaden haftbar machen. Unternehmen haben das Recht auf freie Meinungsäußerung. Aber ein Unternehmen ist eine Ansammlung von Menschen. Und das unterscheidet sich von einer Maschine, die ein Instrument von Menschen ist.
Haben die USA in dieser Richtung Fortschritte gemacht?
In den USA haben wir ein Gesetz zur Aufhebung von Paragraph 230 eingebracht. Vereinfacht ausgedrückt handelt es sich dabei um einen Haftungsschutz, der besagt, dass Plattformen keine Herausgeber sind und daher nicht für das verantwortlich sind, was auf ihnen geschieht. Außer den Technologieunternehmen gibt es in den USA kein anderes Unternehmen, das über diesen Haftungsschutz verfügt.
Durch diesen Schutz musste sich das Gericht mit diesen Fragen und deren Bedeutung für die amerikanische Verfassungsdemokratie nicht befassen. Sollte der Gesetzesentwurf verabschiedet werden, läuft Abschnitt 230 bis Ende 2025 aus. Dies würde es ermöglichen, die Rechtsprechung zum Ersten Verfassungszusatz für unseren nun virtuellen öffentlichen Raum zu entwickeln und Plattformen wie jedes andere Unternehmen haftbar zu machen.
Gibt es in den USA über Bidens Executive Order hinaus geplante KI-Gesetze?
Es gibt bereits zahlreiche Gesetzesentwürfe zur KI-Sicherheit. Der Algorithmic Accountability Act verpflichtet Unternehmen, die Auswirkungen automatisierter Systeme zu bewerten, um sicherzustellen, dass sie keine diskriminierenden oder voreingenommenen Ergebnisse liefern. Der DEEPFAKES Accountability Act reguliert den Einsatz von KI zur Erstellung irreführender oder schädlicher Deepfake- Inhalte. Und der Future of Artificial Intelligence Innovation Act fördert die Untersuchung der Auswirkungen von KI auf Wirtschaft, Arbeitsmarkt und nationale Sicherheit. Wir müssen nur daran arbeiten, all diese Gesetzesvorschläge in die Tat umzusetzen.
Aber derzeit konzentrieren wir uns nicht ausreichend darauf. Die USA sind die Heimat der großen Technologieunternehmen, und was die Vereinigten Staaten tun, ist für die Welt von Bedeutung. KI war im Wahlkampf jedoch kein Thema. Wir führen auch nicht die öffentliche Diskussion, die nötig wäre, damit Politiker etwas gegen das völlige Fehlen von Leitplanken unternehmen. Europa hat in der KI-Governance eine Vorreiterrolle übernommen, und wir können viel von der EU lernen.
Welche Art von Regulierung hat die Europäische Union eingeführt?
Es gibt den EU-Gesetzentwurf zur künstlichen Intelligenz , der KI-Systeme in Risikostufen (inakzeptabel, hoch, begrenzt, minimal) einteilt und strengere Regeln für Anwendungen mit höherem Risiko vorsieht; den Digital Markets Act , der sich an große Online-Plattformen richtet, um monopolistische Praktiken zu verhindern; und den Digital Services Act , der von Plattformen verlangt, illegale Inhalte zu entfernen, Fehlinformationen zu bekämpfen und für mehr Transparenz in Bezug auf Algorithmen und Anzeigen zu sorgen.
Schließlich gibt es noch die frühere DSGVO – die Datenschutz-Grundverordnung –, die Einzelpersonen mehr Kontrolle über ihre personenbezogenen Daten gibt und Unternehmen Anforderungen an die Datenerhebung, -verarbeitung und den Datenschutz stellt. Eine Version der DSGVO wurde 2018 vom Bundesstaat Kalifornien übernommen.
Wie können wir Ihrer Meinung nach eine globale Regulierung der KI erreichen? Sollten wir internationale Verträge abschließen, wie es sie für Atomwaffen gibt?
Ich denke, wir sollten Verträge anstreben, ja, aber sie werden nicht wie die für Atomwaffen aussehen, da Atomwaffen viel einfacher zu regulieren sind. Normale Menschen haben keinen Zugang zu den Komponenten, die zum Bau einer Atomwaffe benötigt werden, während bei KI vieles kommerziell erhältlich ist.
Was ist der Hauptunterschied zwischen der KI-Regulierung in China und den USA?
Chinas politisches System hat eine klare Ethik: Es ist utilitaristisch – das Wohl der Mehrheit. Liberale Demokratien sind anders. Wir schützen die Rechte des Einzelnen, und diese dürfen nicht zum Wohle der Mehrheit mit Füßen getreten werden.
Die chinesische Regierung kontrolliert Unternehmen, die dort KI-Systeme entwickeln, stärker. So verabschiedete China beispielsweise 2023 die „ Maßnahmen zum Management generativer KI-Dienste “. Diese verpflichten Anbieter, sicherzustellen, dass KI-generierte Inhalte mit den sozialistischen Grundwerten der Regierung übereinstimmen. Anbieter müssen Inhalte verhindern, die die nationale Einheit oder die soziale Stabilität gefährden könnten, und sind für die Rechtmäßigkeit ihrer Trainingsdaten und der generierten Ergebnisse verantwortlich.
Da zwischen Unternehmen und Staat eine symbiotische Beziehung besteht, stellt staatliche Überwachung kein Problem dar: Wenn ein Unternehmen Ihre persönlichen Daten erhält, erhält auch die Kommunistische Partei sie. China verfügt also über eine hervorragende KI-Governance – hohe KI-Sicherheit –, aber seine Bürger sind nicht frei. Das ist meiner Meinung nach kein Kompromiss, den die freie Welt eingehen sollte.
Welche Auswirkungen hat dieser Unterschied zwischen autoritären und demokratischen Systemen auf die internationale KI-Governance?
Ich habe einen zweigleisigen Ansatz vorgeschlagen: Wir arbeiten gemeinsam mit unseren Verbündeten daran, Freiheit und Demokratie zu bewahren und gleichzeitig das Kriegsrisiko mit nichtdemokratischen Ländern zu verringern. Es gibt immer noch Dinge, auf die wir uns mit Ländern wie China einigen können. Beispielsweise könnten wir uns auf den Verzicht eines Ersteinsatzes von Cyberwaffen gegen kritische Infrastrukturen einigen.
Nun könnte man sagen: „Na ja, die Leute machen es halt sowieso.“ Doch diese Vereinbarungen funktionieren so: Allein das Reden darüber und die Anerkennung des Problems schaffen Kommunikationskanäle, die in einer Krisensituation sehr nützlich sein können.
Und schließlich: Wie wird sich Ihrer Meinung nach die politische Spaltung in Amerika, wo die Republikaner eher einen Laissez-faire-Ansatz gegenüber der Wirtschaft vertreten, auf die Regulierung der KI auswirken?
Es gibt Anhänger des Laissez-faire-Ansatzes im Markt, und Republikaner sehen die Regierung oft als ungeschickten Regulierungsverwalter. Und da ist etwas Wahres dran. Doch das wirft die Frage auf, wer, wenn nicht der Staat, Leitplanken setzen soll. Das werden nicht die Unternehmen sein – das ist nicht ihre Aufgabe. Es ist die Aufgabe der Regierung, das Gemeinwohl zu wahren und sicherzustellen, dass Unternehmen bestimmte Grenzen nicht überschreiten und Menschen schaden.
Europäer verstehen das instinktiv, Amerikaner hingegen manchmal nicht – obwohl sie oft von staatlichen Schutzmaßnahmen zur Gewährleistung der öffentlichen Sicherheit profitieren. Ich hoffe, dass wir sie umstimmen können, ohne dass ihnen eine Katastrophe großen Ausmaßes durch Erfahrung etwas beibringt.