Vergangene Woche drehte sich vieles um Sam Altman. Der Co-Founder und CEO von OpenAI, das Unternehmen hinter der künstlichen Intelligenz ChatGPT, hat gemeinsam mit dem emeritierten NYU-Wissenschaftler und KI-Unternehmer Gary Marcus und Christina Montgomery, Chief Privacy and Trust Officer bei IBM, am Dienstag vor dem Judiciary Subcomittee on Privacy, Technology and Law des US-Senats ausgesagt. Obwohl allein Altman im Fokus der Berichterstattung stand, war die Anhörung an sich ein großes Ereignis.

»We have the obligation«

Noch immer bin ich dabei, das Thema künstliche Intelligenz für mich richtig zu greifen, habe ich mich insbesondere in den ersten Wochen und Monaten nach der Veröffentlichung von ChatGPT davor gehütet, zu schnell auf den Zug aufzuspringen und mich vorschnell zum Thema zu äußern. Es war mir zu suspekt, wie schnell Journalisten auf den Zug aufsprangen, um sich »zum Spaß« einmal selbst abzuschaffen, einen Text generieren ließ, diesen veröffentlichte und zur Schlussfolgerung kam: Irgendwie gruselig, irgendwie aber auch ulkig, diese vermeintliche Zukunft.

Dabei läuft die Zeit und lässt wieder einmal wenig Luft, um nachzudenken, einzuordnen und auszudiskutieren. Jetzt nach den ersten Monaten und nach vielen weiteren KI-Modellen und -Prototypen, die auf die Menschheit losgelassen wurden, wird umso deutlicher, dass die Welt hier (früher als gedacht) vor einer sehr grundlegenden Veränderung steht – und vor allem vor einem sehr großen, explosiven Problem, das westliche Demokratien selbst mit mehr als zehn Jahren Anlaufzeit im Kern immer noch nicht gelöst haben: Die Ratlosigkeit gegenüber dieser neuen Generation von Technologie, die die Macht hat, genau diese Institutionen vor den Augen menschlicher Ohnmacht in ihre Einzelteile zu zerlegen, erst recht in diesen Zeiten, in denen Aufmerksamkeitsspannen sinken und Wahrheit und Fakten in ihrem Wert verhandelbar geworden sind.

Der republikanische Senator Josh Hawley sprach zu Beginn der Anhörung in Washington D. C. von einem Moment in der Geschichte, der entweder in einer Linie mit der Druckerpresse oder mit der Atombombe stehen wird.

Die Frage: Wer sitzt am Hebel? Es geht um nichts geringeres als Machtverlust demokratischer Prinzipien und ihrer Vertreter. Künstliche Intelligenz hat in den wenigen Wochen auf der großen Weltbühne in seiner noch harmlosen Ausprägung bewiesen, welches Potenzial es besitzt, Gesellschaften zu zersetzen: sozio-ökonomisch, durch weitgreifende Rationalisierung von Arbeitsplätzen, und gesellschaftlich, durch die ungeheure Macht, das Konzept von Wahrheit weiter zu zerstreuen und Menschen in gefährlichem Ausmaß zu täuschen und zu manipulieren.

»Fundamentally, these new systems are going to be destabilizing. They can and will create persuasive lies at a scale humanity has never seen before. […] Democracy itself is threatened«

Gary marcus

In meinen Augen geht es auch hier zuvorderst um Desinformation. Sie ist schon Gegenwart und ein Phantom obendrein. Viele Menschen erliegen ihr bereits. Ein wirksames Gegenmittel für digitale Medien wird bis heute vergeblich gesucht. Künstliche Intelligenz und besonders die neusten Modelle generative AI – Programme wie ChatGPT, die täuschend echte Inhalte, Texte, Bilder, Audio- und Videoaufnahmen kreieren können – demonstrieren schon in ihren frühen Entwicklungsstadien, dass sie dem Menschen in sehr naher Zukunft Wahrheit und Wirklichkeit vollständig entreißen können. Sogenannte Deepfakes zum Beispiel, – manipulierte Bilder, die Wirklichkeit vorzutäuschen –, können schon sehr bald noch sehr viel realistischer werden, sagte kürzlich Yoshua Bengio, einer der drei sogenannten »Godfathers of AI« und heute forschend an der Université de Montréal, im CBC-Podcast »Front Burner«. Es sei lediglich eine Frage der »computational power«, also der Ressourcen, die dahinterstecken.

Bengio ist nicht der Einzige, der vor den Konsequenzen eines technologischen Wettrennens mit künstlicher Intelligenz warnt. Der Kontrollverlust ist eine reale Gefahr. Er ist neben großer Tech-Prominenz wie Elon Musk und Steve Wozniak einer der Unterzeichner eines Briefes, in dem es heißt:

»AI labs locked in an out-of-control race to develop and deploy ever more powerful digital minds that no one – not even their creators – can understand, predict, or reliably control.«

Bengios langjähriger Kollege und der zweite von den drei »Godfathers of AI«, Geoffrey Hinton, mit dem er in den 1990er und 2000er die Grundsteine für die heutige Technologie künstlicher neuronaler Netzwerke legte und dafür u. a. 2018 den Turing Award verliehen bekam, verließ medienwirksam Google und sprach Anfang Mai gegenüber der New York Times über die Gründe: Google habe sich vom Pfad, verantwortungsbewusster KI-Entwicklung verabschiedet und stattdessen kopfüber in das Wettrennen gestürzt, nachdem Microsoft den Prototypen eines neuen Chatbots für die Suchmaschine Bing auf den Markt warf. Hinton wollte genau dieses Wettbieten mit Halbfertigem nicht: Der Mensch werde unvorbereitet auf den generierten Content treffen – und schnell damit überfordert sei, zu beurteilen, was echt ist und was nicht. Das wird umso riskanter, werden die KIs in Zukunft noch unberechenbarer werden – auch für die Entwickler. Sie überschätzen sich, findet Hinton, so wie er vor Jahrzehnten umgekehrt unterschätzt habe, dass diese Technologie eines Tages intelligenter als der Mensch werden könnte.

»This is not the future that we want«, sagte Ausschussvorsitzender Richard Blumenthal in seinem Eingangsstatement am Dienstag. Dem ist unter gesundem Menschenverstand schwer zu widersprechen. Diese Zukunft ist aber bereits sehr real geworden und Demokratien fehlt bisher an sensiblen Stellen das intellektuelle und politische Arsenal, um mit Technologie und Fortschritt mitzuhalten. Die Sitzung des Komitees stand trotzdem unter dem Vorzeichen, es diesmal wirklich ernst zu meinen mit dem politischen und gesetzgeberischen Eifer. Gleich mehrere Senatoren betonten während der Anhörung, angefangen beim Vorsitzenden Blumenthal, dass die politischen Entscheidungsträger gelernt und eingesehen hätten, welche großen Versäumnisse sie im Umgang mit Social Media heute umso schmerzvoller spüren und nie wieder wiederholen möchten.

»Congress failed to meet the moment on social media. Now we have the obligation to do it.«

Senator Richard blumenthal

Sie geben sich Mühe

Das vor allem über Altmans Auftritt geschrieben wird, wird der Sitzung nicht gerecht, Diese erste von mehreren Anhörungen sei laut Blumenthal der Beginn der gemeinsamen, übrigens überparteilichen (!) Arbeit von Demokraten und Republikaner, an den Regeln für den Umgang mit künstlicher Intelligenz. Dieser Schulterschluss allein wäre schon eine Schlagzeile wert, nach vielen lähmend hasserfüllten Jahren im US-Kongress, die noch immer nicht überwunden sind.

Was für mich aber das Wesentliche dieser Anhörung war: Die Vorgeladenen boten eine erstaunliche Detailtiefe in der Diskussion um mögliche konkrete Maßnahmen, die Gesetzgeber ergreifen können. Das beeindruckt in zweierlei Hinsicht: Zum einen vermittelten Altman, Marcus und Montgomery ihre Bereitschaft, sich konstruktiv an der Gestaltung eines Rechtsrahmens zu beteiligen, durchaus authentisch. Insbesondere Altman und Montgomery versicherten mehrfach, auch im Namen ihrer Unternehmen OpenAI (gehört zu Microsoft) und IBM, ihren Willen zur Kooperation. Die Auftritte von Social-Media-Verantwortlichen à la Zuckerberg vor dem US-Kongress dürften die meisten Senatoren sehr schlecht in Erinnerung haben. Das dürfte einer der Gründe sein, dass sie am Dienstag »Sam« (Senator Cory Booker) manchmal schon beinah unprofessionell und kumpelig über den großen Klee lobten.

Zum anderen überrascht mich die Detailschärfe in der Sache, habe ich hier ja bereits an anderer Stelle offengelegt, dass der Korridor für Gesetzgeber und Gesellschaften ein schwieriges Geläuf ist, immer am Rande der Illiberalität, um gegen Desinformation vorzugehen und es gleichzeitig Unternehmen schwer vorzuwerfen ist, nicht gegen das eigenen Geschäftsmodell handeln zu wollen. Warum es vielleicht Grund zur Hoffnung gibt: »This is not social media. This is different. And so the response that we need is different«, meint Altman.

Wie eng der Handlungsrahmen für ein so umfassend und tiefgreifende Technologie ist, verdeutlichte Senator Blumenthal gleich zu Beginn. Da der Gesetzgeber es hier wieder einmal mit einem kompletten, neugeborenen Industriezweig zu tun habe, sei der Kongress nur in der Lage, Ein- und Beschränkungen so weit vorzunehmen, wie es im Rahmen der marktwirtschaftlichen Ordnung nötig und möglich ist, um fairen Wettbewerb zu gewährleisten. Schützende Maßnahmen sind im Sinne eines Verbraucherschutzes zu denken. Das könne zum Beispiel Fälle betreffen, in denen aus kommerziellem Interesse die Privatsphäre von Menschen verletzt wird oder wenn die Existenz von Menschen durch diese Produkte gefährdet werden. Im Kern werde es um accountability und liability, also um Verantwortlichkeit und Haftung, für die Ergebnisse und Folgen dieser Technologie. Kurzum: Wer trägt die Verantwortung, wenn Menschen durch KI zu Schaden kommen?

Blumenthal bleibt hier sehr vage und prinzipiell. Das macht es aktuell sehr schwer zu sagen, ob er hier ein scharfes oder ein stumpfes Schwert präsentiert. Er könnte aber kaum richtiger liegen, sind besonders Haftungsfragen zwar komplex. Es dürfte im ersten Schritt nötig sein, zu beschreiben, was alles ein potenzieller Schadensfall durch KI wäre. Aber mit dem jetzigen Stand der Technologie sehe ich diese Szenarien zumindest so weit vorstellbar, um einen Grundkanon für zukünftige Präzedenzfälle auszuhandeln, z. B. in der Gesundheitsversorgung.

Christina Montgomery bot dafür sogar eine, wie ich finde, bereits vielversprechende Anleitung, welche Prinzipien den Reformen zugrunde liegen müssten, um die bekannten Gefahren einzudämmen. Sie und IBM wünschen sich einen »precision regulation approach to AI«, das heißt, konkrete Fälle sollten reguliert werden, nicht die Technologie als solche. Es brauche »different rules for different risks«: Regeln müssten individuell für jeden möglichen Einsatz von KI formuliert werden. Dazu wird es nötig sein, in jeweiligen Gesetzen eine hohe Präzision zu erreichen.

Nun stellt sich aber die Frage: Wie lässt sich ein Schaden im Falle von Desinformation definieren, ist dieser doch eher diffus? Vielleicht ist das gar nicht nötig, könnte und müsste hier vom Argument der Transparenz her gedacht werden. Menschen dürfen nicht getäuscht werden. »AI shouldn‘t be hidden«, sind sich Altman und Marcus einig. Jeder Mensch solle wissen, dass er es mit dem Werk einer künstlichen Intelligenz zu tun haben, meint auch Montgomery. Auch hier sind die vorgetragenen Lösungsansätze bereits bemerkenswert pragmatisch. Während der Anhörung fallen bereits Ideen wie verpflichtende Wasserzeichen oder vergleichbare Kennzeichnungen.

Zudem sollen Unternehmen in die Pflicht genommen werden, die Konsequenzen ihrer Technologie für die Gesellschaft stets zu ermitteln und offenzulegen. KI-Systeme könnte z. B. regelmäßig darauf getestet werden, ob sie ein bias entwickeln, das heißt, dass sie eine klare inhaltliche Tendenz kontinuierlich reproduziert, z. B. politische Haltungen bis hin zu menschenfeindlichen Stereotypen. Gary Marcus fordert indes, dass »clinical tests« schon vor Markteinführung von unabhängigen Stellen durchgeführt werden müssen. Altman plädiert zu diesem Zweck zum Beispiel für eine neue, bundesweite Agentur, die ein Lizenzierungsverfahren für jeweilige Risikostufen verantwortet. Das heißt, Unternehmen müssen sich mit ihren Projekten erst dafür qualifizieren, dass ihre KI umfangreichere Fähigkeiten entwickeln darf.

Das wesentliche Gegenargument an dieser Stelle liefert er aber gleich mit: Ein solches Lizenzierungsverfahren würde den Wettbewerb voraussichtlich stark verengen und sehr früh auf einige wenige, große Player beschränken, die sich die Kosten für ein solches Verfahren leisten können. Start-ups werden aus eigener Kraft kaum die Mittel dafür aufbringen können. Nicht die einzigen Wettbewerbsbedenken von Altman: Die notwendigen Serverkapazitäten, die für eine hochleistungsfähige KI notwendig wären, sind so kostenintensiv, dass sich auch hier das Teilnehmerfeld schnell nach oben hin fragmentieren könnte.

Genau hier könnte also der Gesetzgeber, ganz im Sinne Blumenthals, als Wettbewerbshüter punkten, oder? Gary Marcus spricht sich ebenfalls neben den legislativen Notwendigkeiten für eine exekutive Instanz auf Kabinettsebene aus, die sich allein damit beschäftige, den technologischen Fortschritt in künstlicher Intelligenz nachzuverfolgen, um rechtzeitig regulatorische Initiativen zu ergreifen. Er und Altman gehen sogar noch einen Schritt weiter und sehen die Notwendigkeit eines internationalen Regimes, idealerweise unter der Führung der USA.

Die politischen Implikationen, oder eher Komplikationen hinter einem solchen Plan, schieben sie dabei in verlegenen Nebensätzen ins Feld der Senatoren, die zurecht direkt Zweifel anmelden, wie solche Forderungen effektiv und angemessen umgesetzt werden sollen: Wo sollen die nationalen Ressourcen in Personal und Know-how kommen? Und noch schwieriger: Wo soll der internationale politische Wille kommen, unter Führung der USA, sich weltweit verbindliche und einheitliche Regeln und Strukturen zu unterwerfen, dürften die Meinungen der einzelnen nationalen Regierungen zum »verantwortungsvollen« Umgang mit KI schon jetzt weit auseinandergehen. Auch »AI Godfather« Geoffrey Hinton glaubt nicht daran: Anders als bei den Atomwaffen, werde es nicht oder nur schwer möglich sein, herauszufinden, wenn Unternehmen oder Staaten im Geheimen an der Technologie arbeiten.

Und Staatschefs wie Vladimir Putin oder Xi Jinping werden sich ungern die verlockenden Machtoptionen von künstlicher Intelligenz entgehen lassen wollen, um ihre (Des-)Informationspolitik weiter zu schärfen.

»It is hard to see how you can prevent the bad actors from using it for bad things.«

Geoffrey hinton gegenüber der New york times

Bisher nur ein Gefühl …

… es ist aber nicht unbegründet: Im Grunde haben Altman und auch Montgomery mit ihren Statements im Namen ihrer Unternehmen vor dem Kongress einfach auf die Schachuhr gedrückt. Bei allem geäußerten guten Willen zur Kooperation: OpenAI, IBM und viele andere Tech-Giganten wie Google und Microsoft sind vorgeprescht, haben das große Wettrennen begonnen und drängen immer schneller auf Fortschritte ihrer KI, um sich früh abzusetzen und lieber früher als später Profite zu sehen. Die Verantwortung, wie dieses Rennen aussehen soll, lassen sie im Spielfeld der Politik zurück. Sie solle die Spielregeln festlegen, sich derweil aber nicht ins technologische Rennen einmischen.

Die Gesetzgeber sind also am Zug, ohne wirklich zu wissen, wie sehr sie sich auf ihre neuen »Verbündeten« in der Tech-Welt verlassen können. Denn auch die Analysten der New York Times im Podcast »Hard Fork« beobachteten bei dieser Anhörung: Auf die Bremse tritt keiner, nicht Altman, nicht OpenAI, nicht Montgomery und nicht IBM.

Das machte zuletzt auch der Microsoft-Chef Satya Nadella im Interview mit dem TIME Magazine deutlich:

»Trying to say, well, ›now is the time to stop‹ – that doesn’t seem the right approach«

Die Erwartungshaltung an die Politik bleibt trotzdem groß. Sie sei für Regeln zuständig, während die Entwickler sich Mühe geben werden, verantwortungsbewusst zu handeln (was auch immer das für die einzelnen Chefetagen bedeutet). Und bei Fragen, stehe Nadella gerne für ein Gespräch bereit.

»There are no laws yet but we ourselves have put a lot of governance on how and who can use neural voice. I do think there is a place for dialogue, and there is also a place for us to take responsibility as purveyors of this technology before regulation, and then expect that there will be regulation.«

Es ist also nicht auszuschließen, dass Tech-Riesen diese Auftritte sehr wohl im Bewusstsein choreographieren, dass der politische Prozess unverändert bleibt und lange dauern wird, viel, viel länger als ihre Entwicklungsschritte. Sie setzen weiter das Tempo, nur ohne das schlechte Image eines Mark Zuckerberg und anderer Social-Media-Chefs zu teilen, sondern indem sie sich verständnisvoll nickend in Anhörungen setzen und den Eindruck erwecken, sich an der eigenen Regulierung wohlwollend beteiligen zu wollen. Sie wissen, Gesetze werden nur schwer Schritt halten können. Es ist nicht ausgeschlossen, dass diese in der aktuellen Kurzlebigkeit und Rasanz schneller veralten als sie in Kraft treten können. Vielleicht erarbeiten sich Entscheider wie Altman & Co. gerade mit ihrem Kuschelkurs mit der Politik einen Platz am Tisch – und vor allem am Bremspedal.

In »Hard Fork« berichtete Reporterin Cecilia Kang, die bei der Anhörung vor Ort in Washington war, dass Altman schon im Vorfeld seines Auftritts sich mit sehr vielen Abgeordneten zum Essen traf und ihnen abseits der Kameras Rede und Antwort stand. Er bewarb sich quasi aktiv um ihre Gunst und das erfolgreich, wie Kang aus den Kreisen des Kongresses erfuhr. Ein Tech-Executive zum Anfassen und Gernhaben. Es sei nicht auszuschließen und bereits Gemunkel, so Kang, dass Altman mit seinem handzahmen Auftreten nichts anderes im Sinn hat, als einen öffentlichen und politischen Vorteil gegenüber seinen Wettbewerbern zu verschaffen. Diese müssen nämlich nachziehen, wollen sie öffentlich bei ihren Nutzern nicht als kühl und rücksichtslos wahrgenommen werden.

Das heißt, nur weil das Wohlwollen suggeriert wird, ist das Risiko unternehmerischer Rücksichtslosigkeit, das Gary Marcus in seinem Eingangsstatement thematisiert, kein Stück geschrumpft:

»We have unprecedented opportunities here, but we are also facing a perfect storm of corporate irresponsibility, widespread deployment, lack of adequate regulation, and inherent unreliability.«

Senator Dick Durbin aus Illinois sprach aus, was die Tech-Industrie schon längst begriffen hat und auch in Zukunft weiter ausnutzen werden: Parlamente, oder zumindest in diesem Fall der US-Kongress, sind nicht dafür geschaffen, mit dem technologischen Fortschritt mitzuhalten. Sie seien dafür da, Tempo rauszunehmen und genau und kleinteilig nachzudenken im Rahmen von menschlichen Kapazitäten, nicht im Sekundenbruchteil eines Computers.

»We are not designed for that.«

Senator dick durbin

So vielversprechend diese erste Anhörung verlief. Durbin spricht hier die Wahrheit und vermutlich die Zukunft aus, selbst wenn er damit viele Erwartungen enttäuscht und die die großen Befürchtungen von Hinton und Bengio bestätigt. Das gilt für die Möglichkeiten der US-Regierung und erst Recht für die internationale Politik: »I don’t think that we are currently organized at the level of the planet – politically speaking – to handle those kinds of risks properly«, erklärte Bengio gegenüber der CBC.

Nichtsdestotrotz: Blumenthal und seine Kollegen haben die historische Gelegenheit, das Gegenteil zu beweisen, z. B. mit zeitnahen Antworten und Vorschlägen in Fragen der Haftung. Inwieweit sollten Unternehmen hinter künstlichen Intelligenzen belangt werden, wenn mit ihren Produkten Schaden angerichtet wird? Diese Frage ist nicht nur eine drängendsten, sondern auch eine die verhältnismäßig zeitnah mit ersten Gesetzesinitiativen geklärt werden könnte, zumindest für manche Bereiche. Erst recht, wenn offensichtlich große Einigkeit in dieser Angelegenheit zwischen Demokraten und Republikanern besteht. Bleibt nur zu sehen, ob sich ein einigermaßen einiger US-Kongress zumindest hier dem Tempo, und zumindest vorübergehend, der Branche anpassen kann. Bis dahin hat Blumenthal mit sehr viel Optimismus seinerseits die Schachuhr gedrückt und nimmt Altman und seine Branchenkollegen in die Pflicht:

»The AI industry doesn’t have to wait for congress.«

Senator richard blumenthal
Die vollständige der Anhörung vor dem Judiciary Subcomittee on Privacy, Technology and Law