Hannes Bajohr: "Unser Verständnis von Text wird sich fundamental verändern" Durch künstliche Intel

Apr 22, 2023 13:43

Hannes Bajohr: "Unser Verständnis von Text wird sich fundamental verändern"

Durch künstliche Intelligenz vollziehe sich der "Tod des Autors" ein zweites Mal, sagt der Literaturwissenschaftler Hannes Bajohr. Das habe auch politische Konsequenzen.

Interview: Peter Neumann

Wir leben in Zeiten, die uns einiges Kopfzerbrechen bereiten. Deshalb fragen wir in der Serie "Worüber denken Sie gerade nach?" führende Wissenschaftlerinnen und Wissenschaftler sowie Stimmen des öffentlichen Lebens, was sie gegenwärtig bedenkenswert finden. Die Fragen stellen Maja Beckers, Andrea Böhm, Christiane Grefe, Nils Markwardt, Peter Neumann, Elisabeth von Thadden, Lars Weisbrod oder Xifan Yang. Heute antwortet der Literaturwissenschaftler und Philosoph Hannes Bajohr.

Hannes Bajohr ist Junior Fellow am Collegium Helveticum in Zürich, wo er zu künstlicher Intelligenz und literarischer Autorschaft forscht. Zuletzt erschien von ihm "Schreibenlassen - Texte zur Literatur im Digitalen" (August Verlag, 2022), ein Band mit Aufsätzen zu KI und digitaler Literatur. © privat

ZEIT ONLINE: Hannes Bajohr, worüber denken Sie gerade nach?
Hannes Bajohr: Ich denke gerade darüber nach, welche Auswirkungen KI-Sprachmodelle wie ChatGPT oder Bard auf Sprache als gesellschaftliches, politisches und literarisches System haben. Als Literaturwissenschaftler beschäftige mich insbesondere mit dem Prinzip der Autorschaft. Und ich glaube, dass es hier einerseits viele Anschlüsse an bereits bestehende Konzepte seit dem Aufkommen automatisierter Textsynthese gibt. Andererseits ist das, was wir im Augenblick erleben, absolut neu und durch keine Theorie zu erklären, die wir schon haben.

ZEIT ONLINE: Was unterscheidet die Textproduktion neuerer KI von der alten Robotersprache?
Bajohr: In älteren Modellen war Sprache immer schon in einem bestimmten Satz an Regeln niedergelegt. Und da stieß man schnell an Grenzen, weil Sprache eben immer mehr ist und nie völlig regelhaft. Heute haben wir es mit statistischen Sprachmodellen zu tun. Man muss im Grunde gar nicht mehr wissen, wie ein Satz aufgebaut ist, sondern man sammelt einfach unglaublich viele Arten von Beispieltexten, analysiert sie und lässt dann ausgeben, was dem Input statistisch nahekommt. Und erst mit dieser Art undiszipliniertem Ansatz gelangt man plötzlich zu solchen eindrucksvollen Ergebnissen wie denen, die ChatGPT ausspuckt.

ZEIT ONLINE: Schon heute ist die Maschinensprache der menschlichen Sprache verblüffend ähnlich.
Bajohr: Es handelt sich nicht um Sprache in der vollen Bedeutung des Begriffs, es ist eher eine Sprachsimulation. Volle welterschließende Sprache lässt sich in den neuen KI-Sprachmodellen nur annäherungsweise finden. Aber annäherungsweise und eben nicht nicht. Und ich glaube, das ist das Neue. Bis vor fünf Jahren hätte die KI-Forschung wahrscheinlich noch gesagt: Wir können Bedeutung nicht generieren oder, wenn überhaupt, dann nur parasitär - es mag für uns Sinn ergeben, aber nicht für den Computer. Ich denke, wir sind heute weiter. Ich glaube, wir sind inzwischen an einem Punkt angekommen, wo es so etwas wie gradierte Bedeutung gibt.

ZEIT ONLINE: Inwiefern?
Bajohr: Sprachmodelle codieren Sprache als Vektoren in einem vieldimensionalen Raum. Man kann sich das vorstellen wie eine Punktwolke, in der das Verhältnis zwischen den Punkten, die in diesem Fall Wörter oder Morpheme sind, Schlüsse erlaubt, die über das hinausgehen, was man als Input hineingegeben hat. Ein klassisches Beispiel wäre: König - Mann + Frau = Königin. Dass hier auf einmal eine Kategorie wie Gender auftaucht, die vorher nur implizit war, jetzt aber explizit ist, lässt uns annehmen, dass es eine Art von "dummer Bedeutung" gibt.

ZEIT ONLINE: Was meinen Sie mit "dummer Bedeutung"?
Bajohr: In der Diskussion um KI springt man immer schnell zu den Kategorien wie Bewusstsein, Intelligenz, Menschenähnlichkeit. Ich glaube, man kann sich darauf einstellen, dass man es hier mit einer Art von Rationalität zu tun hat, die einerseits über das hinausgeht, was man mit den alten, regelbasierten Systemen machen konnte, andererseits eben doch nicht menschengleich ist. Der Mensch bleibt im Hintergrund notwendig, um überhaupt zu verstehen, was Bedeutung ist. Der ganze Antihumanismus der letzten vierzig, fünfzig Jahre, der heute in den Posthumanismus eingelaufen ist, wird durch die nicht menschliche Intelligenz der KI sozusagen wieder ein wenig infrage gestellt: Der Mensch kehrt zurück, indem er als stete Vergleichsgröße herangezogen wird. Dumme Bedeutung heißt dann: mehr und weniger als menschliche Bedeutung. Anders gesagt: Referenz auf die Welt und reines Zeichensystem.

ZEIT ONLINE: Aber wo bitte schön soll die Referenz auf die Welt herkommen bei einer schlichten KI?
Bajohr: Klassischerweise sind Programme Symbolsysteme, die in sich geschlossen sind. Wenn in dem System etwas "Katze" heißt, dann hat es mit echten Katzen nichts zu tun. Es ist lediglich ein Symbol, es hätte auch anders heißen können. Dadurch hingegen, dass es bei KI tatsächlich um Daten aus der Welt geht, sowohl visuelle als auch textuelle Daten, hat man im Grunde eine Verweiskette, eine indexikalische Beziehung zwischen dem, was als Input reingeht, und dem, was als Output rauskommt. Und diese indexikalische Bedeutung ist etwas anderes als eine rein arbiträre Beziehung. Sie verweist in einer Kette von Datenverbindungen zurück auf die Welt.

ZEIT ONLINE: Wie können wir dann überhaupt noch unterscheiden, was natürliche und künstliche Sprache ist?
Bajohr: Unser lebensweltliches Verständnis von Text wird sich in Zukunft fundamental verändern. Denn schon heute ist eine Situation eingetreten, in der ich mir nicht mehr sicher sein kann, ob der Autor ein Mensch oder eine Maschine ist. Wir haben es mit postartifiziellen Texten zu, wie ich das nenne. Es ist ab diesem Punkt schlicht nicht mehr beweisbar, was natürlicher, menschlicher Text ist und was artifizieller, maschinengenerierter Text. Und wenn der Zweifel an der Herkunft erst mal eingetreten ist, lässt er sich nicht mehr abschaffen. In der Literaturwissenschaft spricht man seit dem französischen Poststrukturalismus vom "Tod des Autors". Nun scheint es, als sei der Autor ein zweites Mal totgeschlagen worden, diesmal durch die KI.

ZEIT ONLINE: Und doch haben wir in den letzten Jahren etwas ganz anderes erlebt - eine große Feier der Autofiktion und damit eben auch des natürlichen Textes, von Autorschaft und Weltbezug.
Bajohr: Das wird ein interessanter Aushandlungsprozess werden. Ich versuche gerade selbst, einen Roman mit KI zu schreiben. Es ist ein Experiment: Ich habe die KI mit vier aktuellen Gegenwartsromanen trainiert - alle mit inhaltlichem Digitalbezug. Und jetzt schreibt die KI in diesem Stil - oder versucht es zumindest. Das ist ästhetisch und literaturwissenschaftlich aufschlussreich: Dieser Stil ist ein Amalgam, das nicht mehr aus einem Autor besteht, sondern aus vier Stimmen. Gleichzeitig ist es auch eine Umkehrung der Digital Humanities, indem man die Analyse zur Synthese macht, der Output also Rückschlüsse auf den Input erlaubt. Und schließlich erfährt man auch etwas über die Arbeitsweise der KI, die nämlich eigentlich nicht erzählen kann, es aber auf Teufel komm raus trotzdem versucht. Das ist auch ein großer Spaß.

ZEIT ONLINE: Was werden Sie aufs Cover schreiben - Hannes Bajohr oder ChatGPT oder beides?
Bajohr: Ich glaube nicht, dass Computer Künstler sind, und zwar prinzipiell nicht. Aber ich denke, dass Kollaborationen wichtiger werden. Es geht nicht darum, dass der Computer der Autor ist. Sondern die Verbindung zwischen beidem - Autor und KI -, die beide sichtbar lässt.

ZEIT ONLINE: Wäre nicht eine Fusion von menschlichem und artifiziellem Autor folgerichtig?
Bajohr: Es ist und bleibt eine hierarchische Kollaboration. Es ist keine gleichberechtigte Zusammenarbeit. Man könnte sich überlegen, was passieren muss, damit sie tatsächlich gleichberechtigt wäre. Das ist wahrscheinlich kein technisches Problem, sondern eine Frage gesellschaftlicher Anerkennung: Computer müssten Akteursstatus haben, um Kunst zu machen. Und den haben sie bisher nicht, ganz gleich, wie "schlau" sie sind. Hätten sie ihn, könnte auch ein dummes System möglicherweise ein Subjekt sein - und damit eben auch Kunst schaffen.

ZEIT ONLINE: Welche politischen Konsequenzen sind damit verbunden, wenn der Zweifel an der Herkunft eines Textes oder eines Bildes bald nicht mehr prinzipiell ausgeräumt werden kann?
Bajohr: Normalerweise geht es bei diesen Diskussionen immer um Deepfakes, also um Manipulationen, oder um Bias, also um die Rassismen, die schon in der Sprache enthalten sind, mit der die KI trainiert wird. Was mich daran interessiert, ist, dass Sprache das politische Medium per se ist. Und was man da beobachtet, ist eine Privatisierung von Sprachtechnologie, weil es nur eine Handvoll Techunternehmen gibt, die große Sprachmodelle herstellen können. Dadurch wird Sprache aber als Medium von Meinungsaustausch und öffentlichem Diskurs zu einer Ware, die keiner demokratischen Kontrolle mehr unterliegt. Und das finde ich gefährlich.

ZEIT ONLINE: Techexperten mahnen neuerdings zu einem KI-Moratorium. Wäre das eine Lösung?
Bajohr: In der Techbranche warnt man schon lange davor, dass die KI zu intelligent werden und dann die Menschheit ersetzen könnte. Und deshalb will man eine KI schaffen, die aligned, also in Harmonie mit den menschlichen Interessen ist. Aber auch hier gilt: Das wird als neutrales, rein technisches Projekt betrachtet und eben nicht als Gegenstand von Politik. Dabei wäre diese Politisierung unbedingt notwendig. Denn jedes Sprachmodell muss immer gefiltert werden, muss zensiert werden, muss trainiert werden. Und in welche Richtung man es drängt, ist eine politische Entscheidung. Man muss sich klar werden, dass die Macht über Sprache und Sprachmodelle in Zukunft die Macht über Politik sein wird. Und die Aushandlung der Kriterien muss öffentlich sein. KI-Sprachmodelle haben selbst keinen Sinn fürs Politische.

Zeit 15. April 2023

ki, gpt, literatur, sprachgeschichte2

Previous post Next post
Up