May 31, 2023 09:50
Sam Altman: "Wie erkennen wir, wenn ein System wie GPT die Welt versteht?"
Sam Altman, CEO von OpenAI, bereist seit Wochen die Erde, um sich mit Regierungschefs zu treffen. Seit seine Firma ChatGPT veröffentlicht hat, muss er viel erklären.
Jakob von Lindern
Sam Altman kann die Bühne nicht verlassen. Fotografen umringen ihn, Hörfunkmikrofone zeigen auf ihn, Minister, Unternehmerinnen und Studierende machen Selfies mit ihm und der fernsehbekannte Investor, der sich vorhin schon aufs Gruppenfoto gedrängt hat, will sich nun auch noch vorstellen. Mehr als 1.000 Menschen hatten eine Stunde im überfüllten Audimax der TU München gewartet, um Altman reden zu hören. Er war zu spät von einem ungeplanten Termin mit Olaf Scholz aus Berlin gekommen.
So gehe das jetzt schon seit Wochen, sagt seine Sprecherin. Denn Sam Altman, 38, ist CEO der Firma OpenAI, die sich auf Werkzeuge der künstlichen Intelligenz spezialisiert hat. Im vergangenen Winter hat sie eine Software namens ChatGPT veröffentlicht - der erfolgreichste Produktstart der Computergeschichte. Nun ist Altman auf Weltreise, besucht Regierungschefs, spricht vor Studierenden und Techexperten.
Schließlich kann er sich mithilfe seiner Leibwächter durch einen Nebenausgang retten, nun geht es durch die Katakomben und über die Hintertreppen der Universität in einen Seminarraum zum Gespräch mit ZEIT ONLINE. Altman nimmt eine Flasche Wasser, setzt sich, zieht das Knie an und ist sehr konzentriert.
ZEIT ONLINE: So muss es sich anfühlen, mit Liam Gallagher unterwegs zu sein.
Sam Altman: Ich weiß leider nicht, wer das ist.
ZEIT ONLINE: Ein Rockstar.
Altman: Oh.
ZEIT ONLINE: Haben Sie sich schon daran gewöhnt, ein Rockstar zu sein?
Altman: Ich glaube, ich kann mich an alles gewöhnen. Alles, ob gut oder schlecht, kann das neue Normal werden.
ZEIT ONLINE: So eine neue Normalität ist auch, dass jetzt viele Menschen einander von ihren aufregenden Erlebnissen mit ChatGPT berichten. Was ist Ihr bestes Erlebnis?
Altman: Dürfen es die Top Drei sein?
ZEIT ONLINE: Bitte sehr.
Altman: OK, als ich ChatGPT zum ersten Mal Programmcode habe debuggen sehen. Das war - wow! Es hat mich früher so viel Zeit und Arbeit gekostet, das selbst zu tun. Und jetzt tippe ich den Code einfach ein und es sagt mir: Hier ist der Fehler. Das fand ich unglaublich. Das zweite große Erlebnis ist, anderen dabei zuzusehen, wie sie ChatGPT zum ersten Mal benutzen. Das gibt mir immer noch einen unglaublichen Kick, that’s a very big one. Schließlich das Schreiben. Ich musste letztens einen Post verfassen und ich war gestresst. Also habe ich ChatGPT um Hilfe gebeten und es hat mir einen großartigen ersten Satz gegeben. Von da konnte ich den Rest herunterschreiben.
ZEIT ONLINE: Wie intim sind eigentlich diese "Prompts", über die wir mit unseren KI-Chatbots kommunizieren?
Altman: Das bin ich noch nie gefragt worden. Ich würde meinen Prompt-Verlauf jedenfalls nicht mit anderen teilen. Es fühlt sich sehr persönlich an.
ZEIT ONLINE: Sollten spezielle Schutzregeln dafür gelten, so wie für Gespräche mit einem Psychiater oder Anwalt?
Altman: Darüber habe ich noch nicht nachgedacht.
ZEIT ONLINE: Denken Sie doch jetzt darüber nach.
Altman: Das ist eine wirklich interessante Frage. Mein Gefühl sagt, dass es irgendetwas dazwischen ist. Es sind nicht einfach nur normale Daten, für die der normale Datenschutz gilt, aber es ist auch nicht das Gleiche wie ein Gespräch mit einem Anwalt. Wir brauchen eine neue Kategorie. Und wir müssen regeln, welche Ausnahmen für Notfälle gelten, etwa, wenn Menschen sagen, dass sie sich umbringen wollen.
ZEIT ONLINE: Sie vergleichen die gesetzliche Regulierung von künstlicher Intelligenz gerne mit der Regulierung von Atomwaffen. Sie haben OpenAI sogar mit dem Manhattan Project zum Bau der ersten Bombe verglichen und sich selbst mit dem Leiter, Robert Oppenheimer, der auch noch am selben Tag Geburtstag hat wie Sie. Wollen Sie wirklich in die Geschichte eingehen als der Mann, der die erste Bombe gezündet hat? Wären Sie nicht lieber Enrico Fermi, der Mitbegründer der zivilen Kernkraft?
Altman: Andere haben mich mit Oppenheimer verglichen. Ich verstehe, warum Leute den Vergleich ziehen, aber ich fühle ihn nicht. Und ich bin definitiv kein brillanter Wissenschaftler, also bin ich bestimmt nicht Fermi. Ich bin ein CEO.
ZEIT ONLINE: Oppenheimer hat das größte technische Projekt seiner Zeit organisiert. So wie Sie heute.
Altman: Ja.
ZEIT ONLINE: Und Sie sprechen immer wieder in Nuklearmetaphern, um auf die Gefahren der künstlichen Intelligenz hinzuweisen. Warum hatten Sie es so eilig damit, eine unfertige Technik mit derart viel Sprengkraft zu veröffentlichen?
Altman: Wir hatten es nicht eilig damit. Ich glaube, andere haben es gerade eilig damit, sie nachzubauen. Nachdem sie fertig war, haben wir weitere acht Monate daran gearbeitet, um sie sicher zu machen. Und vorher Jahre, um herauszufinden, wie das geht. Und heute, ich hoffe, da stimmen Sie mir zu, verhält sich diese Technik ziemlich gut.
ZEIT ONLINE: Sie sind im Vergleich mit der Konkurrenz zweifellos vorgeprescht.
Altman: Unsere Mission ist es, eine Allgemeine Künstliche Intelligenz zu entwickeln, die sicher ist und zum Wohl möglichst vieler beiträgt. Ein wichtiger Teil davon ist, dass die Menschen Zeit brauchen, um sich an diese Technologie zu gewöhnen und verstehen, was da auf sie zukommt. Politiker, die regulieren, brauchen diese Zeit auch, die Wirtschaft braucht sie, wir alle brauchen Zeit. Ich glaube nicht, dass es gut gewesen wäre, das noch ein paar Jahre unter Verschluss zu halten, um dann GPT-6 zu veröffentlichen.
ZEIT ONLINE: Die Entscheidung, ChatGPT schon in den Zeiten der noch ziemlich rohen Version 3.5 zu veröffentlichen, war doch auch relativ spontan, oder?
Altman: Relativ.
ZEIT ONLINE: Fühlen Sie sich damit im Rückblick noch wohl?
Altman: Ja. Tatsächlich glaube ich, wenn wir ChatGPT direkt mit GPT-4 ausgerollt hätten, wäre das ein Erdbeben gewesen. Ich glaube, GPT-3.5 war ein hilfreicher Zwischenschritt. Hilfreicher, als uns damals klar war.
ZEIT ONLINE: Sie haben vor dem US-Kongress ausgesagt und reisen jetzt um die Welt, um Regierungschefs zu treffen, heute auch den deutschen Bundeskanzler …
Altman: … Er ist großartig! Ich war wirklich beeindruckt.
ZEIT ONLINE: Sicher lernen die Politiker viel von Ihnen. Aber was lernen Sie von den Politikern?
Altman: Ich habe in den letzten drei Tagen fünf europäische Regierungschefs getroffen. Jeder einzelne von ihnen hatte sich schon so viele Gedanken gemacht. Dass wir sowohl die kurzfristige als auch die langfristige Regulierung hinbekommen müssen. Dass wir dabei nicht durch Überregulierung die Vorteile kaputt machen sollten. Das hatte ich ganz anders erwartet. Ich hätte nicht gedacht, dass die Leute schon so fokussiert auf AKI sind.
ZEIT ONLINE: Eines der Risiken, das auch Sie angeblich umtreibt, ist ein möglicher Schaden für die Demokratie. Könnten KI-Bots wirklich die Grundzüge der Politik beeinflussen?
Altman: Ich fühle mich schon beeinflusst von meinem Twitter-Feed und davon, was mir der Algorithmus anzeigt.
ZEIT ONLINE: Aber Lügen und Hass kann man dort auch ganz ohne die Hilfe eines künstlichen Sprachmodells hinschreiben.
Altman: Sicher. Die Plattformen selbst sind wichtiger, weil die Desinformation dort verbreitet wird. Aber Leute werden Sprachmodelle daran anschließen und dann wissen Sie nicht, ob Sie online mit einem echten Menschen interagieren oder nicht. Ich glaube, da ist durchaus Vorsicht angebracht. Alle wollen immer über die Nachteile sprechen und das ist sinnvoll. Aber die Vorteile werden enorm sein.
ZEIT ONLINE: Gut, sprechen wir über die Vorteile!
Altman: Wenn es stimmt, dass Einzelunterricht mit einem persönlichen Lehrer signifikant bessere Ergebnisse erzielt als klassischer Frontalunterricht und wir uns das bisher nur nicht für alle Schüler leisten konnten - jetzt können wir es! Jeder kann seinen eigenen Lehrer haben und bessere Ergebnisse erzielen. Das ist unglaublich.
ZEIT ONLINE: Die amerikanische Nachhilfeplattform Chegg verzeichnet schon einen Einbruch der Nutzung, ähnlich wie die Programmierhilfeplattform StackOverflow. Sind das die ersten Zeichen einer solchen Veränderung?
Altman: Viele werden KI die Schuld für viele Probleme geben. Manches davon wird stimmen, anderes nicht. Aber bis zu einem gewissen Grad ist das doch genau das, was passieren soll, oder? Wir bekommen bessere Werkzeuge und die ersetzen die alten, weniger guten Werkzeuge. So wird das Leben besser.
ZEIT ONLINE: Ein User auf der Plattform Reddit schreibt, er sei in seinem Job als Spieledesigner durch KI viel effizienter geworden, aber jetzt mache er ihm auch keinen Spaß mehr. Ein Einzelfall?
Altman: Deswegen habe ich mir auch Sorgen gemacht, und manche Menschen werden es genau so erleben. Ich persönlich genieße es, mit ChatGPT zusammenzuarbeiten und das höre ich auch von vielen anderen. Du kannst den Teil der Arbeit, den du magst, selber machen und delegierst den Rest.
ZEIT ONLINE: Schüler delegieren ganz schön viel an ChatGPT, Studierende lassen ihre Seminararbeiten schreiben. Was bedeutet das für die Ausbildung?
Altman: Es ist so wichtig, schreiben zu lernen. Für mich ist Schreiben, als hätte ich ein externes Gehirn, das mir hilft, etwas zu durchdenken. Der Moment, in dem wir das Schreiben aufgeben, wird ein wirklich trauriger sein. Ich hoffe, er kommt nie und ich glaube es auch nicht. Aber das Schreibenlernen wird sich verändern müssen. Ich hoffe, wir finden einen Weg, es Menschen weiterhin beizubringen, auch wenn es jetzt anders ist, elaborierter.
ZEIT ONLINE: Sie haben sicher nicht mitbekommen, dass GPT-4 das in Deutschland höchst angesehene bayerische Abitur bestanden hat?
Altman: Doch, das habe ich tatsächlich. Ich arbeite in einer meiner anderen Firmen, Worldcoin, mit vielen Bayern zusammen.
ZEIT ONLINE: Das ist eine der großen Debatten, die durch ChatGPT sofort angestoßen wurde: Wie müssen wir den Schulunterricht, wie müssen wir die Prüfungen verändern?
Altman: Wir sind in einer Phase, in der Lehrer viel experimentieren. Ich habe kein Patentrezept, wie man ChatGPT in den Unterricht integriert. Lehrer und Schüler finden das gerade gemeinsam heraus.
ZEIT ONLINE: Sie erwarten, dass KI die großen Probleme der Menschheit löst, die Klimakrise etwa. Warum sind Sie da so sicher? Liegt es nicht eher an den Menschen, dass wir diese Probleme nicht in den Griff bekommen?
Altman: Es ist immer beides. Um die Menschheit voranzubringen, braucht es die Gesellschaft, die Institutionen, die Errungenschaften der Aufklärung. Und es braucht wissenschaftlichen und technischen Fortschritt. Den Klimawandel will die Gesellschaft eigentlich stoppen. Es wirkt aber eine ökonomische Kraft in die entgegengesetzte Richtung. Wenn Technologie uns eine Energiequelle liefert, die günstiger ist als die kohlenstoffbasierten, würden die Leute liebend gerne wechseln.
ZEIT ONLINE: Warum brauchen wir dafür KI?
Altman: Na ja, alleine haben wir die Probleme bisher jedenfalls nicht gelöst.
ZEIT ONLINE: Kann KI denn überhaupt immer leistungsfähiger werden, um uns irgendwann dabei helfen zu können? Viele führende Wissenschaftler sagen, dass es schwierig wird, die Systeme noch erheblich besser zu machen, weil es einfach nicht mehr Trainingsdaten gibt.
Altman: Bei allem Respekt glaube ich, dass diese Wissenschaftler komplett falsch liegen. Erstens entwickeln wir immer effizientere Algorithmen, sodass wir mit den gleichen Daten bessere Ergebnisse erzielen. Zweitens gibt es durchaus noch mehr Daten. Schon nach GPT-3 wurde gesagt, die Idee sei tot, weil wir das gesamte Internet verwendet hätten. Und dann haben wir doch noch mehr Daten gefunden, viel mehr.
ZEIT ONLINE: Wo kommen denn die ganzen Daten her?
Altman: Wir lizenzieren sie aus vielen verschiedenen Quellen. Wir kaufen Bücher, es gibt offen verfügbare Daten, wir haben viel Bildmaterial von Firmen wie Shutterstock gekauft, um damit zu trainieren. Und wenn die Modelle gut genug werden, können sie synthetische Daten produzieren, die genauso gut sind wie die Trainingsdaten. So gehen sie einem nie aus.
ZEIT ONLINE: Das beste KI-System für Go, AlphaGo Zero, meisterte das komplexe Brettspiel viel besser als alle seine Vorgänger, die noch mit historischen Daten trainiert wurden. Es brachte sich die Strategien selbst bei, indem es einfach immer wieder gegen sich selbst antrat. Zu Anfang kannte es nicht viel mehr als die Spielregeln. Werden auch Ihre Modelle eines Tages so lernen?
Altman: Ja, das ist die Zukunft. Es gibt zwei wichtige Konzepte, eines davon ist die AlphaGo-Zero-Idee. Ein System, das aus sich selbst heraus Neues lernt. Das andere ist die GPT-Idee, also ein System, das aus Daten lernt. Beide haben funktioniert. Sie zu kombinieren, wird sehr spannend.
ZEIT ONLINE: Das Sprachmodell von ChatGPT wurde auch durch die Arbeit sehr vieler Menschen verfeinert. "Reinforcement learning with human feedback", kurz RLHF, heißt der Ansatz. Das System bekommt Aufgaben und Menschen bewerten, ob die Antworten gut oder schlecht sind, daraus lernt die KI. War das der Schlüssel zum weltweiten Erfolg von ChatGPT?
Altman: Es gab drei. Der erste Schlüssel war der Algorithmus, der selbständig aus Daten lernen kann. Der zweite war, dass wir herausgefunden haben, wie man das System skaliert. Und der dritte war das RLHF. Dadurch wurde es erst richtig nutzbar.
ZEIT ONLINE: Ist RLHF wie die Erziehung eines Kindes?
Altman: Es ist gefährlich, Systeme der künstlichen Intelligenz zu vermenschlichen. Aber ich verstehe die Analogie, ein bisschen fühlt es sich so an.
ZEIT ONLINE: Ist diese Maschinenerziehung auch der Schlüssel zum sogenannten Alignment, also eine Allgemeine Künstliche Intelligenz dazu zu bringen, im Dienste der Menschheit zu arbeiten und ihr nicht zu schaden, und sei es aus Versehen?
Altman: Nein, für das Alignment müssen wir neue Dinge entwickeln. Daran forschen wir viel. Das ist einer der Bereiche, der mich am meisten interessiert.
ZEIT ONLINE: Sie haben angedeutet, dass Sie sich aus Europa zurückziehen könnten, wenn der AI Act, ein europäisches Gesetz, das KI regulieren soll, in der aktuell geplanten Form verabschiedet wird.
Altman: Eigentlich habe ich das Gegenteil gesagt. Ich habe gesagt, wir werden versuchen, uns daran zu halten. Aber wenn wir uns nicht an das Gesetz halten können, werden wir es nicht brechen.
ZEIT ONLINE: Und Europa den Rücken kehren. Was genau stört Sie an dem Entwurf?
Altman: Ich gehe davon aus, dass wir weiterhin konstruktive Gespräche führen und in der Lage sein werden, uns an das Gesetz zu halten. Aber wenn man zum Beispiel fordern würde, dass die Systeme sich in 100 Prozent aller Fälle auf eine ganz bestimmte Art verhalten müssen, wäre das schwierig umzusetzen, denn es geht hier ja um statistische Prozesse. Mir geht es darum, dass die Regeln so geschrieben sind, dass die Systeme technisch überhaupt in der Lage sind, sie einzuhalten. Wir haben nicht die Absicht, uns aus Europa zurückzuziehen, wir lieben Europa!
ZEIT ONLINE: Ein Streitpunkt beim AI Act ist die Frage, wer verantwortlich ist. Wenn ein Unternehmen auf Basis von GPT eine Anwendung entwickelt, von der sich herausstellt, dass sie zum Beispiel Menschen diskriminiert. Ist das Basismodell GPT schuld - oder derjenige, der es in seine Anwendung eingebaut hat?
Altman: Das muss noch diskutiert werden.
Sam Altman in München: "Es ist richtig, dass Regierungen die Regeln machen." © Simon Koy für ZEIT ONLINE
ZEIT ONLINE: Sehen Sie die Politik da auf einem guten Weg?
Altman: Ein Politiker hat uns mit einem Autohersteller verglichen. Natürlich muss ein Auto sicher sein und gründlich getestet werden. Wenn bei einem Unfall die Airbags nicht aufgehen, ist der Hersteller schuld. Aber wenn jemand betrunken mit 250 über die Autobahn rast und gegen eine Wand fährt, ist der Hersteller nicht schuld, sondern der Fahrer.
ZEIT ONLINE: Ist es denn überhaupt eine gute Idee, Regierungen die Kontrolle über KI zu geben? Was, wenn eine neue Regierung, sagen wir in den USA, plötzlich verlangt, dass die KI eine bestimmte politische Haltung vertritt?
Altman: Es ist richtig, dass Regierungen die Regeln machen. Demokratie ist das schlechteste System, ausgenommen alle anderen. Eine Art internationale Regulierung wäre deshalb gut. Jedenfalls kann nicht die Alternative sein, dass OpenAI die Regeln macht.
ZEIT ONLINE: Im Moment machen Sie sich Ihre Regeln aber selbst, oder?
Altman: Ja, aber wir finanzieren jetzt eine Reihe von Projekten, die daran arbeiten, diese Entscheidungen zu demokratisieren und wir entwickeln auch selbst solche Ideen.
ZEIT ONLINE: Wie sehen die aus?
Altman: Eine spannende Idee ist, dass ChatGPT die Nutzer fragt, wie sie zu bestimmten Entscheidungen stehen, wie die Regeln in diesem oder jenem Fall sein sollten. Dann gibt der Bot weitere Informationen, bietet andere Meinungen an, aber wenn du bei deiner Meinung bleiben willst, ist das in Ordnung. So sammeln wir die Meinungen von Hunderten Millionen Menschen aus der ganzen Welt ein. Mithilfe des RLHF können wir das Modell mit diesen Meinungen in Einklang bringen. Das ist eine coole Idee, finde ich.
ZEIT ONLINE: Warum veröffentlichen Sie ihre Modelle nicht einfach als Open Source? Dann hätten alle Menschen die Möglichkeit, zu überprüfen, wie die KIs genau funktionieren.
Altman: Irgendwann - und wir werden es erst im Nachhinein merken -, werden wir ein Modell erschaffen, das gefährlich ist.
ZEIT ONLINE: Sie veröffentlichen die Modelle nicht, weil sie zu gefährlich sind?
Altman: Irgendwann wird eines gefährlich sein. Für diesen Fall wollen wir heute vorsorgen.
ZEIT ONLINE: Aber es gibt eine breite Open-Source-Bewegung in der KI-Szene. Haben Sie Angst, dass dadurch Schlimmes in die Welt kommt, das wir nicht mehr kontrollieren können?
Altman: Bei den heutigen Fähigkeiten der Modelle mache ich mir noch keine Sorgen. Aber wenn die Modelle leistungsfähiger werden, dann mache ich mir Sorgen, ja.
ZEIT ONLINE: Welche konkret? Sorgen Sie sich um absurde Katastrophen, wie sie etwa der Philosoph Nick Bostrom in einem berühmten Gedankenexperiment beschreibt, dem paperclip maximer: Ein Unternehmen gibt einer KI die Aufgabe, möglichst viele Büroklammern zu produzieren. Die Maschine nimmt den Auftrag allzu wörtlich und löscht die Menschheit aus, weil sie alle Ressourcen für Büroklammern braucht.
Altman: (Lacht.) Nein, das ist nicht das Szenario, über das ich mir die meisten Sorgen mache. Eher um wirklich ausgefeilte Desinformation oder Cyberangriffe und biologische Waffen, die dank KI einfacher hergestellt werden können.
ZEIT ONLINE: Wie können wir eigentlich in Zukunft wissen, dass wir es im Internetalltag mit einem Mensch oder einer Maschine zu tun haben? Lassen Sie uns den Sam-Altman-Test erfinden. Mit welchen paar Fragen können Sie sicher erkennen, dass am anderen Ende eine Maschine ist?
Altman: Mir fallen keine ein. Um das herauszufinden, bräuchte ich sehr viel Zeit. Ich fürchte, solch einen Test gibt es nicht. Noch interessanter wird übrigens ein anderer Test: Wie erkennen wir es, wenn ein System wie GPT wirklich die Welt versteht?
Allgemeine Künstliche Intelligenz (AKI) bezeichnet ein System, das Menschen beim Lösen intellektueller Aufgaben ebenbürtig ist. OpenAI wurde 2015 als erstes Unternehmen mit dem offiziellen Ziel gegründet, eine AKI zu entwickeln. Dieses Ziel ist noch längst nicht erreicht. Die Versionen der Software GPT sollen sich ihm jedoch immer mehr annähern, die aktuelle heißt GPT-4. GPT steht dabei für "Generative Pretrained Transformer", ein spezielles KI-System, das mit riesigen Datenmengen "vortrainiert" wurde, um sinnvollen Text generieren zu können. ChatGPT ist eine spezielle Anwendung dieses Modells, die in einem Chat-Dialog plaudern und dabei bereits erstaunlich komplexe Aufgaben lösen kann.
Zeit 26.5.2023
ki