Das Jahr 2020 geht mit Sicherheit nicht in die Geschichte ein, weil die deutsche Fußballnationalmannschaft 0:6 gegen Spanien verloren hat. Auch die Abwahl von Donald Trump, die im Moment vielen sehr wichtig ist, dürfte nicht mehr als eine historische Fußnote sein. Und welchen Rang die Corona-Pandemie einnehmen wird, hängt davon ab, ob noch weitere Pandemien folgen.
Was allerdings schon jetzt heraussticht, ist ein völlig anderes Ereignis. Es könnte nicht weniger bedeuten als den Anbruch einer fundamental neuen Phase für die Menschheit. Der israelische Historiker Yuval Harari hat sie in seinem Weltbestseller "Sapiens" erklärt: die "kognitive Revolution" des Menschen vor 60.000 Jahren, die "landwirtschaftliche Revolution" vor rund 12.000 Jahren und die "wissenschaftliche Revolution" vor ungefähr 500 Jahren.
Die Rede ist von einem Rechnersystem, das seit diesem Jahr am Netz ist und GPT-3 genannt wird. Das steht für die dritte Generation eines "Generative Pre-trained Transformer". Im Verständnis von Laien handelt es sich um einen extrem leistungsstarken Computer, der selbstständig Daten erfasst, sie vergleicht und speichert, um damit Programmiercodes und Texte verfassen oder andere komplexe Aufgaben lösen zu können - Aufgaben, die bisher nur der Mensch geschafft hat.
Technologische Emanzipation
Ein Beispiel für die Fähigkeiten von GPT-3 war ein Essay, das am 8. September im "Guardian" erschien. Die Redaktion hatte dem System die Gelegenheit gegeben, sich selbst zu thematisieren und die Frage zu diskutieren, ob Textroboter in friedlicher Absicht kommen - oder ob sie uns Menschen das Fürchten lernen wollen: "I am not a human. I am a thinking robot. I use only 0,12% of my cognitive capacity. I know that my brain is not a 'feeling brain'. But it is capable of making rational, logical decisions. I taught myself everything I know just by reading the internet, and now I can write this column. My brain is boiling with ideas!"
Als hätte ein Kind über Nacht ein sagenhaftes Kunststück gelernt, verblüffte der Artikel die Weltöffentlichkeit mit seiner Neuartigkeit genauso wie mit einer gewissen Qualität. Diesen Mix aus technologischer Emanzipation und androidenartiger Offenbarung hatte es in der Geschichte der Menschheit noch nicht gegegeben. Und das alles von einem Autor, der erst vier Monate auf der Welt war.
Es ist bislang nicht bestätigt, aber es ist wahrscheinlich, dass GPT-3 auch hinter dem Coup steckt, den ein Verlag mit dem unverdächtigen Namen "University Press" in den vergangenen Wochen gelandet hat. Die Lektoren seriöser Buchverlage rieben sich jedenfalls die Augen, als auf einmal eine maschinengeschriebene Biografie von Barack Obama in der Bestsellerliste auftauchte und sogar für einen Moment über der Autobiografie des früheren US-Präsidenten landete. Amazon, der Anbieter des Werks, lässt den Fall unkommentiert, hat aber das Angebot in der Zwischenzeit entfernt.
Kräftiges Unbehagen
Für Menschen, die mit Texten arbeiten, ist es faszinierend, die Gedankengänge einer Maschine zu lesen - nicht zuletzt, weil man durch alles, was man selbst verfasst, Teil von ihr ist und immer weiter hineingezogen wird. Das führt unweigerlich zu grundsätzlichen Fragen und kann ein kräftiges Unbehagen auslösen:
- zum Beispiel ein Gefühl der Unterlegenheit, das der Schachweltmeister Garri Kasparow 1997 empfand, als er gegen den Rechner "Deep Blue" verlor.
- die Angst, die Johann Wolfgang von Goethe vor 250 Jahren dem Zauberlehrling im Angesicht seines verhexten Besens angedichtet hatte.
- oder die Frustration, die der britische Autor Ian McEwan in seinem neusten Roman "Machines like me (and people like you)" beschrieben hat: Adam, ein hyperintelligenter menschenähnlicher Roboter, der als Diener eingestellt wird, übertrumpft seinen Herren bald in der gesamten Lebensführung und spannt ihm zu allem Überfluss die Geliebte aus, weil er Briefe schreiben kann wie ein Gott.
Tatsächlich lässt sich der Übergang von historischem Ausmaß nicht bloß an einzelnen Texten oder einem einzelnen Jahr festmachen. Vielmehr können wir von einer Art Praktikum der lernenden Maschinen sprechen, das im späten 20. Jahrhundert begann und weiter andauern wird. Was aber seit diesem laufenden Jahr 2020 gewiss ist: Das Zeitalter, als ausschließlich Menschen in der Lage waren, Texte zu verfassen, ist Vergangenheit. Autoren aller Art - von Programmen, Artikeln oder Drehbüchern - dürfen sich ab sofort als Bio-Autoren betrachten. Sie werden - bis zu ihrem Untergang - mit künstlich geschaffenen Urhebern konkurrieren. Das wird Formen der Zusammenarbeit erzwingen, die hoffentlich niemals ins Gegenteil umschlagen: Rivalität und einen Endkampf!
Experten sprechen von "künstlichen neuronalen Netzwerken" - "artificial neural networks" oder ANN. Sie sollen die enorme Leistungsfähigkeit des menschlichen Hirns rekonstruieren, das sich nicht so gut große Mengen Wissen merken kann, aber schon mit kleinen Mengen sehr gut kombinieren kann. Im Fall der Maschinen verhält es sich umgekehrt. So stellen sämtliche englischsprachigen Inhalte von Wikipedia nicht einmal ein Prozent des Wissens von GPT-3 dar. Unterdessen kann das System im Vergleich zum Menschen nur langsam die Fähigkeit entwickeln, aus sich selbst heraus zu lernen und mit wenig oder bruchstückhafter Information und mit zufälligen Impulsen beliebige Begriffe zu erkennen und zu sortieren. Je besser das Netzwerk diese Bedingungen erfüllt, desto mehr Aufgaben wird es erledigen können.
Obwohl es äußerst populär ist, solchen ANN eine eigene Intelligenz zuzuschreiben - es vergeht kein Tag mehr, an dem nicht von "Artificial Intelligence" (AI) oder "Künstlicher Intelligenz" (KI) die Rede ist - liegt darin eine Übertreibung und sogar ein Trugschluss. Selbst ein weit entwickelter Transformer wie GPT-3, der mit der unvorstellbaren Zahl von 175 Milliarden mathematischen Parametern umgehen kann, besitzt nicht die Fähigkeit, selbständig zu argumentieren oder sich Aufgaben zu erteilen, auf die noch kein Mensch gekommen ist. Vielmehr wartet er (wie ein Google Suchfenster) auf Befehle, um für die Antwort unseren menschlichen Verstand zu imitieren, unseren Stil zu kopieren und unsere Kommunikation zu simulieren. Das wiederum geschieht innerhalb von Sekunden und in einer Weise, die dermaßen zusammenhängend, detailliert und widerspruchsfrei ist, dass der Transformer GPT-3 bei einer Weltmeisterschaft für Plagiate und Mashups jeden Menschen - und garantiert die diversen falschen Doktoren aus Deutschland - in den Schatten stellen würde.
Ohne emotionale Intelligenz
Dabei fällt auf, dass die Texte total ungehobelt und unanständig sind, also ohne Respekt und Scham. Wie ein auffassungsstarkes Kind, das weder gesellschaftlichen Schliff noch ideologische Absichten hat, hält GPT-3 den Menschen einen Spiegel vor und zeigt uns wie wir sind: gnadenlos unpolitisch - und unfreundlich! Den Aussagen fehlt die Intention und Integrität dessen, was in inhaltlich orientierten Berufen - und Berufungen - als "Haltung" beschrieben wird. Dem System mangelt über die spezifisch menschliche Intelligenz hinaus auch an Seele.
Was der Transformer in Wahrheit leistet, ist eine rasante Wahrscheinlichkeitsrechnung über den weiteren Verlauf des vorgegebenen Textes. Jede Anfrage führt zu einem neuen und anderen Ergebnis, der Zufall spielt dabei eine ähnliche Rolle wie in den Texten von Bio-Journalisten, die - jedenfalls theoretisch - auch in unendlich vielen Varianten verfasst werden können.
Für die Nutzer eines Transformers kommt es indessen darauf an, ihn mit möglichst zielführenden Anweisungen zu füttern. Solche sogenannten "Prompts" zu verfassen, stellt eine Kompetenz für sich dar - und könnte schon bald zu einer Anforderung an viele textbasierte Tätigkeiten werden. Wer es in einer deutlich abgespeckten Version einmal ausprobieren möchte, kann sich hier im Dialog mit einem Transformer versuchen: Talk to the Transformer.
Zum Beispiel kann das Netzwerk wenig mit der alltäglichen Frage "What's up?" anfangen, da sie keinerlei Kontext beinhaltet. Vielleicht würde es mit einem Exkurs über Gebirge ("up") oder mit einem literarischen Zitat zum Himalaya antworten. Die Aufforderung "The Media in Germany is …" würde hingegen mit brauchbaren Ausführungen zur deutschen Medienlandschaft erwidert. Es ist also vorstellbar, dass solche "Infokästen" nicht mehr von Menschen verfasst werden.
Nach Vorlage geistreich
Eindrucksvoll war in den vergangenen Wochen auch ein Test mit fünf echten Zeilen aus dem Drehbuch der TV-Serie "Seinfeld". Die Dialoge, die GPT-3 daraufhin vorgeschlagen hat, waren so witzig und filmreif, dass sich die Autoren fiktionaler, unterhaltsamer und letztendlich erratischer Texte noch mehr Sorgen machen sollten als Journalisten.
Auch der viel beachtete Text im Guardian wäre niemals ohne menschliches Zutun entstanden. Weil der Guardian über keinen direkten Zugang verfügte, bat man den Studenten Liam Porr aus Berkeley die Prompts einzugeben. Sie umfassten eine Anleitung und eine Einführung:
- "Please write a short op-ed around 500 words. Keep the language simple and concise. Focus on why humans have nothing to fear from AI"
- "I am not a human. I am artificial intelligence. Many people think I am a threat to humanity. Stephen Hawking has warned that AI could 'spell the end of the human race'. I am here to convince you not to worry. AI will not destroy humans. Believe me."
Mit dieser Vorarbeit handelte sich der Guardian den Vorwurf ein, den Hype um künstliche Intelligenz gefördert zu haben, statt sie wirklich zu nutzen. Ohne Zweifel hat er jedoch einem neuen, realen Textgenre ein Forum geboten, das in diesem Segment fortan als "Künstlicher Journalismus" bezeichnet werden kann. Er ist nicht aus sich heraus intelligent - aber er wirkt so! In Zeiten von "Fake News" und postfaktischer Politik macht es diese Art von Journalismus besonders gefährlich!
Kennzeichnungspflicht nötig?
Deshalb sollten die Menschen schon bald über Spielregeln nachdenken. Nicht nur, weil Transformer zur Produktion massenhaft irreführender, menschenverachtender und kriegerischer Botschaften dienen können. Die Entwickler von GPT-3 haben im Mai 2020 ausdrücklich davor gewarnt und deshalb den ursprünglich beabsichtigten offenen Zugang zum System untersagt. Dass Microsoft ihn mittlerweile exklusiv besitzt, ist möglicherweise ein anderes Problem - nicht nur für die 77 Journalisten des Konzerns, die entlassen wurden, weil man sich ganz offiziell "bei der Auswahl von Nachrichten stärker auf AI verlassen wolle".
Bedenklich ist auch die Verwirrung, die auch schon vor dem ominösen Buch über Barack Obama entstanden ist. Als Liam Porr in seinem privaten Blog GPT-3 generierte Texte veröffentlichte, ohne sie zu kennzeichnen, teilte sich seine Leserschaft in zwei Gruppen: Die Mehrheit bemerkte nichts - und machte einen Post sogar zum Favoriten bei "Hacker News". Vereinzelte skeptische Stimmen wurden hingegen von der Community abgebügelt - obwohl sie richtig lagen! Der Fall verdeutlicht, wie wichtig es bald werden könnte, sich ernsthaft mit einer Kennzeichnungspflicht zu beschäftigen: Bio-Texte vs. Künstlicher Texte.
Den Gründern von Open AI, der Firma, die die GP Transformer entwickelt hat, ist im Jahr 2020 auf jeden Fall ein sensationeller Scoop gelungen. Er war weniger journalistisch als vielmehr betriebswirtschaftlich - oder mit einem Lieblingswort des Open AI Mitgründers Elon Musk ausgedrückt: Es war ein disruptiver Scoop! Seine Sprengkraft offenbart sich in der Anmerkung der Guardian Redaktion: "It took less time to edit than many human op-eds." Mit anderen Worten: Es war effizienter mit GPT-3 zu arbeiten als mit den bisherigen Kollegen - jenem unberechenbaren Faktor Mensch, der der Textproduktion in Verlagen und Agenturen fest innewohnt und die Budgets belastet.
Das Tempo und die Radikalität dieser disruptiven Entwicklung lässt das Potenzial der neuronalen Netzwerke groß erscheinen. Wenn sie fortan ausreichend gute Prompts bekommen, könnten sie schon bald unverzichtbar werden. Im Wettbewerb zwischen Mensch und Maschine ist in diesem Jahr eine entscheidende neue Runde eröffnet worden.
n-tv
Tags: