Die Verfügbarkeit leistungsstarker Sprachmodellen von OpenAI, Google und anderen sorgt für viel Aufsehen. Ihre Fähigkeit, sich wie ein Mensch auszudrücken, lässt sie ebenso intelligent wirken. Schnell kam die Frage auf: Wird Künstliche Intelligenz bald schlauer sein als ein Mensch? Teilweise düstere Prognosen machten die Runde von den Folgen einer KI, welche dem Menschen in allen Belangen überlegen ist - und vielleicht unseren Untergang einleitet.
Doch diese Sorge ist unbegründet, glaubt zumindest der KI-Chef bei Facebook, Yann LeCun - jedenfalls mit Blick auf die heute verfügbare Künstliche Intelligenz. LeCun ist hochdekorierter Experte auf dem Gebiet. Aus seiner Sicht haben Sprachmodelle wie ChatGPT, Gemini oder Claude nicht das Zeug dazu, menschliches Intelligenzniveau zu erreichen. Man spricht dann von Allgemeiner Künstlicher Intelligenz oder AGI (Artificial General Intelligence). Eine andere, neue Art von KI könne dies hingegen schon schaffen, ist LeCun überzeugt.
Vierjähriges Kind schlauer als ChatGPT
Auf einem Vortrag begründete LeCun es kürzlich so: Heutige Sprachmodelle werden mit Billionen von Wörtern trainiert. Eine gigantische Menge an Text, für die ein einzelner Mensch 350.000 Jahre bräuchte, um sie zu lesen. Das Datenvolumen beträgt grob 60 Billionen Bytes. Ein menschliches Kind hingegen erfasst laut LeCun in den ersten vier Jahren seines Lebens etwa 110 Billionen Bytes an Daten, also fast das Doppelte. Es hat damit mehr Daten verarbeitet als die größten existierenden Sprachmodelle.
Und Sprachmodelle haben auch nie mit der realen Welt interagiert, sie kennen nur Texte. Nicht verwunderlich sei es daher, so LeCun, dass es bis heute keine Künstliche Intelligenz gibt, die für Menschen einfache Tätigkeiten ausführen kann, wie einen Esstisch abzuräumen oder Wäsche zusammenzulegen. Sogar selbstfahrende Autos, an denen seit Jahren intensiv geforscht wird, sind lediglich in abgesteckten Gebieten unterwegs - wie die Robo-Taxis von Waymo in einigen Städten der USA. Ein Mensch hingegen erlernt in wenigen Stunden, wie er sich praktisch überall auf der Welt mit dem Auto fortbewegen kann.
KI hat Weltherrschaft inne - bei Brettspielen
Was oft ein falsches Bild von Künstlicher Intelligenz erzeugt, sind ihre teils übermenschlichen Fähigkeiten in Spezialgebieten. So können Bildgeneratoren wie Midjourney in Sekunden fantasievolle Bilder erschaffen, wofür Grafiker Stunden benötigen. ChatGPT und andere Sprachmodelle können auf Knopfdruck funktionierenden Computer-Code ausspucken. Und die KI AlphaZero ist in der Lage, jeden Menschen auf der Welt in Brettspielen wie Schach oder Go zu schlagen. Aber sie sind alle Spezialisten auf teilweise sehr eng gefassten Gebieten.
Um wirklich universelle Fähigkeiten zu erlangen, fehlt Sprachmodellen laut LeCun und anderen Forschern eine wichtige Eigenschaft: Sie können nicht nachdenken. Sie können keine Handlungen planen, wie es Menschen tun. Das geht auch deshalb nicht, so LeCun, weil sie nichts haben, was man als gesunden Menschenverstand bezeichnen würde: Eine Vorstellung davon, wie die Welt funktioniert. Denn sie haben nur Text gesehen, nie aber die reale Welt. Manche KI-Experten wie LeCun oder auch Jeff Hawkins bringen daher eine andere Art von KI ins Spiel, die in der Lage sein soll, die Realität zu verstehen: das Weltmodell.
Wissen, wie die Welt funktioniert
Worum handelt es sich dabei? Ein Weltmodell existiert bereits in den Köpfen von Menschen und Tieren - es ist die Vorstellung davon, wie die Dinge in der Welt sich verhalten. Es erlaubt uns vorherzusagen, wie sich unsere Handlungen in der Welt (wahrscheinlich) auswirken. Wenn wir ein Tablett mit Geschirr tragen, wissen wir, dass es zu Boden fällt, wenn wir es loslassen würden. Daher gehen wir vorsichtig und halten es gut fest. Wir richten unsere Handlungen anhand des Weltmodells in unserem Kopf aus.
Die Idee vom Weltmodell und seinen Vorhersage-Fähigkeiten ist nicht neu, erhält aber in den vergangenen Jahren durch die Möglichkeiten von KI neue Aufmerksamkeit. Forscher fragen sich, ob man Ähnliches auch in einem Computer abbilden könnte. Aus Sicht von LeCun wäre dies der Schritt in Richtung einer KI, die dem Menschen tatsächlich ebenbürtig oder sogar überlegen sein könnte.
Keine Angst vor Superintelligenz?
Der französische Informatiker hat in einem Aufsatz aus dem Jahr 2022 ein Konzept vorgestellt, welches Computern ermöglichen soll, ähnlich wie ein Mensch die Welt zu verstehen und vorhersagen zu können. Es besteht aus einer Architektur, die in Teilen an das menschliche Gehirn angelehnt ist. Durch spezielles Training soll diese Art von Künstlicher Intelligenz lernen, die Welt zu begreifen und Handlungen zu planen, wie Menschen es tun.
Im Detail ist das alles ziemlich kompliziert - und es ist unklar, ob es überhaupt funktioniert. Doch während ChatGPT und Gemini als Sackgasse auf dem Weg zu einer Allgemeinen Künstlichen Intelligenz gesehen werden, könnte laut LeCun das Weltmodell den Durchbruch schaffen. Allerdings, so sagt er, dürften bis dahin noch "Jahre, wenn nicht sogar ein Jahrzehnt" vergehen.
Ist die Herrschaft der superintelligenten Maschinen also nur aufgeschoben? LeCun ist da nicht so pessimistisch: Selbst wenn der Mensch eine Superintelligenz erschafft, die ihm in allen Belangen überlegen ist, werde diese uns nicht umbringen wollen, glaubt der KI-Experte. Sie werde vielmehr unter unserer Kontrolle sein, weil sie objektiv gesteuert würde. "Wir geben ihr Ziele und sie erfüllt diese Ziele." Es sei wie bei Menschen: Man arbeite auch mit Kollegen zusammen, die schlauer als man selbst seien. Dies bedeute aber nicht, sagt LeCun, dass sie zwangsläufig alles dominieren oder die vollständige Kontrolle übernehmen wollen.
Quelle: ntv.de
Tags: