Spätestens seit das von Elon Musk und Microsoft unterstützte Sprachmodell GPT-3 (Generative Pre-trained Transformer 3) im Jahr 2020 auf den Markt kam, ist das öffentliche Interesse an KI-gesteuerten Textgeneratoren gewachsen. Ein medienwirksamer Auftritt in „The Guardian“, wo GPT-3 sich in einem Artikel selbst vorstellte, legte den Schluss nahe, dass Künstliche Intelligenzen bereits für Textproduktionen einsetzbar sind.

Auf der anderen Seite rät Google von der Verwendung von KI-generiertem Content ab. Erfahrungsgemäß hätten diese Inhalte weiterhin eine niedrigere Qualität, sodass eine Abstrafung in den Suchergebnislisten drohe.

Sind KI-gesteuerte Sprachmodelle wie GPT-3 also bislang nur eine technische Spielerei oder lassen sie sich auf Websites und im Marketing bereits gewinnbringend einsetzen – und wenn ja, in welchen Bereichen der Textproduktion?

Wie funktioniert die KI-getriebene Texterstellung bei GPT-3?

Funktionsweise des Sprachmodells

Schauen wir uns zuerst die Funktionsweise von GPT-3 an, um zu verstehen, wie aktuelle Sprachmodelle arbeiten. Die neuesten Modelle zur KI-getriebenen Texterstellung setzen einerseits auf einen riesigen Korpus von Trainingsdaten (zum Vergleich: Die kompletten Wikipedia-Inhalte machen ein Prozent des Trainings-Korpus von GPT-3 aus), der unter anderem aus lexikalischem Wissen, Website-Content, Literatur sowie alltäglichen schriftlichen Unterhaltungen besteht.

Die Künstliche Intelligenz kann aber mehr, als diese Texte nur zu filtern: Dank Machine Learning nutzt sie sie als Basis für eigene Aussagen und Ideen. Das Ziel ist also, nicht nur Informationen in anderer Form wiedergeben zu können, sondern ein tieferes Verständnis von Zusammenhängen zu entwickeln. So sollen Texte mit logisch aufeinander aufbauenden Sätzen bis zu einer Länge von etwa zwei DIN-A4-Seiten möglich sein.

Funktionen der Nutzer-Oberfläche bei GPT-3

Auf der für Nutzer sichtbaren Oberfläche lassen sich über mehrere Parameter verschiedene Einstellungen vornehmen, darunter:

Damit sind die Eckpunkte des zu erstellenden Textes geklärt, aber noch nicht, welchen Inhalt er überhaupt haben soll. Dies wird über einen sogenannten Prompt gelöst, also Anweisungen des Nutzers, die er in Textform vorgibt. Der Prompt kann sowohl reine Vorgaben enthalten („Verfasse ein Facebook-Posting zu den Vorteilen von GPT-3“) als auch den Textbeginn, der dann vom Sprachmodell selbstständig zu einem kompletten Text vervollständigt wird.

Für diese Anwendungen eignet sich GPT-3

Theoretisch lassen sich mit GPT-3 alle Arten von Texten produzieren. Nicht alle davon sind jedoch schon für den professionellen Einsatz geeignet. Seine Stärken kann GPT-3 beispielsweise in diesen Bereichen ausspielen:

Daran lässt sich bereits erkennen, dass die Stärken des Sprachmodells besonders darin liegen, mit bekannten Mustern umzugehen. Je mehr Gewicht seine „Erfahrung“ durch die riesige Menge an Trainingsdaten erhält, desto besser kann es seine Vorteile gegenüber menschlichen Arbeitskräften ausspielen: jederzeit verfügbar zu sein und in Sekundenbruchteilen auf alle erdenklichen Informationen zurückgreifen zu können.

Die Grenzen von GPT-3

So faszinierend die Möglichkeiten auch sind, die GPT-3 schon heute bietet – nur unter idealen Umständen oder bei vielen Versuchen wird die KI auf eine Textvorgabe hin Texte produzieren, die von menschengemachtem Content nicht zu unterscheiden sind. Besondere Probleme bereiten ihr folgende Anwendungsbereiche:

In diesen Bereichen sollten die Ergebnisse von GPT-3 mit größter Vorsicht genossen und müssen sorgfältig redigiert werden, sodass es in der Regel schneller geht, die Texte von Menschen schreiben zu lassen. Das bedeutet nicht, dass GPT-3 hier überhaupt keine Hilfe sein kann: Als Stichwortgeber für den Aufbau eines Textes oder für alternative Formulierungen hat die KI auch hier ihre Berechtigung.

Ausblick: Alternativen zu GPT-3

Die Entwicklung auto-regressiver Sprachmodelle scheint erst an ihrem Beginn zu stehen. Zwar ist bislang kein Nachfolger für GPT-3 angekündigt, es ist allerdings davon auszugehen, dass im Hintergrund bereits daran gewerkelt wird. Nicht unerwähnt bleiben sollte, dass neben GPT-3 auch zahlreiche weitere Sprachmodelle in Entwicklung sind, darunter beispielsweise die kostenfreien Projekte GPT-NeoX-20B sowie OpenGPT-X. Letzteres legt einen Fokus auf deutsche Texte, wohingegen die meisten anderen Modelle die besten Ergebnisse mit der englischen Sprache bringen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert