Zum Umgang mit textgenerierenden Technologien: Prompt Engineering

Der Vorteil der neuesten Generation großer Sprachmodelle ist, dass sie wie Chatbots aufgebaut sind. Das macht die Nutzung sehr intuitiv – man „chattet“ einfach drauflos. Trotzdem wird gerade das sogenannte „Prompt Engineering“ als neue Kompetenz gehandelt, die Studierende in Bezug auf den Umgang mit textgenerierenden Technologien erwerben können.

Als Prompt wird der Input bezeichnet, auf den das Sprachmodell hin Output generiert. Bei ChatGPT also z. B. die Eingabe ins Chatfenster, auf die eine Antwort erscheint. Es gibt einige Anregungen dazu, wie man diesen Output steuern kann, damit man gute Ergebnisse erhält. Kurz gesagt: Je konkreter man das eigene Anliegen formuliert, desto besser ist der Output. Dem Modell fehlen in erster Linie zwei Dinge, die beim Gespräch zwischen Menschen implizit vorhanden sind: Kontext und Situierung. Diese muss man also selbst schaffen. Es hilft, sich eine Theaterszene vorzustellen: Wer tut was warum und wie?

Beispiel: Statt „Schreib ein Essay zum Thema XY“ lieber „Stell dir vor, du bist eine versierte Journalistin, die einen Pulitzer-Preis-verdächtigen Artikel zum Thema XY für die New York Times verfasst. Kontrastiere dabei die Aspekte V und Z.“

Je spezifischer Sie beim Prompting sind, desto mehr können Sie den Output steuern. Es gibt Templates für Prompts – z. B. den sogenannten Mega-Prompt von Rob Lennon – die, ganz ausgefüllt, fast eine Seite einnehmen können. Das Praktische an dem Chatbot-Interface, das z. B. ChatGPT bietet, ist, dass Sie stattdessen nachjustieren können, weil das Modell Ihren vorherigen Chatverlauf referenzieren kann.

Übrigens: Da ein Chatverlauf bis zu einer gewissen Anzahl von Zeichen als Referenzrahmen dient, auf den sich das Modell bezieht, ist es sinnvoll, bei einem neuen Thema auch einen neuen Chatverlauf zu öffnen.