von RA Dr. Stefan Rinke | 24.07.2024
Praxistipps und Erfahrungswerte für effektives Arbeiten mit Large Language Models
Die bekannten und jeder Kanzlei zugänglichen KI-Modelle sind sogenannte Large Language Models, also künstliche neuronale Netzwerke, die auf großen Mengen von Textdaten trainiert wurden, um menschliche Sprache zu verstehen, zu verarbeiten und zu generieren. Gerade bei diesen KI-Formen ist das Entwerfen effektiver Eingabeaufforderungen (Prompts) entscheidend für die Qualität der Ergebnisse.
Im juristischen Kontext finden sich bereits zahlreiche Empfehlungen dazu, beispielsweise im jüngst vorgestellten Leitfaden Potenziale, Prompts und Praxistipps für Kanzleien, der alles in „Zehn Tipps für gutes Prompting“ formuliert. Dabei sind die Grundlagen entscheidend für ein gutes Prompt Engineering: Zunächst sollte zwischen Anweisungen und Inhalten getrennt werden. Für beides gilt, dass eine möglichst klare und präzise Eingabe erfolgen sollte, wobei hier bereits zu beachten ist, dass Einengungen die Antwort lenken oder in der Qualität beeinträchtigen können. Auf Anweisungsebene können kurze Aufgaben mit öffnenden Ergänzungen – wie das Nennen von 3 Lösungsansätzen – helfen, den richtigen Mittelweg zu finden. Auf Inhaltsebene wird die Qualität der Antwort hingegen durch viel Kontext gefördert, womit hier präzise aber auch umfangreich gearbeitet werden sollte.
Ein weiterer Faktor ist das iterative Vorgehen, worauf auch die Prompting-Hilfen des JURA KI-Assistenten hinweisen. Ähnlich wie komplexe Gedanken erst nach und nach aufgebaut werden, kann man auch beim Prompting die Anweisungen und Inhalte schrittweise aufbauen. Es empfiehlt sich hier das Vorgehen der KI vorab zu beschreiben und dann schrittweise Kontext und Aufgaben zu liefern. Konsequent weitergedacht sind daher auch Folgefragen förderlich, die mit den Antworten der KI weiterarbeiten, diese aufgreifen und vertiefen. So entstehen im Kommunikationsverlauf schrittweise die gewünschten Ergebnisse.
Neben Aufgabenstellung, Kontext und iterativer Vorgehensweise ist eine Grundvoraussetzung, sich den Fähigkeiten des jeweils genutzten KI-Sprachmodells bewusst zu sein. Entscheidend sind hier etwa, über welchen Wissensstand die KI verfügt, auf welchen Quellen der Wissenstand beruht und ob die KI online zugängliche Informationen nutzen kann, was vor allem für den Kontextbezug maßgeblich ist. Gerade für Legal Prompt Engineering ist das wichtig, was etwa die Verfügbarkeit von Rechtsprechung und Kommentarliteratur betrifft. Aber auch die Promptanzahl oder Textlänge sind wichtige Faktoren, die beim Prompting berücksichtigt werden müssen.
Im Zusammenhang mit dem Prompt Engineering bleibt noch darauf hinzuweisen, dass KI-Modelle auch Fehler machen können. Dies muss aber keine Ursache im Prompt haben, sondern kann zum Verhaltensmuster der KI gehören, was zu den Grundlagen der KI-Entwicklung gehört. Beim Prompting ist es daher wichtig, an den Fehlerstellen zu arbeiten und Fehler angemessen vorzubeugen, zum Beispiel mit der Aufforderung Quellen zu benennen, die bei der Antwortgenerierung verwendet wurden. Insoweit verhält sich die KI wiederum menschlich.