Die Würze liegt im Prompt
- Laura Gavrilut
- 15. Juli
- 1 Min. Lesezeit
Der Medium-Artikel „Let me tell you what I (really, really) want – or how to use an LLM to get information out of structured data sets“ von Eliot Salant bietet Einblicke, wie man aussagekräftige Antworten aus Large Language Models (LLMs) erhält. Anstatt sich auf vage oder übertrieben höfliche Prompts zu verlassen, können wir uns auf Klarheit, Spezifität und Iteration verlassen. Wer gute Informationen will, muss gute Fragen stellen – und das bedeutet, zu wissen, was er wirklich will. Der Artikel führt uns durch die Verfeinerung von Prompts und zeigt, wie selbst kleine Optimierungen die Relevanz und Nützlichkeit KI-generierter Antworten deutlich verbessern können.
Eine der überzeugendsten Erkenntnisse des Artikels ist eine Technik, bei der Abfragen schrittweise erstellt werden, indem Kontext und Einschränkungen geschichtet werden, um das Modell zu präziseren Ergebnissen zu führen. Es wird betont, wie wichtig es ist, dem LLM die Erlaubnis zu geben, „Ich weiß nicht“ zu sagen. Dies hilft, Halluzinationen zu reduzieren und fundiertere Antworten zu fördern. Dieser Ansatz spiegelt menschliche Gespräche wider, in denen Klärung und Feedbackschleifen für das Verständnis unerlässlich sind. Indem Salant das LLM als Kooperationspartner und nicht als magisches Orakel betrachtet, zeigt er, wie Benutzer zuverlässige Informationen gewinnen können.
Der Artikel ist ein Aufruf zum Handeln für alle, die mit KI arbeiten: Seien Sie zielgerichtet, iterativ und experimentierfreudig. Es geht nicht nur darum, Antworten zu erhalten, sondern bessere Fragen zu stellen.




Kommentare