Begriffe
Diese Seite schafft ein gemeinsames Vokabular für die Diskussion über LLMs und agentische Systeme.
Neben technischen Begriffen werden auch Denkmodelle eingeführt, die helfen, ihre Wirkung auf Architektur, Produktivität und Organisationen besser einzuordnen.
Zentrale Begriffe
Prompting
Prompting bezeichnet die Formulierung von Eingaben an ein Sprachmodell.
Der Prompt bestimmt Kontext, Ziel und Struktur der gewünschten Antwort.
In der Praxis ist Prompting weniger eine einmalige Eingabe als ein iterativer Prozess:
- Problem beschreiben
- Kontext ergänzen
- Antwort überprüfen
- Eingabe präzisieren
Ein wichtiger Punkt ist dabei: Das Modell interpretiert den Prompt probabilistisch.
Es versteht keine Absicht, sondern erzeugt eine statistisch plausible Fortsetzung.
Kontextfenster
Das Kontextfenster beschreibt die maximale Menge an Informationen, die ein Modell gleichzeitig berücksichtigen kann.
Dazu gehören zum Beispiel:
- der aktuelle Prompt
- vorherige Nachrichten
- eingefügte Dateien oder Code
- Systeminstruktionen
Das Kontextfenster ist eine zentrale technische Grenze.
Wenn relevante Informationen außerhalb dieses Fensters liegen, kann das Modell sie nicht berücksichtigen.
Für große Softwaresysteme bedeutet das:
Ein Modell sieht meist nur einen Ausschnitt des Systems, nicht das gesamte System.
Halluzination
Als Halluzination bezeichnet man Antworten eines Modells, die plausibel formuliert sind, aber faktisch falsch oder unbegründet sein können.
Typische Beispiele:
- nicht existierende APIs
- falsche Bibliotheksfunktionen
- erfundene Quellen oder Dokumentation
- scheinbar korrekte, aber logisch fehlerhafte Erklärungen
Halluzinationen entstehen nicht durch „Täuschung“, sondern durch das grundlegende Funktionsprinzip des Modells:
Es generiert wahrscheinliche Fortsetzungen, keine überprüften Wahrheiten.
Deshalb bleibt Verifikation eine zentrale Aufgabe des Menschen.
Tool-Use
Tool-Use beschreibt die Fähigkeit eines Systems, externe Werkzeuge einzusetzen.
Beispiele:
- Dateisystemzugriff
- API-Aufrufe
- Codeausführung
- Websuche
- Datenbankabfragen
Durch Tool-Use kann ein Modell über reine Textgenerierung hinausgehen und reale Aktionen auslösen.
Diese Fähigkeit ist eine wichtige Grundlage für agentische Systeme.
Agent
Ein Agent kombiniert ein Sprachmodell mit zusätzlichen Mechanismen wie:
- Planungsschritten
- Tool-Nutzung
- Kontextverwaltung
- iterativer Problemlösung
Agenten können beispielsweise:
- Aufgaben analysieren
- mehrere Schritte planen
- Werkzeuge aufrufen
- Ergebnisse überprüfen und anpassen
Trotz dieses Eindrucks von Autonomie bleiben Agenten stark kontextabhängig und fehleranfällig.
Ihre Entscheidungen beruhen weiterhin auf probabilistischen Modellantworten.
Denkmodelle
Neben technischen Begriffen helfen einige Denkmodelle, die Wirkung von KI-Systemen auf Softwareentwicklung besser zu verstehen.
Lokale Optimierung vs. globale Systemwirkung
LLMs sind besonders stark bei lokalen Verbesserungen.
Beispiele:
- eine Funktion vereinfachen
- Code lesbarer machen
- Dokumentation erzeugen
- eine Pipeline konfigurieren
Diese lokalen Optimierungen können jedoch unbeabsichtigte Folgen für das Gesamtsystem haben:
- inkonsistente Architekturentscheidungen
- zusätzliche Abhängigkeiten
- wachsende Komplexität
Das zentrale Spannungsfeld lautet daher:
Eine lokal gute Lösung ist nicht automatisch eine gute Lösung für das Gesamtsystem.
Architekturdenken bleibt notwendig, um diese Wechselwirkungen zu verstehen.
Gefühlte vs. reale Produktivität
Viele Entwickler berichten, dass sich Arbeit mit LLM-Unterstützung schneller anfühlt.
Typische Gründe sind:
- weniger Leerseiten-Situationen
- schneller Zugriff auf Beispiele
- reduzierte Recherchezeit
Gleichzeitig entstehen neue Aufwände:
- Review generierten Codes
- Fehlersuche
- Verifikation von Aussagen
- Integration in bestehende Systeme
Deshalb ist es sinnvoll, zwischen zwei Ebenen zu unterscheiden:
- gefühlte Produktivität: subjektive Geschwindigkeit der Arbeit
- reale Produktivität: tatsächlich gelieferter Wert im Systemkontext
Beide können deutlich voneinander abweichen.
Verantwortung, Entscheidbarkeit und epistemische Grenzen
LLMs können Vorschläge generieren, Alternativen formulieren und bestehende Informationen strukturieren.
Sie können jedoch keine Verantwortung übernehmen.
Entscheidungen über Architektur, Systemgrenzen oder Produktprioritäten haben langfristige Auswirkungen.
Sie betreffen Wartbarkeit, Betriebskosten, Skalierbarkeit und organisatorische Abläufe.
Diese Entscheidungen bleiben deshalb menschliche Aufgaben.
Ein hilfreiches Denkmodell ist hier die Idee epistemischer Grenzen:
Ein System kann nur Entscheidungen verantworten, deren Konsequenzen es auch verstehen und bewerten kann.
Da heutige KI-Systeme kein dauerhaftes Systemverständnis besitzen, bleiben sie Werkzeuge innerhalb eines menschlich verantworteten Entscheidungsraums.
Diese Begriffe und Denkmodelle bilden die Grundlage für die folgenden Abschnitte des Kapitels. Dort wird betrachtet, wie Erwartungen an KI entstehen, welche empirischen Erkenntnisse Studien liefern und wo ihre tatsächlichen Stärken und Grenzen liegen.