Zum Hauptinhalt springen

Begriffe

Diese Seite schafft ein gemeinsames Vokabular für die Diskussion über LLMs und agentische Systeme.
Neben technischen Begriffen werden auch Denkmodelle eingeführt, die helfen, ihre Wirkung auf Architektur, Produktivität und Organisationen besser einzuordnen.


Zentrale Begriffe

Prompting

Prompting bezeichnet die Formulierung von Eingaben an ein Sprachmodell.
Der Prompt bestimmt Kontext, Ziel und Struktur der gewünschten Antwort.

In der Praxis ist Prompting weniger eine einmalige Eingabe als ein iterativer Prozess:

  • Problem beschreiben
  • Kontext ergänzen
  • Antwort überprüfen
  • Eingabe präzisieren

Ein wichtiger Punkt ist dabei: Das Modell interpretiert den Prompt probabilistisch.
Es versteht keine Absicht, sondern erzeugt eine statistisch plausible Fortsetzung.


Kontextfenster

Das Kontextfenster beschreibt die maximale Menge an Informationen, die ein Modell gleichzeitig berücksichtigen kann.

Dazu gehören zum Beispiel:

  • der aktuelle Prompt
  • vorherige Nachrichten
  • eingefügte Dateien oder Code
  • Systeminstruktionen

Das Kontextfenster ist eine zentrale technische Grenze.
Wenn relevante Informationen außerhalb dieses Fensters liegen, kann das Modell sie nicht berücksichtigen.

Für große Softwaresysteme bedeutet das:

Ein Modell sieht meist nur einen Ausschnitt des Systems, nicht das gesamte System.


Halluzination

Als Halluzination bezeichnet man Antworten eines Modells, die plausibel formuliert sind, aber faktisch falsch oder unbegründet sein können.

Typische Beispiele:

  • nicht existierende APIs
  • falsche Bibliotheksfunktionen
  • erfundene Quellen oder Dokumentation
  • scheinbar korrekte, aber logisch fehlerhafte Erklärungen

Halluzinationen entstehen nicht durch „Täuschung“, sondern durch das grundlegende Funktionsprinzip des Modells:
Es generiert wahrscheinliche Fortsetzungen, keine überprüften Wahrheiten.

Deshalb bleibt Verifikation eine zentrale Aufgabe des Menschen.


Tool-Use

Tool-Use beschreibt die Fähigkeit eines Systems, externe Werkzeuge einzusetzen.

Beispiele:

  • Dateisystemzugriff
  • API-Aufrufe
  • Codeausführung
  • Websuche
  • Datenbankabfragen

Durch Tool-Use kann ein Modell über reine Textgenerierung hinausgehen und reale Aktionen auslösen.

Diese Fähigkeit ist eine wichtige Grundlage für agentische Systeme.


Agent

Ein Agent kombiniert ein Sprachmodell mit zusätzlichen Mechanismen wie:

  • Planungsschritten
  • Tool-Nutzung
  • Kontextverwaltung
  • iterativer Problemlösung

Agenten können beispielsweise:

  • Aufgaben analysieren
  • mehrere Schritte planen
  • Werkzeuge aufrufen
  • Ergebnisse überprüfen und anpassen

Trotz dieses Eindrucks von Autonomie bleiben Agenten stark kontextabhängig und fehleranfällig.
Ihre Entscheidungen beruhen weiterhin auf probabilistischen Modellantworten.


Denkmodelle

Neben technischen Begriffen helfen einige Denkmodelle, die Wirkung von KI-Systemen auf Softwareentwicklung besser zu verstehen.


Lokale Optimierung vs. globale Systemwirkung

LLMs sind besonders stark bei lokalen Verbesserungen.

Beispiele:

  • eine Funktion vereinfachen
  • Code lesbarer machen
  • Dokumentation erzeugen
  • eine Pipeline konfigurieren

Diese lokalen Optimierungen können jedoch unbeabsichtigte Folgen für das Gesamtsystem haben:

  • inkonsistente Architekturentscheidungen
  • zusätzliche Abhängigkeiten
  • wachsende Komplexität

Das zentrale Spannungsfeld lautet daher:

Eine lokal gute Lösung ist nicht automatisch eine gute Lösung für das Gesamtsystem.

Architekturdenken bleibt notwendig, um diese Wechselwirkungen zu verstehen.


Gefühlte vs. reale Produktivität

Viele Entwickler berichten, dass sich Arbeit mit LLM-Unterstützung schneller anfühlt.

Typische Gründe sind:

  • weniger Leerseiten-Situationen
  • schneller Zugriff auf Beispiele
  • reduzierte Recherchezeit

Gleichzeitig entstehen neue Aufwände:

  • Review generierten Codes
  • Fehlersuche
  • Verifikation von Aussagen
  • Integration in bestehende Systeme

Deshalb ist es sinnvoll, zwischen zwei Ebenen zu unterscheiden:

  • gefühlte Produktivität: subjektive Geschwindigkeit der Arbeit
  • reale Produktivität: tatsächlich gelieferter Wert im Systemkontext

Beide können deutlich voneinander abweichen.


Verantwortung, Entscheidbarkeit und epistemische Grenzen

LLMs können Vorschläge generieren, Alternativen formulieren und bestehende Informationen strukturieren.
Sie können jedoch keine Verantwortung übernehmen.

Entscheidungen über Architektur, Systemgrenzen oder Produktprioritäten haben langfristige Auswirkungen.
Sie betreffen Wartbarkeit, Betriebskosten, Skalierbarkeit und organisatorische Abläufe.

Diese Entscheidungen bleiben deshalb menschliche Aufgaben.

Ein hilfreiches Denkmodell ist hier die Idee epistemischer Grenzen:

Ein System kann nur Entscheidungen verantworten, deren Konsequenzen es auch verstehen und bewerten kann.

Da heutige KI-Systeme kein dauerhaftes Systemverständnis besitzen, bleiben sie Werkzeuge innerhalb eines menschlich verantworteten Entscheidungsraums.


Diese Begriffe und Denkmodelle bilden die Grundlage für die folgenden Abschnitte des Kapitels. Dort wird betrachtet, wie Erwartungen an KI entstehen, welche empirischen Erkenntnisse Studien liefern und wo ihre tatsächlichen Stärken und Grenzen liegen.