« Back to Glossary Index

ChatGPT beantwortet Fragen. Ein KI-Agent erledigt Aufgaben. Das klingt nach einer kleinen Nuance. Es ist ein riesiger Unterschied.

Von generativer KI zum Agenten: der entscheidende Schritt

Generative KI – also Sprachmodelle wie GPT, Claude oder Gemini – ist reaktiv. Du schreibst, sie antwortet. Was du bekommst, ist Text. Was du tust mit diesem Text, bleibt deine Aufgabe.

Ein KI-Agent geht weiter. Er plant. Er handelt. Er überprüft. Und er wiederholt, bis das Ziel erreicht ist – ohne dass du jeden Schritt vorgeben musst.

Das Fraunhofer IESE beschreibt es treffend: „Die wahre Transformation beginnt, wenn KI-Modelle lernen, autonom zu agieren und miteinander zu kommunizieren.“ Genau das ist Agentic AI – der aktuell wichtigste Trend in der gesamten KI-Entwicklung.

Die drei Bausteine eines KI-Agenten

Ein KI-Agent besteht aus drei Kernelementen:

  1. Das Sprachmodell – das Gehirn. Es versteht Anweisungen, denkt mehrstufig und generiert Antworten. Ob GPT, Claude oder Gemini – das Modell spielt heute kaum mehr eine Rolle. Die Unterschiede sind minimal. Was zählt, ist der Kontext, den du dem Agenten mitgibst.

  2. Die Historie – das Gedächtnis. Der Agent merkt sich frühere Interaktionen. Er lernt, was dir gefällt. Er baut auf früheren Ergebnissen auf. Das macht ihn mit der Zeit besser.

  3. Der Tool-Zugriff – die Hände. Das ist der entscheidende Unterschied zu generativer KI. Ein KI-Agent kann auf externe Systeme zugreifen: Kalender, E-Mail, Datenbanken, ERP-Systeme, LinkedIn, Airtable. Er kann nicht nur antworten – er kann handeln. Einen Termin buchen. Eine Rechnung erstellen. Einen LinkedIn-Post veröffentlichen. Von der Planung bis zur Ausführung.

Ohne Tool-Zugriff ist es generative KI. Mit Tool-Zugriff wird es ein Agent.

Agentic AI: Was 2025 neu war

2025 war das Jahr der Agenten. Was sich fundamental verändert hat: KI-Agenten denken jetzt mehrstufig. Sie erstellen einen Vorgehensplan und arbeiten ihn selbstständig ab – das nennt sich Reasoning. Sie erkennen, wenn eine Aufgabe ihre Grenzen überschreitet. Und sie rufen dann andere Agenten zu Hilfe.

Das führt direkt zum nächsten Paradigmenwechsel: Multi-Agent-Systemen. Mehrere spezialisierte Agenten arbeiten zusammen, koordiniert von einem übergeordneten Orchestrierungsagenten. Jeder erledigt, was er am besten kann. Das Ergebnis ist schneller, präziser und skalierbarer als alles, was ein einzelner Generalist-Agent jemals liefern könnte.

Ein Routing-Modell entscheidet dabei automatisch: Ist die Aufgabe einfach? Ein schnelles Standardmodell reicht. Ist sie komplex? Ein Reasoning-Modell übernimmt.

Spezialisierung schlägt Generalismus – immer

Ein häufiger Anfängerfehler: Ein Agent soll alles können. Marketing, Recruiting, Finanzen – alles in einem. Das funktioniert nicht. Je grösser der Verantwortungsbereich, desto ungenauer die Ergebnisse. Halluzinationen nehmen zu. Qualität sinkt.

Das Prinzip lautet: Ein Agent, eine klar definierte Aufgabe. Ein Facharzt ist präziser als ein Allgemeinmediziner – genauso ist ein auf LinkedIn-Content spezialisierter Assistent besser als ein generischer Marketingagent.

Erfolgreiche hybride Organisationen arbeiten deshalb mit vielen kleinen, spezialisierten Agenten – und einem übergeordneten Koordinations-Agenten, der das Zusammenspiel steuert.

Einen KI-Agenten konfigurieren: die Stellenbeschreibung

Ein KI-Agent braucht eine klare Stellenbeschreibung – analog zu einem neuen Teammitglied. Diese umfasst:

  • Rolle: Welche Funktion übernimmt der Agent? Recruiter, Content-Manager, Analyst?
  • Kontext: In welchem Unternehmen, für welche Zielgruppe, mit welchem Ziel?
  • Aufgaben: Was genau soll er erledigen, mit welchen konkreten Ergebnissen?
  • Tool-Zugriffe: Auf welche Systeme darf er zugreifen?
  • Leitplanken: Was soll er nie tun?

Je präziser die Stellenbeschreibung, desto verlässlicher der Agent. Das Prompt Engineering – also das strukturierte Formulieren von Anweisungen – ist dabei die wichtigste Grundlage. Wer diese KI-Kompetenz nicht beherrscht, bekommt mittelmässige Agenten, egal wie viel Technologie im Hintergrund läuft.

Assistent vs. Automatisierung: der Unterschied zählt

Im Triple-A-Framework wird klar unterschieden:

  • Assistent: Das Ziel ist klar, der Weg hat Spielraum. Der Agent entscheidet eigenständig, wie er zum Ergebnis kommt. Geeignet für kreative, flexible Aufgaben.
  • Automatisierung: Der Prozess ist fest definiert, läuft immer gleich ab. Geeignet für repetitive, regelbasierte Aufgaben – Rechnungsversand, Datentransfer, Statusmeldungen.
  • Symphony Mode: Assistent und Automatisierung arbeiten zusammen. Eine Automatisierung erkennt eine Ausnahme, ruft einen Agenten zur Entscheidung – und der gibt das Ergebnis zurück.

Human-in-the-Loop: Kontrolle ist keine Schwäche

KI-Agenten können halluzinieren. Sie bauen ihre Antworten Token für Token zusammen – und wählen das wahrscheinlichste, nicht zwingend das korrekte nächste Wort. Das Ergebnis klingt überzeugend und ist manchmal falsch.

Die Konsequenz: Gerade bei kritischen Entscheidungen, rechtlichen Inhalten oder Finanzdaten gilt das Prinzip Human-in-the-Loop. Die KI arbeitet vor, der Mensch prüft und gibt frei.

Und umgekehrt: KI-in-the-Loop. Der Agent prüft menschliche Entscheidungen auf Logiklücken, blinde Flecken und fehlende Perspektiven. Mensch und KI kontrollieren sich gegenseitig. Das ist kein Misstrauen – das ist intelligente Zusammenarbeit.

Die Voraussetzung, die viele vergessen

Ein KI-Agent ist nur so gut wie der Prozess, in dem er eingesetzt wird. Ein schlecht definierter Prozess wird durch einen Agenten nicht besser – er wird schneller schlechter. Halluzinationen skalieren. Fehler wiederholen sich im industriellen Rhythmus.

Die Leanovation-Logik gilt auch hier: Erst den Prozess verstehen, dann optimieren, dann den KI-Agenten einsetzen. Nicht umgekehrt.`

Verwandte Begriffe: Hybride Organisation, KI-Skills / Prompt Engineering, KI-Einsatz im Unternehmen, KI-Strategie, Automatisierung, RPA, Prozessoptimierung, Digitalisierung, Operational Excellence, Lean Leadership

« Zurück zum Glossar