ChatGPT beantwortet Fragen. Ein KI-Agent erledigt Aufgaben. Das klingt nach einer kleinen Nuance. Es ist ein riesiger Unterschied.
Von generativer KI zum Agenten: der entscheidende Schritt
Generative KI – also Sprachmodelle wie GPT, Claude oder Gemini – ist reaktiv. Du schreibst, sie antwortet. Was du bekommst, ist Text. Was du tust mit diesem Text, bleibt deine Aufgabe.
Ein KI-Agent geht weiter. Er plant. Er handelt. Er überprüft. Und er wiederholt, bis das Ziel erreicht ist – ohne dass du jeden Schritt vorgeben musst.
Das Fraunhofer IESE beschreibt es treffend: „Die wahre Transformation beginnt, wenn KI-Modelle lernen, autonom zu agieren und miteinander zu kommunizieren.“ Genau das ist Agentic AI – der aktuell wichtigste Trend in der gesamten KI-Entwicklung.
Die drei Bausteine eines KI-Agenten
Ein KI-Agent besteht aus drei Kernelementen:
Das Sprachmodell – das Gehirn. Es versteht Anweisungen, denkt mehrstufig und generiert Antworten. Ob GPT, Claude oder Gemini – das Modell spielt heute kaum mehr eine Rolle. Die Unterschiede sind minimal. Was zählt, ist der Kontext, den du dem Agenten mitgibst.
Die Historie – das Gedächtnis. Der Agent merkt sich frühere Interaktionen. Er lernt, was dir gefällt. Er baut auf früheren Ergebnissen auf. Das macht ihn mit der Zeit besser.
Der Tool-Zugriff – die Hände. Das ist der entscheidende Unterschied zu generativer KI. Ein KI-Agent kann auf externe Systeme zugreifen: Kalender, E-Mail, Datenbanken, ERP-Systeme, LinkedIn, Airtable. Er kann nicht nur antworten – er kann handeln. Einen Termin buchen. Eine Rechnung erstellen. Einen LinkedIn-Post veröffentlichen. Von der Planung bis zur Ausführung.
Ohne Tool-Zugriff ist es generative KI. Mit Tool-Zugriff wird es ein Agent.
Agentic AI: Was 2025 neu war
2025 war das Jahr der Agenten. Was sich fundamental verändert hat: KI-Agenten denken jetzt mehrstufig. Sie erstellen einen Vorgehensplan und arbeiten ihn selbstständig ab – das nennt sich Reasoning. Sie erkennen, wenn eine Aufgabe ihre Grenzen überschreitet. Und sie rufen dann andere Agenten zu Hilfe.
Das führt direkt zum nächsten Paradigmenwechsel: Multi-Agent-Systemen. Mehrere spezialisierte Agenten arbeiten zusammen, koordiniert von einem übergeordneten Orchestrierungsagenten. Jeder erledigt, was er am besten kann. Das Ergebnis ist schneller, präziser und skalierbarer als alles, was ein einzelner Generalist-Agent jemals liefern könnte.
Ein Routing-Modell entscheidet dabei automatisch: Ist die Aufgabe einfach? Ein schnelles Standardmodell reicht. Ist sie komplex? Ein Reasoning-Modell übernimmt.
Spezialisierung schlägt Generalismus – immer
Ein häufiger Anfängerfehler: Ein Agent soll alles können. Marketing, Recruiting, Finanzen – alles in einem. Das funktioniert nicht. Je grösser der Verantwortungsbereich, desto ungenauer die Ergebnisse. Halluzinationen nehmen zu. Qualität sinkt.
Das Prinzip lautet: Ein Agent, eine klar definierte Aufgabe. Ein Facharzt ist präziser als ein Allgemeinmediziner – genauso ist ein auf LinkedIn-Content spezialisierter Assistent besser als ein generischer Marketingagent.
Erfolgreiche hybride Organisationen arbeiten deshalb mit vielen kleinen, spezialisierten Agenten – und einem übergeordneten Koordinations-Agenten, der das Zusammenspiel steuert.
Einen KI-Agenten konfigurieren: die Stellenbeschreibung
Ein KI-Agent braucht eine klare Stellenbeschreibung – analog zu einem neuen Teammitglied. Diese umfasst:
- Rolle: Welche Funktion übernimmt der Agent? Recruiter, Content-Manager, Analyst?
- Kontext: In welchem Unternehmen, für welche Zielgruppe, mit welchem Ziel?
- Aufgaben: Was genau soll er erledigen, mit welchen konkreten Ergebnissen?
- Tool-Zugriffe: Auf welche Systeme darf er zugreifen?
- Leitplanken: Was soll er nie tun?
Je präziser die Stellenbeschreibung, desto verlässlicher der Agent. Das Prompt Engineering – also das strukturierte Formulieren von Anweisungen – ist dabei die wichtigste Grundlage. Wer diese KI-Kompetenz nicht beherrscht, bekommt mittelmässige Agenten, egal wie viel Technologie im Hintergrund läuft.
Assistent vs. Automatisierung: der Unterschied zählt
Im Triple-A-Framework wird klar unterschieden:
- Assistent: Das Ziel ist klar, der Weg hat Spielraum. Der Agent entscheidet eigenständig, wie er zum Ergebnis kommt. Geeignet für kreative, flexible Aufgaben.
- Automatisierung: Der Prozess ist fest definiert, läuft immer gleich ab. Geeignet für repetitive, regelbasierte Aufgaben – Rechnungsversand, Datentransfer, Statusmeldungen.
- Symphony Mode: Assistent und Automatisierung arbeiten zusammen. Eine Automatisierung erkennt eine Ausnahme, ruft einen Agenten zur Entscheidung – und der gibt das Ergebnis zurück.
Human-in-the-Loop: Kontrolle ist keine Schwäche
KI-Agenten können halluzinieren. Sie bauen ihre Antworten Token für Token zusammen – und wählen das wahrscheinlichste, nicht zwingend das korrekte nächste Wort. Das Ergebnis klingt überzeugend und ist manchmal falsch.
Die Konsequenz: Gerade bei kritischen Entscheidungen, rechtlichen Inhalten oder Finanzdaten gilt das Prinzip Human-in-the-Loop. Die KI arbeitet vor, der Mensch prüft und gibt frei.
Und umgekehrt: KI-in-the-Loop. Der Agent prüft menschliche Entscheidungen auf Logiklücken, blinde Flecken und fehlende Perspektiven. Mensch und KI kontrollieren sich gegenseitig. Das ist kein Misstrauen – das ist intelligente Zusammenarbeit.
Die Voraussetzung, die viele vergessen
Ein KI-Agent ist nur so gut wie der Prozess, in dem er eingesetzt wird. Ein schlecht definierter Prozess wird durch einen Agenten nicht besser – er wird schneller schlechter. Halluzinationen skalieren. Fehler wiederholen sich im industriellen Rhythmus.
Die Leanovation-Logik gilt auch hier: Erst den Prozess verstehen, dann optimieren, dann den KI-Agenten einsetzen. Nicht umgekehrt.`
Verwandte Begriffe: Hybride Organisation, KI-Skills / Prompt Engineering, KI-Einsatz im Unternehmen, KI-Strategie, Automatisierung, RPA, Prozessoptimierung, Digitalisierung, Operational Excellence, Lean Leadership

