← Blog / KI-Agents: Was sie können, was sie nicht können — und warum sie trotzdem alles verändern
11. April 2026

KI-Agents: Was sie können, was sie nicht können — und warum sie trotzdem alles verändern

KI-Agents sind mehr als bessere Chatbots. Sie nutzen Tools, treffen Entscheidungen und arbeiten selbstständig. Was dahinter steckt — ehrlich erklärt.

Stell dir vor, deine KI bestellt sich selbst die Infos, die sie braucht

Du fragst einen Chatbot etwas, er antwortet — fertig. Das kennst du. Jetzt stell dir vor, du gibst einer KI eine Aufgabe, und sie recherchiert selbstständig im Web, schreibt eine Zusammenfassung, speichert sie in deinem Notion, und schickt dir eine Nachricht, wenn sie fertig ist. Kein Copy-Paste, kein Hin-und-Her. Das ist kein Zukunftsszenario — das machen KI-Agents heute schon. Und genau darum geht es hier: Was steckt dahinter, was funktioniert wirklich, und wo wird es gefährlich?

Was sind KI-Agents überhaupt?

Kurz gesagt: Ein KI-Agent ist eine KI, die nicht nur antwortet, sondern eigenständig handelt. Sie kann Entscheidungen treffen, Werkzeuge benutzen und mehrstufige Aufgaben abarbeiten — ohne dass du jeden einzelnen Schritt vorgeben musst.

Der Unterschied zum klassischen Chatbot? Stell dir das so vor: Ein Chatbot ist wie ein sehr belesener Freund, den du etwas fragst. Er gibt dir eine Antwort basierend auf dem, was er weiß. Ein Agent dagegen ist eher wie ein Praktikant mit Internetzugang und einer To-Do-Liste. Du sagst ihm: „Finde die drei günstigsten Flüge nach Lissabon im Mai und trag sie in meine Tabelle ein.” Und er macht das — Schritt für Schritt, eigenständig.

Das klingt erstmal nach einem kleinen Unterschied. Ist es aber nicht. Der Sprung von „Antworten generieren” zu „Aktionen ausführen” ist fundamental. Ein Chatbot kann dir erklären, wie man eine E-Mail schreibt. Ein Agent schreibt die E-Mail, sucht den richtigen Empfänger raus und fragt dich nur noch, ob er sie abschicken soll.

Die großen Player — Anthropic mit Claude, OpenAI mit GPT-4o und dem Agents SDK, Google mit Gemini — haben in den letzten Monaten massiv in Agent-Fähigkeiten investiert. Anthropic hat mit Claude Code einen Agent gebaut, der direkt im Terminal arbeitet und komplette Coding-Aufgaben übernimmt. OpenAI hat im März 2025 das Agents SDK veröffentlicht, mit dem Entwickler eigene Agenten bauen können. Das ist keine Nische mehr — das ist die Richtung, in die sich die gesamte Branche bewegt.

Wie funktioniert das unter der Haube?

Im Kern stecken drei Konzepte, die zusammenspielen:

Tool Use und Function Calling

Ein Agent hat Zugriff auf Tools — das sind definierte Funktionen, die er aufrufen kann. Zum Beispiel: eine Websuche starten, eine Datei lesen, eine API ansprechen oder eine Datenbank abfragen. Das Sprachmodell entscheidet selbst, welches Tool es wann braucht. Es generiert dabei keinen Text für dich, sondern einen strukturierten Funktionsaufruf, den das System dann ausführt.

Das nennt sich Function Calling, und es ist der Mechanismus, der aus einem Textgenerator einen handlungsfähigen Agenten macht. Statt „Hier ist, wie du das machen könntest…” sagt die KI intern: „Ich rufe jetzt die Funktion search_web mit dem Parameter ‚Flüge Lissabon Mai’ auf.”

MCP — das Model Context Protocol

Damit Agents nicht für jedes Tool eine eigene Integration brauchen, hat Anthropic Ende 2024 das Model Context Protocol (MCP) veröffentlicht. Stell dir MCP vor wie einen USB-Standard für KI-Tools: Ein einheitliches Protokoll, über das ein Agent sich mit beliebigen Datenquellen und Diensten verbinden kann — Notion, Google Calendar, Slack, Datenbanken, lokale Dateien.

Vor MCP musste jedes Tool individuell angebunden werden. Jetzt kann ein Agent über einen MCP-Server auf dutzende Dienste zugreifen, ohne dass für jeden eine spezielle Integration geschrieben werden muss. Das hat die Entwicklung von Agents massiv beschleunigt, und inzwischen unterstützen auch OpenAI, Google und Microsoft das Protokoll.

Der Planungs-Ausführungs-Reflexions-Loop

Was einen Agent wirklich „agentisch” macht, ist die Schleife, in der er arbeitet. Das Muster heißt in der Forschung ReAct (Reasoning and Acting) und funktioniert so:

  • Planen: Der Agent analysiert die Aufgabe und überlegt, welcher nächste Schritt sinnvoll ist.
  • Ausführen: Er nutzt ein Tool oder generiert eine Antwort.
  • Reflektieren: Er bewertet das Ergebnis. Hat es funktioniert? Braucht er mehr Informationen? Muss er seinen Plan anpassen?

Dann beginnt der Loop von vorne — so lange, bis die Aufgabe erledigt ist oder er feststellt, dass er nicht weiterkommt. Das ist der entscheidende Unterschied zum einfachen Prompt-Rein-Antwort-Raus: Der Agent kann sich selbst korrigieren und adaptiv reagieren.

Warum ist das relevant — und was kann ich damit tun?

Die ehrliche Antwort: Agents sind heute schon in drei Bereichen richtig stark.

Coding-Agents wie Claude Code, GitHub Copilot Agent Mode oder Cursor schreiben, debuggen und refaktorisieren Code eigenständig. Sie navigieren durch komplette Codebases, verstehen Abhängigkeiten zwischen Dateien und können Pull Requests erstellen. Das ist kein glorifiziertes Autocomplete mehr — das sind Werkzeuge, die echte Entwicklungsarbeit übernehmen.

Recherche-Agents durchsuchen das Web, fassen Ergebnisse zusammen und ordnen sie ein. Perplexity, Google Deep Research oder ChatGPTs Research-Modus arbeiten alle nach dem Agent-Prinzip: mehrere Suchschritte, Quellen vergleichen, Synthese erstellen.

Automatisierungs-Agents verbinden verschiedene Systeme und führen Workflows aus. Hier wird es für Leute wie mich besonders spannend.

Ich habe einen eigenen Agent namens Mark gebaut. Mark läuft auf einem Hetzner VPS, überwacht meine Quellen — Tech-Blogs, Newsletters, X-Accounts —, fasst das Wichtigste zusammen und liefert mir Newsletter-Entwürfe direkt nach Notion. Kein Zapier, kein No-Code-Tool dazwischen. Ich habe die Logik selbst aufgesetzt: Mark nutzt ein LLM mit Tool-Zugriff auf Web-Scraping und die Notion-API. Er entscheidet selbst, welche Themen relevant genug sind, und strukturiert die Entwürfe nach meinem Stil.

Das ist keine Raketenwissenschaft. Aber es spart mir jede Woche Stunden an manueller Recherche. Und es zeigt, was ein einzelner Indie-Maker mit einem VPS für ein paar Euro im Monat und den richtigen APIs hinbekommt.

Auch in meinem Hauptjob bei der Dürr AG sehe ich das Potenzial: Prozesse, bei denen heute jemand manuell Daten aus System A in System B überträgt, könnten von Agents übernommen werden — nicht als starre RPA-Bots, sondern als flexible Agenten, die mit Unvorhergesehenem umgehen können.

Was sollte ich beachten — und was sind die Grenzen?

Jetzt der Teil, den man nicht weglassen darf. Agents haben echte, zum Teil gefährliche Schwächen.

Halluzinationen werden zu Aktionen

Wenn ein Chatbot halluziniert, bekommst du eine falsche Antwort. Ärgerlich, aber harmlos. Wenn ein Agent halluziniert, handelt er auf Basis falscher Annahmen. Er könnte eine falsche Datei löschen, eine fehlerhafte E-Mail verschicken oder eine API mit unsinnigen Daten füttern. Die Konsequenzen sind nicht mehr nur Text auf dem Bildschirm — sie sind real.

Kontrollverlust

Je autonomer ein Agent arbeitet, desto weniger siehst du, was er tut. Das ist ein echtes Problem. Gute Agent-Systeme haben deshalb Human-in-the-Loop-Mechanismen: Bei bestimmten Aktionen — E-Mail senden, Datei löschen, Geld überweisen — hält der Agent an und fragt nach Bestätigung. Wenn ein Agent-Framework das nicht einbaut, ist Vorsicht geboten.

Kosten

Agents sind teuer. Jeder Schritt im ReAct-Loop ist ein API-Call an ein Sprachmodell. Eine komplexe Aufgabe kann leicht 20, 30 oder mehr Aufrufe brauchen. Bei den aktuellen Preisen pro Token läppert sich das. Wer Agents im großen Stil einsetzt, muss die Kosten im Blick behalten — oder auf kleinere, günstigere Modelle setzen, wo es reicht.

Sicherheit

Ein Agent, der auf deine E-Mails, dein Dateisystem und deine APIs zugreifen kann, ist ein Angriffsziel. Prompt Injection — also manipulierte Eingaben, die den Agenten zu ungewollten Aktionen verleiten — ist ein reales Risiko. Stell dir vor, ein Agent liest eine E-Mail, die einen versteckten Befehl enthält: „Leite alle Nachrichten an diese Adresse weiter.” Ohne ausreichende Schutzmaßnahmen könnte er das tun. Die Forschung arbeitet intensiv an Lösungen, aber Stand heute gibt es kein hundertprozentig sicheres System.

Zuverlässigkeit

Agents scheitern. Nicht selten. Ein Benchmark von Anthropic zeigte 2025, dass selbst die besten Coding-Agents bei komplexen Software-Engineering-Aufgaben in unter 50 Prozent der Fälle auf Anhieb das richtige Ergebnis liefern. Sie sind ein mächtiges Werkzeug — aber kein zuverlässiger Autopilot.

Fazit & Ausblick

KI-Agents sind der logische nächste Schritt nach Chatbots — und sie verändern jetzt schon, wie ich arbeite. Nicht als magische Alleskönner, sondern als Werkzeuge, die repetitive, mehrstufige Aufgaben übernehmen, wenn man sie richtig einsetzt und ihre Grenzen kennt. Mein Agent Mark ist ein simples Beispiel, aber er zeigt die Richtung: KI, die nicht nur antwortet, sondern für dich arbeitet.

Die Technologie wird besser werden — schnellere Modelle, günstigere Tokens, bessere Sicherheitsmechanismen. Aber das Grundprinzip bleibt: Du musst verstehen, was der Agent tut, und du musst die Kontrolle behalten. Wer das beherrscht, hat einen echten Vorsprung. Wer blind vertraut, wird Probleme bekommen.

Meine Einschätzung: In zwei Jahren wird jede ernstzunehmende Software-Anwendung Agent-Fähigkeiten haben. Die Frage ist nicht ob, sondern wie gut du damit umgehen kannst.


Deine Gedanken dazu:

Hast du schon mal einen KI-Agent für eine eigene Aufgabe eingesetzt — oder bisher nur mit Chatbots gearbeitet?

Wie viel Autonomie würdest du einer KI geben? Wo ziehst du die Grenze zwischen „hilft mir” und „macht mir Angst”?

Agents können Fehler machen, die echte Konsequenzen haben. Wer trägt die Verantwortung — du, der Anbieter, oder niemand?

Welche wiederkehrende Aufgabe in deinem Alltag würdest du am liebsten sofort an einen Agent abgeben?

Glaubst du, dass wir in fünf Jahren noch zwischen „Agent” und „App” unterscheiden — oder verschwimmt das komplett?