KI-Modelle werden zunehmend für Entscheidungen herangezogen, die bislang Erfahrungswissen benötigt haben. Damit stellt sich die Frage, wie weit das Delegieren an KI gehen darf, ohne dass die eigene Urteilskraft auf der Strecke bleibt. Mein Eindruck aus den letzten Monaten: Das Modell kennt seinen Nutzer nicht, nicht den Kontext, nicht die Architekturentscheidung von vor zwei Jahren, nicht die Dynamiken im Team. Wer trotzdem fragt „Was soll ich tun?" und die Antwort der KI einfach übernimmt, hat die Reflektion ausgelagert.
Zwischen dem, was wir über unsere Arbeitsumgebung, Projekte und Kunden wissen, und dem, was ein Modell wissen kann, liegt aus meiner Sicht eine Lücke, die kein Kontextfenster vollständig schließt. Selbst mit Codebase-Snapshots, Tickets und Memory-Files ist die KI nie in der Position des Nutzers. Sie weiß nicht, warum die Codebase so geschnitten ist, kennt den Outage aus dem letzten Release nicht, und sie spürt nicht, ob die Geschäftsführung gerade mehr Risiko oder mehr Stabilität sucht. Auch besseres Prompting schließt diese Lücke nach meiner Beobachtung nicht.
Die für mich produktive Nutzung sieht anders aus. Statt „Was soll ich tun?" lautet meine Frage typischerweise: „Ich will X erreichen, hilf mir, die Optionen zu durchdenken." Das Modell liefert Pros, Cons und Varianten, die Entscheidung bleibt bei mir.
Drei Fragen helfen mir, bevor ich einen Vorschlag übernehme:
Das kritische Hinterfragen selbst lässt sich an die KI delegieren. Wir nutzen dafür im Team zwei Skills. First Principles Thinking zwingt das Modell, Annahmen zu zerlegen, die dahinterliegenden Wahrheiten zu erkennen und neu zu argumentieren. Grill Me lässt die KI das Vorhaben gnadenlos auseinandernehmen und nach unklaren Annahmen fragen. Beides funktioniert für Architekturkonzepte genauso wie für Angebotsentwürfe.
First Principles Thinking und Grill Me sind Beispiele für Skills, also vorgefertigte Anweisungssätze, die wir KI-Modellen mitgeben, um genau diese Art Hinterfragen auszulösen. Skills lassen sich teilen. Was eine Person einmal entwickelt, kann dann dem ganzen Team zur Verfügung gestellt werden. Manche werden gezielt aufgerufen, andere aktivieren sich automatisch im Hintergrund, sobald das Thema passt. So wird aus einer einzelnen Korrektur ein System, das für eine Abteilung oder das ganze Unternehmen gilt.
In meiner Praxis ist es immer günstiger, wenn die KI eine Argumentation widerlegt und eine Korrektur noch möglich ist, als wenn am Ende ein Reviewer oder potenzieller Kunde dies tut.
Mit KI-Tools verändert sich aus meiner Beobachtung, wo Führungs- und Engineering-Kompetenzen gebraucht werden. Wer KI-Agenten effektiv nutzen möchte, braucht dieselben Fähigkeiten wie in der Führung von Menschen. Eine vage Aufgabenstellung führt zu einem technisch funktionierenden Ergebnis, das trotzdem nicht das löst, was gemeint war. KI-Agenten alleine verhindern das nicht.
Die Analogie kann man fortführen: Moderne KI-Tools wie Claude oder ChatGPT bieten Memory-Funktionen, also persistente Notizen, die der Agent über einzelne Konversationen hinaus pflegt. So lernt er Standards, Leitplanken und die Fehler, die er nicht ein zweites Mal machen sollte. Eine gute Führungskraft formt ein Team mit der Zeit. Dieselbe Geduld zahlt sich aus meiner Erfahrung beim Agenten aus: Wer der KI nach jeder Korrektur „merk dir das für die Zukunft" sagt, baut über die Zeit einen Agenten auf, der weniger generisch arbeitet. Aus dem Werkzeug wird so eine Art eingearbeiteter Mitarbeiter.
Aus meiner Sicht nicht für jede Entscheidung. Wer einen Linter-Hinweis abarbeitet, eine Variable umbenennt oder einen Termin verschiebt, braucht dafür keine Sparringsession. Anders sieht das bei Entscheidungen aus, die schwer rückgängig zu machen sind oder von denen viel abhängt: Architekturwahl, Vendor-Auswahl, oder Reorganisation. Hier zahlt sich nach meiner Erfahrung jede Minute Reflektion aus, weil die Kosten einer Fehlentscheidung um Größenordnungen höher liegen als der Aufwand der Vorab-Prüfung.
| Entscheidungstyp | Beispiele | Empfohlene Tiefe |
|---|---|---|
| Reversibel, kleiner Wirkradius | Variable umbenennen, Bugfix, Termin verschieben | Bauchgefühl |
| Reversibel, spürbarer Korrekturaufwand | Library-Wahl, kleines Refactoring, Tool-Test | Fünf-Minuten-Sparring mit der KI |
| Schwer reversibel oder hohe Tragweite | Architektur, Vendor-Lock-in, Migration, Reorganisation | Bewusste Sparring-Session, First Principles oder Grill Me Skill |
KI im Unternehmenseinsatz ist für mich keine Frage von „ja oder nein", sondern vor allem eine Frage nach dem „wie". Wer das Modell als Orakel nutzt, gibt seine Urteilskraft ab. Wer es als Sparringspartner nutzt, behält die Richtung und liefert nachvollziehbare Ergebnisse, im Code wie in der Strategie. Aus meiner Sicht liegt der Hebel nicht in der Technik, sondern in der Haltung. Das Modell hilft mir beim Durchdenken, die Entscheidung treffe ich selbst. Das ist anstrengender als eine fertige Antwort zu übernehmen, aber für mich ist es aktuell der einzige Weg, mit dem KI meinen Wert steigert.
Ich bin gespannt, wie sich diese Einschätzung in den nächsten Monaten verändert. Memory-Funktionen werden ausgereifter, Agenten werden fähiger, Skills standardisieren sich. Manches, was ich heute als besonders beschreibe, wird morgen vielleicht alltäglich. Was bleibt, ist die Frage, wer am Ende die Entscheidungen trifft und die Verantwortung trägt.
Bei der Einführung von KI in Engineering- und Managementkontexten unterstützen wir Unternehmen von der Use-Case-Bewertung bis zur Schulung der Mitarbeitenden. Sprechen Sie uns an.