Blog & Insights | prodot

KI ist kein Orakel: Sparringspartner statt Auftraggeber | prodot

Geschrieben von Thomas Hahn | 8.05.2026

KI-Modelle werden zunehmend für Entscheidungen herangezogen, die bislang Erfahrungswissen benötigt haben. Damit stellt sich die Frage, wie weit das Delegieren an KI gehen darf, ohne dass die eigene Urteilskraft auf der Strecke bleibt. Mein Eindruck aus den letzten Monaten: Das Modell kennt seinen Nutzer nicht, nicht den Kontext, nicht die Architekturentscheidung von vor zwei Jahren, nicht die Dynamiken im Team. Wer trotzdem fragt „Was soll ich tun?" und die Antwort der KI einfach übernimmt, hat die Reflektion ausgelagert.

Was die KI nicht wissen kann

Zwischen dem, was wir über unsere Arbeitsumgebung, Projekte und Kunden wissen, und dem, was ein Modell wissen kann, liegt aus meiner Sicht eine Lücke, die kein Kontextfenster vollständig schließt. Selbst mit Codebase-Snapshots, Tickets und Memory-Files ist die KI nie in der Position des Nutzers. Sie weiß nicht, warum die Codebase so geschnitten ist, kennt den Outage aus dem letzten Release nicht, und sie spürt nicht, ob die Geschäftsführung gerade mehr Risiko oder mehr Stabilität sucht. Auch besseres Prompting schließt diese Lücke nach meiner Beobachtung nicht.

Vom Orakel zum Sparringspartner

Die für mich produktive Nutzung sieht anders aus. Statt „Was soll ich tun?" lautet meine Frage typischerweise: „Ich will X erreichen, hilf mir, die Optionen zu durchdenken." Das Modell liefert Pros, Cons und Varianten, die Entscheidung bleibt bei mir.

Ein Vergleich, der mir hilft: KI verhält sich wie das Navi im Auto. Es kennt die Karte besser als der Fahrer, hat Stauinfos und Alternativen parat. Aber ich fahre immer noch selbst. Wer dem Navi blind folgt, fährt im Zweifel in eine Absperrung. Wer es als Wegweiser nutzt und parallel die Augen offenhält, kommt zuverlässig schneller ans Ziel.

Drei Fragen helfen mir, bevor ich einen Vorschlag übernehme:

  • Was ist das zu lösende Problem, und wie sieht ein gutes Ergebnis aus? Wer das nicht klar hat, bewertet jeden Vorschlag der KI gegen ein verschwommenes Ziel und kann schlecht beurteilen, ob die Lösung überhaupt zur Aufgabe passt.
  • Passt das in unseren Kontext? Eine Best Practice aus dem Konzern ist im Mittelstand oft kontraproduktiv, ein Greenfield-Ansatz in einer gewachsenen Systemlandschaft auch.
  • Ist jetzt der richtige Zeitpunkt? Ein überstürztes Refactoring zwei Wochen vor Produktionsstart bringt mehr Risiko als Nutzen.

Die KI als Kritiker

Das kritische Hinterfragen selbst lässt sich an die KI delegieren. Wir nutzen dafür im Team zwei Skills. First Principles Thinking zwingt das Modell, Annahmen zu zerlegen, die dahinterliegenden Wahrheiten zu erkennen und neu zu argumentieren. Grill Me lässt die KI das Vorhaben gnadenlos auseinandernehmen und nach unklaren Annahmen fragen. Beides funktioniert für Architekturkonzepte genauso wie für Angebotsentwürfe.

First Principles Thinking und Grill Me sind Beispiele für Skills, also vorgefertigte Anweisungssätze, die wir KI-Modellen mitgeben, um genau diese Art Hinterfragen auszulösen. Skills lassen sich teilen. Was eine Person einmal entwickelt, kann dann dem ganzen Team zur Verfügung gestellt werden. Manche werden gezielt aufgerufen, andere aktivieren sich automatisch im Hintergrund, sobald das Thema passt. So wird aus einer einzelnen Korrektur ein System, das für eine Abteilung oder das ganze Unternehmen gilt.

In meiner Praxis ist es immer günstiger, wenn die KI eine Argumentation widerlegt und eine Korrektur noch möglich ist, als wenn am Ende ein Reviewer oder potenzieller Kunde dies tut.

Anleitung wird zur Kernkompetenz

Mit KI-Tools verändert sich aus meiner Beobachtung, wo Führungs- und Engineering-Kompetenzen gebraucht werden. Wer KI-Agenten effektiv nutzen möchte, braucht dieselben Fähigkeiten wie in der Führung von Menschen. Eine vage Aufgabenstellung führt zu einem technisch funktionierenden Ergebnis, das trotzdem nicht das löst, was gemeint war. KI-Agenten alleine verhindern das nicht.

Die Analogie kann man fortführen: Moderne KI-Tools wie Claude oder ChatGPT bieten Memory-Funktionen, also persistente Notizen, die der Agent über einzelne Konversationen hinaus pflegt. So lernt er Standards, Leitplanken und die Fehler, die er nicht ein zweites Mal machen sollte. Eine gute Führungskraft formt ein Team mit der Zeit. Dieselbe Geduld zahlt sich aus meiner Erfahrung beim Agenten aus: Wer der KI nach jeder Korrektur „merk dir das für die Zukunft" sagt, baut über die Zeit einen Agenten auf, der weniger generisch arbeitet. Aus dem Werkzeug wird so eine Art eingearbeiteter Mitarbeiter.

Wann lohnt sich die Reflektion?

Aus meiner Sicht nicht für jede Entscheidung. Wer einen Linter-Hinweis abarbeitet, eine Variable umbenennt oder einen Termin verschiebt, braucht dafür keine Sparringsession. Anders sieht das bei Entscheidungen aus, die schwer rückgängig zu machen sind oder von denen viel abhängt: Architekturwahl, Vendor-Auswahl, oder Reorganisation. Hier zahlt sich nach meiner Erfahrung jede Minute Reflektion aus, weil die Kosten einer Fehlentscheidung um Größenordnungen höher liegen als der Aufwand der Vorab-Prüfung.

Entscheidungstyp Beispiele Empfohlene Tiefe
Reversibel, kleiner Wirkradius Variable umbenennen, Bugfix, Termin verschieben Bauchgefühl
Reversibel, spürbarer Korrekturaufwand Library-Wahl, kleines Refactoring, Tool-Test Fünf-Minuten-Sparring mit der KI
Schwer reversibel oder hohe Tragweite Architektur, Vendor-Lock-in, Migration, Reorganisation Bewusste Sparring-Session, First Principles oder Grill Me Skill

Der Test: Lässt sich die Entscheidung mit eigenen Worten vertreten?

Ein einfacher Test, den ich für mich selbst nutze: Im Nachhinein zeigt sich, ob das Modell Werkzeug oder Auftraggeber war. Sobald jemand nachfragt, ein Reviewer im Pull Request oder ein Stakeholder im Meeting: „Warum hast du dich so entschieden?" Wer Kontext, Ziele und abgewogene Trade-offs in eigenen Worten benennen kann, hat die KI als Werkzeug genutzt. Wer nur per Copy & Paste übernommen hat, was im Chatfenster stand, hat sich vom Orakel führen lassen. Sichtbar wird der Unterschied, wenn die Entscheidung Konsequenzen hat: ein Bug in Produktion, eine Fehlinvestition, eine Architektur, die in zwei Jahren nicht mehr trägt.

Fazit

KI im Unternehmenseinsatz ist für mich keine Frage von „ja oder nein", sondern vor allem eine Frage nach dem „wie". Wer das Modell als Orakel nutzt, gibt seine Urteilskraft ab. Wer es als Sparringspartner nutzt, behält die Richtung und liefert nachvollziehbare Ergebnisse, im Code wie in der Strategie. Aus meiner Sicht liegt der Hebel nicht in der Technik, sondern in der Haltung. Das Modell hilft mir beim Durchdenken, die Entscheidung treffe ich selbst. Das ist anstrengender als eine fertige Antwort zu übernehmen, aber für mich ist es aktuell der einzige Weg, mit dem KI meinen Wert steigert.

Ich bin gespannt, wie sich diese Einschätzung in den nächsten Monaten verändert. Memory-Funktionen werden ausgereifter, Agenten werden fähiger, Skills standardisieren sich. Manches, was ich heute als besonders beschreibe, wird morgen vielleicht alltäglich. Was bleibt, ist die Frage, wer am Ende die Entscheidungen trifft und die Verantwortung trägt.

Bei der Einführung von KI in Engineering- und Managementkontexten unterstützen wir Unternehmen von der Use-Case-Bewertung bis zur Schulung der Mitarbeitenden. Sprechen Sie uns an.