Wartbarer Code ist eine Frage von Verantwortung, nicht von KI
"Der Code ist nicht wartbar.",
"Am Ende brauche man länger, um die Fehler der KI zu fixen, als wenn man es selbst geschrieben hätte."
Diese Sätze höre ich in letzter Zeit häufig, sowohl im eigenen Team als auch im Austausch mit anderen Agenturen. Und ich verstehe, woher diese Skepsis kommt. Entwickler:innen sind stolz auf ihr Handwerk. Sie haben gelernt, sauber zu arbeiten, Standards einzuhalten, Tech Debt zu vermeiden. Wenn dann ein Sprachmodell Code ausspuckt, der zwar funktioniert, aber unsauber wirkt oder Risiken enthält, fühlt sich das wie eine Bestätigung an: KI kann kein gutes Engineering.
Für mich ist "KI-Code ist nicht wartbar" aber keine technische Aussage. Es ist eine Aussage über Verantwortung.
Warum diese Diskussion so schnell emotional wird
Programmieren ist mehr als Tippen. Es ist Denken, Abwägen, Erfahrung. Wenn ein Tool plötzlich in Sekunden etwas erzeugt, wofür man früher eine Stunde gebraucht hat, kratzt das verständlicherweise am eigenen Selbstverständnis.
Die häufigsten Fragen, die mir begegnen, sind deshalb sehr bodenständig: "Versteht das später noch jemand?" "Wer trägt die Verantwortung?" "Ist das in zwei Jahren noch wartbar? Das sind die richtigen Fragen. Die falsche Schlussfolgerung wäre aber, KI deshalb grundsätzlich abzulehnen.
Denn ehrlicherweise ist unwartbarer Code kein exklusives KI-Produkt. Den haben wir auch ohne KI geschrieben: unter Zeitdruck, kurz vor dem Release, mit einem schnellen Fix, der später als Legende in der Codebase weiterlebt.
Das eigentliche Problem ist nicht KI, sondern fehlende Verantwortung
KI verstärkt, was bereits da ist. Gute Standards werden sichtbarer, schlechte Gewohnheiten ebenfalls. Wer KI als Autopilot versteht, produziert Chaos. Wer KI als Pair Programming einsetzt, kann Qualität gewinnen. Der entscheidende Unterschied liegt nicht im Modell, sondern in der Haltung:
KI kann Code erzeugen. Aber ich verantworte die Software.
Dieser Satz klingt simpel, ist aber zentral. Er entscheidet darüber, ob KI neue Formen von Tech Debt schafft, oder ob KI hilft, bestehende abzubauen.
Gute Argumente der Skeptiker
Die Skepsis im Team ist nicht unbegründet, vor allem wenn KI unreflektiert eingesetzt wird:
- Halluzinationen und fehlender Kontext können zu falschen Annahmen und kaputten Architekturen führen.
- Blindes Copy-Paste erzeugt einen Flickenteppich ohne einheitlichen Stil.
- Sicherheitsrisiken entstehen, wenn generierte Lösungen nicht kritisch geprüft werden.
Diese Einwände sind kein Widerstand gegen Fortschritt. Sie sind ein Qualitätsfilter. Als Geschäftsführerin ist es nicht meine Aufgabe, Skepsis zu übergehen, sondern sie so einzubinden, dass sie bessere Software ermöglicht.
Aktuell entsteht leicht das Gefühl, alle anderen seien schon weiter. Die Tools entwickeln sich rasant, Erfolgsgeschichten sind überall. Das erzeugt Druck und unter Druck trifft man selten gute Architektur-Entscheidungen.
Fortschritt ist kein Wettrennen. Es bringt nichts, weiter zu sein, wenn niemand mehr versteht, was im eigenen System passiert.
KI ist ein Werkzeug, das mit klaren Standards gestaltet werden muss - so wie andere Prozesse bisher auch.
Wann KI bei uns sinnvoll unterstützt
Ich sehe KI nicht als Ersatz für Denken, sondern als Verstärker für gutes Engineering. Sie ist besonders hilfreich:
- bei Routinetätigkeiten, die Zeit fressen
- beim Refactoring kleiner Einheiten
- beim Erstellen und Ergänzen von Tests
- beim Verstehen fremder oder gewachsener Codebases
Manchmal liefert sie Quatsch oder halluziniert. Genau deshalb behandeln wir sie wie einen sehr schnellen Junior: hilfreich, aber nicht unfehlbar. Und immer reviewpflichtig.
Führung statt Glaubensfrage
Ich wünsche mir, dass wir KI nicht als Identitätsfrage diskutieren, sondern als Professionalitätsfrage: Wie liefern wir bessere Software?
KI zu ignorieren ist keine neutrale Entscheidung. Sie wird nicht verschwinden. Sie wird dann nur ohne Standards genutzt, vielleicht heimlich, und dann wird es chaotisch.
KI-Code ist nicht automatisch unwartbar. Unklar verteilte Verantwortung ist es.
Die KI ersetzt uns nicht. Aber Entwickler:innen, die Verantwortung übernehmen und KI bewusst einsetzen, werden die Zukunft unseres Berufs prägen.