Warum KI mir bei User Stories hilft – und wo nicht

Warum KI mir bei User Stories hilft – und wo nicht

Ich nutze KI intensiv bei User Stories.
Zum Zusammenfassen von Inhalten, zum Kürzen von Texten und um eine reproduzierbare Struktur konsistent einzuhalten. Auch sprachlich und grammatikalisch ist sie für mich ein sehr zuverlässiges Werkzeug.

Was KI dabei gut kann, ist operative Präzision.
Was sie nicht kann, ist Kontextverantwortung.

KI ist im Requirements Engineering längst Teil des Alltags. Nicht als Vision, sondern als pragmatische Unterstützung bei Textarbeit. Gerade dort entfaltet sie ihren größten Nutzen: beim Verdichten, Vereinheitlichen und sprachlichen Schärfen von Anforderungen.

Ich erlebe KI als äußerst hilfreich, wenn es darum geht, Rohmaterial in Form zu bringen. Inhalte lassen sich strukturieren, Texte kürzen, Wiederholungen auflösen. User Stories werden konsistenter, verständlicher und leichter wartbar. In dieser Rolle ist KI effizient, zuverlässig und gut kontrollierbar.

Kurz gesagt:
KI hilft, Texte besser zu machen.

Problematisch wird es dort, wo ihre Grenzen beginnen – und diese Grenzen liegen nicht in der Sprache, sondern im Kontext.

Wo KI im Requirements Engineering problematisch wird

KI kennt keinen Projektkontext im eigentlichen Sinne. Sie arbeitet mit Wahrscheinlichkeiten, Mustern und statistischer Nähe – nicht mit Verantwortung. In der Praxis führt das zu typischen Risiken, die im Requirements Engineering besonders relevant sind.

Dazu gehört die Vermischung fachlicher Annahmen aus unterschiedlichen Domänen. Ebenso der Einbau impliziter Standards oder vermeintlicher Best Practices, die im konkreten Projekt nicht gelten. Häufig schleichen sich auch länder- oder rechtsspezifische Annahmen ein, die fachlich nicht zutreffend sind. Besonders kritisch sind dabei Anforderungen, die sprachlich sehr sauber formuliert sind, aber fachlich nicht korrekt.

Diese Fehler sind selten offensichtlich.
Gerade das macht sie gefährlich.

Ein Text kann logisch, konsistent und gut lesbar sein – und dennoch falsche Annahmen transportieren. Je besser er formuliert ist, desto später fällt das auf.

Requirements sind jedoch keine neutralen Texte. Sie setzen Erwartungen, definieren Grenzen und haben reale Konsequenzen. An dieser Stelle lässt sich Verantwortung nicht delegieren.

Meine Arbeitsweise mit KI

Ich nutze KI bewusst in einer unterstützenden Rolle.
Als Textassistent, als Strukturhilfe und als Sparringspartner für Klarheit und Kürze.

Die inhaltliche Verantwortung bleibt dabei immer bei mir. Ich prüfe den Kontext, hinterfrage Annahmen, stelle fachliche Gültigkeit sicher und adressiere die Zielgruppe bewusst. KI unterstützt mich dabei, besser zu formulieren – sie entscheidet nicht, was richtig ist.

KI hilft mir, besser zu schreiben.
Nicht, zu entscheiden, was richtig ist.

Die wichtigsten Takeaways

KI ist hervorragend für Textqualität, Struktur und Konsistenz.
KI ist ungeeignet für fachliche Gültigkeit und Kontextentscheidungen.

Gute Requirements entstehen nicht durch Geschwindigkeit, sondern durch Klarheit.
Verantwortung lässt sich nicht automatisieren.

KI macht Texte besser.
Sie ersetzt keine Verantwortung.

Sandro

+10 Jahre Erfahrung in Projekten nach agilen Vorgehensmodellen basierend auf Scrum- und Kanban in einem internationalen Umfeld in den Rollen Business Analyst, Product Owner, Agile Coach und Scrum Master.

Leave a Reply