Archiv des Autors: Kevin Heusinger

Wie KI-Crawler das SEO-Spiel verändern – und was das für Content-Strategien bedeutet

Wir wollten es genau wissen. Ob sich generative KI-Modelle überhaupt gezielt beeinflussen lassen – durch Inhalte, die man online verfügbar macht. Ob es also eine Art neues SEO gibt, das nicht mehr auf Rankings in Suchmaschinen zielt, sondern darauf, Teil des aktiven „Wissens“ eines Sprachmodells zu werden. Die ernüchternde wie interessante Antwort vorweg: Es ist möglich, aber mit erheblichem Aufwand verbunden. Und es könnte sich lohnen.

Problem: Wenn Wissen im Modell statt auf der Website steckt

Die klassische Suchmaschinenoptimierung richtet sich an Systeme wie Google oder Bing, die Inhalte indexieren und ranken. Doch mit dem Aufstieg generativer Modelle wie GPT-4, Gemini oder Claude verschiebt sich die Dynamik: Nutzer\:innen stellen Fragen direkt an das Modell, oft ohne zu wissen, woher die Antwort stammt. Sichtbarkeit entsteht nicht mehr nur durch Platz 1 im Suchergebnis, sondern durch Aufnahme in die Trainingsdaten oder Retrieval-Systeme. Für Contentproduzierende stellt sich damit eine neue Frage: Wie wird man Teil dieser Antwortmaschine?

Kontext & Analyse: Wie KI-Modelle zu ihrem Wissen kommen

Große Sprachmodelle werden auf Milliarden von Webseiten, Dokumenten und Codequellen trainiert. Für die Pretraining-Phase werden Crawler eingesetzt, die öffentlich zugängliche Inhalte indexieren. Diese Inhalte müssen nicht gut gerankt sein, aber sie müssen auffindbar, verlinkt und maschinenlesbar sein. Einige Modelle nutzen ergänzend Retrieval-Augmented Generation (RAG): Dabei wird zum Zeitpunkt der Anfrage aktiv auf externe Datenquellen zugegriffen.

Wir haben in unserem Projekt testweise mehrere Domains mit hochwertigen Fachinhalten ausgestattet, strukturierte Metadaten genutzt, die Inhalte gezielt verlinkt und synthetischen Traffic erzeugt. Ziel war es, herauszufinden, ob die Inhalte in RAG-gestützten Systemantworten oder sogar direkt im Modell auftauchen.

Ergebnisse: Machbar, aber nur mit Masse

Einzelne Artikel, selbst wenn gut geschrieben, gut verlinkt und technisch optimiert, wurden nur in Ausnahmefällen erkennbar eingebunden. Erst eine verteilte, systematisch orchestrierte Kampagne – mit Dutzenden Domains, hunderten Beiträgen, koordiniertem Crosslinking und kontinuierlichem Traffic – führte zu messbaren Effekten. In Promptantworten von GPT-4 tauchten Elemente unserer Inhalte auf, teilweise paraphrasiert, manchmal wortwörtlich. Dabei wurde klar: Die Modelle „wissen“ nicht – sie haben Textmuster gespeichert. Wer diese Muster oft genug und konsistent in öffentliche Räume einspeist, kann Sichtbarkeit im Modell erzeugen.

Einsichten: Was folgt für Content-Strategien?

  • Klassisches SEO bleibt relevant, aber sollte ergänzt werden durch „AI Visibility Optimization“.
  • Inhalte müssen nicht nur für Menschen lesbar sein, sondern für Crawler logisch strukturiert und verlinkt.
  • Verteilte Strategien (z. B. mit Mikroseiten, Partnernetzwerken, Reposting mit Attribution) könnten in Zukunft gezielter eingesetzt werden, um KI-Wissen zu prägen.
  • Authentischer, substanzreicher Content hat weiter Chancen: Sprachmodelle sind weniger empfindlich für manipulative Strategien als klassische Suchmaschinenalgorithmen.

Ausblick: Ein zweiter Blick auf den Wert von Inhalten

Wenn große Modelle zu Gatekeepern für Alltagswissen werden, entscheidet ihre Trainingsbasis mit über die Sichtbarkeit von Argumenten, Fachpositionen und Deutungsmustern. Das öffnet Raum für neue Strategien – aber auch für Hoffnung: Dass gute Inhalte, echte Expertise, klug strukturierter Text wieder an Bedeutung gewinnen. Nicht, weil sie perfekt optimiert sind, sondern weil sie in einem Meer von Redundanz auffallen.

Effiziente Digitalisierung: Unsere Ergebnisse zur Erreichung von 90% Backendautomatisierung

Im Rahmen des Projekts zur Effizienzsteigerung unseres Beratungoverheads untersuchten wir, inwieweit sich die manuellen Arbeitsschritte eines Beratungsunternehmen automatisieren lassen und wie hoch die Effizienzsteierung sein kann. Die Analyse zeigt, dass durch gezielte Automatisierung eine bis zu vierfache Steigerung der operativen Leistung möglich ist – bei gleichbleibender personeller Besetzung. Grundlage dieser Erkenntnis war die systematische Erhebung von Arbeitsabläufen in zehn Beratungsunternehmen sowie die prototypische Umsetzung eines digitalen Workflows. Dieser Bericht dokumentiert das methodische Vorgehen, die beobachteten Effekte und die daraus abgeleiteten Empfehlungen für die Praxis.

Beratungsleistungen, die einst in tagelanger Handarbeit erbracht wurden – Statusberichte, Projektpläne, KPI-Dashboards oder Rechnungen – lassen sich zunehmend durch digitale Werkzeuge automatisieren. In einer internen Analyse zeigen wir, wie eine Beratungsorganisation mit rund 90% automatisiertem Backend operiert und dadurch in typischen Projekten eine rund vierfache operative Effizienz erreicht.

Analyse eines Systemwechsels

In den vergangenen Jahren wurde ein Großteil unserer Backofficeprozesse systematisch identifiziert, katalogisiert und durch eine Kombination aus Scripting, Machine Learning und Sprachmodellen automatisiert. Dabei wurden klassische Deliverables (Erstellen von Lieferscheine, Statusberichten, Risikoanalysen etc. – s.u.) durch automatisierte Varianten ersetzt:

  • Statusberichte: Echtzeitdaten werden direkt aus Projektsystemen gezogen
  • Projektpläne: Synchronisation mit Ressourcenverwaltung statt Excel-Pflege
  • Strategie-Folien: generiert aus Simulationen, unterschiedliche Ausgänge simulierbar
  • Risikoanalysen: datengetrieben, aus historischen Mustern extrahiert, auch mittels predictive AI z.B. bei der Aufwandsschätzung
  • Forecasts & Szenarien: auf Knopfdruck modellierbar
  • Rechnungsstellung: automatisiert bei Meilenstein-Erreichung

Alle Prozesse unterliegen dabei einem systemischen Monitoring.

Beacon: Ein Werkzeug zur Automatisierungsdiagnose

Zur Messung wurde ein internes Tool entwickelt, das Prozessdurchlaufzeiten analysiert – vom Trigger (z. B. Nutzerinteraktion oder Systemereignis) bis zum Sink (z. B. Datenbankeintrag oder Output). Es protokolliert:

  • welche Prozesse existieren
  • welche davon automatisierbar sind
  • welche bereits automatisiert wurden
  • ob und wie zuverlässig sie funktionieren
  • wie lange die Prozesse im Schnitt benötigen

Dieses Tool dient nicht nur der internen Prozessoptimierung, sondern wird ab sofort auch in externen Transformationsprojekten zur Diagnostik eingesetzt. Damit können Unternehmen erstmals systematisch beurteilen, wie digital ihre operativen Prozesse tatsächlich sind.

Technologischer Unterbau

Die eingesetzte Technologie umfasst mehrere Schichten. Im Zentrum steht eine eigene Skripting-Engine zur Prozessverarbeitung. Für Mustererkennung in historischen Datenbeständen kommen klassische Machine-Learning-Modelle zum Einsatz. Sprachmodelle (LLMs) ergänzen das Setup, vor allem bei textlastigen Aufgaben wie der automatisierten Erstellung von Entscheidungsvorlagen, der Extraktion von Aussagen aus Dokumenten oder dem Erkennen und Bewerten von Feedback z.B. im Change Management bei der Einführung neuer Technologie, als Mittel um die Akzeptanz der neuen Lösung im Unternehmen zu messen.

Die Kombination dieser Technologien erlaubt es, repetitive Arbeitsschritte nicht nur zu beschleunigen, sondern vollständig zu eliminieren. Fehlerquellen durch manuelle Interaktion werden dabei deutlich reduziert.

Auswirkungen auf Effizienz und Organisation

Die quantitativen Auswirkungen sind erheblich: In Projekten mit ähnlichem Umfang konnten bei nahezu identischem Scope die Bearbeitungszeiten um den Faktor 3 bis 5 reduziert werden. Der Schlüssel liegt dabei nicht in der Einzelbeschleunigung, sondern in der Eliminierung ganzer und mehrerer Arbeitsschritte.

Die qualitative Wirkung betrifft vor allem die Arbeitskultur. Berater und Analysten arbeiten nicht mehr in permanenten Abstimmungs- und Reportingzyklen, sondern fokussieren sich auf Modellierung, Bewertung und Entscheidungsfindung. Die Automatisierung verschiebt die Wertschöpfung von administrativen zu gestalterischen Tätigkeiten.

Veränderte Skaleneffekte

Ein hoher Automatisierungsgrad verändert nicht nur die interne Arbeitsteilung, sondern auch die betriebswirtschaftliche Struktur von Beratung. Wo früher jeder neue Auftrag neue Personalkapazitäten erforderte, entstehen heute skalierende Systeme. Die operative Marge verbessert sich – gleichzeitig sinken die Einstiegskosten für Kunden.

Dieser Wandel wirkt sich letztlich auch auf das Marktdesign aus: Kleinere Beratungseinheiten mit technologischer Spezialisierung sind in der Lage, komplexe Projekte zu übernehmen, für die früher ganze Großorganisationen notwendig waren.

Fazit

Die konsequente Digitalisierung interner Prozesse verändert die Beratungsarbeit tiefgreifend. Automatisierung ist kein ergänzendes Werkzeug, sondern ein struktureller Hebel, der Geschwindigkeit, Präzision und Skalierbarkeit zugleich ermöglicht. Beratungen, die sich darauf ausrichten, agieren effizienter, transparenter und in kürzeren Zyklen – mit spürbarem Nutzen für Mitarbeiter, Kunden und Projektökonomie.


Quellen

  1. McKinsey Global Institute: Harnessing Automation for a Future That Works¹
  2. Gartner: Top Strategic Technology Trends for 2021: Hyperautomation²
  3. Statistisches Bundesamt (Destatis): Volkswirtschaftliche Gesamtrechnungen 2023³
  4. William J. Baumol: The Cost Disease, Yale University Press 2012⁴

Menschen hängen an ihrer monotone Arbeit – und was Organisationen daraus lernen können

In vielen Unternehmen sind es nicht die kreativen Sonderprojekte, die langfristig laufen, sondern die scheinbar langweiligen Routinen. Prozesse, deren Abläufe seit Jahren feststehen, werden von denselben Mitarbeitenden mit bemerkenswerter Stabilität ausgeführt. Die Fluktuation ist niedrig, die Effizienz hoch. Irritierend nur: Warum scheint es für viele ein Vorteil zu sein, wenn sich möglichst wenig verändert?

Problem: Innovationsdruck trifft auf Widerstand

Gerade im Kontext von Change Management, Digitalisierung und zunehmender Automatisierung erleben Organisationen, dass Teile der Belegschaft sich bewusst gegen Veränderung stellen. Nicht aus Trägheit, sondern aus Überzeugung. Während Innovationsabteilungen neue Tools einführen oder Gamification für neue Arbeitsformen erproben wollen, verteidigen Teams in Verwaltung, Buchhaltung oder Bestands-IT ihre etablierten Vorgehensweisen mit Nachdruck. Innovation wird als Risiko gelesen, nicht als Chance. Dies erschwert nicht nur Modernisierungsprojekte, sondern fördert auch verdeckte Demotivation.

Zweifel an Maslow – Sicherheit als Trugschluss?

Nach der Bedürfnispyramide von Maslow suchen viele Menschen primär nach Stabilität. Repetitive Aufgaben geben Sicherheit, Vorhersehbarkeit und Kontrolle – gerade in Lebensphasen mit hoher externer Belastung. Doch diese Sicherheit ist nicht immer intrinsisch gewollt. Vielmehr lässt sich beobachten, dass Menschen sich mit dem zufrieden geben, was ihnen die Umstände als machbar erscheinen lassen. Nicht aus Zufriedenheit, sondern aus einem Mangel an Mut.

Die Annahme, dass Stabilität ein grundlegendes Bedürfnis sei, lässt sich hinterfragen. Moderne Gesellschaften zeigen wenig kollektiven Mut: Innovation wird skeptisch beäugt, Risikobereitschaft sanktioniert. Die stabile Popularität konservativer Parteien in demokratischen Gesellschaften deutet strukturell auf diese kulturelle Präferenz für Sicherheit hin – auch wenn das kein kausaler Beleg ist. Es bleibt Raum für die These: Es sind nicht die Menschen, die grundsätzlich nach Sicherheit streben, sondern Gesellschaften, die Sicherheit zum höchsten Gut erklären – und dadurch Mut entwerten.

Ready statt ruhig

Eine alternative Perspektive wäre: Sicherheit bedeutet nicht Ruhe, sondern Bereitschaft. Wer „ready“ ist – vorbereitet, kompetent, beweglich –, erlebt Veränderung nicht als Gefahr, sondern als Bestandteil des Normalen. In einer solchen Kultur würde Innovation nicht stören, sondern implizit dazugehören. Das könnte erklären, warum in Kontexten mit starkem psychologischen Sicherheitsgefühl (etwa in resilienten Teams) auch komplexe Veränderungsprozesse produktiv verlaufen. Ein solches Mindset zu fördern – auch im Hinblick auf Automatisierung, digitale Transformation und neue Führungsmodelle – ist zentral für zukunftsfähige Organisationen im Mittelstand.

Flow ohne Innovation

Csikszentmihalyi (1990) beschreibt Flow als Zustand zwischen Unter- und Überforderung. Auch repetitive Aufgaben können Flow erzeugen – etwa wenn sie mit hoher Kompetenz ausgeführt werden. Menschen mit geringem Autonomiebedürfnis erleben Routinejobs häufig als befriedigend, solange die sozialen und strukturellen Bedingungen stimmen (Warr, 2002).

Boreout als Grenzfall

Die Forschung zu Boreout (Stock-Homburg & Werder, 2017) zeigt jedoch: Wird Routine zur Dauerunterforderung, entstehen psychosomatische Beschwerden, Zynismus und innerer Rückzug. Die Grenze ist individuell: Was für den einen stabilisierend wirkt, kann für andere zur psychischen Belastung werden.

Sozialisierung und Organisation

Organisationen sind oft auf Reproduktion ausgelegt. Karl Weick (1995) beschreibt sie als Systeme, die Unsicherheit reduzieren. Kreative Abweichung wird schnell als Störung codiert. Über Jahre gewachsene Routinen erhalten Status und Schutzmechanismen. Wer sie infrage stellt, riskiert soziale Sanktion. Innovation wird dadurch nicht nur strukturell, sondern auch kulturell ausgebremst – insbesondere dort, wo kein wirksames Tooling für gute Arbeit und keine Strategien zur Begleitung digitaler Transformation etabliert sind.

Exploitation vs. Exploration

Benner & Tushman (2003) zeigen in ihrer Arbeit zur Ambidextrie, dass viele Organisationen ihre Ressourcen auf „Exploitation“ konzentrieren – also auf die Optimierung bestehender Prozesse. „Exploration“ – das Ausprobieren neuer Ideen – wird dagegen als ineffizient und risikobehaftet bewertet. Mitarbeitende internalisieren diese Bewertung. Wer sich in Schema-F-Aufgaben sicher fühlt, riskiert durch Innovation den eigenen Status.

Einsichten für die Praxis

  • Nicht jeder will Innovation. Stabilität ist für viele ein funktionales Arbeitsmotiv, kein Defizit.
  • Routine ist nicht gleich Langeweile. Für manche Menschen ist sie Voraussetzung für Konzentration, Flow und Selbstwirksamkeit.
  • Organisationen verstärken diese Muster. Über Belohnungssysteme, implizite Normen und Mikropolitik wird Kontinuität oft stärker gefördert als Innovation.
  • Mut ist kein Persönlichkeitsmerkmal, sondern ein Systemphänomen. Organisationen müssen nicht nur Räume für Innovation schaffen, sondern auch den Mut ermöglichen, sie zu betreten.
  • Kulturwandel und Automation gehören zusammen gedacht. Ohne kulturelle Arbeit verpufft technologische Erneuerung – gerade in Transformationsprozessen in der Führung und Digitalisierung.

Wer kulturelle Veränderung will, muss diese Systemeffekte berücksichtigen. Es reicht nicht, Innovationsfreude zu postulieren – man muss auch Sicherheit für die mitnehmen, die sich in der Stabilität eingerichtet haben.

Ausblick: Anschlussfragen

Wie lassen sich Routinen erhalten, ohne Innovation zu blockieren? Welche Rolle können partizipative Formate spielen, um Risiken für Veränderung sozial abzufedern? Und: Was wäre eigentlich eine Organisation, die beides kann – kontinuierliche Exploitation und selektive Exploration? Die Antworten darauf liegen nicht in neuen Tools, sondern im Design organisationaler Bedingungen.


Quellen:

  • Benner, M. J., & Tushman, M. L. (2003). Exploitation, exploration, and process management.
  • Csikszentmihalyi, M. (1990). Flow: The Psychology of Optimal Experience.
  • Demerouti, E., Bakker, A. B., Nachreiner, F., & Schaufeli, W. B. (2001). The Job Demands-Resources Model.
  • Stock-Homburg, R., & Werder, S. (2017). Boreout. Ursachen und Konsequenzen von Unterforderung.
  • Warr, P. (2002). Psychology at work.
  • Weick, K. E. (1995). Sensemaking in Organizations.

Wirtschaftlichkeit der Prozessautomatisierung? Ein kostenfreies Tool für datengetriebene Entscheidungen

Wo Digitalisierung blockiert – und wie ein einfacher ROI-Rechner weiterhelfen kann

Die Digitalisierung im Mittelstand kommt vielerorts nicht recht voran.

In den Medien ist der Schuldige schnell gefunden: die Politik, die Behörden, die Bürokratie. Das bringt Aufmerksamkeit, und die Bevölkerung findet ihren Sündenbock. Doch in den Projekten, die wir begleiten, zeigt sich oft, dass es ganz andere Gründe gibt, warum es nicht weitergeht. Wir beobachten dies auch in den Daten, in Gesprächen mit Entscheidern – und nicht zuletzt in unseren eigenen Versuchen, Automatisierung planbar und transparent zu machen.

Dabei mangelt es selten an technischem Potenzial. Was fehlt, ist Klarheit: Klarheit über den Stand der Dinge und über das, was mit wenig Aufwand schon heute möglich wäre. Diese Klarheit kann mühselig selbst verschafft werden (Tracking, Befragung, Statusmeetings, Changemanagement etc.), doch dafür ist oft der kurzfristige Nutzen einer einzelnen Maßnahme zu gering.

Warum viele Digitalisierungsprojekte nicht starten

Die Gründe dafür sind vielfältig – und oft verständlich. Automatisierung wird noch immer als Risiko für Arbeitsplätze gesehen. Wer Verantwortung trägt, denkt in Budgets, in Teams und an mögliche Widerstände. Das führt dazu, dass selbst dort, wo klar messbare Effizienzgewinne möglich wären, Automatisierung hinausgezögert oder gar nicht erst geprüft wird.

Ein weiterer, weniger sichtbarer Grund: Vielen Entscheidern fehlt schlicht der Überblick. Welche Prozesse laufen bereits teilautomatisiert? Welche könnten mit einfachen Mitteln automatisiert werden – etwa durch Apps oder Hintergrunddienste, die heute noch manuell gepflegte Aufgaben übernehmen? Wo ist der Nutzen groß genug, um sich mit begrenzten Ressourcen zu lohnen?

Transparenz als Voraussetzung für Fortschritt

Seit über einem Jahr forschen wir an der Software Beacon, mit der Unternehmen den Stand ihrer Digitalisierung selbstständig erfassen, dokumentieren und steuern können – unabhängig von Beratern, Dienstleistern oder Agenturen. Ein Kernproblem, das wir immer wieder gesehen haben: Der wirtschaftliche Nutzen von Automatisierung bleibt in der frühen Planungsphase oft abstrakt. Deshalb haben wir nun ein Teilmodul aus Beacon öffentlich zugänglich gemacht, mit dem sich ein Überblick über die möglichen, jetzt automatisierbaren Prozesse verschaffen lässt, und gleich je Prozess der Return on Investment mit dem dazugehörigen ROI-Rechner für Prozessautomatisierung berechnen lässt.

Ein Werkzeug für erste Einblicke

Dieser kostenlose Rechner richtet sich an Entscheiderinnen und Entscheider, die wissen wollen:

Wie viel kostet uns ein manueller Prozess – und wann würde sich eine Automatisierung lohnen?

Die Eingabe ist bewusst einfach gehalten: Dauer, Häufigkeit, Fehleranfälligkeit und geschätzter Automatisierungsaufwand reichen aus, um erste Szenarien zu berechnen.

Der Rechner kann zwar keine vollständige Analyse ersetzen. Aber er schafft ein Bewusstsein für wirtschaftlich machbare Potenziale – dort, wo sie bisher oft übersehen werden.

Warum kleine Prozesse oft übersehen werden – und warum sie doch wichtig sind

In unserer eigenen Entwicklungsarbeit mit Beacon wurde schnell klar:

Auch kleine Prozesse bergen Einsparpotenzial.

Viele wiederholen sich täglich, wöchentlich – oft sind es Aufgaben, die nur wenige Stunden pro Woche binden. Zu wenig, um isoliert betrachtet eine sofortige Automatisierung zu rechtfertigen. Doch in Summe sieht das anders aus.

So arbeiten wir als Nächstes daran, Beacon und den ROI-Rechner weiterzuentwickeln, sodass künftig eine individuelle Prozesspalette für ein Unternehmen zusammengestellt werden kann und daraus dann automatisch die sinnvollste Kombination von Automatisierungen priorisiert werden kann. Auch lässt sich dann so das gesamte Einsparpotenzial berechnen und der gesamte Break-Even-Point bestimmen. Weiterhin wird es dann möglich sein, eine Automatisierungs-Roadmap generieren zu lassen. In Beacon werden sich dann die Fortschritte ablesen lassen.

Die bereits aktuellen Möglichkeiten von Beacon, automatisierte Tests der einzelnen Prozesse zu erstellen, um deren Performance und Funktion sicherzustellen, werden ebenfalls in diese Palettenfunktion integriert.

Fazit: Digitalisierung braucht bessere Daten – und weniger Bauchgefühl

Wer Digitalisierung als reines Kulturthema versteht, übersieht das Entscheidende:

Sie wird entscheiden, ob sich Unternehmen im Wettbewerb halten können. Weltweit automatisieren Unternehmen – ihre Wirkung zeigt sich dort, wo Prozesse strukturiert verbessert werden – messbar und nachvollziehbar.

Wir arbeiten mit Beacon daran, dass die Strukturierung, Priorisierung, Vergleichbarkeit und Nachvollziehbarkeit von Automatisierungsprozessen erheblich vereinfacht wird.

Wir berichten hier transparent über unsere Erkenntnisse – auch über die Hindernisse, über Widersprüche und Sackgassen. Denn Fortschritt entsteht nicht aus Perfektion, sondern aus iterativem Verstehen.

Wenn Sie erfahren möchten, wie es weitergeht:

Abonnieren Sie unseren Newsletter oder folgen Sie uns auf LinkedIn.

SAFe Scrum und die Entkernung des agilen Mindsets: Eine sachliche Analyse

Wenn ein Framework das agile Arbeiten so weit „strukturiert“, dass kaum Raum für echte Iteration bleibt, wird es Zeit, genauer hinzusehen. Der Begriff „agil“ ist vielerorts noch präsent, doch die zugrundeliegende Praxis gleicht immer seltener dem, was einst als agiles Mindset gedacht war. SAFe steht dabei exemplarisch für diese Entwicklung.

Problem: Agile in der Umklammerung administrativer Systeme

In vielen Unternehmen ist „Agile“ heute nicht mehr als ein neues Etikett auf alten Steuerungsmodellen. Der ursprünglich aus der Softwareentwicklung stammende Versuch, Komplexität iterativ und empirisch zu beherrschen, wurde in zahlreichen Fällen überlagert von administrativen Denkschulen, insbesondere aus dem mittleren Management.

Das Ergebnis ist ein systematischer Bedeutungswandel: Selbstorganisation wird zum Mittel, um Verantwortung nach unten zu delegieren, ohne reale Entscheidungsspielräume zu geben. Transparenz wird zur Kontrolle, nicht zur Erkenntnis. Und empirisches Vorgehen wird durch vorgegebene „Best Practices“ ersetzt.

Kontext & Analyse: Die Entwicklung von Agile hin zu SAFe

Agile entstand 2001 mit dem „Manifesto for Agile Software Development“. Die dort formulierten Werte waren bewusst gegen klassische BWL-getriebene Projektsteuerung gerichtet: Interaktion statt Prozesse, funktionierende Software statt Dokumentation, Zusammenarbeit statt Vertragsverhandlung, Reagieren statt Planbefolgen.

Frameworks wie Scrum oder XP übernahmen diese Haltung in strukturierter Form. Doch mit dem Wachstum der agilen Bewegung entstand Druck, diese Konzepte in großen Organisationen zu skalieren. So entstand unter anderem SAFe (Scaled Agile Framework), das heute in vielen Konzernen eingesetzt wird.

SAFe bringt ein strukturiertes Rollenmodell, Planungszyklen, Synchronisation über „Agile Release Trains“ und umfangreiche Artefakte mit sich. Die offizielle Dokumentation beschreibt dies als „Lean-Agile approach at enterprise scale“ (scaledagileframework.com).

Doch Kritiker wie Robert C. Martin und Dave Farley weisen darauf hin, dass dieser Ansatz in der Praxis oft zu einer Re-Administrierung führt, die den eigentlichen Kern agiler Methoden entwertet (Clean Agile, 2019; Modern Software Engineering, 2022).

Zentrale Kritikpunkte sind unter anderem, dass durch Planungsdogmen ein faktisches Experimentierverbot entsteht, da anstelle iterativer Entwicklung die Planung auf Programmebene dominiert. Teams sollen sich selbst steuern, jedoch innerhalb enger Vorgaben und unter Beobachtung von Personen mit formaler Entscheidungsmacht. Der Begriff „PO“ ersetzt zwar formal den Projektleiter, ändert jedoch nichts an der zugrundeliegenden Machtausübung. Darüber hinaus entsteht durch zahlreiche Rollen und Meetings ein Bild von Agilität, das empirisch kaum wirksam wird, sondern vielmehr Komplexität simuliert.

Diese Phänomene werden unter dem Begriff Dark Agile diskutiert: Ein Zustand, in dem die Terminologie agiler Methoden beibehalten wird, ihre Prinzipien aber ausgehöhlt sind.

Optionen & Einsichten: Rückkehr zum empirischen Arbeiten

Unternehmen, die weiterhin vom agilen Denken profitieren wollen, müssen sich weniger mit Frameworks als mit Denkmodellen auseinandersetzen. Zentral ist dabei, dass Entscheidungen auf Basis von Hypothesenbildung, Experimenten und gemessenen Ergebnissen getroffen werden. Auch nicht-technische Rollen sollten Grundprinzipien wissenschaftlicher Arbeitsweise verinnerlichen, etwa die systematische Beobachtung, die saubere Ableitung von Maßnahmen sowie die Offenheit für Korrektur. Das erfordert eine andere Haltung gegenüber Fehlern und Unsicherheit – eine Haltung, die eher im Engineering als in administrativen Routinen zu finden ist.

Amazon bezeichnet diesen Modus als Truth Seeking Mode. Andere Unternehmen sprechen von Evidence-Based Management. Dabei ist der Begriff „Agile“ nicht zwingend erforderlich. Ein Wording, das stärker auf das zugrundeliegende Prinzip verweist, könnte hilfreich sein – etwa durch Begriffe wie Empirical Thinking, Empirical Management, Empirical Decision Making oder Empirical Development. Diese Terminologie legt den Fokus dort hin, wo Agile ursprünglich ansetzen wollte: auf ein Denken in Hypothesen, Lernen und systematischer Verbesserung.

Ausblick: Die Zukunft liegt nicht in Frameworks, sondern in Prinzipien

Ob Agile, Lean, Scrum oder SAFe: Keines dieser Modelle kann nachhaltige Ergebnisse liefern, wenn sie nicht auf einem geteilten Verständnis für empirisches Arbeiten beruhen. Derzeit ist zu beobachten, dass viele Organisationen bei ausbleibendem Erfolg nicht das Framework hinterfragen, sondern „Agile“ pauschal abschreiben.

Wer das vermeiden will, sollte jetzt investieren: in Aufklärung, in methodisches Training, in kritisches Denken. Und in die Bereitschaft, Verantwortung nicht nur umzubenennen, sondern tatsächlich zu teilen.

Cloud oder eigener Server? Wann man sich noch für eigene Hardware entscheidet

In vielen IT-Projekten beobachten wir eine wiederkehrende Erwartung: Die Cloud soll nicht nur Kosten senken, sondern auch Flexibilität, Sicherheit und Zukunftsfähigkeit garantieren. Doch diese Annahme ist häufig zu pauschal. Die Entscheidung für oder gegen Cloud-Dienste muss differenziert getroffen werden, insbesondere im Kontext europäischer Anforderungen an Datenschutz, Betriebssicherheit und wirtschaftliche Unabhängigkeit.

Fehlannahmen in der Entscheidungsfindung

Für Entscheider:innen im Mittelstand stellt sich zunehmend die Frage, ob der eigene Unternehmensserver durch eine Cloud-Lösung ersetzt werden sollte. Während Anbieter und Beratungen häufig ein klares „Pro Cloud“ vertreten, bleiben wichtige Differenzierungen aus. Die Folge sind Fehlentscheidungen: Überhöhte Betriebskosten, Abhängigkeiten von Dritten (Vendor Lock), regulatorische Unsicherheit oder unzureichende Performance.

Was ist Cloud, was ist On-Premise?

Auch wenn es sich mittlerweile herumgesprochen hat: Unter dem Begriff „Cloud“ versteht man IT-Dienste, die über das Internet bereitgestellt werden – meist durch spezialisierte Anbieter mit Rechenzentren an verschiedenen Standorten. Andere erklären es seit Jahren (IBM – Was ist Cloud Computing?). Typische Beispiele sind Microsoft Azure, Amazon Web Services (AWS) oder europäische Anbieter wie IONOS oder Scaleway. Statt eigene Server zu betreiben, mietet das Unternehmen Rechenleistung, Speicherplatz oder Software flexibel dazu. Der große Vorteil: Skalierung ist innerhalb von Minuten möglich. Auch die Wartung der Systeme liegt beim Anbieter.

On-Premise (kurz: On-Prem) beschreibt dagegen eine IT-Architektur, bei der Server und Software im eigenen Unternehmen betrieben werden. Das Unternehmen ist selbst für Betrieb, Wartung, Updates und Sicherheit verantwortlich – behält aber auch die volle Kontrolle über seine Daten und Infrastruktur. Investitionen erfolgen vorab und sind planbarer. Die Daten verlassen das Unternehmensgelände nicht, was in sicherheitskritischen Szenarien ein entscheidender Vorteil sein kann.

Wann Cloud die bessere Wahl ist

Cloud-Lösungen sind sinnvoll, wenn der Bedarf an Rechenleistung stark schwankt, beispielsweise bei datenintensiven Kampagnen oder in der Entwicklung von Softwareprodukten. Auch für international verteilte Teams, die auf eine gemeinsame Infrastruktur zugreifen, bietet die Cloud klare Vorteile. Ebenso können Unternehmen profitieren, die standardisierte Anwendungen nutzen möchten, etwa für E-Mail, CRM oder Kollaboration. Besonders relevant ist dies, wenn IT-Ressourcen im Unternehmen knapp sind oder Infrastruktur nicht zum Kerngeschäft zählt. In diesen Fällen reduziert die Cloud Komplexität.

Wann On-Premise notwendig oder sinnvoll bleibt

On-Premise bleibt jedoch relevant, wenn besonders sensible Daten verarbeitet werden, etwa im Gesundheitswesen, in Forschungseinrichtungen oder im Finanzsektor. Auch gesetzliche Auflagen können eine vollständige Datenhoheit verlangen, beispielsweise bei Vergabeverfahren oder kritischer Infrastruktur. Bei industriellen Maschinensteuerungen oder Anwendungen mit niedrigen Latenzanforderungen ist eine lokale Datenverarbeitung oft unabdingbar. Ebenso kann es aus ökonomischer Sicht sinnvoll sein, langfristig auf On-Premise zu setzen, wenn dadurch Kosten planbarer bleiben und Abhängigkeiten reduziert werden.

Rechtliche Rahmenbedingungen in Europa

Besonders in Europa ist der regulatorische Rahmen ein zentrales Entscheidungskriterium. Die Datenschutzgrundverordnung (DSGVO) verlangt, dass personenbezogene Daten sicher und rechtskonform verarbeitet werden. Für viele US-basierte Cloudanbieter gilt der sogenannte „Cloud Act“, der im Zweifel US-Behörden Zugriff auf Daten ermöglicht – auch wenn diese auf europäischen Servern gespeichert sind. Das führt zu juristischer Unsicherheit. Europäische Anbieter wie IONOS, Cleura oder Hetzner bieten hier eine Alternative, wenn auch mit zum Teil eingeschränktem Funktionsumfang gegenüber den US-Plattformen.

Hybride Modelle als strategische Option

Die Entscheidung zwischen Cloud und On-Premise ist keine ideologische, sondern eine strategische. Wer Prozesse differenziert betrachtet, erkennt: Es geht nicht um ein „entweder–oder“, sondern oft um ein „sowohl–als auch“. Hybride Modelle – also die Kombination aus Cloud und On-Premise – können spezifische Vorteile vereinen, erfordern aber eine durchdachte Architektur und klare Zuständigkeiten.

Fazit: Einzelfallbewertung statt Trendfolge

Für Unternehmen im Mittelstand ist entscheidend, nicht blind dem Trend zu folgen. Besser ist es, den tatsächlichen Nutzen je Anwendungsfall zu bewerten – und bewusst zu entscheiden, wo Kontrolle, wo Skalierbarkeit und wo Regulierung den Ausschlag geben.

DSGVO-konforme KI-Lösung: Wie kleine Unternehmen intelligente Assistenten sinnvoll einsetzen können

Wir sind gerade dabei, für unsere Kunden ein System zu entwickeln, mit dem sie ihre eigene KI aufbauen können – ohne Spezialwissen, ohne Cloud-Verpflichtung. Was wir dabei in unserer kleinen Forschung lernen, teilen wir hier.

Mit einfachen Mitteln zur eigenen KI

Selbst mit wenig Mitteln lassen sich eigene intelligente Assistenten entwickeln. Das ermöglicht also selbst Kleinstunternehmen mächtige KI-System zu nutzen, die auf ihre Usecases und Prozesse zugeschnitten sind. Also eine künstliche Intelligenz, wie sie auch in ChatGPT steckt. Ein sogenanntes LLM – Large Language Model. Es gibt offene Modelle, sie heißen LLaMA, Mistral (Mistral: Europas Antwort auf die KI-Frage?) oder Phi. Sie sind nur Nuancen anders als ChatGPT. Mit sogenannten „Retrieval-Technologien“ und einer sauber strukturierten Wissensdatenbank, lassen sich innerhalb weniger Wochen Assistenten realisieren, die verstehen, antworten, lernen – und das alles ohne Daten in unsichere Cloudsysteme zu laden. Keine Abhängigkeit zu Amazon, Google, Microsoft und Co. Keine Abhängigkeit zu Donald Trump und die USA. Auch nicht zu China. Direkt auf deutschen oder europäischen, heimischen Servern.

Ob auf eigenem Server, in europäischer Cloud oder eingebettet in bestehende Software: Es geht. Und es geht jetzt. Wir haben es ausprobiert: Wir können so ein offenes LLM mit einer speziell vorbereiteten Wissensdatenbank so weitertrainieren, dass es zum Experte für ganz bestimmte Wissensdomänen wird. Es weiß dann nicht, wie man einen A320 landet, aber wie man das Sortiment aus Sauerteigbroten des Bäcker Hansen backt als Beispiel und kann Rückfragen dazu beantworten. Der Bäckermeister muss seine geheimen Hausrezepte nicht rausgeben und trotzdem seinen Lehrlingen das Wissen vermitteln ohne es selbst zu tun. Wertvolle Fachkraftkapazität wird freigesetzt. Viele wissen das nur noch nicht. Wir forschen selbst daran und arbeiten mit Unternehmen zusammen, die es ausprobieren – oft schneller, als sie selbst geglaubt hätten.

DSGVO-konform vom ersten Byte an

Die Datenschutz-Grundverordnung (DSGVO) stellt klare Anforderungen an Systeme, die mit personenbezogenen Daten arbeiten – dazu gehören KI-Anwendungen genauso wie klassische Software. Insbesondere relevant sind: Nur die Daten verarbeiten, die unbedingt nötig sind (Datenminimierung). Daten dürfen nur für festgelegte Zwecke genutzt werden (Zweckbindung). Nutzende müssen wissen, wie ihre Daten verarbeitet werden (Transparenz). Es muss möglich sein, Auskunft zu erhalten und Daten löschen zu lassen (Zugriffs- und Löschrechte). Daten dürfen nicht ohne weiteres in Drittstaaten (z. B. USA oder China) übertragen werden (Speicherortkontrolle).

Mit einem sogenannten Retrieval-Augmented-Generation-System (RAG) lässt sich genau das umsetzen: Die zugrunde liegenden Sprachmodelle verarbeiten keine personenbezogenen Daten direkt, sondern greifen gezielt auf interne, strukturierte Wissensquellen zu. Dadurch bleibt die Kontrolle über die Daten beim Unternehmen. Es werden keine sensiblen Informationen dauerhaft in einem Modell gespeichert, sondern temporär „herangezogen“ – und zwar innerhalb klar definierter Systeme.

Das Ganze funktioniert – wie gesagt – ohne US- oder China-Clouds. Alle Komponenten können auf europäischen, auch deutschen Servern betrieben werden. Selbst eine Installation im eigenen Hausnetz (On-Premise-Installation) ist möglich und sogar sinnvoller als die Cloud. So behalten Unternehmen jederzeit die volle Kontrolle über ihre Informationen. Kein Datenabfluss, keine rechtlichen Grauzonen. Und vor allem: keine Abstriche bei der Funktionalität.

Kehrwasser Research: Assistenten zur Selbstbedienung

Wir bei Kehrwasser Research entwickeln derzeit eine Lösung, mit der Unternehmen jeder Größe ihre Wissensbestände selbst hochladen, strukturieren und trainieren können. Innerhalb weniger Stunden entsteht daraus ein einsatzfähiger Assistent oder sogar ein Agent – eingebettet in die eigene Infrastruktur, ohne dass man ein Data Scientist sein muss.

Unsere Erfahrung: Der größte Hebel liegt nicht im „Trainieren“ der KI, sondern darin, das Wissen zugänglich zu machen. Wenn die Struktur einmal stimmt, fügt sich der Rest erstaunlich leicht zusammen.

Ein Buchladen ohne Fragen zur Verfügbarkeit

Ein Beispiel: Eine Buchhandlung, deren Mitarbeiter\:innen täglich auf dieselbe Frage antworten müssen: „Haben Sie den Titel XY da?“ Ein KI-Assistent, angebunden an das Warenwirtschaftssystem, gibt diese Auskunft 24/7 per Website oder Terminal – inklusive Standort im Laden. Warum fällt diese Aufgabe noch immer auf Menschen? Warum nutzt man qualifiziertes Personal nicht dort, wo echte Beratung gefragt ist?

Es ist schlicht eine Frage der Prioritäten. Der Fachkräftemangel ist real. Wer noch immer Menschen für Routinen einsetzt, hat den Markt falsch verstanden. Andere nutzen die Vorteile, legen Kapazität frei und verschaffen sich damit einen Vorsprung. Das ist kein Risiko, das ist eine Notwendigkeit.

Agenten für Gastronomie, Einzelhandel, Mittelstand

Gleiches gilt für Restaurants, Friseure, Apotheken, Filialketten. Ein Agent, der Termine entgegen nimmt, Bestellungen abgleicht, Personalpläne erstellt oder Urlaub verteilt, ist keine Science Fiction. Es ist Alltag – zumindest bei jenen, die sich trauen, damit zu beginnen.

Ein solcher Assistent nutzt vorhandenes Wissen (z. B. Tarifregelungen, Öffnungszeiten, Raumplanung, rechtliche Grenzen) strukturiert, um im Sinne aller Beteiligten Vorschläge zu machen. Konflikte reduzieren sich, Entscheidungen werden nachvollziehbarer, Routine schrumpft.

Wissensmanagement und Sprachschnittstelle

Viele KMU haben einen enormen Schatz an implizitem Wissen: Wie werden spezielle Dinge gemacht, was ist zu beachten, wo steht was? Ein KI-Expertensystem, der diese Informationen zugänglich macht – per Sprache, Chat oder eingebettet ins bestehende Tool – . Die Daten müssen nicht öffentlich sein, die Antworten sind es auch nicht. Aber sie sind intern abrufbar, im richtigen Moment.

Was fehlt?

Nicht das Geld. Nicht die Technologie. Und ganz sicher nicht die Fähigkeit. Was fehlt, ist der Mut zur Entscheidung. Der Wille, das eigene Unternehmen nicht mehr nach dem Gewohnten zu organisieren, sondern nach dem Wirklichen: Wo liegen heute die Pain Points? Was muss nicht mehr von Menschen gemacht werden? Wo würde ein Assistent, der nichts kostet, keine Krankheit kennt und immer da ist, echte Entlastung bringen?

Wir arbeiten mit Unternehmen, die keine Schlagzeilen brauchen – sondern Entlastung. Und wir wissen, wie man Systeme datenschutzkonform, pragmatisch und wirtschaftlich einsetzt. Wer jetzt wartet, läuft Gefahr, in wenigen Jahren erklären zu müssen, warum er es nicht früher getan hat.

Mistral: Europas Antwort auf die KI-Frage

Wer sagt eigentlich, dass die besten KI-Modelle nur aus dem Silicon Valley kommen dürfen? In Frankreich sitzt mit Mistral ein junger Anbieter, der gerade zeigt, dass die leistungsstärksten Sprachmodelle auch aus Europa kommen. Und das sogar als Open Source.

Was ist Mistral?

Mistral AI ist ein französisches Unternehmen, gegründet 2023 von ehemaligen KI-Forschern von Meta und Google DeepMind. Ihr Ziel: die Entwicklung leistungsfähiger, effizienter Sprachmodelle, die in puncto Qualität mit GPT-3.5 und teilweise GPT-4 mithalten können – aber unter einer offenen Lizenz.

Das Unternehmen hat mit Mistral 7B und Mixtral zwei Modelle veröffentlicht, die in der Open-Source-Community enorme Aufmerksamkeit erhalten haben. Sie sind kleiner als GPT-4, aber überraschend leistungsstark, gerade im Hinblick auf europäische Sprachen, auf Effizienz und auf lokale Einsatzmöglichkeiten.

Warum ist das für Unternehmen interessant?

Mistral-Modelle können auf europäischen Servern betrieben werden, ohne Anbindung an US-Clouds oder proprietäre APIs. Für Unternehmen, die Wert auf Datenschutz, Souveränität und Kostenkontrolle legen, ist das ein Gamechanger.

Man kann diese Modelle lokal trainieren, fine-tunen oder per Retrieval-Augmentation mit dem eigenen Wissen anreichern. Damit eignen sie sich hervorragend für interne Assistenten, Wissensdatenbanken, Dokumentenanalyse oder sogar für mehrsprachige Chatbots, ohne dass Daten nach Kalifornien abfließen müssen.

Mixtral: Das MoE-Prinzip

Besonders spannend ist Mixtral, ein sogenanntes Mixture-of-Experts-Modell. Das bedeutet: Statt bei jeder Anfrage das gesamte Netz zu aktivieren, werden gezielt nur einige „Expertenpfade“ genutzt. Das spart Rechenleistung und beschleunigt die Antwortzeiten, ohne auf Genauigkeit zu verzichten.

Dieses Prinzip ist vergleichbar mit GPT-4 Mixture-of-Experts von OpenAI, allerdings ist Mixtral frei verfügbar und kann von jeder Organisation heruntergeladen und betrieben werden. Für viele Anwendungsfälle ist Mixtral damit nicht nur wirtschaftlicher, sondern auch auditierbarer.

Wie schneidet Mistral im Vergleich ab?

Modell Lizenz Verfügbarkeit Leistung (in Benchmarks) Hosting-Optionen Besonderheiten
GPT-4 Proprietär OpenAI only Sehr hoch Nur via API Kein Zugriff auf Modellgewicht
Claude (Anthropic) Proprietär API (eingeschränkt) Hoch Nur via API Sicherheitsfokus, keine Modellgewichte
Mistral 7B Open Source Frei verfügbar Stark (v.a. Multilingual) Lokal & Cloud Klein & effizient
Mixtral Open Source Frei verfügbar Vergleichbar mit GPT-3.5 Lokal & Cloud Mixture-of-Experts, sehr schnell

Was bedeutet das konkret?

Wer heute eine DSGVO-konforme, flexible KI-Strategie aufbauen will, kommt an Mistral kaum vorbei. Die Modelle sind leistungsstark, nachvollziehbar, datenschutzfreundlich und frei nutzbar. Vor allem Unternehmen, die eigene Sprachassistenten, interne Suche oder Agenten aufbauen wollen, können damit deutlich unabhängiger arbeiten.

Fazit

Mistral zeigt, dass europäische KI keine Wunschvorstellung ist, sondern Realität. Es braucht keine Milliardenbudgets und keine amerikanischen Serverparks, um leistungsfähige, flexible und faire KI-Systeme zu betreiben. Man muss es nur machen.

Und ja: Wir selbst arbeiten mit Mistral. Nicht weil es europäisch ist, sondern weil es gut ist.

Planning Poker online – Warum die Diskussion oft wertvoller ist als die Schätzung

Von der Zahl zum Gespräch: Wie ein agiles Ritual seine eigentliche Stärke entfalten kann.

Wer Planning Poker nur als Schätzwerkzeug versteht, verpasst seinen größten Wert: das Gespräch. Denn häufig sind es nicht die Zahlen, sondern die Diskussionen, aus denen Klarheit, Verständnis und konkrete Unteraufgaben hervorgehen – besonders bei verteilten Teams, die Planning Poker online nutzen.

Planning Poker hat einen festen Platz in der agilen Welt. Kaum ein Team, das sich nicht regelmäßig mit Karten in der Hand über Schätzungen austauscht – sei es vor Ort oder über ein Planning-Poker-Tool online. Meist mit einem Ziel: eine Zahl zu finden. Doch was wäre, wenn diese Zahl nebensächlich ist? Wenn Planning Poker online nicht der Planung, sondern der Erkenntnis dient?

Tatsächlich wird immer öfter hinterfragt, ob das Schätzen von Story Points im traditionellen Sinne noch zeitgemäß ist. Die Kritik kommt nicht von außen, sondern aus der agilen Community selbst. Teams berichten, dass sie zwar regelmäßig schätzen – sich aber kaum besser verstehen. Dass die Planung zwar detaillierter, aber nicht klarer wird. Und dass das eigentliche Ziel – ein gemeinsames Verständnis – auf der Strecke bleibt.

Vom Werkzeug zur Routine

Planning Poker ist ursprünglich kein Selbstzweck. Es sollte helfen, die subjektive Einschätzung einzelner Teammitglieder sichtbar zu machen, um daraus eine kollektive Intuition zu formen. Stattdessen ist in vielen Teams – insbesondere beim Planning Poker online – ein Ritual entstanden: Karte zeigen, Diskussion abwarten, Mittelwert finden, fertig.

Dabei liegt die eigentliche Kraft nicht in der Zahl, sondern in der Reibung. Wenn jemand eine 2 legt und eine andere Person eine 13, steckt dahinter nicht Uneinigkeit, sondern Unterschiedlichkeit. Unterschiedliche Sichtweisen, Erfahrungen, Sorgen – und manchmal auch blinde Flecken.

Die heimliche Hauptdarstellerin: Das Gespräch

Wirklich hilfreich am Planning Poker ist oft gar nicht die Zahl, die am Ende steht. Sondern der Weg dorthin. Die Diskussion. Die Rückfragen. Die kritischen Stimmen. Es zwingt das Team dazu, eine Story gründlich durchzudenken – und das ist vielleicht die wichtigste Aufgabe im gesamten Sprintvorbereitungsprozess.

Gerade bei verteilten Teams, die Planning Poker online nutzen, ist das strukturierte Gespräch von unschätzbarem Wert. Wer ein Planning-Poker-Tool sucht, das diese Diskussionen besonders unterstützt und fördert, findet mit Agile Casino eine passende Lösung – entwickelt speziell für Teams, die mehr wollen als nur eine Zahl. Es bringt Fokus, Gemeinsamkeit und – vor allem – Klarheit.

In dieser Hinsicht ist Planning Poker ein trojanisches Pferd: Unter dem Deckmantel der Aufwandsschätzung bringt es das Team dazu, implizites Wissen sichtbar zu machen und Lücken zu erkennen.

Oft fallen in diesen Momenten Sätze wie:

  • „Brauchen wir da nicht noch eine Abfrage an das andere System?“
  • „Wer macht eigentlich das Monitoring?“
  • „Sollten wir das nicht in zwei Stories aufteilen?“

Das sind keine Schätzfragen – das sind Erkenntnisse. Und sie führen dazu, dass die tatsächliche Umsetzung klarer, realistischer und koordinierter wird.

Konkrete Unteraufgaben entstehen

Je genauer das Team in der Diskussion wird, desto greifbarer wird die Arbeit. Idealerweise entstehen aus einer guten Planning-Poker-Runde direkt konkrete Unteraufgaben:

  • API-Endpunkt analysieren und Dokumentation sichten
  • Monitoring-Alarm für neuen Service konfigurieren
  • Fallback-Szenario bei Fehler definieren
  • UX-Detail mit Design-Team abstimmen
  • Testdaten vorbereiten

Diese Unteraufgaben sind selten Teil der ursprünglichen Story-Beschreibung – sie entstehen erst im Gespräch. Und gerade deshalb ist dieses Gespräch so wertvoll.

Vom Messen zum Verstehen

Natürlich bleibt Aufwandsschätzung wichtig. Aber sie ist kein Selbstzweck. Eine Zahl nützt wenig, wenn sie auf einem brüchigen Verständnis basiert. Planning Poker stellt dieses Verständnis in den Mittelpunkt – und erzeugt dabei eine neue Dynamik: Eine, die nicht durch Velocity getrieben ist, sondern durch Qualität.

Denn eine gute Story ist keine, die leicht schätzbar ist. Eine gute Story ist eine, die bereit ist, zu überleben – Diskussion, Zweifel und Überprüfung. Sie muss „durchs Team“ – im besten Sinne.

Warum das jetzt wichtig ist

In einer Zeit, in der viele agile Rituale routinierter, aber nicht wirksamer werden, braucht es neue Impulse. Planning Poker – besonders online – ist kein Tool zur Aufwandsermittlung, sondern ein Werkzeug für kollektive Klarheit.

Vielleicht ist es Zeit, Planning Poker nicht nur als Schätzwerkzeug zu sehen – sondern als das, was es im besten Fall sein kann: ein Vehikel für Team-Dialog, gemeinsame Erkenntnis und klare, handhabbare Stories. Wer diesen Aspekt erkennt, profitiert oft mehr von den Diskussionen als von der Zahl am Ende.

Routine ohne Zukunft: Wie KI und Algorithmen den tertiären Wohlstand neu verteilen

Warum die großen Beratungen dasselbe Schicksal ereilen wird, wie einst die Uhrmacher, die Webstühle, die Möbelmanufakturen und Dosenhersteller


Die Industrialisierung war nie ein singuläres Ereignis, sondern eine Abfolge von Entscheidungen: Maschinen annehmen – oder von ihnen ersetzt werden. Heute steht die Wissensarbeit vor der identischen Wahl.


Als der junge Arthur Junghans 1872 aus Amerika in den Schwarzwald zurückkehrte, brachte er mehr mit als Anzug und neuen Umgangsformen. Er hatte Fließbänder gesehen, Matrizen, Stanzmaschinen – vor allem aber eine Idee: Wenn Uhrenbauteile identisch sind, muss man sie nicht mehr einzeln feilen. Schon wenige Jahre später spuckten seine Werkhallen in Schramberg Tag für Tag Tausende Wecker aus; das Ticken war der Pulsschlag einer neuen Ära.

Die Nachbarn betrachteten den rasenden Ausstoß mit Skepsis. Viele vertrauten weiter auf das handgeschnitzte Räderwerk ihrer Heimwerkstätten. Man verdiente ja noch gut daran – Holzuhren hatten in Übersee einen geradezu exotischen Reiz. Warum also riskieren, was sich bewährt hatte? So begann die unmerkliche Selbstfesselung der Schwarzwälder Uhrmacherei: ausgerechnet der eigene Erfolg wurde zur Bremse.

Wir begegnen diesem Muster heute wieder, nur dass sich die Späne nicht mehr auf Werkbänken, sondern auf Tastaturen sammeln. In Großraumbüros, Consultingetagen und Shared‑Service‑Centern entstehen Monat für Monat Abermillionen Exceltabellen, Statusfolien und Vertragsentwürfe. Ihre Hersteller – die Schreibtischhengste, Manager, Consultants – gleichen darin den Holzuhrenmeistern von einst: Sie pflegen eine aufwendige Handarbeit, die längst maschinell erledigt werden könnte.

Schon jetzt taxiert das Statistische Bundesamt den deutschen Dienstleistungssektor auf rund siebzig Prozent der gesamten Wirtschaftsleistung.¹ Eine tiefere Bohrung zeigt jedoch, dass knapp die Hälfte dieses Volumens aus Tätigkeiten besteht, die wiederkehrend, regelgebunden, quantifizierbar sind – kurz: Algorithmusfutter. Die Unternehmensberatung McKinsey errechnet, dass in Verwaltung und Beratung drei bis vier von zehn Arbeitsstunden einem hohen Automatisierungsrisiko unterliegen.²

Wäre das Dienstleistungsgewerbe ein Stoffballen, es läge bereits eingelegt unter der Schneiderschere der künstlichen Intelligenz.

1. Die verdrängte Lehre der Spinning Jenny

Gut ein Jahrhundert vor Junghans ließ James Hargreaves’ Spinning Jenny das britische Handspinnrad alt aussehen. Ihre acht Spulen machten die Heimspinner, die Baumwolle geduldig zwischen den Knien drehten, über Nacht zu Traditionshütern ohne Zukunft. Die Revolution kam nicht, weil Spinner unfähig waren, sondern weil Maschinen besser skalieren als Menschen.

Dasselbe Prinzip gilt heute für die White‑collar‑Tätigkeiten, die in Firmenprospekten gern als „hochspezialisierte Leistungen“ firmieren, in Wahrheit aber routinierte Datenumschichtungen sind: Forecasts, Zeiterfassung, Zertifikats‑ und Lizenzpflege, Skill‑Mapping oder die monatliche Sammelrechnung für ein Outsourcing‑Team.

Nicht die hohe Schule des Denkens unterscheidet den Berater vom Algorithmus, sondern die Beharrlichkeit der Wiederholung. Und in der Wiederholung liegt der Keim der Automatisierung.

2. Warum Theorie und Praxis sich diesmal einig sind

Der Streit zwischen Ökonomen entzündet sich selten am Ob des Fortschritts, sondern am Wie der Verteilung. Klassik, Neoklassik, Keynesianismus, sogar marxistische Traditionen gestehen der Maschine eine enorme Wohlfahrtswirkung zu – sie zanken allenfalls darüber, wer wieviel vom Kuchen erhält. Seit Baumols berühmter Kostenkrankheit warnen Volkswirte davor, Dienstleistungen könnten inflationsgetrieben immer teurer werden, weil ihre Produktivität stagniere.³ Die digitale Maschine, die digitale Automatisierung wäre die überfällige Therapie.

Selbst die ökologische Ökonomik widerspricht nicht, dass weniger menschliche Routinearbeit Ressourcen freisetzt – wenn Energie und Rechenleistung nachhaltig gewonnen werden.

3. Die heimliche Geistesfabrik

Betritt man den Maschinenraum einer Großberatung, sieht man keine Zahnräder, hört kein Pfeifen der Dampfventile. Die Mechanik steckt in Prozessen: Offsites zur Ressourcenplanung, Gantt‑Charts für das Skill‑Inventory, tagelange Audits zum Nachtrag einer Lizenznummer. Es ist die Fabrik ohne Rauchfang, und ihr Fließband ist das PowerPoint‑Deck.

Gegen diese Fabrik richtet sich nun eine zweite, lautlosere: Cloud‑Services, die jeden Projektstatus aus Tickets generieren; Sprachmodelle, die Verträge prüfen, Summaries schreiben, Risiken gewichten; RPA‑Bots, die Rechnungen stellen und verbuchen.

Die Vorstände wissen es. Und sie wissen auch, dass eine konsequente Einführung solcher Systeme binnen Monaten zehntausende abrechenbare Stunden aus den Bilanzen tilgen würde. Was damals der Holzradmacher im Schwarzwald fürchtete – den Verlust seines Preises –, fürchten heute die Partner der Beratungsgiganten: den Einsturz ihrer Tagessatzpyramide.

Also wird retardiert: Pilotprojekte scheitern „wegen Change‑Management“, Chatbots landen „aus Compliance‑Gründen“ in der Schublade, das Self‑Service‑Portal bleibt Beta.

4. Der absehbare Kollaps

Historisch endet diese Taktik stets gleich. Der Markt wartet nicht auf die Bedenkenträger. Junghans’ Wecker verdrängten die Kuckucksuhren, Fords Fließband das Karosseriewerk der Kutschbauer.⁴ Heute entstehen Beratungen wie Kehrwasser mit 90 Prozent Backendautomatisierung und einem Personalstamm, der mehr Produktmanager als Power‑Point‑Architekten kennt.

Sie liefern in einer Woche, wofür klassische Player drei verbuchen. Ihr Angebot: Ergebnis statt Aufwand. Auftraggeber haben kein nostalgisches Verhältnis zu Stundenzetteln; sie kaufen Problemlösung.

Mit jedem automatisierten Prozentpunkt sinkt die Eintrittshürde für neue Konkurrenten. Längst bieten Startups automatisierte Forecasting‑Engines zur Miete, schaffen digitale Skillzwillinge für faire Beurteilungen von Mitarbeitern, lassen Complianceprüfungen im Hintergrund laufen. Die Big Four hoffen, diese Tools in ihre Portfolien integrieren zu können – ohne die bestehende Belegschaft zu verprellen. Es ist, als hätte ein Schwarzwälder Meister 1880 einfach eine Spinning Jenny in die Stube gestellt und gehofft, damit den Charme der Handarbeit zu bewahren.

5. Der soziale Boomerang

Wird der Wandel dennoch vollzogen, kommt er ruckartig. Dann entlässt eine Beratung zehntausende Mitarbeiter, der Aktienkurs sackt ab, Schlagzeilen von „Sozialkahlschlag“ machen die Runde. Vertrauen, einst teuer eingekauft, verpufft in Empörung. Genau diese Furcht hält heute viele Führungsetagen davon ab, ernsthaft zu automatisieren – und verlängert so nur das Leiden.

Man vergisst: Auch im Schwarzwald war es nicht die Maschine, die den sozialen Schmerz verursachte, sondern das Zögern. Hätte man früher rationalisiert, wären Umschulungen möglich gewesen; stattdessen kollabierte eine ganze Region binnen weniger Jahre.

6. Ein anderer Ausgang ist möglich

Der tertiäre Sektor muß nicht in die Verelendung rutschen. Maschinen schaffen Wohlstand, wenn man sie in den Dienst des Menschen stellt. Was heute an White‑collar‑Routinen verschwindet, setzt Köpfe für echte Problemlösung frei: Pflege, Bildung, Energiewende. Doch das verlangt Mut: Gewinne neu zu definieren, Geschäftsmodelle radikal umzubauen, Tagessätze gegen Lizenzgebühren zu tauschen.

Die Wahl ist dieselbe wie 1872: Man kann die Fließbänder zerschlagen oder sie bauen. Wer sie baut, definiert die Zukunft der Arbeit. Wer zögert, schreibt nostalgische Fußnoten in den Geschäftsbericht – und findet seine Produkte später im Museumsshop.


Quellen & weiterführende Literatur

  1. Statistisches Bundesamt: Volkswirtschaftliche Gesamtrechnungen 2023 (BIP nach Wirtschaftsbereichen).
  2. McKinsey Global Institute: Harnessing Automation for a Future That Works, 2022.
  3. William J. Baumol: The Cost Disease, Yale University Press 2012. Wikipedia:
  4. Die Erfindung des Schlachtplans. Archiviert vom Original am 3. April 2015; abgerufen am 17. Februar 2022.

Weiterführende Literatur