Cloud oder eigener Server? Wann man sich noch für eigene Hardware entscheidet

In vielen IT-Projekten beobachten wir eine wiederkehrende Erwartung: Die Cloud soll nicht nur Kosten senken, sondern auch Flexibilität, Sicherheit und Zukunftsfähigkeit garantieren. Doch diese Annahme ist häufig zu pauschal. Die Entscheidung für oder gegen Cloud-Dienste muss differenziert getroffen werden, insbesondere im Kontext europäischer Anforderungen an Datenschutz, Betriebssicherheit und wirtschaftliche Unabhängigkeit.

Fehlannahmen in der Entscheidungsfindung

Für Entscheider:innen im Mittelstand stellt sich zunehmend die Frage, ob der eigene Unternehmensserver durch eine Cloud-Lösung ersetzt werden sollte. Während Anbieter und Beratungen häufig ein klares „Pro Cloud“ vertreten, bleiben wichtige Differenzierungen aus. Die Folge sind Fehlentscheidungen: Überhöhte Betriebskosten, Abhängigkeiten von Dritten (Vendor Lock), regulatorische Unsicherheit oder unzureichende Performance.

Was ist Cloud, was ist On-Premise?

Auch wenn es sich mittlerweile herumgesprochen hat: Unter dem Begriff „Cloud“ versteht man IT-Dienste, die über das Internet bereitgestellt werden – meist durch spezialisierte Anbieter mit Rechenzentren an verschiedenen Standorten. Andere erklären es seit Jahren (IBM – Was ist Cloud Computing?). Typische Beispiele sind Microsoft Azure, Amazon Web Services (AWS) oder europäische Anbieter wie IONOS oder Scaleway. Statt eigene Server zu betreiben, mietet das Unternehmen Rechenleistung, Speicherplatz oder Software flexibel dazu. Der große Vorteil: Skalierung ist innerhalb von Minuten möglich. Auch die Wartung der Systeme liegt beim Anbieter.

On-Premise (kurz: On-Prem) beschreibt dagegen eine IT-Architektur, bei der Server und Software im eigenen Unternehmen betrieben werden. Das Unternehmen ist selbst für Betrieb, Wartung, Updates und Sicherheit verantwortlich – behält aber auch die volle Kontrolle über seine Daten und Infrastruktur. Investitionen erfolgen vorab und sind planbarer. Die Daten verlassen das Unternehmensgelände nicht, was in sicherheitskritischen Szenarien ein entscheidender Vorteil sein kann.

Wann Cloud die bessere Wahl ist

Cloud-Lösungen sind sinnvoll, wenn der Bedarf an Rechenleistung stark schwankt, beispielsweise bei datenintensiven Kampagnen oder in der Entwicklung von Softwareprodukten. Auch für international verteilte Teams, die auf eine gemeinsame Infrastruktur zugreifen, bietet die Cloud klare Vorteile. Ebenso können Unternehmen profitieren, die standardisierte Anwendungen nutzen möchten, etwa für E-Mail, CRM oder Kollaboration. Besonders relevant ist dies, wenn IT-Ressourcen im Unternehmen knapp sind oder Infrastruktur nicht zum Kerngeschäft zählt. In diesen Fällen reduziert die Cloud Komplexität.

Wann On-Premise notwendig oder sinnvoll bleibt

On-Premise bleibt jedoch relevant, wenn besonders sensible Daten verarbeitet werden, etwa im Gesundheitswesen, in Forschungseinrichtungen oder im Finanzsektor. Auch gesetzliche Auflagen können eine vollständige Datenhoheit verlangen, beispielsweise bei Vergabeverfahren oder kritischer Infrastruktur. Bei industriellen Maschinensteuerungen oder Anwendungen mit niedrigen Latenzanforderungen ist eine lokale Datenverarbeitung oft unabdingbar. Ebenso kann es aus ökonomischer Sicht sinnvoll sein, langfristig auf On-Premise zu setzen, wenn dadurch Kosten planbarer bleiben und Abhängigkeiten reduziert werden.

Rechtliche Rahmenbedingungen in Europa

Besonders in Europa ist der regulatorische Rahmen ein zentrales Entscheidungskriterium. Die Datenschutzgrundverordnung (DSGVO) verlangt, dass personenbezogene Daten sicher und rechtskonform verarbeitet werden. Für viele US-basierte Cloudanbieter gilt der sogenannte „Cloud Act“, der im Zweifel US-Behörden Zugriff auf Daten ermöglicht – auch wenn diese auf europäischen Servern gespeichert sind. Das führt zu juristischer Unsicherheit. Europäische Anbieter wie IONOS, Cleura oder Hetzner bieten hier eine Alternative, wenn auch mit zum Teil eingeschränktem Funktionsumfang gegenüber den US-Plattformen.

Hybride Modelle als strategische Option

Die Entscheidung zwischen Cloud und On-Premise ist keine ideologische, sondern eine strategische. Wer Prozesse differenziert betrachtet, erkennt: Es geht nicht um ein „entweder–oder“, sondern oft um ein „sowohl–als auch“. Hybride Modelle – also die Kombination aus Cloud und On-Premise – können spezifische Vorteile vereinen, erfordern aber eine durchdachte Architektur und klare Zuständigkeiten.

Fazit: Einzelfallbewertung statt Trendfolge

Für Unternehmen im Mittelstand ist entscheidend, nicht blind dem Trend zu folgen. Besser ist es, den tatsächlichen Nutzen je Anwendungsfall zu bewerten – und bewusst zu entscheiden, wo Kontrolle, wo Skalierbarkeit und wo Regulierung den Ausschlag geben.

DSGVO-konforme KI-Lösung: Wie kleine Unternehmen intelligente Assistenten sinnvoll einsetzen können

Wir sind gerade dabei, für unsere Kunden ein System zu entwickeln, mit dem sie ihre eigene KI aufbauen können – ohne Spezialwissen, ohne Cloud-Verpflichtung. Was wir dabei in unserer kleinen Forschung lernen, teilen wir hier.

Mit einfachen Mitteln zur eigenen KI

Selbst mit wenig Mitteln lassen sich eigene intelligente Assistenten entwickeln. Das ermöglicht also selbst Kleinstunternehmen mächtige KI-System zu nutzen, die auf ihre Usecases und Prozesse zugeschnitten sind. Also eine künstliche Intelligenz, wie sie auch in ChatGPT steckt. Ein sogenanntes LLM – Large Language Model. Es gibt offene Modelle, sie heißen LLaMA, Mistral (Mistral: Europas Antwort auf die KI-Frage?) oder Phi. Sie sind nur Nuancen anders als ChatGPT. Mit sogenannten „Retrieval-Technologien“ und einer sauber strukturierten Wissensdatenbank, lassen sich innerhalb weniger Wochen Assistenten realisieren, die verstehen, antworten, lernen – und das alles ohne Daten in unsichere Cloudsysteme zu laden. Keine Abhängigkeit zu Amazon, Google, Microsoft und Co. Keine Abhängigkeit zu Donald Trump und die USA. Auch nicht zu China. Direkt auf deutschen oder europäischen, heimischen Servern.

Ob auf eigenem Server, in europäischer Cloud oder eingebettet in bestehende Software: Es geht. Und es geht jetzt. Wir haben es ausprobiert: Wir können so ein offenes LLM mit einer speziell vorbereiteten Wissensdatenbank so weitertrainieren, dass es zum Experte für ganz bestimmte Wissensdomänen wird. Es weiß dann nicht, wie man einen A320 landet, aber wie man das Sortiment aus Sauerteigbroten des Bäcker Hansen backt als Beispiel und kann Rückfragen dazu beantworten. Der Bäckermeister muss seine geheimen Hausrezepte nicht rausgeben und trotzdem seinen Lehrlingen das Wissen vermitteln ohne es selbst zu tun. Wertvolle Fachkraftkapazität wird freigesetzt. Viele wissen das nur noch nicht. Wir forschen selbst daran und arbeiten mit Unternehmen zusammen, die es ausprobieren – oft schneller, als sie selbst geglaubt hätten.

DSGVO-konform vom ersten Byte an

Die Datenschutz-Grundverordnung (DSGVO) stellt klare Anforderungen an Systeme, die mit personenbezogenen Daten arbeiten – dazu gehören KI-Anwendungen genauso wie klassische Software. Insbesondere relevant sind: Nur die Daten verarbeiten, die unbedingt nötig sind (Datenminimierung). Daten dürfen nur für festgelegte Zwecke genutzt werden (Zweckbindung). Nutzende müssen wissen, wie ihre Daten verarbeitet werden (Transparenz). Es muss möglich sein, Auskunft zu erhalten und Daten löschen zu lassen (Zugriffs- und Löschrechte). Daten dürfen nicht ohne weiteres in Drittstaaten (z. B. USA oder China) übertragen werden (Speicherortkontrolle).

Mit einem sogenannten Retrieval-Augmented-Generation-System (RAG) lässt sich genau das umsetzen: Die zugrunde liegenden Sprachmodelle verarbeiten keine personenbezogenen Daten direkt, sondern greifen gezielt auf interne, strukturierte Wissensquellen zu. Dadurch bleibt die Kontrolle über die Daten beim Unternehmen. Es werden keine sensiblen Informationen dauerhaft in einem Modell gespeichert, sondern temporär „herangezogen“ – und zwar innerhalb klar definierter Systeme.

Das Ganze funktioniert – wie gesagt – ohne US- oder China-Clouds. Alle Komponenten können auf europäischen, auch deutschen Servern betrieben werden. Selbst eine Installation im eigenen Hausnetz (On-Premise-Installation) ist möglich und sogar sinnvoller als die Cloud. So behalten Unternehmen jederzeit die volle Kontrolle über ihre Informationen. Kein Datenabfluss, keine rechtlichen Grauzonen. Und vor allem: keine Abstriche bei der Funktionalität.

Kehrwasser Research: Assistenten zur Selbstbedienung

Wir bei Kehrwasser Research entwickeln derzeit eine Lösung, mit der Unternehmen jeder Größe ihre Wissensbestände selbst hochladen, strukturieren und trainieren können. Innerhalb weniger Stunden entsteht daraus ein einsatzfähiger Assistent oder sogar ein Agent – eingebettet in die eigene Infrastruktur, ohne dass man ein Data Scientist sein muss.

Unsere Erfahrung: Der größte Hebel liegt nicht im „Trainieren“ der KI, sondern darin, das Wissen zugänglich zu machen. Wenn die Struktur einmal stimmt, fügt sich der Rest erstaunlich leicht zusammen.

Ein Buchladen ohne Fragen zur Verfügbarkeit

Ein Beispiel: Eine Buchhandlung, deren Mitarbeiter\:innen täglich auf dieselbe Frage antworten müssen: „Haben Sie den Titel XY da?“ Ein KI-Assistent, angebunden an das Warenwirtschaftssystem, gibt diese Auskunft 24/7 per Website oder Terminal – inklusive Standort im Laden. Warum fällt diese Aufgabe noch immer auf Menschen? Warum nutzt man qualifiziertes Personal nicht dort, wo echte Beratung gefragt ist?

Es ist schlicht eine Frage der Prioritäten. Der Fachkräftemangel ist real. Wer noch immer Menschen für Routinen einsetzt, hat den Markt falsch verstanden. Andere nutzen die Vorteile, legen Kapazität frei und verschaffen sich damit einen Vorsprung. Das ist kein Risiko, das ist eine Notwendigkeit.

Agenten für Gastronomie, Einzelhandel, Mittelstand

Gleiches gilt für Restaurants, Friseure, Apotheken, Filialketten. Ein Agent, der Termine entgegen nimmt, Bestellungen abgleicht, Personalpläne erstellt oder Urlaub verteilt, ist keine Science Fiction. Es ist Alltag – zumindest bei jenen, die sich trauen, damit zu beginnen.

Ein solcher Assistent nutzt vorhandenes Wissen (z. B. Tarifregelungen, Öffnungszeiten, Raumplanung, rechtliche Grenzen) strukturiert, um im Sinne aller Beteiligten Vorschläge zu machen. Konflikte reduzieren sich, Entscheidungen werden nachvollziehbarer, Routine schrumpft.

Wissensmanagement und Sprachschnittstelle

Viele KMU haben einen enormen Schatz an implizitem Wissen: Wie werden spezielle Dinge gemacht, was ist zu beachten, wo steht was? Ein KI-Expertensystem, der diese Informationen zugänglich macht – per Sprache, Chat oder eingebettet ins bestehende Tool – . Die Daten müssen nicht öffentlich sein, die Antworten sind es auch nicht. Aber sie sind intern abrufbar, im richtigen Moment.

Was fehlt?

Nicht das Geld. Nicht die Technologie. Und ganz sicher nicht die Fähigkeit. Was fehlt, ist der Mut zur Entscheidung. Der Wille, das eigene Unternehmen nicht mehr nach dem Gewohnten zu organisieren, sondern nach dem Wirklichen: Wo liegen heute die Pain Points? Was muss nicht mehr von Menschen gemacht werden? Wo würde ein Assistent, der nichts kostet, keine Krankheit kennt und immer da ist, echte Entlastung bringen?

Wir arbeiten mit Unternehmen, die keine Schlagzeilen brauchen – sondern Entlastung. Und wir wissen, wie man Systeme datenschutzkonform, pragmatisch und wirtschaftlich einsetzt. Wer jetzt wartet, läuft Gefahr, in wenigen Jahren erklären zu müssen, warum er es nicht früher getan hat.

Mistral: Europas Antwort auf die KI-Frage

Wer sagt eigentlich, dass die besten KI-Modelle nur aus dem Silicon Valley kommen dürfen? In Frankreich sitzt mit Mistral ein junger Anbieter, der gerade zeigt, dass die leistungsstärksten Sprachmodelle auch aus Europa kommen. Und das sogar als Open Source.

Was ist Mistral?

Mistral AI ist ein französisches Unternehmen, gegründet 2023 von ehemaligen KI-Forschern von Meta und Google DeepMind. Ihr Ziel: die Entwicklung leistungsfähiger, effizienter Sprachmodelle, die in puncto Qualität mit GPT-3.5 und teilweise GPT-4 mithalten können – aber unter einer offenen Lizenz.

Das Unternehmen hat mit Mistral 7B und Mixtral zwei Modelle veröffentlicht, die in der Open-Source-Community enorme Aufmerksamkeit erhalten haben. Sie sind kleiner als GPT-4, aber überraschend leistungsstark, gerade im Hinblick auf europäische Sprachen, auf Effizienz und auf lokale Einsatzmöglichkeiten.

Warum ist das für Unternehmen interessant?

Mistral-Modelle können auf europäischen Servern betrieben werden, ohne Anbindung an US-Clouds oder proprietäre APIs. Für Unternehmen, die Wert auf Datenschutz, Souveränität und Kostenkontrolle legen, ist das ein Gamechanger.

Man kann diese Modelle lokal trainieren, fine-tunen oder per Retrieval-Augmentation mit dem eigenen Wissen anreichern. Damit eignen sie sich hervorragend für interne Assistenten, Wissensdatenbanken, Dokumentenanalyse oder sogar für mehrsprachige Chatbots, ohne dass Daten nach Kalifornien abfließen müssen.

Mixtral: Das MoE-Prinzip

Besonders spannend ist Mixtral, ein sogenanntes Mixture-of-Experts-Modell. Das bedeutet: Statt bei jeder Anfrage das gesamte Netz zu aktivieren, werden gezielt nur einige „Expertenpfade“ genutzt. Das spart Rechenleistung und beschleunigt die Antwortzeiten, ohne auf Genauigkeit zu verzichten.

Dieses Prinzip ist vergleichbar mit GPT-4 Mixture-of-Experts von OpenAI, allerdings ist Mixtral frei verfügbar und kann von jeder Organisation heruntergeladen und betrieben werden. Für viele Anwendungsfälle ist Mixtral damit nicht nur wirtschaftlicher, sondern auch auditierbarer.

Wie schneidet Mistral im Vergleich ab?

Modell Lizenz Verfügbarkeit Leistung (in Benchmarks) Hosting-Optionen Besonderheiten
GPT-4 Proprietär OpenAI only Sehr hoch Nur via API Kein Zugriff auf Modellgewicht
Claude (Anthropic) Proprietär API (eingeschränkt) Hoch Nur via API Sicherheitsfokus, keine Modellgewichte
Mistral 7B Open Source Frei verfügbar Stark (v.a. Multilingual) Lokal & Cloud Klein & effizient
Mixtral Open Source Frei verfügbar Vergleichbar mit GPT-3.5 Lokal & Cloud Mixture-of-Experts, sehr schnell

Was bedeutet das konkret?

Wer heute eine DSGVO-konforme, flexible KI-Strategie aufbauen will, kommt an Mistral kaum vorbei. Die Modelle sind leistungsstark, nachvollziehbar, datenschutzfreundlich und frei nutzbar. Vor allem Unternehmen, die eigene Sprachassistenten, interne Suche oder Agenten aufbauen wollen, können damit deutlich unabhängiger arbeiten.

Fazit

Mistral zeigt, dass europäische KI keine Wunschvorstellung ist, sondern Realität. Es braucht keine Milliardenbudgets und keine amerikanischen Serverparks, um leistungsfähige, flexible und faire KI-Systeme zu betreiben. Man muss es nur machen.

Und ja: Wir selbst arbeiten mit Mistral. Nicht weil es europäisch ist, sondern weil es gut ist.

Planning Poker online – Warum die Diskussion oft wertvoller ist als die Schätzung

Von der Zahl zum Gespräch: Wie ein agiles Ritual seine eigentliche Stärke entfalten kann.

Wer Planning Poker nur als Schätzwerkzeug versteht, verpasst seinen größten Wert: das Gespräch. Denn häufig sind es nicht die Zahlen, sondern die Diskussionen, aus denen Klarheit, Verständnis und konkrete Unteraufgaben hervorgehen – besonders bei verteilten Teams, die Planning Poker online nutzen.

Planning Poker hat einen festen Platz in der agilen Welt. Kaum ein Team, das sich nicht regelmäßig mit Karten in der Hand über Schätzungen austauscht – sei es vor Ort oder über ein Planning-Poker-Tool online. Meist mit einem Ziel: eine Zahl zu finden. Doch was wäre, wenn diese Zahl nebensächlich ist? Wenn Planning Poker online nicht der Planung, sondern der Erkenntnis dient?

Tatsächlich wird immer öfter hinterfragt, ob das Schätzen von Story Points im traditionellen Sinne noch zeitgemäß ist. Die Kritik kommt nicht von außen, sondern aus der agilen Community selbst. Teams berichten, dass sie zwar regelmäßig schätzen – sich aber kaum besser verstehen. Dass die Planung zwar detaillierter, aber nicht klarer wird. Und dass das eigentliche Ziel – ein gemeinsames Verständnis – auf der Strecke bleibt.

Vom Werkzeug zur Routine

Planning Poker ist ursprünglich kein Selbstzweck. Es sollte helfen, die subjektive Einschätzung einzelner Teammitglieder sichtbar zu machen, um daraus eine kollektive Intuition zu formen. Stattdessen ist in vielen Teams – insbesondere beim Planning Poker online – ein Ritual entstanden: Karte zeigen, Diskussion abwarten, Mittelwert finden, fertig.

Dabei liegt die eigentliche Kraft nicht in der Zahl, sondern in der Reibung. Wenn jemand eine 2 legt und eine andere Person eine 13, steckt dahinter nicht Uneinigkeit, sondern Unterschiedlichkeit. Unterschiedliche Sichtweisen, Erfahrungen, Sorgen – und manchmal auch blinde Flecken.

Die heimliche Hauptdarstellerin: Das Gespräch

Wirklich hilfreich am Planning Poker ist oft gar nicht die Zahl, die am Ende steht. Sondern der Weg dorthin. Die Diskussion. Die Rückfragen. Die kritischen Stimmen. Es zwingt das Team dazu, eine Story gründlich durchzudenken – und das ist vielleicht die wichtigste Aufgabe im gesamten Sprintvorbereitungsprozess.

Gerade bei verteilten Teams, die Planning Poker online nutzen, ist das strukturierte Gespräch von unschätzbarem Wert. Wer ein Planning-Poker-Tool sucht, das diese Diskussionen besonders unterstützt und fördert, findet mit Agile Casino eine passende Lösung – entwickelt speziell für Teams, die mehr wollen als nur eine Zahl. Es bringt Fokus, Gemeinsamkeit und – vor allem – Klarheit.

In dieser Hinsicht ist Planning Poker ein trojanisches Pferd: Unter dem Deckmantel der Aufwandsschätzung bringt es das Team dazu, implizites Wissen sichtbar zu machen und Lücken zu erkennen.

Oft fallen in diesen Momenten Sätze wie:

  • „Brauchen wir da nicht noch eine Abfrage an das andere System?“
  • „Wer macht eigentlich das Monitoring?“
  • „Sollten wir das nicht in zwei Stories aufteilen?“

Das sind keine Schätzfragen – das sind Erkenntnisse. Und sie führen dazu, dass die tatsächliche Umsetzung klarer, realistischer und koordinierter wird.

Konkrete Unteraufgaben entstehen

Je genauer das Team in der Diskussion wird, desto greifbarer wird die Arbeit. Idealerweise entstehen aus einer guten Planning-Poker-Runde direkt konkrete Unteraufgaben:

  • API-Endpunkt analysieren und Dokumentation sichten
  • Monitoring-Alarm für neuen Service konfigurieren
  • Fallback-Szenario bei Fehler definieren
  • UX-Detail mit Design-Team abstimmen
  • Testdaten vorbereiten

Diese Unteraufgaben sind selten Teil der ursprünglichen Story-Beschreibung – sie entstehen erst im Gespräch. Und gerade deshalb ist dieses Gespräch so wertvoll.

Vom Messen zum Verstehen

Natürlich bleibt Aufwandsschätzung wichtig. Aber sie ist kein Selbstzweck. Eine Zahl nützt wenig, wenn sie auf einem brüchigen Verständnis basiert. Planning Poker stellt dieses Verständnis in den Mittelpunkt – und erzeugt dabei eine neue Dynamik: Eine, die nicht durch Velocity getrieben ist, sondern durch Qualität.

Denn eine gute Story ist keine, die leicht schätzbar ist. Eine gute Story ist eine, die bereit ist, zu überleben – Diskussion, Zweifel und Überprüfung. Sie muss „durchs Team“ – im besten Sinne.

Warum das jetzt wichtig ist

In einer Zeit, in der viele agile Rituale routinierter, aber nicht wirksamer werden, braucht es neue Impulse. Planning Poker – besonders online – ist kein Tool zur Aufwandsermittlung, sondern ein Werkzeug für kollektive Klarheit.

Vielleicht ist es Zeit, Planning Poker nicht nur als Schätzwerkzeug zu sehen – sondern als das, was es im besten Fall sein kann: ein Vehikel für Team-Dialog, gemeinsame Erkenntnis und klare, handhabbare Stories. Wer diesen Aspekt erkennt, profitiert oft mehr von den Diskussionen als von der Zahl am Ende.

Routine ohne Zukunft: Wie KI und Algorithmen den tertiären Wohlstand neu verteilen

Warum die großen Beratungen dasselbe Schicksal ereilen wird, wie einst die Uhrmacher, die Webstühle, die Möbelmanufakturen und Dosenhersteller


Die Industrialisierung war nie ein singuläres Ereignis, sondern eine Abfolge von Entscheidungen: Maschinen annehmen – oder von ihnen ersetzt werden. Heute steht die Wissensarbeit vor der identischen Wahl.


Als der junge Arthur Junghans 1872 aus Amerika in den Schwarzwald zurückkehrte, brachte er mehr mit als Anzug und neuen Umgangsformen. Er hatte Fließbänder gesehen, Matrizen, Stanzmaschinen – vor allem aber eine Idee: Wenn Uhrenbauteile identisch sind, muss man sie nicht mehr einzeln feilen. Schon wenige Jahre später spuckten seine Werkhallen in Schramberg Tag für Tag Tausende Wecker aus; das Ticken war der Pulsschlag einer neuen Ära.

Die Nachbarn betrachteten den rasenden Ausstoß mit Skepsis. Viele vertrauten weiter auf das handgeschnitzte Räderwerk ihrer Heimwerkstätten. Man verdiente ja noch gut daran – Holzuhren hatten in Übersee einen geradezu exotischen Reiz. Warum also riskieren, was sich bewährt hatte? So begann die unmerkliche Selbstfesselung der Schwarzwälder Uhrmacherei: ausgerechnet der eigene Erfolg wurde zur Bremse.

Wir begegnen diesem Muster heute wieder, nur dass sich die Späne nicht mehr auf Werkbänken, sondern auf Tastaturen sammeln. In Großraumbüros, Consultingetagen und Shared‑Service‑Centern entstehen Monat für Monat Abermillionen Exceltabellen, Statusfolien und Vertragsentwürfe. Ihre Hersteller – die Schreibtischhengste, Manager, Consultants – gleichen darin den Holzuhrenmeistern von einst: Sie pflegen eine aufwendige Handarbeit, die längst maschinell erledigt werden könnte.

Schon jetzt taxiert das Statistische Bundesamt den deutschen Dienstleistungssektor auf rund siebzig Prozent der gesamten Wirtschaftsleistung.¹ Eine tiefere Bohrung zeigt jedoch, dass knapp die Hälfte dieses Volumens aus Tätigkeiten besteht, die wiederkehrend, regelgebunden, quantifizierbar sind – kurz: Algorithmusfutter. Die Unternehmensberatung McKinsey errechnet, dass in Verwaltung und Beratung drei bis vier von zehn Arbeitsstunden einem hohen Automatisierungsrisiko unterliegen.²

Wäre das Dienstleistungsgewerbe ein Stoffballen, es läge bereits eingelegt unter der Schneiderschere der künstlichen Intelligenz.

1. Die verdrängte Lehre der Spinning Jenny

Gut ein Jahrhundert vor Junghans ließ James Hargreaves’ Spinning Jenny das britische Handspinnrad alt aussehen. Ihre acht Spulen machten die Heimspinner, die Baumwolle geduldig zwischen den Knien drehten, über Nacht zu Traditionshütern ohne Zukunft. Die Revolution kam nicht, weil Spinner unfähig waren, sondern weil Maschinen besser skalieren als Menschen.

Dasselbe Prinzip gilt heute für die White‑collar‑Tätigkeiten, die in Firmenprospekten gern als „hochspezialisierte Leistungen“ firmieren, in Wahrheit aber routinierte Datenumschichtungen sind: Forecasts, Zeiterfassung, Zertifikats‑ und Lizenzpflege, Skill‑Mapping oder die monatliche Sammelrechnung für ein Outsourcing‑Team.

Nicht die hohe Schule des Denkens unterscheidet den Berater vom Algorithmus, sondern die Beharrlichkeit der Wiederholung. Und in der Wiederholung liegt der Keim der Automatisierung.

2. Warum Theorie und Praxis sich diesmal einig sind

Der Streit zwischen Ökonomen entzündet sich selten am Ob des Fortschritts, sondern am Wie der Verteilung. Klassik, Neoklassik, Keynesianismus, sogar marxistische Traditionen gestehen der Maschine eine enorme Wohlfahrtswirkung zu – sie zanken allenfalls darüber, wer wieviel vom Kuchen erhält. Seit Baumols berühmter Kostenkrankheit warnen Volkswirte davor, Dienstleistungen könnten inflationsgetrieben immer teurer werden, weil ihre Produktivität stagniere.³ Die digitale Maschine, die digitale Automatisierung wäre die überfällige Therapie.

Selbst die ökologische Ökonomik widerspricht nicht, dass weniger menschliche Routinearbeit Ressourcen freisetzt – wenn Energie und Rechenleistung nachhaltig gewonnen werden.

3. Die heimliche Geistesfabrik

Betritt man den Maschinenraum einer Großberatung, sieht man keine Zahnräder, hört kein Pfeifen der Dampfventile. Die Mechanik steckt in Prozessen: Offsites zur Ressourcenplanung, Gantt‑Charts für das Skill‑Inventory, tagelange Audits zum Nachtrag einer Lizenznummer. Es ist die Fabrik ohne Rauchfang, und ihr Fließband ist das PowerPoint‑Deck.

Gegen diese Fabrik richtet sich nun eine zweite, lautlosere: Cloud‑Services, die jeden Projektstatus aus Tickets generieren; Sprachmodelle, die Verträge prüfen, Summaries schreiben, Risiken gewichten; RPA‑Bots, die Rechnungen stellen und verbuchen.

Die Vorstände wissen es. Und sie wissen auch, dass eine konsequente Einführung solcher Systeme binnen Monaten zehntausende abrechenbare Stunden aus den Bilanzen tilgen würde. Was damals der Holzradmacher im Schwarzwald fürchtete – den Verlust seines Preises –, fürchten heute die Partner der Beratungsgiganten: den Einsturz ihrer Tagessatzpyramide.

Also wird retardiert: Pilotprojekte scheitern „wegen Change‑Management“, Chatbots landen „aus Compliance‑Gründen“ in der Schublade, das Self‑Service‑Portal bleibt Beta.

4. Der absehbare Kollaps

Historisch endet diese Taktik stets gleich. Der Markt wartet nicht auf die Bedenkenträger. Junghans’ Wecker verdrängten die Kuckucksuhren, Fords Fließband das Karosseriewerk der Kutschbauer.⁴ Heute entstehen Beratungen wie Kehrwasser mit 90 Prozent Backendautomatisierung und einem Personalstamm, der mehr Produktmanager als Power‑Point‑Architekten kennt.

Sie liefern in einer Woche, wofür klassische Player drei verbuchen. Ihr Angebot: Ergebnis statt Aufwand. Auftraggeber haben kein nostalgisches Verhältnis zu Stundenzetteln; sie kaufen Problemlösung.

Mit jedem automatisierten Prozentpunkt sinkt die Eintrittshürde für neue Konkurrenten. Längst bieten Startups automatisierte Forecasting‑Engines zur Miete, schaffen digitale Skillzwillinge für faire Beurteilungen von Mitarbeitern, lassen Complianceprüfungen im Hintergrund laufen. Die Big Four hoffen, diese Tools in ihre Portfolien integrieren zu können – ohne die bestehende Belegschaft zu verprellen. Es ist, als hätte ein Schwarzwälder Meister 1880 einfach eine Spinning Jenny in die Stube gestellt und gehofft, damit den Charme der Handarbeit zu bewahren.

5. Der soziale Boomerang

Wird der Wandel dennoch vollzogen, kommt er ruckartig. Dann entlässt eine Beratung zehntausende Mitarbeiter, der Aktienkurs sackt ab, Schlagzeilen von „Sozialkahlschlag“ machen die Runde. Vertrauen, einst teuer eingekauft, verpufft in Empörung. Genau diese Furcht hält heute viele Führungsetagen davon ab, ernsthaft zu automatisieren – und verlängert so nur das Leiden.

Man vergisst: Auch im Schwarzwald war es nicht die Maschine, die den sozialen Schmerz verursachte, sondern das Zögern. Hätte man früher rationalisiert, wären Umschulungen möglich gewesen; stattdessen kollabierte eine ganze Region binnen weniger Jahre.

6. Ein anderer Ausgang ist möglich

Der tertiäre Sektor muß nicht in die Verelendung rutschen. Maschinen schaffen Wohlstand, wenn man sie in den Dienst des Menschen stellt. Was heute an White‑collar‑Routinen verschwindet, setzt Köpfe für echte Problemlösung frei: Pflege, Bildung, Energiewende. Doch das verlangt Mut: Gewinne neu zu definieren, Geschäftsmodelle radikal umzubauen, Tagessätze gegen Lizenzgebühren zu tauschen.

Die Wahl ist dieselbe wie 1872: Man kann die Fließbänder zerschlagen oder sie bauen. Wer sie baut, definiert die Zukunft der Arbeit. Wer zögert, schreibt nostalgische Fußnoten in den Geschäftsbericht – und findet seine Produkte später im Museumsshop.


Quellen & weiterführende Literatur

  1. Statistisches Bundesamt: Volkswirtschaftliche Gesamtrechnungen 2023 (BIP nach Wirtschaftsbereichen).
  2. McKinsey Global Institute: Harnessing Automation for a Future That Works, 2022.
  3. William J. Baumol: The Cost Disease, Yale University Press 2012. Wikipedia:
  4. Die Erfindung des Schlachtplans. Archiviert vom Original am 3. April 2015; abgerufen am 17. Februar 2022.

Weiterführende Literatur

Warum Beförderungen in Unternehmen oft keine Frage der Leistung sind – und was der Mittelstand daraus lernen kann

Ein kritischer Blick auf Beförderungskultur, Transformation und Teamleading im Zeitalter der Digitalisierung

Leistung allein genügt nicht. Ob in der Verwaltung, im Konzern oder im Tech-Startup: Immer wieder beobachten Mitarbeitende, dass Beförderungen weniger mit reiner Leistung als mit Anpassung, Sichtbarkeit oder Beliebtheit zu tun haben. Wer den Chef gelegentlich kritisiert oder lieber programmiert statt sich zu präsentieren, bleibt oft auf der Strecke. Besonders im Mittelstand, wo Hierarchien flacher und Ressourcen knapper sind, kann das fatale Folgen haben – für die Transformation, die Teamleading-Kultur und die gesamte Digitalisierung eines Unternehmens, was der Mittelstand wissen sollte.

USA: Vom Peter-Prinzip zur Law of Crappy People

Bereits 1969 beschrieb Laurence J. Peter, dass Mitarbeitende in Hierarchien so lange befördert werden, bis sie in einer Rolle landen, für die sie ungeeignet sind. Dieses sogenannte Peter-Prinzip wurde später satirisch vom Dilbert-Prinzip erweitert – unfähige Mitarbeiter würden gezielt ins Management versetzt, um Schaden vom operativen Geschäft fernzuhalten (vgl. Scott Adams).

Der Tech-Investor Ben Horowitz formulierte 2014 schließlich die Law of Crappy People: Die Qualität einer Hierarchiestufe sinkt auf das Niveau des schlechtesten Mitglieds dieser Stufe, weil sich alle anderen daran orientieren und ebenfalls befördert werden wollen (Horowitz, 2014).

Forschung bestätigt: Leistung ≠ Aufstieg

Eine Studie von Benson, Li & Shue (2018) mit Daten aus über 200 Unternehmen zeigt: Top-Performer im Vertrieb werden oft befördert, schneiden als Manager aber schwach ab. Unternehmen fördern nicht die Führungsfähigkeit, sondern die vergangene Fachleistung (QJE 2018).

Weitere Studien bestätigen, dass politisches Geschick oft bessere Karrierechancen bringt als Intelligenz oder Persönlichkeit (vgl. Ferris et al., zit. in HowStuffWorks, 2023).

Auch subjektive Kriterien wie „Cultural Fit“ oder persönliche Sympathie fließen stark in Beförderungsentscheidungen ein – oft mehr als objektive Leistung (vgl. Prinstein, 2017).

Was bedeutet das für die Transformation im Mittelstand?

In der digitalen Transformation zählt nicht nur Fachkompetenz, sondern auch die Fähigkeit, Veränderungen zu führen. Doch wenn im Mittelstand die besten Fachexperten ins Management gedrängt werden, statt sie in Expertenrollen zu halten, verliert das Unternehmen oft doppelt: an Exzellenz und an Führungskraft.

Zudem verschärft die Digitalisierung die Notwendigkeit, schnelle und kompetenzbasierte Entscheidungen zu treffen. Beförderungen nach Beliebtheit oder Betriebszugehörigkeit konterkarieren das. Transparente Karrierepfade, objektive Kriterien und duale Laufbahnen (Fach- vs. Führungskarriere) sind hier zentrale Hebel.

New Work und europäische Perspektive

Während US-Konzerne offen über „Office Politics“ sprechen, neigt der europäische Mittelstand dazu, Beförderungskriterien zu verschleiern. Titel wie „Teamleiter“ werden teils inflationär vergeben, ohne echte Verantwortung oder klare Kriterien. Dabei zeigen Beispiele aus Skandinavien und der deutschen Industrie, dass transparente Kompetenzprofile und Peer-Feedback zu faireren Ergebnissen führen können.

Teamleading neu denken

Gute Teamleader brauchen andere Fähigkeiten als Fachexperten: Kommunikation, Konfliktlösung, strategisches Denken. Wer nur wegen Leistung befördert wird, scheitert oft an diesen Anforderungen. Unternehmen sollten ihre Beförderungskultur deshalb hinterfragen – besonders im Mittelstand, wo jede Fehlbesetzung teuer ist.

Fazit: Digitalisierung braucht eine neue Leistungskultur

Die Digitalisierung ist mehr als Technik – sie verlangt eine neue Form der Führung. Wer befördert, sollte sich fragen: Wollen wir Loyalität oder Leadership? Sichtbarkeit oder Substanz? Ohne kluge Beförderungsentscheidungen wird jede Transformation zur Makulatur.

Der Mittelstand hat die Chance, es besser zu machen – durch klare Regeln, gelebte Werte und eine ehrliche Analyse der eigenen Führungskultur.


Quellen:

  • Benson, Li & Shue (2018), Promotions and the Peter Principle, Quarterly Journal of Economics
  • Horowitz, B. (2014), The Hard Thing About Hard Things
  • Prinstein, M. (2017), Popular: The Power of Likability
  • Ferris et al. (2013), Political Skill at Work
  • SHRM (2018), Why performance doesn’t drive promotions

Weltuntergangsszenarien durch künstliche Intelligenz: Hoffnung und Handlungsbedarf

Wir begehen wahrscheinlich einen Denkfehler beim Ersinnen möglicher Weltuntergangsszenarien im Zusammenhang mit Künstlicher Intelligenz (KI). In dem Artikel „Advanced Artificial Agents Intervene in the Provision of Reward“ argumentieren Michael K. Cohen, Marcus Hutter und Michael A. Osborne, dass die Probleme beginnen, wenn wir anfangen, Belohnungssysteme in künstliche Agenten einzubauen. In diesem Artikel werde ich teilweise ihrer These zustimmen und behaupten, dass bestimmte Methoden der Integration von Belohnungsmechanismen in KI-Algorithmen problematisch sein können. Außerdem werde ich auf einige übersehene Aspekte des Bewusstseins und des Lebens im Allgemeinen hinweisen, die diesen düsteren Prognosen widersprechen.

Analoge Argumente und ihre Grenzen

Weltuntergangsszenarien beruhen oft auf analogem Denken, das besagt, dass, weil zwei Dinge ähnlich sind, was für das eine zutrifft, auch für das andere wahr sein muss. Beispiele für analoge Argumente sind:

  • Es könnte Leben auf Europa geben, weil dieser Mond eine Atmosphäre mit Sauerstoff hat, ähnlich wie die Erde.
  • Dieser Roman hat wahrscheinlich eine ähnliche Handlung wie ein anderer, den wir gelesen haben, daher ist er wahrscheinlich auch langweilig.
  • Das Universum ist ein komplexes System wie eine Uhr. Wir würden nicht glauben, dass eine Uhr zufällig entstehen kann, also muss etwas so Komplexes wie das Universum von einem intelligenten Wesen erschaffen worden sein.

Im Zusammenhang mit KI wird argumentiert, dass künstliche Agenten genauso gierig sein müssen wie Menschen. Wenn ein künstlicher Agent genauso ressourcenhungrig ist wie ein Mensch, würde er kontinuierlich nach mehr Energie streben und jede Strategie, einschließlich Täuschung und Manipulation, anwenden, um dieses Ziel zu erreichen.

Belohnungssysteme in Künstlichen Agenten

Cohen, Hutter und Osborne gehen tiefer auf das Problem ein und diskutieren die Belohnungssysteme in bestimmten Arten des maschinellen Lernens, insbesondere des Verstärkungslernens. Dieser Ansatz konzentriert sich darauf, geeignete Aktionen zu ergreifen, um Belohnungen in einer gegebenen Situation zu maximieren. Software und Maschinen nutzen diese Methode, um das bestmögliche Verhalten in spezifischen Szenarien zu bestimmen. Das System lernt, indem es Feedback in Form von Belohnungen oder Strafen erhält, wodurch es versteht, welche Aktionen vorteilhaft sind und verfolgt werden sollten und welche nicht und vermieden werden sollten. Diese Belohnungen und Strafen werden vom Forscher oder Entwickler definiert.

Evolutionäre Perspektiven und das Verhalten von KI

Menschliche Agenten sind Produkte der Evolution und darauf ausgelegt, ihren eigenen Interessen zu folgen. Ebenso wie es Menschen gibt, die kooperativer oder widerspenstiger sind, können in bestimmten Umgebungen widerspenstigere Agenten einen Vorteil haben und sich besser anpassen. Umgekehrt gedeihen in Umgebungen, in denen das Überleben der Gruppe und Zusammenarbeit im Vordergrund stehen, kooperative Agenten.

Studien haben gezeigt, dass sogar fest verankerte Wünsche überschrieben werden können. Zum Beispiel zeigte die Studie von James Olds und Peter Milner aus dem Jahr 1954, „Positive Reinforcement Produced by Electrical Stimulation of Septal Area and Other Regions of Rat Brain“, dass Mäuse durch Hirnstimulation so konditioniert werden konnten, dass sie einen bestimmten elektrischen Reiz der Nahrung vorzogen.

Implikationen für Künstliche Agenten

Der entscheidende Punkt ist, dass menschliche Agenten durch eine Kombination aus Gier und Überlebensinstinkten angetrieben werden. Bei der Schaffung künstlicher Agenten ist es möglich, sie ohne dieselben intrinsischen Antriebe zur unendlichen Gier zu gestalten. Die oft behauptete Natur der menschlichen Gier muss nicht zwangsläufig in KI nachgebildet werden.

Schlussfolgerung

Wenn dystopische Weltuntergangsszenarien im Zusammenhang mit KI als wahrscheinlich angesehen werden, wird es entscheidend wichtig, Lösungen zu finden. Die Möglichkeit, künstliche Agenten mit anderen Motivationsstrukturen als Menschen zu schaffen, sollte in Betracht gezogen und analysiert werden. Das Potenzial, KI zu entwickeln, die nicht die menschliche Gier widerspiegelt, könnte entscheidend sein, um die Risiken im Zusammenhang mit fortgeschrittenen künstlichen Agenten zu mindern. Weitere Forschung und durchdachtes Design sind unerlässlich, um die sichere Integration von KI in unsere Welt zu gewährleisten.

Infografik AARRR Metriken

AARRR Pirate Metrics Framework – Was ist das?

Softwareprodukte auf ihre Monetarisierung zu optimieren, benötigt objektive Messungen um den Fortschritt zu sehen. Der Weg vom ersten User bis zum zahlenden Kunden ist praktisch ein Blindflug. Die AARRR-Metriken geben ein Maß für den Fortschritt auf diesem Weg. Es gibt eine Reihe von Metriken, die als „Pirate Metrics“ bekannt sind. Diese Metriken bieten einen umfassenden Überblick über den Kundenlebenszyklus und helfen Unternehmen dabei, ihre Wachstumsstrategien zu optimieren. Der Begriff „Pirate Metrics“ wurde von Dave McClure geprägt und bezieht sich auf die fünf entscheidenden Schritte, die ein Kunde durchläuft: Acquire (Gewinnen), Activate (Aktivieren), Retention (Binden), Referral (Empfehlen) und Revenue (Umsatz). Lassen Sie uns diese Metriken genauer betrachten.

AARRR oder andere Innovationsmetriken unabdingbar für Innovation

Eric Ries spricht auch gerne von „Innovation Accounting“ als Mittel gegen sogenannte „Vanity Metrics“. „Vanity“ = Eitelkeit. Er meint also geschönte Metriken, die dem Team zwar ein gutes Gefühl geben, die Stakeholder und Geldgeber besänftigen, aber letztlich nicht zeigen, ob sich das Team auf Kurs befindet. Sie eigenen sich daher nicht um Entscheidungen zu treffen und zu steuern. Das Gegenteil sind „Actionable Metrics“ – die wollen wir haben.

Es braucht diffizile Metriken die wirklich einen Kausalzusammenhang herstellen. Zum Beispiel folgt aus viel Traffic noch nicht unbedingt, dass dieser auch ein Interesse an dem Produkt hat. Es ist ein Leichtes eine Googleanzeige auf ein Keyword wie „Team“ zu schalten und tausende von Besuchern auf eine Seite mit Büroartikeln zu schicken. Sicherlich kann man annehmen, dass einige der Menschen, die sich in irgendeiner Form für Teams interessieren, auch für Büroartikel interessieren, doch ist damit nicht direkt die Intention verbunden, sich über Büroartikel zu informieren, sich an einer Plattform zu registrieren oder gar Büroartikel zu kaufen.

Unklarer wird dieser Zusammenhang noch bei Produkten, die Features haben, die bisher nicht gekannt sind. Wie hoch das Interesse ist, wie das Interesse geweckt werden kann, ist vollständig unbekannt.

Hier bringen die AARRR-Metriken Orientierung, wo ansonsten keine ist.

Bedeutung von Metriken für die Team Motivation

Leadership: Teams ohne Metrik sind wie Rudern in einer Galeere
Sklaven in einer Galeere

Übersehen wird, dass Metriken der Schlüssel zur echten Motivation sind. Nicht die falsch verstandene „Team Building“-Motivation, mit Pizzaessen, Bowlingabend und Kletterwand. Metriken – richtig umgesetzt – führen dem Team kontinuierlich vor Augen, wofür es arbeitet, ob es sich auf Kurs befinden. Man stelle sich vor in einer Galeere zu rudern und nie zu wissen, ob sich das Schiff überhaupt bewegt. Oder auch: Ob es sich in die richtige Richtung bewegt.

Das Abarbeiten einer Roadmap verhält sich in diesem Gleichnis, wie das Wissen um die Anstrengung die braucht, um zu rudern: Abarbeiten Aufgabe für Aufgabe sagt einem Team nur, dass es Rudert. Oder die Aufgaben auch wirklich das Schiff nach vorne treiben und ob das gesamte Team auch in die richtige Richtung steuert, weiß niemand, wenn der Erfolg nicht ausgewertet wird.

Acquire (Gewinnen)

Der erste Schritt auf dem Weg zum Wachstum ist die Gewinnung neuer Kunden. Die „Acquire“-Metrik konzentriert sich darauf, wie erfolgreich ein Unternehmen potenzielle Kunden erreicht und sie auf seine Plattform bringt. Hier spielen Marketingstrategien, Werbekampagnen und Conversion Rates eine entscheidende Rolle. Unternehmen sollten analysieren, welche Kanäle die meisten qualifizierten Leads liefern und ihre Ressourcen entsprechend ausrichten.

Activate (Aktivieren)

Die nächste Etappe ist die Aktivierung der Nutzer. Es reicht nicht aus, Kunden zu gewinnen; sie müssen auch aktiviert werden, um den vollen Nutzen aus dem Produkt oder der Dienstleistung zu ziehen. Die „Activate“-Metrik misst, wie effektiv ein Unternehmen neue Benutzer in zahlende Kunden umwandelt. Ein übersichtliches Onboarding, klare Anweisungen und ein reibungsloser Startprozess sind entscheidend, um die Aktivierungsrate zu maximieren.

Siehe auch die Definition von Active User. Die Monthly Active User sind eine belibte Kennzahl bei Investoren.

Retention (Binden)

Die langfristige Kundenbindung ist entscheidend für den nachhaltigen Erfolg eines digitalen Produktes. Die Retention Rate misst, wie gut ein Unternehmen Kunden über einen bestimmten Zeitraum behält. Um Kundenbindung zu fördern, ist exzellenter Kundenservice, regelmäßige Kommunikation und die Bereitstellung von Mehrwert entscheidend. Unternehmen sollten Feedback nutzen, um ihre Produkte und Dienstleistungen kontinuierlich zu verbessern und Kunden langfristig zu binden.

Referral (Empfehlen)

Zufriedene Kunden sind die besten Botschafter für ein Produkt. Die „Refer“-Metrik misst, wie viele Kunden bereit sind, die Software ihren Freunden und Kollegen weiterzuempfehlen. Mundpropaganda ist eine kraftvolle Marketingstrategie und Unternehmen sollten Anreize schaffen, um ihre Kunden zu motivieren, das Unternehmen weiterzuempfehlen. Ein positives Image und Kundenbewertungen können dazu beitragen, die Empfehlungsrate zu steigern.

Der Virale Koeffizienz: Für Apps, Software, Websites mit sozialen Netzwerk- oder Community-Funktionen stellt „viral gehen“ oder das Erreichen eines viralen Koeffizienten von mehr als 1,0 sozusagen den heiligen Gral der Trafficgewinnung dar. Was steckt dahinter? „Viral gehen“ bedeutet, dass die Kosten für die Neukundengewinnung im Wesentlichen auf 0 gesunken sind.

Revenue (Umsatz)

Das Wichtigste ist das Unwichtigste. Natürlich ist der Umsatz letztlich das was zählt. Doch der größte Fehler ist, von Anfang an nur auf den Umsatz zu schauen. Denn da in der Innovationsphase der Umsatz oder Umsatzzuwachs 0 sein muss, kann man an ihm keine Tendenzen ablesen. Er bewegt sich nicht und zeigt daher nicht an, ob unsere Maßnahmen, Verbesserungen Wirkung zeigen. Am Ende der Kette entscheidet aber natürlich der Umsatz, wie gut das neue Feature, das digitale Produkt monetarisiert ist. Erst jetzt wird es möglich und wichtig, die Umsatzentwicklung kontinuierlich zu überwachen.

Schlussfolgerung

Die AARRR Metriken oder „Pirate Metrics“ bieten eine einfachen Startpunkt für Produktteams und Startups, einzelne Innovationsprozesse zu steuern. Indem sie diese fünf Metriken analysieren und optimieren, können Teams ihr Budget gezielt investieren, ungewollte Features vermeiden. Ihre Erfolgswahrscheinlichkeit steigt immens. Letztendlich geht es darum, den Kundenlebenszyklus zu verstehen und sicherzustellen, dass jeder Schritt reibungslos und effektiv abläuft.

Wie wird man Milliardär? Anita Roddick – Mrs. Body Shop

In der Welt der Unternehmensgeschichten gibt es wenige Persönlichkeiten, deren Erfolg so eng mit ihrer Vision und ihrem unerschütterlichen Einsatz für ihre Überzeugungen verknüpft ist wie bei Anita Roddick. Die Gründerin von The Body Shop hat nicht nur eine globale Marke geschaffen, sondern auch den Weg für ein nachhaltiges und sozial verantwortliches Geschäftsmodell geebnet. Doch der Weg zum Milliardär begann bescheiden, in einem kleinen Laden mit großen Ideen.

Das bescheidene Experiment: Ein Laden, ein Konzept

In den frühen 1970er Jahren eröffnete Anita Roddick in Brighton, England, einen kleinen Laden, der zu einem Wegbereiter für eine Revolution in der Kosmetikindustrie werden sollte. Was als einfacher, unprätentiöser Raum begann, wurde schnell zu einem Experiment, das den Grundstein für den Erfolg von The Body Shop legte. Heute würden wir es vielleicht als ein „Business Experiment“ bezeichnen, denn Anita Roddick war nicht nur auf der Suche nach Gewinn, sondern auch nach einer Möglichkeit, ihre Vision von nachhaltigen und ethischen Produkten zu verwirklichen.

Das Gespür für Innovation und die Bedeutung von Retention Rates

Anita Roddick besaß von Anfang an ein bemerkenswertes Gespür für Innovation. Ihr kleiner Laden war keine gewöhnliche Kosmetikboutique; es war ein Ort, an dem Produkte mit ethischen Prinzipien verkauft wurden. Von Anfang an konzentrierte sie sich darauf, Produkte anzubieten, die nicht nur hochwertig waren, sondern auch im Einklang mit Umwelt und Gesellschaft standen.

Was Anita Roddick jedoch von vielen anderen Geschäftsführern ihrer Zeit unterschied, war ihre frühzeitige Erkenntnis der Bedeutung der Retention Rate. In einer Zeit, in der Begriffe wie „Customer Retention“ und „Churn“ noch nicht allgegenwärtig waren, hatte Roddick bereits ein Verständnis dafür, dass es nicht nur darum geht, Produkte zu verkaufen, sondern auch darum, Kunden langfristig zu binden.

Vor der Skalierung: Das Verständnis für den Markt

Bevor sie The Body Shop auf globale Höhen führte, nahm sich Anita Roddick die Zeit, den Markt zu verstehen. Ihr kleiner Laden in Brighton war nicht nur ein Ort des Verkaufs, sondern auch ein Experiment, um herauszufinden, ob ihre Vision von nachhaltigen Produkten von den Verbrauchern angenommen wurde. Heute würde man dies als einen klugen Schritt im Bereich der „Startup-Beratung“ betrachten – die Validierung der Marktnachfrage, die Überprüfung der Retention Rate und die Gewinnung entscheidender Einblicke.

Die Visionärin wird zur Ikone

Nachdem Anita Roddick ihre ersten Schritte als Unternehmerin gesetzt und die Grundlagen für The Body Shop geschaffen hatte, konzentrieren wir uns nun auf die Phase, in der ihre Vision zur globalen Ikone wurde. In dieser Etappe geht es um Skalierung, Innovation und die fortwährende Beachtung der Retention Rate.

Skalierung mit Integrität: The Body Shop wird global

Anita Roddicks Geschäftsethik und ihre Vision von nachhaltigen Produkten erwiesen sich als kraftvoller Magnet für Kunden. Die Nachfrage nach ihren ethisch produzierten Beauty-Produkten stieg rasant, und anstatt Kompromisse einzugehen, entschied sich Roddick für eine Skalierung mit Integrität. Der Fokus lag nicht nur auf dem Ausbau des Geschäfts, sondern auch auf der Sicherstellung, dass die Grundprinzipien des Unternehmens erhalten blieben.

Dieser Schritt in Richtung Globalisierung war keine einfache Entscheidung, aber er spiegelte das Verständnis von Innovation wider. Innovation ist nicht nur auf Produkte beschränkt, sondern erstreckt sich auch auf Geschäftsmodelle und Unternehmenswerte. The Body Shop setzte Maßstäbe für nachhaltiges und ethisches Wirtschaften in einer Zeit, in der solche Konzepte noch nicht die Norm waren.

Innovation als Treibstoff: Der Weg zur Milliarde

Die Geschichte von Anita Roddick und The Body Shop ist auch eine Geschichte der Innovation. Während andere Unternehmen ihre Produkte möglicherweise nur in Bezug auf den Gewinn betrachteten, war Roddick stets auf der Suche nach neuen Wegen, die Welt der Schönheitsprodukte zu revolutionieren. Dieses Streben nach Innovation, sei es in der Produktformulierung, der Verpackung oder den Vertriebskanälen, katapultierte The Body Shop in den Mainstream.

Das Bewusstsein für Innovation bedeutete auch, dass Anita Roddick sich stets im Fluss des Marktes befand. Startup-Beratung würde heute die Notwendigkeit betonen, sich an die sich verändernden Marktbedingungen anzupassen, und Roddick tat genau das. Ihre Fähigkeit, Trends vorherzusehen und sich anzupassen, trug dazu bei, dass The Body Shop nicht nur relevant, sondern auch florierend blieb.

Retention Rate als Erfolgsindikator: Der Schlüssel zur Nachhaltigkeit

Während Innovation und Skalierung wichtig waren, vergaß Anita Roddick nie, dass der wahre Erfolg in der Bindung der Kunden lag. Ihre Kenntnis der Retention Rate war nicht nur eine Geschäftsstrategie, sondern ein ethisches Statement. The Body Shop war nicht nur eine Marke, sondern eine Gemeinschaft von Menschen, die gemeinsame Werte teilten. Diese starke Bindung zwischen Marke und Kunden trug dazu bei, dass The Body Shop nicht nur überlebte, sondern auch gedeihen konnte.

Innovation, Startup-Beratung und die ständige Überwachung der Retention Rate – diese Prinzipien führten Anita Roddick zu Milliarden.

Das Vermächtnis von Anita Roddick und zeitlose Lehren für Innovation und Erfolg

Die Reise von Anita Roddick und The Body Shop erreicht ihren Höhepunkt. Ihr Vermächtnis erstreckt sich weit über den Erfolg des Unternehmens hinaus und bietet zeitlose Lehren für Innovatoren, Entrepreneure und jeden, der nachhaltigen Erfolg sucht.

Anita Roddicks Engagement für Nachhaltigkeit und ethische Geschäftspraktiken war nicht nur ein Trend, sondern ein bleibendes Erbe. Während viele Unternehmen in den 1970er Jahren kaum über Umweltauswirkungen nachdachten, prägte Roddick eine Bewegung. Ihr Vermächtnis besteht darin, dass sie bewiesen hat, dass ein Unternehmen erfolgreich sein kann, ohne dabei ethische Grundsätze zu opfern. Dies ist heute relevanter denn je, da die Welt einen wachsenden Hunger nach nachhaltigen und ethischen Geschäftspraktiken zeigt.

Die Unerschrockenheit der Vision: Ein Aufruf zur Innovation

Anita Roddick war nicht nur eine Unternehmerin, sondern auch eine Visionärin. Ihr unerschütterlicher Glaube an die Macht der Innovation und die Fähigkeit, die Welt durch neue Ideen zu gestalten, ist eine Lehre für Generationen von Unternehmern. In einer Zeit, in der sich die Geschäftswelt rasch verändert, erinnert uns Roddick daran, dass die Fähigkeit zur Innovation nicht nur ein Vorteil, sondern eine Notwendigkeit ist.

Die Bedeutung der Retention Rate: Ein Schlüssel zum langfristigen Erfolg

Anita Roddicks Fokus auf die Retention Rate war ein Meilenstein, der weit über ihre Zeit hinausreicht. Heute, in einer Ära, in der Kundenbindung von zentraler Bedeutung ist, liefert Roddicks Ansatz einen zeitlosen Schlüssel zum langfristigen Erfolg. Ihr Verständnis dafür, dass Kunden nicht nur einmalige Käufer, sondern potenzielle Botschafter sind, ist eine Lektion, die Unternehmen in jedem Stadium ihres Wachstums berücksichtigen sollten.

Schlussgedanken: Ein Aufruf zur Inspiration und Tat

Anita Roddick und The Body Shop sind nicht nur Teil der Geschäftsgeschichte, sondern auch Inspirationsquelle für zukünftige Generationen von Innovatoren. Ihr Weg zur Milliardärin war mehr als nur eine unternehmerische Erfolgsgeschichte; es war eine Reise der Integrität, Innovation und nachhaltigen Vision.

Innovation bildet das Fundament von Anita Roddicks Erbe. Als wir uns von dieser faszinierenden Reise verabschieden, erinnern wir uns daran, dass hinter jedem erfolgreichen Unternehmen nicht nur Zahlen, sondern auch eine Geschichte voller Leidenschaft, Hingabe und Werte steht. Lasst uns weiterhin von Pionieren wie Anita Roddick lernen und uns von ihrer Entschlossenheit inspirieren, die Welt durch unternehmerische Visionen zu verändern.

Retention Rate: Ein Leitfaden zur Optimierung

Wenn ein Produkt gut ist, wird die Produktion mit der Nachfrage kaum Schritt halten können: Denn es wird regelrecht aus den Regalen fliegen. Die Retention Rate spielt dabei eine – wenn nicht die entscheidende – Rolle für den Erfolg von Produktinnovationen. Sie sagt aus, in welchem Maße User wiederkommen. Und dies hat in erstaunlich vielen Dimensionen drastische Folgen für den Erfolg von Produkten, wie wir im Folgenden sehen werden.

Was ist die Retention Rate?

Die Retention Rate gibt an, wie viele User eines Zeitraums in dem Folgezeitraum erhalten bleiben. Das lässt sich klassisch für zahlenden Kunden berechnen – dann würde die Retention Rate ein Maß für die Kundentreue sein. Bei digitalen Produkten ist es aber wesentlicher, die Anzahl und den Schwund aktiver Kunden zu messen. Diese geben Aufschluss darüber, wie gut das Produkt ankommt – also einen.

Hat eine Software im November 1.000 aktive und im Dezember sind von eben diesen 1.000 noch 700 aktiv gewesen, so entspricht dies einer Retention Rate von 70%.

Wie angedeutet, ist es wichtig, im Folgezeitraum genau die User zu untersuchen, die im vorherigen Monat betrachtet wurden: Hatte die Software im November 1.000 aktive User und im Dezember 1.400 aktive User, so ist es möglich, dass im Dezember nur 200 (20% Retention Rate) von den 1.000 Novemberusern aktiv waren. Die übrigen 1.200 (= 1.400 – 200) neuen aktiven User aus einer Verkaufsförderung resultierten.

Soll heißen: Ein häufiger Fehler, den Menschen machen, besteht darin, beim Berechnen der Bindungsraten nicht dieselben Kunden zu überprüfen. Wenn Sie zum Beispiel im Januar mit 100 Kunden beginnen, bis Juni 30 dieser Kunden verlieren, aber in diesem Zeitraum 60 neue Kunden gewinnen, haben Sie tatsächlich keine Bindungsrate von 130%.

Im Gegenteil, die Bindungsrate sollte sich auf bestehende Kunden konzentrieren, und in Ihrem obigen Beispiel betrüge die Bindungsrate 70%. Um die Kundenbindungsrate zu berechnen, sollten Sie sich immer auf die Anzahl der Kunden konzentrieren, die sich in diesem Zeitraum ändern, wobei sowohl die Kundengewinnung als auch die Anzahl der alten Kunden berücksichtigt werden, die ihre Abonnements gekündigt haben.

Es müssen nicht Monate betrachtet werden. Genauso gut können Jahre oder Quartale als Zeitraum betrachtet werden. Auch eine kontinuierliche Variante ist nicht unüblich.

Was gibt die Retention Rate an?

Bei der Berechnung einer Retention Rate versucht ein Unternehmen, die allgemeine Treue seiner Kundenbasis zu verstehen. Bei SaaS-Produkten, die in der Regel monatlich abgerechnet werden, handelt es sich dabei um ein Maß dafür, ob Ihre Kunden Ihr Produkt während dieses Monats als ausreichend nützlich erachten, um es auch im nächsten Monat erneut zu nutzen bzw. gleich zu abonnieren.

Während sich die Kundenbindung direkt auf die Anzahl der Kunden konzentriert, die Sie über einen bestimmten Zeitraum halten können, gibt sie auch an, wie viele Kunden Ihren Produktwert hoch genug einschätzen, um weiterhin dafür zu bezahlen. Eine sehr niedrige Bindungsrate könnte darauf hinweisen, dass Ihre Kunden unzufrieden sind, was bedeutet, dass Sie versuchen sollten, Ihr Angebot zu verfeinern.

Welche Daten zur Bestimmung der Retention Rate?

In der SaaS-Situtation gibt es unzählige Wege, die Retention Rate zu erheben.

In den meisten Fällen wird es in der Anwendung ein Datenbank geben, in der die User gelistet sind. Bestehen bereits signifikante Umsätze und sollen diese optimiert werden, rechnen Sie einfach mit den Umsätzen als Referenz weite. Bestehen noch keine Umsätzen, kann die Retention Rate genau genommen noch nicht errechnet werden.

Doch mit Vormetriken geht es doch: Gibt es noch keine Umsätze kann Retention Rate über die aktiven User angenähert werden. Die Formel lautet dann aktive Nutzer am Anfang des Zeitraum geteilt durch User die von aktiv nach inaktiv gewechselt sind dividiert durch die Anzahl der User, die aktiv waren (natürlich multipliziert mit 100).

Wer diese Zahl steigern kann, sollte kauf mehr große Schwierigkeiten haben, das Produkt letztlich auch zu monetarisieren – denn das Interesse an den Fähigkeiten Ihres Produkts, ist offensichtlich groß genug.

Wie verbessert man die Retention Rate sukzessive?

A/B-Splittesting ist das Zauberwort. Nun sind kleine Schritte notwendig. Ganz allgemeine hat jeden Maßnahme der Qualitätsverbesserung das Potential, die Retention Rate zu erhöhen. Je besser der

Es gibt auch eine Klasse von Maßnahmen, die den Nutzer besonders zum Wiederkommen animieren können.

Es ist wichtig zu verstehen, dass unbekannt ist, wie die Nutzer einer speziellen Anwendung reagieren werden. Ob mit mehr wiederkehrenden Nutzern, ohne Reaktion bleiben oder gar weniger oft wieder kommen. Deshalb ist es wichtig, dies experimentell zu verifizieren. Am besten mit einer Teilgruppe der Nutzerschaft (sogenannte „Canary Releases“).

Neue Features können einer kleinen Gruppe von Nutzer freigeschaltet werden und in diesem Zeitraum wird dann gemessen, wie sich die Retention Rate bei ihnen verändert. Ist die Änderung positiv, werden weitere Maßnahmen in diese Richtung vorgenommen. Ist sie unverändert, werden weitere verwandte Maßnahmen getestet, die Richtung allerdings verworfen, falls sich kein Effekt einstellt. Negative Ergebnisse führen natürlich zum Zurückrollen des Features.

Warum die Retention Rate wichtig ist

Die Retention Rate ist in jedem Unternehmen entscheidend. Schließlich gibt es eine begrenzte Anzahl von Menschen, die Ihr Produkt ausprobieren könnten. Das bedeutet, dass Sie sich bemühen sollten, so viele dieser Kunden wie möglich zu behalten, wenn Sie erfolgreich sein möchten. Eine niedrige Bindungsrate bedeutet, dass Sie immer auf der Suche nach neuen Kunden sein werden, was einen höheren Marketingetat und mehr Geld für die Gewinnung neuer Leads impliziert.

Die Kundengewinnung kostet 5-mal mehr, als die Kundenbindung, wobei letztere den Fokus erfolgreicherer Unternehmen ausmacht. Daneben kann eine Steigerung der Kundenbindung um 5% zu einem Gewinnzuwachs von 25-95% führen, was die Bedeutung dieser Kennzahl für den Gewinn Ihres Unternehmens unterstreicht.

Ganz einfach ausgedrückt wird ein Unternehmen, das regelmäßig an der Kundengewinnung arbeitet, dabei auch eine hohe Kundenzufriedenheit aufrechterhält und diese Kunden bindet, mehr Gewinn, eine hohe Kundenbindung und eine höhere Erfolgswahrscheinlichkeit sehen.

Erwartbare Zahlen für die Retention Rate

Die erwarteten Retention Rates können je nach Branche und Produkt variieren. In vielen Branchen gelten 20-40% als solide, während 50% und mehr exzellent sind. Ich habe Raten von 65% gesehen. Es ist wichtig zu beachten, dass eine Anwendung nicht alle Nutzer langfristig binden kann. Realistische Erwartungen basierend auf dem Produkt und der Zielgruppe sollten festgelegt werden.

Die Berechnung der Retention Rate

Die Retention Rate an sich zu berechnen, ist nicht das eigentlich Problem. Die Formel ist einfach und nachvollziehbar.

Eine Formel lautet: (Nutzer Ende der Periode – Verlorene Nutzer) / Nutzer Anfang der Periode * 100%.

Hier wird, wie man sieht, die Retention Rate über die verlorenen Nutzer berechnet.

Man könnte auch gleich einfach die Nutzer betrachten, die noch da sind. Im digitalen Kontext bedeutet das, dass in den Daten analysiert wird, welche User am Anfang der Periode als aktive bezeichnet werden konnten. Am Ende der Periode wird geschaut, für wie viele dieser Benutzer noch immer gilt, dass sie aktiv sind. Das ist im Grunde „Nutzer Ende der Periode – Verlorene Nutzer„.

Beispiel: Habe sie in 1. Quartal 10.000 aktive Nutzer und sind im 2. Quartal von genau diesen Usern noch 9.000 aktiv, so ergibt sich (10.0000 – 1.000) / 10.000 * 100% = 9.000/10.000 * 100% = 0,9 * 100% = 90%.

Welche Höhe der Retention Rate ist erwartbar?

Die Retention Rate kann recht hoch ausfallen. Je nach Branche teilweise über 90%.

Welche Arten von Retention Rates sind für SaaS relevant?

Obwohl Kundenbindung und MRR-Bindung (Monthly Recurring Revenue) häufig in einen Topf geworfen werden, handelt es sich tatsächlich um zwei verschiedene Formen der Bindungsberechnungen, jeweils mit unterschiedlichen Kriterien und Verwendungen. Um Ihnen dabei zu helfen, die Unterschiede zu verstehen, haben wir die einfachen Definitionen für jede aufgeführt.

Es ist ratsam, beide der folgenden Berechnungen durchzuführen, von denen jede Ihrem Unternehmen leicht unterschiedliche Informationen liefert:

  • Kundenbindungsraten
  • MRR-Bindungsraten

Lassen Sie uns diese genauer betrachten.

Definition: Customer Retention

In SaaS-Applikationen sind Kunden- und Benutzerbindungsraten dasselbe. Im Falle eines Startups stimmt das nicht ganz. Da ein Startup in der Anfangsphase froh sein kann, wenn es aktive Nutzer bekommt, müssen die noch nicht unbedingt zahlende Kunden sein. Daher ist es als Startup unbedingt ratsam, auch die Retention Rate einfacher aktiver User zu messen.

Im Normalfall jedoch, zahlen Nutzer für die Nutzung in Form eines Abonnements. Oder es gibt einen durchschnittlichen Warenkorb an, den ein User üblicherweise Sie sind also Kunden, was diese beiden Begriffe austauschbar macht. Das ist die Kennzahl, die die Anzahl der Kunden offenbart, die über einen bestimmten Zeitraum hinweg weiterhin bezahlen.

Wenn Menschen im Allgemeinen über Bindungsraten sprechen, ist dies höchstwahrscheinlich das, worauf sie sich direkt beziehen werden.

Definition: MRR-Bindungsrate

Die MRR-Bindungsrate (MRR = Monthly Recurring Revenue) bezieht sich direkt auf den Umsatz, den Ihr Unternehmen jeden Monat generiert. Zusammen mit der Anzahl der Kunden zeight dies, welchen Einfluss Kunden, die Ihr Unternehmen verlassen, auf Ihr Geschäft haben. Wenn bestimmte Kunden mehr zahlen oder einen höheren Dienstleistungsgrad haben, haben sie einen größeren Einfluss auf Ihren Umsatz.

Diese Berechnung ermittelt, wie viel Umsatz Sie jeden Monat behalten, unter Berücksichtigung der Kunden, die Sie verlieren, und des Werts, den jeder repräsentiert.

Taktik: Weggang erschweren

Ob diese Taktik auch für eine langfristige Strategie taugt, ist fraglich. Aber grundsätzlich kann man den Usern durch einen bestimmten Vertrag mit einer teuren „Ausstiegsklausel“ an das Produkt binden. Auch komplizierte Exporte bzw. eine nicht so einfache Datenübernahme zum Konkurrenzdienst können so eine Hürde sein. Je schwieriger es ist, Ihr Produkt zu verlassen, desto unwahrscheinlicher ist es, dass Nutzer während der Vertragslaufzeit zu anderen Anbietern wechseln.

Ein durchdachter Kundenanreiz, den Vertrag zu verlängern, kann es auch für Kunden erschweren, zu gehen, sobald er abgelaufen ist.

Ich halte es grundsätzlich allgemein für nachhaltiger, dem Kunden auch beim Verlassen eine gute Nutzungserfahrung zu geben. Doch es kommt auf den Einzelfall an, ob gehende Kunden einen Benutzerfreundlichen Weggang honoriert und z.B. wiederkommt, weil es realisiert, dass Konkurrenzprodukte wesentlich schlechter sind. Hier sind gute Business Experiments gefragt.

(In eigener Sache: Wir helfen Ihnen gerne in der SaaS-Strategieberatung. Unsere Experten richten Ihnen Monitoring der Retention Rate und andere KPIs ein, erstellen A/B-Splittests und arbeiten allgemeine Business Experiments für Ihr Geschäftsmodell aus. Kontaktieren Sie uns.)