Schlagwort-Archiv: Produktinnovation

Enshittification: Bedeutung, Definition und warum digitale Produkte systematisch schlechter werden

Enshittification: Warum digitale Produkte schlechter werden – und was dahintersteckt

Viele Menschen haben das Gefühl, dass digitale Produkte mit der Zeit schlechter werden. Plattformen werden unübersichtlicher, Apps aufdringlicher, Funktionen verschwinden oder tauchen nur noch hinter Bezahlschranken auf. Was früher einfach war, fühlt sich heute mühsam an. Dieses Phänomen hat einen Namen: Enshittification.

Der Begriff wirkt polemisch, fast flapsig. Doch er beschreibt eine reale, gut beobachtbare Entwicklung. Enshittification ist kein Einzelfall, kein Zufall und kein Zeichen schlechter Entwicklerarbeit. Sie folgt einer inneren Logik – einer ökonomischen Logik, die viele digitale Geschäftsmodelle prägt.


Enshittification – Bedeutung und Definition

Die Bedeutung von Enshittification lässt sich nüchtern fassen: Es geht um den systematischen Qualitätsverlust von Produkten, insbesondere von Plattformen, der nicht aus Unfähigkeit entsteht, sondern aus veränderten Anreizen.

Eine brauchbare Enshittification-Definition lautet: Enshittification beschreibt den Prozess, bei dem ein Produkt oder eine Plattform im Zeitverlauf schlechter für seine Nutzer wird, weil wirtschaftliche Interessen zunehmend über den ursprünglichen Nutzwert gestellt werden.

Wichtig ist dabei: Die Produkte werden nicht schlechter, weil sie schlecht gemacht sind. Sie werden schlechter, weil es sich rechnet.


Enshittification nach Cory Doctorow

Bekannt wurde der Begriff durch den Autor und Netzaktivisten Cory Doctorow. In mehreren Essays beschreibt er, wie große Plattformen einem wiederkehrenden Muster folgen. Zunächst sind sie offen, nutzerfreundlich und attraktiv. Sie wachsen schnell, ziehen Menschen an, bauen Abhängigkeiten auf. In dieser Phase steht der Nutzen im Vordergrund.

Später verschiebt sich der Fokus. Die Plattform beginnt, ihre Reichweite stärker zu monetarisieren. Zuerst bei Geschäftspartnern, dann bei den Nutzern selbst. Funktionen werden eingeschränkt, Werbung nimmt zu, Alternativen verschwinden. Am Ende steht eine Plattform, die zwar technisch leistungsfähig ist, aber kaum noch den Interessen derer dient, die sie täglich nutzen.

Diese Analyse wird oft verkürzt als „Enshittification nach Cory Doctorow“ bezeichnet. Ein eigenes Enshittification-Buch gibt es zwar nicht, doch seine Texte gelten als zentrale Referenz für das Konzept.


Enshittification erklärt: Warum das kein Moralversagen ist

Es ist verführerisch, Enshittification als moralisches Problem zu sehen. Unternehmen seien gierig geworden, Manager hätten ihre Werte verloren. Doch diese Erklärung greift zu kurz.

Die Enshittification-Erklärung liegt tiefer. Sie hat mit Strukturen zu tun, nicht mit Charakteren. Plattformen funktionieren anders als klassische Produkte. Sie leben von Netzwerkeffekten. Je mehr Menschen sie nutzen, desto wertvoller werden sie. Gleichzeitig steigt mit jeder Abhängigkeit die Macht des Anbieters.

Sobald Nutzer kaum noch wechseln können, ändern sich die Anreize. Dann lohnt es sich weniger, das Produkt besser zu machen, und mehr, den bestehenden Nutzen auszuschöpfen. Das ist kein Zynismus, sondern betriebswirtschaftliche Rationalität.

Wir werden es auch anders machen in Zukunft. Bisher ist unsere zentrales Framework um letztlich die Akzeptanz einer Plattform zu bestimmen, das AARRR- oder Pirate-Metrics-Framework. Hier steht am Ende genau so Retention (Also Wiederbenutzungsrate), Referral (Weiterempfehlungsrate) und Revenue, was dann eben der Umsatz als KPI ist. Jetzt müsste man eine Metrik hinzufügen, die reale „Value“ dagegenhält. Aber welche wäre das? Darüber müssen wir uns noch Gedanken machen. Abonnieren Sie unseren Newsletter und verfolgen sie die Entwicklung dieser Idee.


Platform Enshittification als strukturelles Muster

Platform Enshittification ist deshalb kein Ausreißer, sondern ein Muster. Es taucht immer dort auf, wo Plattformen dominieren, Schnittstellen kontrollieren und Wechselkosten hoch sind.

Die Symptome ähneln sich: mehr Werbung, weniger Transparenz, eingeschränkte Funktionen, steigende Preise. Oft geschieht das schrittweise, kaum wahrnehmbar im Alltag. Jede einzelne Änderung wirkt erklärbar. Erst in der Summe wird sichtbar, dass sich etwas grundlegend verschoben hat.

Plattformen werden dabei nicht ineffizienter. Im Gegenteil: Sie werden oft perfektioniert – allerdings nicht im Sinne der Nutzer, sondern im Sinne der Wertabschöpfung.

Auch das ein Grund, warum im Cloudbereich viele Projekte und Unternehmen wieder mehr zu On-Premise tendieren.


Enshittification in Industrie und Automobilbereich

Das Phänomen beschränkt sich längst nicht mehr auf klassische Internetplattformen. Enshittification in der Industrie zeigt sich dort subtiler, aber nicht weniger wirksam.

Industrielle Produkte sind zunehmend softwaregetrieben. Maschinen funktionieren nur noch mit proprietären Systemen, Wartung erfordert Lizenzen, Daten verbleiben beim Hersteller. Der technische Fortschritt ist real, doch die Autonomie der Kunden nimmt ab.

Besonders sichtbar wird das bei der Enshittification im Auto. Fahrzeuge sind heute rollende Computer. Funktionen werden per Software freigeschaltet oder gesperrt, oft zeitlich begrenzt oder im Abo. Reparaturen werden erschwert, Datenzugänge eingeschränkt. Das Auto wird nicht schlechter gebaut – es wird stärker kontrolliert.


Warum Enshittification lange erfolgreich ist

Enshittification funktioniert, weil sie selten abrupt geschieht. Sie lebt von Gewöhnung. Nutzer passen sich an, akzeptieren kleine Verschlechterungen, weil der Wechsel mühsam wäre oder Alternativen fehlen.

Hinzu kommt ein psychologischer Effekt: Wer viel investiert hat – Zeit, Daten, Gewohnheit – bleibt eher, selbst wenn das Produkt schlechter wird. Plattformen kalkulieren genau damit.


Maßnahmen gegen Enshittification

Enshittification ist kein Naturgesetz. Es gibt Maßnahmen gegen Enshittification, besonders für Unternehmen und Organisationen, die selbst digitale Systeme einsetzen oder entwickeln.

Ein zentraler Hebel liegt in der Architektur. Offene Standards, dokumentierte Schnittstellen und Datenportabilität reduzieren Abhängigkeiten. Sie machen Wechsel möglich, auch wenn er nie genutzt wird.

Ein weiterer Hebel ist strategischer Natur. Wer Produkte ausschließlich über kurzfristige Monetarisierung optimiert, erzeugt Enshittification fast zwangsläufig. Wer stattdessen langfristigen Nutzwert misst und ernst nimmt, kann dem entgegenwirken.

Auch vertragliche Klarheit hilft. Exit-Szenarien, klare Datenrechte und transparente Lizenzmodelle schaffen Handlungsspielräume, bevor sie fehlen.


Enshittification als Diagnose, nicht als Schlagwort

Am Ende ist Enshittification weniger ein Kampfbegriff als ein Analysewerkzeug. Sie hilft zu verstehen, warum viele digitale Produkte nicht deshalb schlechter werden, weil sie schlecht gemacht sind, sondern weil ihre Anreizsysteme kippen.

Wer Enshittification erkennt, kann bessere Entscheidungen treffen – als Nutzer, als Unternehmen, als Gesellschaft. Nicht jede Plattform muss diesen Weg gehen. Aber jede Plattform, die ihre eigenen Anreize nicht reflektiert, läuft Gefahr, ihn irgendwann zu beschreiten.

Warum Schätzen kein Relikt ist: Schätzen ist Vorbereitung, nicht Vorhersage

„Schätzen bringt doch eh nichts.“ Diesen Satz hört man oft – vor allem in Teams, die lange genug agil gearbeitet haben, um ihre eigenen Rituale zu hinterfragen. Und sie haben recht: Schätzungen liefern selten exakte Prognosen. Sie sagen nicht präzise voraus, was am Ende eines Sprints wirklich fertig wird.

Aber das verfehlt den Punkt.

Schätzen ist keine Wahl – es ist ein Naturgesetz der Planung

Sobald ein Projekt ein Ende hat – eine Deadline, ein Budget, ein Ziel – beginnen wir zu schätzen. Ob bewusst oder unbewusst.

Wer sagt: „Wir committen nichts mehr, wir arbeiten nur empirisch“, trifft trotzdem Entscheidungen auf Basis von Annahmen. Denn jedes „Ja“ zu einer Aufgabe ist ein implizites „Nein“ zu einer anderen. Dieses Verhältnis entsteht aus einer mentalen Schätzung – einer Intuition über Aufwand, Nutzen und Machbarkeit.

Das Problem ist nicht das Schätzen, sondern die Erwartung an Genauigkeit

Schätzungen werden oft dafür kritisiert, dass sie „falsch“ sind. Aber sie sollen gar nicht recht haben. Sie sollen Diskussionen anstoßen. Unterschiede sichtbar machen. Erfahrung mit Unsicherheit in Beziehung setzen.

Wenn jemand 3 Punkte sagt und jemand anderes 13, dann ist das Gespräch darüber wertvoller als die Zahl selbst. Das Nachdenken darüber, warum die Einschätzungen so unterschiedlich sind, führt zu besserem Verständnis als jede präzise Zahl.

Schätzen ist mentale Vorbereitung

In dem Moment, in dem ein Team schätzt, passiert etwas, das mit keinem Tool oder Taskboard erzwungen werden kann: Menschen beginnen, sich in die Arbeit hineinzudenken.

Sie gehen Annahmen durch, prüfen Randbedingungen, schauen in den Code. Sie diskutieren mögliche Stolpersteine, klären offene Fragen, erinnern sich an ähnliche Aufgaben. So entsteht ein gemeinsames mentales Modell des bevorstehenden Sprints – und das ist oft der eigentliche Wert.

Eine gute Schätzung ist nicht das Ergebnis von Klarheit, sondern der Weg dorthin.

Endliche Budgets erzwingen Schätzungen

Am Ende läuft alles darauf hinaus: Wenn das Budget oder die Zeit endlich ist, dann wird ohnehin geschätzt – ob man es „Forecast“, „Commitment“ oder „Bauchgefühl“ nennt.

Wenn wir wirklich glauben, dass der geplante Umfang nicht in die verfügbaren Mittel passt, wäre die ehrliche Konsequenz: gar nicht erst anfangen. Deshalb ist Schätzen nicht optional. Es ist die Art, wie wir herausfinden, ob das Projekt überhaupt Sinn ergibt.

Schätzen als Dialog, nicht als Kontrolle

In Agile Casino haben wir versucht, genau diesen Gedanken zu bewahren. Nicht Schätzen als Druckmittel – sondern als spielerischen, gemeinschaftlichen Moment, in dem Wissen geteilt und Unsicherheit sichtbar wird. Das ist der eigentliche Wert.

Wenn Schätzungen ihren Sinn verlieren, liegt es selten am Schätzen selbst – sondern daran, dass man aufgehört hat, zuzuhören, was sie einem zeigen wollten.

Fazit: Schätzen ist kein Werkzeug der Kontrolle, sondern ein Mittel zur gemeinsamen Orientierung. Und solange wir mit endlichen Ressourcen arbeiten, werden wir es tun – ob wir es so nennen oder nicht.

Stackfield und die stille Rückeroberung der europäischen Softwarekultur

Es gibt diese seltenen Augenblicke, in denen eine Kultur sich nicht mit lauten Forderungen Gehör verschafft, sondern mit stiller Überzeugungskraft. Stackfield ist ein solches Statement. Die Software beweist, dass Europa nicht nur auf Regulierung und defensives Selbstverständnis reduziert werden darf. Hier entsteht eine Plattform, die Skalierung nicht durch Nutzer-Manipulation oder Daten-Erpressung erzwingt, sondern aus dem Grundbedürfnis nach Sicherheit, Integrität und Vertrauen heraus wächst.

Die Rückkehr der europäischen Ingenieurskultur

Stackfield ist kein Produkt des Silicon Valley. Es wurde im totgesagten Europa entwickelt. Während amerikanische Tools wie Zoom, Slack oder Teams ein Vertrauensproblem haben, definiert Stackfield sie neu: als geschützten Raum. Die Idee ist nicht, alles miteinander zu verbinden, sondern das Verbindende wieder beherrschbar zu machen.

Dieser Gedanke ist tief europäisch. Er erinnert an eine Tradition, in der technische Exzellenz immer auch moralische Verantwortung bedeutete. Man denke an Konrad Zuse, der den ersten programmgesteuerten Rechner in einem Berliner Wohnzimmer baute, oder an Dieter Rams, dessen Designphilosophie „Weniger, aber besser“ heute aktueller ist denn je. Auch das MP3-Format, entwickelt am Fraunhofer-Institut, war keine amerikanische Erfindung – es war deutsche Ingenieurskunst, die den globalen Musikmarkt revolutionierte, ohne ihre Nutzer zu überwachen.

Doch diese Kultur hat Risse bekommen. In den letzten zwei Jahrzehnten hat Europa den technologischen Diskurs weitgehend abgegeben. Statt selbst zu gestalten, analysieren wir, was andere tun. Wir haben gelernt, zu reagieren – nicht zu entwerfen.

Stackfield als Gegenentwurf

Stackfield entstand als Antwort auf eine simple, aber zentrale Frage: Warum geben wir unsere gesamte Unternehmenskommunikation an Plattformen ab, deren wirtschaftliches Interesse nicht in Effizienz, sondern in Abhängigkeit liegt?

Die Gründer entschieden sich für eine radikale Lösung: Ende-zu-Ende-Verschlüsselung. Jede Nachricht, jede Datei wird verschlüsselt, bevor sie überhaupt die Server erreicht. Selbst Stackfield kann sie nicht lesen. In einer Zeit, in der Datensicherheit oft ein nachträgliches Verkaufsargument ist, wurde sie hier zum architektonischen Ausgangspunkt.

Stackfield ist damit mehr als ein Kollaborationstool – es ist ein Statement. Es sagt: Wir können es besser machen.

Ein Kontinent ohne Selbstvertrauen

Europa leidet nicht an mangelnder Kompetenz, sondern an mangelndem technologischen Selbstbewusstsein. Die Annahme, dass Software eine amerikanische Domäne sei, hat sich tief in unser kollektives Denken eingeprägt – dabei stammen viele ihrer Grundlagen aus Europa: formale Logik, relationale Datenbanken, Informationsdesign. Wir haben nur vergessen, sie als kulturelle Stärke zu begreifen.

Stattdessen imitieren wir: Unsere Innovationsförderung folgt dem Silicon-Valley-Modell, unsere Sprache kopiert Start-up-Jargon, unsere Träume orientieren sich an fremden Erfolgsmythen. Was fehlt, ist ein eigener Ton – nicht laut und missionarisch, sondern präzise, reflektiert, nachhaltig. Kein „Move fast and break things“, sondern „Build carefully and make it last“.

Stackfield beweist, dass dieser Ansatz funktioniert. Es ist keine Frage der Ambition, sondern der Haltung: Europa setzt auf Langlebigkeit statt auf Hype, auf Integrität statt auf Disruption. Das ist kein Rückzug, sondern eine andere Form von Fortschritt.

In den 2000ern kopierte Deutschland noch: Fernsehformate, Konsumgüter, Geschäftsmodelle. In einer globalisierten Welt fällt diese Strategie jedoch durch. Originell sein zu müssen, ist kein Zwang – aber Wert hinzuzufügen, schon. Amerika hat kein Monopol auf Innovation; im Gegenteil: Seine neoliberale Tradition lehrt, dass jeder Nutzen eine Berechtigung hat – selbst wenn er auf bestehenden Ideen aufbaut.

Wenn europäische Startups nun Plattformen entwickeln, die Daten schützen, Nutzerinteressen wahren und gleichzeitig die Funktionalität, Ästhetik und Benutzerfreundlichkeit bieten, die wir erwarten, dann ist das kein Plagiat. Das ist Wertschöpfung – oder, wie die Amerikaner sagen würden: „Fair enough.“

Von „Made in Germany“ zu „Built in Europe“

Noch immer positionieren sich viele europäische Anbieter national: „Made in Germany“, „From France“, „Swiss Privacy“. Das ist nachvollziehbar, aber es bleibt ein Reflex aus einer industriellen Vergangenheit. Software braucht keine Landesgrenzen. Was sie braucht, ist kulturelle Identität. Und die ist europäisch.

Europa ist kein Flickenteppich aus Datenschutzverordnungen, sondern ein Experiment in Verantwortung. Wenn europäische Softwarehersteller diese Verantwortung als Qualitätsmerkmal begreifen, entsteht etwas, das global relevant ist: Vertrauen. In einer Welt der Plattformökonomien ist Vertrauen die knappste Ressource geworden.

Stackfield steht damit exemplarisch für eine neue Generation europäischer Software, die sich nicht über Nationalstolz definiert, sondern über Prinzipien: Transparenz, Kontrolle, Fairness, Langlebigkeit.

Sicherheit als kulturelle Leistung

In vielen amerikanischen Produkten ist Sicherheit eine Reaktion auf Skandale. In Europa ist sie eine Vorbedingung. Diese Haltung mag konservativ wirken, doch sie schafft Stabilität – und Stabilität ist die Voraussetzung für Vertrauen.

Was Stackfield zeigt, ist, dass Datensicherheit nicht der Feind von Innovation ist, sondern ihre Grundlage. Die Architektur ist nicht restriktiv, sondern emanzipatorisch: Sie befreit den Nutzer von der Notwendigkeit, dem Anbieter zu vertrauen. Damit dreht Stackfield das Machtverhältnis der Plattformökonomie um. Der Nutzer bleibt der Souverän seiner Daten – nicht der Algorithmus, nicht das Unternehmen, nicht der Investor.

Der Preis der Freiheit

Natürlich ist dieser Weg anstrengender. Stackfield wird nie in der Geschwindigkeit skalieren wie ein Tool aus Kalifornien, das Nutzerdaten monetarisiert. Aber diese Langsamkeit ist kein Fehler, sondern eine Vorteil. Eine weiteres Problem/Lösungspaar auf dem Value Proposition Canvas, das Unternehmen aus dem Silicon Valley aus ihrer eigenen Logik heraus quasi nicht bieten können. Diese Vorteil zwingt zur Rechenschaft, zur Genauigkeit, zur Klarheit. Genau darin liegt der Unterschied zwischen kurzfristigem Erfolg und langfristiger Relevanz.

Europa muss lernen, diesen Unterschied wieder zu schätzen. In Europa baut man Systeme und da ging es immer nur darum, dass sie überhaupt existieren. Und dass sie funktionieren. Dass sie verlässlich sind (Stichwort Boeing und Airbus). Wir beginnen das wieder zu verstehen. Software kann ein neues Kapitel dieser Tradition sein – wenn wir sie nicht länger als Service, sondern als Handwerk begreifen.

Vertrauen als Wettbewerbsvorteil

Die Zukunft europäischer Software entscheidet sich nicht an der Oberfläche, sondern in der Architektur. Vertrauen lässt sich nicht nachträglich aufsetzen – es muss von Anfang an eingebaut sein. Stackfield beweist, dass das möglich ist: Hier wird Vertrauen zum strukturellen Prinzip, nicht zum Marketingversprechen. Doch Europa muss lernen, dass auch die Oberfläche zählt.

Ästhetik ist kein Luxus, sondern eine Notwendigkeit. Während amerikanische Tech-Unternehmen seit jeher verstehen, dass Form und Funktion untrennbar sind – und beides der Nachfrage folgen muss –, neigen europäische Entwickler oft dazu, Design als Beiwerk zu betrachten. Doch wer nicht sichtbar ist, wird nicht wahrgenommen. Und wer nicht überzeugt, wird nicht genutzt. Die Konkurrenz macht es vor: Erfolgreiche Produkte verbinden Nutzen mit Anziehungskraft.

Doch es fehlt eine entscheidende Dimension: Was nützt die perfekte Form, wenn sie dem Nutzer schadet? Das neoliberale Credo – „Der Markt regelt alles“ – hat eine gefährliche Lücke hinterlassen: den Schutz des Einzelnen. Wie ein Dealer, der nur am schnellen Profit interessiert ist, nicht an der Gesundheit seiner Kunden, haben viele Plattformen das langfristige Wohl ihrer Nutzer aus den Augen verloren. Die Folge? Systeme, die Sucht fördern, Daten ausbeuten und Vertrauen zerstören – statt es aufzubauen.

Die Lösung liegt in einer neuen Formel: Gute Produkte müssen nicht nur funktionieren und gefallen, sondern auch schützen. Sie müssen die Privatsphäre wahren, die Sicherheit stärken und die persönliche Entwicklung fördern – statt sie zu untergraben. In einer Zeit, in der Algorithmen zunehmend unser Leben steuern, wird diese Haltung zur Überlebensfrage.

Stackfield zeigt, dass Verantwortung kein Hindernis, sondern ein Wettbewerbsvorteil ist. Es ist möglich, Systeme zu bauen, die dem Menschen dienen – und ihn gleichzeitig schützen. Das ist nicht naiv. Das ist die Zukunft.

Die europäische Zukunft liegt im Vertrauen

Vielleicht ist die wahre Stärke Europas gerade das, was oft als Schwäche gilt: seine Bedächtigkeit. Wir diskutieren länger, wir regulieren sorgfältiger, wir entwickeln gründlicher. Das ist kein Hemmschuh – es ist ein Schutzmechanismus gegen die Hybris, dass Technologie immer nur Fortschritt bedeutet.

Stackfield zeigt, dass es möglich ist, moderne Software mit dieser Haltung zu entwickeln: robust, schön, sicher. Eine Software, die nicht verführt, sondern begleitet. Eine, die nicht im Hintergrund operiert, sondern einen Rahmen schafft, in dem Zusammenarbeit gedeihen kann.

Ein leiser Ausblick

Wenn Europa wieder Software baut, dann muss es sie nicht kopieren, sondern interpretieren. Wir brauchen keine europäischen Slacks oder europäischen Googles. Wir brauchen europäische Alternativen, die aus einer anderen Logik entstehen: aus einer Kultur der Verantwortung.

Stackfield ist kein Endpunkt, sondern ein Anfang. Ein Beweis, dass Software aus Europa nicht Defizit, sondern Differenz bedeuten kann. Vielleicht liegt in dieser Differenz unsere größte Chance: dass wir Technologie nicht nur beherrschen, sondern verstehen wollen.

Link zu Stackfield: https://www.stackfield.com/

Der EU AI Act: Orientierung für Manager im Mittelstand

Die Europäische Union hat mit dem AI Act erstmals einen umfassenden Rechtsrahmen für den Einsatz von Künstlicher Intelligenz geschaffen. Während KI-Anwendungen in vielen Bereichen Chancen eröffnen, wächst zugleich die Sorge um Sicherheit, Transparenz und Grundrechte. Der AI Act setzt hier an und schafft ein verbindliches Ordnungssystem. Für Entscheider im Mittelstand bedeutet das: Klarheit in einem Feld, das bislang oft unübersichtlich war.

Das Problem

Unternehmen implementieren zunehmend KI-Systeme – ob in der Kundenkommunikation, im Personalmanagement oder in der Produktionssteuerung. Dabei ist oft unklar, welche rechtlichen Anforderungen gelten. Systeme, die im Hintergrund Prozesse optimieren, wirken harmlos, doch es gibt Anwendungen, die tief in Grundrechte eingreifen können: Gesichtserkennung, automatisierte Kreditentscheidungen oder Bewerberauswahl ohne menschliches Zutun. Ohne klare Regeln riskieren Unternehmen nicht nur regulatorische Sanktionen, sondern auch Reputationsverluste und den Vertrauensverlust bei Kunden und Mitarbeitenden.

Kontext & Analyse

Der AI Act ordnet KI-Systeme nach ihrem Risiko. Entscheidend ist dabei nicht die technische Funktionsweise, sondern der konkrete Anwendungsfall.

Unzulässiges Risiko (verboten): Systeme, die Menschen manipulieren, ihre Verletzlichkeit ausnutzen oder Social Scoring betreiben, sind in der EU nicht erlaubt. Beispiele sind Emotionserkennung in Schulen oder am Arbeitsplatz, ungezieltes Sammeln von Gesichtsbildern oder die Bewertung von Personen allein anhand sozialer Merkmale.

Hohes Risiko (stark reguliert): Hierzu gehören KI-Systeme in Bereichen wie kritischer Infrastruktur, Justiz, Migration, Gesundheitsversorgung oder Bildung. Auch Anwendungen im Personalwesen – etwa KI-gestützte Auswahlprozesse – fallen darunter. Für diese Systeme gelten strenge Anforderungen: Datenqualität, Nachvollziehbarkeit, Risikomanagement, technische Robustheit und menschliche Kontrolle müssen gewährleistet sein.

Begrenztes Risiko (Transparenzpflicht): KI-Systeme wie Chatbots oder Deepfakes dürfen genutzt werden, müssen aber für Nutzer klar als KI erkennbar sein. Die Verantwortung liegt hier vor allem bei der transparenten Kommunikation.

Minimales Risiko (keine Regulierung): Viele alltägliche Anwendungen, etwa Spamfilter oder KI in Videospielen, fallen in diese Kategorie. Allerdings verändert sich dieser Bereich mit dem Aufkommen generativer KI rasant. Anwendungen, die bislang als gering riskant galten, können durch neue Fähigkeiten an Bedeutung und damit an Regulierungspflicht gewinnen【5†Future-of-Life-InstituteAI-Act-overview-30-May-2024.pdf】.

Für Manager im Mittelstand ist die Botschaft klar: nicht jede KI ist gleich riskant. Maßgeblich ist, wofür sie eingesetzt wird. Ein Chatbot zur Terminbuchung ist anders zu bewerten als ein System, das Personalentscheidungen trifft.

Optionen und Einsichten

Warum reguliert die EU überhaupt? Die Motivation liegt in zwei Dimensionen: Schutz von Grundrechten und Sicherung fairer Marktbedingungen.

KI kann Verhalten beeinflussen und Entscheidungsprozesse entziehen, ohne dass Betroffene es merken. Systeme, die Menschen anhand sozialer Kriterien bewerten, bergen die Gefahr von Diskriminierung. Zudem können Unternehmen durch intransparente Praktiken Wettbewerbsvorteile erzielen, die langfristig Vertrauen in Märkte und Institutionen untergraben. Der AI Act soll hier klare Grenzen ziehen.

Für Unternehmen ergeben sich drei zentrale Handlungsfelder:

  • Prüfen: Jedes Unternehmen sollte seine eingesetzten KI-Systeme inventarisieren und den Risikoklassen zuordnen. Das betrifft nicht nur selbst entwickelte, sondern auch eingekaufte Systeme.
  • Absichern: Für Hochrisiko-Anwendungen sind Prozesse erforderlich, die Datenqualität sichern, Dokumentation ermöglichen und menschliche Aufsicht gewährleisten. Dies bedeutet auch, Verantwortlichkeiten klar zu definieren.
  • Kommunizieren: Transparenz wird Pflicht. Ob Kunden, Mitarbeitende oder Aufsichtsbehörden – wer KI nutzt, muss deren Einsatz offenlegen und erklären können.

Gerade im Mittelstand kann dies herausfordernd sein. Doch die regulatorischen Vorgaben lassen auch Chancen erkennen: Wer frühzeitig Transparenzstandards etabliert, kann sich im Wettbewerb als vertrauenswürdiger Partner positionieren.

Ausblick

Die Umsetzung des AI Act erfolgt in Stufen:

  1. Nach sechs Monaten gelten die Verbote für unzulässige Systeme.
  2. Nach zwölf Monaten greifen die Vorgaben für General Purpose AI, also große Sprach- und Basismodelle.
  3. Hochrisiko-Systeme müssen innerhalb von zwei bis drei Jahren die Vorgaben erfüllen.

Für Entscheider bedeutet das: Es bleibt keine Zeit zu warten. Unternehmen sollten jetzt beginnen, ihre KI-Landschaft zu analysieren und Prozesse zur Risikobewertung und Dokumentation einzuführen. Je nach Branche und Einsatzgebiet wird dies ein überschaubarer oder ein substantieller Aufwand sein.

Offen bleibt, wie die EU die Einhaltung in der Breite überwachen und Verstöße effektiv sanktionieren wird. Mit der Einrichtung eines AI Office und nationaler Behörden entsteht zwar ein Kontrollrahmen, doch dessen praktische Durchsetzung muss sich erst beweisen. Sicher ist jedoch: Unternehmen, die frühzeitig ihre KI-Praktiken prüfen und anpassen, gewinnen Handlungssicherheit und reduzieren Risiken. Für den Mittelstand kann dies ein strategischer Vorteil sein.

Fazit

Der AI Act ist keine Innovationsbremse, sondern ein Versuch, KI-Nutzung mit europäischen Werten in Einklang zu bringen. Für Manager im Mittelstand bietet er Orientierung: Welche Systeme sind erlaubt, welche streng reguliert, welche gänzlich verboten. Die Aufgabe besteht nun darin, die eigenen Anwendungen entlang dieser Linien einzuordnen und die notwendigen Schritte einzuleiten. Wer dies proaktiv angeht, stärkt nicht nur die eigene Compliance, sondern auch die Wettbewerbsfähigkeit im europäischen Markt.

Automatisierte T-Shirt-Produktion als Blaupause für eine profitable Reindustrialisierung Europas

Die westlichen Volkswirtschaften stehen vor der Herausforderung, Industriezweige zurückzuholen, die in den letzten Jahrzehnten in Billiglohnländer ausgelagert wurden. Ein besonders prominentes Beispiel ist die Textilproduktion. Anhand eines konkreten, technischen Szenarios zeigt dieser Artikel, wie ein automatisiertes System zur T-Shirt-Produktion, gestützt durch sogenannte Sewbots, als wirtschaftlich tragfähiges Muster für eine neue industrielle Wertschöpfung in Europa dienen kann.

Technologischer Wandel und wirtschaftliche Chance

Bis heute wird der Großteil der in Europa konsumierten T-Shirts in Asien gefertigt – zu niedrigen Stückkosten, aber mit erheblichen sozialen, ökologischen und ökonomischen Nebenwirkungen. Die entscheidende Wertschöpfung – sowohl finanziell als auch technologisch – findet dabei außerhalb Europas statt. Doch mit dem technologischen Fortschritt im Bereich der Robotik und CNC-gesteuerten Fertigungssysteme eröffnen sich neue Möglichkeiten, textile Fertigungsprozesse zumindest teilweise zu automatisieren und damit wieder wirtschaftlich sinnvoll im Inland durchzuführen.

Erste Prototypen sogenannter Sewbots sind heute in der Lage, einfache Nähprozesse wie das Schließen von Seitennähten, das Annähen von Etiketten oder das Säumen von Kanten mit hoher Wiederholgenauigkeit und Geschwindigkeit auszuführen. Komplexere Arbeitsschritte wie das Einsetzen von Ärmeln oder das exakte Anbringen dehnbarer Bündchen bleiben vorerst menschlicher Hand vorbehalten. Doch auch hier zeigen sich durch den Einsatz adaptiver Vision-Systeme und mechanischer Greifer neue Ansätze für Teilautomatisierungen.

Ein skalierbarer Produktionsansatz

Die Herstellung eines modernen T-Shirts lässt sich in mehrere Schritte gliedern – vom Zuschnitt über das Verbinden der Stoffteile bis hin zum Endsaum und Labeling. Während der Zuschnitt bereits heute durch computergesteuerte Lasersysteme effizient automatisierbar ist, können auch zentrale Nähprozesse durch den Einsatz einfacher CNC-Plattformen mit Industrienähmaschinen übernommen werden. Ein durchdachtes System aus manuellem Eingriff und robotischer Unterstützung ermöglicht bereits jetzt eine Automatisierung von rund 60 bis 70 Prozent der Prozesskette.

Dabei ist der wirtschaftliche Hebel nicht zu unterschätzen: Ein Prototyp, bestehend aus einem XY-Schlitten, Steuerungseinheit und industrietauglicher Nähmaschine, kann bei geringen Investitionskosten von unter 4.000 Euro eine signifikante Entlastung von manueller Arbeit schaffen. Bereits bei kleiner Stückzahl rechnet sich die Anschaffung innerhalb weniger Produktionszyklen, zumal viele der Komponenten aus dem Maker-Bereich stammen und frei konfigurierbar sind.

Lokale Wertschöpfung als strategischer Vorteil

Diese technologische Möglichkeit hat weitreichende Folgen. Zum einen verbleiben die Gewinne – anders als beim Import aus Billiglohnländern – innerhalb Europas und fließen in die lokale Wirtschaft zurück. Zum anderen entstehen neue, qualifizierte Tätigkeiten im Bereich der Wartung, Systemintegration und Bedienung der automatisierten Anlagen. Zugleich können die Umweltbelastungen durch globale Logistikketten erheblich reduziert werden. Gerade im Bereich schnelllebiger Mode könnten lokale Mikrofabriken mit automatisierten Prozessen ein Gegengewicht zur Ressourcenverschwendung der Fast-Fashion-Industrie bilden.

Forschung und Politik als Enabler

Damit diese Entwicklung flächendeckend Wirkung entfalten kann, bedarf es einer gezielten Forschungs- und Industriepolitik. Zentrale Aufgaben bestehen in der Weiterentwicklung robuster Stoffgreifer, der Integration von Bildverarbeitung in Echtzeit sowie in der Standardisierung modularer Fertigungseinheiten. Auch Open-Hardware-Initiativen könnten hier eine wichtige Rolle spielen, indem sie Wissen zugänglich machen und Innovation beschleunigen.

Fazit

Die automatisierte T-Shirt-Produktion zeigt exemplarisch, dass Reindustrialisierung in Europa keine Vision für ferne Zukunft ist, sondern auf Basis bestehender Technologien bereits heute wirtschaftlich möglich erscheint. Es braucht keine milliardenschweren Großprojekte – oft genügen kluge Kombinationen aus bekannten Komponenten, ein pragmatischer Aufbau und die Bereitschaft, Automatisierung als produktiven Hebel und nicht als Bedrohung zu verstehen. Der DIY-Sewbot ist in diesem Kontext nicht nur ein technisches Experiment, sondern eine Blaupause für eine neue Generation schlanker, intelligenter und lokaler Industrieproduktion. Er zeigt, wie Europa in kleinen, konkreten Schritten Souveränität zurückgewinnen kann – wirtschaftlich, technologisch und gesellschaftlich.

Infografik AARRR Metriken

AARRR Pirate Metrics Framework – Was ist das?

Softwareprodukte auf ihre Monetarisierung zu optimieren, benötigt objektive Messungen um den Fortschritt zu sehen. Der Weg vom ersten User bis zum zahlenden Kunden ist praktisch ein Blindflug. Die AARRR-Metriken geben ein Maß für den Fortschritt auf diesem Weg. Es gibt eine Reihe von Metriken, die als „Pirate Metrics“ bekannt sind. Diese Metriken bieten einen umfassenden Überblick über den Kundenlebenszyklus und helfen Unternehmen dabei, ihre Wachstumsstrategien zu optimieren. Der Begriff „Pirate Metrics“ wurde von Dave McClure geprägt und bezieht sich auf die fünf entscheidenden Schritte, die ein Kunde durchläuft: Acquire (Gewinnen), Activate (Aktivieren), Retention (Binden), Referral (Empfehlen) und Revenue (Umsatz). Lassen Sie uns diese Metriken genauer betrachten.

AARRR oder andere Innovationsmetriken unabdingbar für Innovation

Eric Ries spricht auch gerne von „Innovation Accounting“ als Mittel gegen sogenannte „Vanity Metrics“. „Vanity“ = Eitelkeit. Er meint also geschönte Metriken, die dem Team zwar ein gutes Gefühl geben, die Stakeholder und Geldgeber besänftigen, aber letztlich nicht zeigen, ob sich das Team auf Kurs befindet. Sie eigenen sich daher nicht um Entscheidungen zu treffen und zu steuern. Das Gegenteil sind „Actionable Metrics“ – die wollen wir haben.

Es braucht diffizile Metriken die wirklich einen Kausalzusammenhang herstellen. Zum Beispiel folgt aus viel Traffic noch nicht unbedingt, dass dieser auch ein Interesse an dem Produkt hat. Es ist ein Leichtes eine Googleanzeige auf ein Keyword wie „Team“ zu schalten und tausende von Besuchern auf eine Seite mit Büroartikeln zu schicken. Sicherlich kann man annehmen, dass einige der Menschen, die sich in irgendeiner Form für Teams interessieren, auch für Büroartikel interessieren, doch ist damit nicht direkt die Intention verbunden, sich über Büroartikel zu informieren, sich an einer Plattform zu registrieren oder gar Büroartikel zu kaufen.

Unklarer wird dieser Zusammenhang noch bei Produkten, die Features haben, die bisher nicht gekannt sind. Wie hoch das Interesse ist, wie das Interesse geweckt werden kann, ist vollständig unbekannt.

Hier bringen die AARRR-Metriken Orientierung, wo ansonsten keine ist.

Bedeutung von Metriken für die Team Motivation

Leadership: Teams ohne Metrik sind wie Rudern in einer Galeere
Sklaven in einer Galeere

Übersehen wird, dass Metriken der Schlüssel zur echten Motivation sind. Nicht die falsch verstandene „Team Building“-Motivation, mit Pizzaessen, Bowlingabend und Kletterwand. Metriken – richtig umgesetzt – führen dem Team kontinuierlich vor Augen, wofür es arbeitet, ob es sich auf Kurs befinden. Man stelle sich vor in einer Galeere zu rudern und nie zu wissen, ob sich das Schiff überhaupt bewegt. Oder auch: Ob es sich in die richtige Richtung bewegt.

Das Abarbeiten einer Roadmap verhält sich in diesem Gleichnis, wie das Wissen um die Anstrengung die braucht, um zu rudern: Abarbeiten Aufgabe für Aufgabe sagt einem Team nur, dass es Rudert. Oder die Aufgaben auch wirklich das Schiff nach vorne treiben und ob das gesamte Team auch in die richtige Richtung steuert, weiß niemand, wenn der Erfolg nicht ausgewertet wird.

Acquire (Gewinnen)

Der erste Schritt auf dem Weg zum Wachstum ist die Gewinnung neuer Kunden. Die „Acquire“-Metrik konzentriert sich darauf, wie erfolgreich ein Unternehmen potenzielle Kunden erreicht und sie auf seine Plattform bringt. Hier spielen Marketingstrategien, Werbekampagnen und Conversion Rates eine entscheidende Rolle. Unternehmen sollten analysieren, welche Kanäle die meisten qualifizierten Leads liefern und ihre Ressourcen entsprechend ausrichten.

Activate (Aktivieren)

Die nächste Etappe ist die Aktivierung der Nutzer. Es reicht nicht aus, Kunden zu gewinnen; sie müssen auch aktiviert werden, um den vollen Nutzen aus dem Produkt oder der Dienstleistung zu ziehen. Die „Activate“-Metrik misst, wie effektiv ein Unternehmen neue Benutzer in zahlende Kunden umwandelt. Ein übersichtliches Onboarding, klare Anweisungen und ein reibungsloser Startprozess sind entscheidend, um die Aktivierungsrate zu maximieren.

Siehe auch die Definition von Active User. Die Monthly Active User sind eine belibte Kennzahl bei Investoren.

Retention (Binden)

Die langfristige Kundenbindung ist entscheidend für den nachhaltigen Erfolg eines digitalen Produktes. Die Retention Rate misst, wie gut ein Unternehmen Kunden über einen bestimmten Zeitraum behält. Um Kundenbindung zu fördern, ist exzellenter Kundenservice, regelmäßige Kommunikation und die Bereitstellung von Mehrwert entscheidend. Unternehmen sollten Feedback nutzen, um ihre Produkte und Dienstleistungen kontinuierlich zu verbessern und Kunden langfristig zu binden.

Referral (Empfehlen)

Zufriedene Kunden sind die besten Botschafter für ein Produkt. Die „Refer“-Metrik misst, wie viele Kunden bereit sind, die Software ihren Freunden und Kollegen weiterzuempfehlen. Mundpropaganda ist eine kraftvolle Marketingstrategie und Unternehmen sollten Anreize schaffen, um ihre Kunden zu motivieren, das Unternehmen weiterzuempfehlen. Ein positives Image und Kundenbewertungen können dazu beitragen, die Empfehlungsrate zu steigern.

Der Virale Koeffizienz: Für Apps, Software, Websites mit sozialen Netzwerk- oder Community-Funktionen stellt „viral gehen“ oder das Erreichen eines viralen Koeffizienten von mehr als 1,0 sozusagen den heiligen Gral der Trafficgewinnung dar. Was steckt dahinter? „Viral gehen“ bedeutet, dass die Kosten für die Neukundengewinnung im Wesentlichen auf 0 gesunken sind.

Revenue (Umsatz)

Das Wichtigste ist das Unwichtigste. Natürlich ist der Umsatz letztlich das was zählt. Doch der größte Fehler ist, von Anfang an nur auf den Umsatz zu schauen. Denn da in der Innovationsphase der Umsatz oder Umsatzzuwachs 0 sein muss, kann man an ihm keine Tendenzen ablesen. Er bewegt sich nicht und zeigt daher nicht an, ob unsere Maßnahmen, Verbesserungen Wirkung zeigen. Am Ende der Kette entscheidet aber natürlich der Umsatz, wie gut das neue Feature, das digitale Produkt monetarisiert ist. Erst jetzt wird es möglich und wichtig, die Umsatzentwicklung kontinuierlich zu überwachen.

Schlussfolgerung

Die AARRR Metriken oder „Pirate Metrics“ bieten eine einfachen Startpunkt für Produktteams und Startups, einzelne Innovationsprozesse zu steuern. Indem sie diese fünf Metriken analysieren und optimieren, können Teams ihr Budget gezielt investieren, ungewollte Features vermeiden. Ihre Erfolgswahrscheinlichkeit steigt immens. Letztendlich geht es darum, den Kundenlebenszyklus zu verstehen und sicherzustellen, dass jeder Schritt reibungslos und effektiv abläuft.

Wirtschaftlicher Nutzen von CI/CD

Produktinnovation ist in einer digitalisierten Welt der Schlüssel zum Erfolg. Um sich vom Wettbewerb abzuheben, sollen Innovationen so rasch wie möglich und voll funktionsfähig an den Markt gebracht werden. Doch konventionelle Entwicklungsmethoden sind meist schwerfällig und bremsen die Time-to-Market. Um die Zeitspanne zwischen Entwicklung und Marktveröffentlichung zu verkürzen, sind in der Vergangenheit effektive Ansätze entwickelt worden.

Bei konventionellen Vorgehensweisen, vergehen teilweise Monate bis es zu einem Release kommt. Zunächst müssen alle Fehler behoben und Funktionen entwickelt bzw. erweitert werden. Erst danach folgt ein großes Update. Dabei werden beinahe alle Änderungen und Anpassungen manuell durchgeführt und der Prozess wird dementsprechend anfälliger für Fehler. Der gesamte Prozess ist wenig flexibel sorgt oftmals für komplexe Workarounds für die Entwickler.

Eine Lösung für dieses umständliche Vorgehen muss her. Ein lohnender Ansatz soll den Entwicklungsprozess von Software vereinfachen und zugleich beschleunigen: Das CI/CD.

Unterschied zwischen Continuous Integration (CI) und Continuous Delivery (CD)

Was ist also CI/CI? CI bzw. CD steht für Continuous Integration bzw. Continuous Delivery. Continuous Integration (CI) ermöglicht eine kontinuierliche Integration von neuem Code in ein gemeinsames Repository während Continuous Delivery (CD) für die Überführung des Codes von Repository in die Produktion zuständig ist.

Durch die Anwendung von CI/CD können sowohl die Fehlerquote als auch der Release-Zyklus minimiert werden. Im ersten Schritt, der Continuous Integration, testet der Entwickler den von ihm produzierten Teil des Codes bevor er ihn in das Controle-Repository übermittelt. Danach folgt meist eine neue Quellcode-Version, welche mittels Unit-Tests auf Fehler geprüft und in Testumgebungen eingefügt wird. Hier werden auch ganzheitliche Systemtests durchgeführt. Wenn der neue Teil des Codes erfolgreich alle Tests durchlaufen hat, wird das Team automatisch benachrichtigt. Zudem werden Informationen über die Anzahl der Tests und der gefundenen Fehler gesammelt.

Continuous Delivery (CD) setzt dort an, wo Continuous Integration endet. Bevor Software in die Produktionsumgebung übermittelt wird, werden Systemtests, Unit-Tests (inklusive API-Tests und Lasttests) und Integrationstests durchgeführt. Diese Tests sind allesamt Teil von Continuous Delivery und werden automatisch durchgeführt. Über den kompletten CI/CD-Prozess hinweg, können Fehlermeldungen rasch und direkt über Feedback-Kanäle an die Entwickler weitergeleitet werden.

Nachfolgend sind die relevantesten Vorteile von CI/CD aufgelistet, die letztlich in einer Kostensenkung resultieren.

  • Kleine Schritte: Statt große Teile des Codes auf einmal zu integrieren und in späterer Folge deren Fehler umständlich zu beheben, werden bei CI/CD mehrere kleinere Teile in das Repository eingefügt. Das Continuous Testing wird dadurch erleichtert, weil nur kleinere Stücke untersucht werden müssen und mögliche Probleme somit eher gefunden werden.
  • Kürzere Release Rates: Durch das rasche Erkennen und Beheben von Fehlern, können mehrere kleinere Code-Teile in kürzeren Abständen released werden. Dies ist allerdings nur möglich, wenn in einem kontinuierlichen Prozess entwickelt und der Code in einem releasefähigen Zustand gehalten wird.
  • Ordentlicher Backlog: Wird CI/CD in den Entwicklungsprozess integriert, so verändert sich die Fehlerquote im Backlog. Da kleinere Fehler rascher gefunden werden, kann sich das Team auf kritische Probleme konzentrieren.
  • Einfache Wartung: Mithilfe von Microservices können einzelne Bereiche eines Systems heruntergefahren werden ohne das restliche System betroffen ist. Somit können Wartungsarbeiten nahezu unbemerkt stattfinden.
  • Continuous Feedback: Durch die regelmäßige Integration des Codes, entsteht eine verlässliche und kontinuierliche Feedbackschleife. In dieser befinden sich vor allem Entwickler. Deren Rückmeldung zu Pipeline Build-Fehler, Merging-Problemen, Architektur-Rückschlägen usw. ist enorm wichtig für den gesamten Prozess.

Darauf sollte geachtet werden

Den Entwicklern soll die Arbeit mit dem CI/CD-Ansatz erleichtert werden, weshalb ein einfacher Prozessaufbau essentiell ist. Je weniger sie sich mit dem eigentlichen Prozess und manuellen Aufgaben aufhalten, desto effektiver kann gearbeitet werden. Zudem sollten Entwickler bis auf wenige Ausnahmen, direkt am Master-Branch arbeiten um eine sofortige Integration und das zugehörige Testen zu ermöglichen.

Wird CI/CD in den Entwicklungsprozess von Software integriert, so müssen automatisierte Tests auf allen Ebenen durchgeführt werden. Dies schließt mitunter Unit-, Integrations- und Systemtests ein, genauso wie automatisierte Tests für Funktionalität, Benutzerfreundlichkeit, Leistung, Last, Stress und Sicherheit durchgeführt werden müssen. Erst dann kann von CI/CD ganzheitlich profitiert werden.

Als nützliche Tools erweisen sich beispielsweise Repository-Management-Systeme wie Gitlab und Bitbucket oder Services für die Build-Automatisierung wie Jenkins oder eben auch Gitlab. Beispiele für die Testautomatisierung sind das Tool Katalon Studio oder jUnit in der Javawelt. Aber die Auswahl ist praktisch unendlich.

Fazit

Continuous Integration und Continuous Deployment zerstückeln den Entwicklungsprozess in kleine Teile. Diese Teile werden in regelmäßigen Abständen in ein gemeinsames Repository integriert und nach dem Testen dem Kunden rasch zur Verfügung gestellt. Sie sind ein zentrale Teil der DevOps-Methodik. Der gesamte Entwicklungsprozess wird übersichtlicher und flexibler, dadurch werden Fehler einfacher gefunden und behoben. Um mit der Konkurrenz mitzuhalten bzw. diese sogar zu übertreffen und unnötige Fehlersuche zu vermeiden, ist die Integration von CI/CD in den Entwicklungsprozess also eine einfache, effektive aber auch mittlerweile unverzichtbare Methode.