Archiv der Kategorie: Analysen

Beraterradar: Frühwarnsystem gegen ausufernde Beratungsprojekte

Die Fälle häufen sich, und als Brancheninsider wäre es naiv anzunehmen, Beratungen und Dienstleister würden nicht bewusst Projekte in die Länge ziehen, verlangsamen oder aufblähen, um mehr billable hours zu generieren. Genau hier setzt das Beraterradar an. Es ist ein heuristisches System, das anhand weniger, klar messbarer Eckdaten sofort aufzeigt, ob ein Projekt stabil läuft oder ob sich Muster abzeichnen, die in der Vergangenheit immer wieder zu Problemen geführt haben. Für Geschäftsführer und CEOs bedeutet das: weniger Blindflug, mehr Orientierung.

Warum ein Beraterradar nötig ist

Externe Beratungen sind fester Bestandteil strategischer Projekte. Sie können große Mehrwerte schaffen, aber immer wieder zeigen Fälle wie bei Northvolt oder AccorMittal, dass Beratungsprojekte auch erhebliche Risiken bergen. Schlagzeilen über ausufernde Kosten, endlose Digitalisierungsinitiativen oder Abhängigkeitsverhältnisse sind keine Ausnahme. Das Beraterradar will nicht Schuldige benennen, sondern Transparenz schaffen – als Frühwarnsystem, bevor sich Projekte in Neverending Stories verwandeln.

Für Entscheider ist es entscheidend, solche Risiken frühzeitig zu erkennen. Denn in der Praxis zeigt sich: Kostenexplosionen oder fehlende Ergebnisse sind selten das Resultat von Zufällen. Häufig sind es strukturelle Muster, die sich über verschiedene Fälle hinweg wiederholen. Ein Beraterradar deckt diese Muster systematisch auf.

Die fünf zentralen Risikokategorien

Das Beraterradar bewertet Beratungsprojekte entlang von fünf Kernrisiken. Erstens: das Risiko der Neverending Story, wenn Laufzeiten und Budgets regelmäßig überzogen werden und erste Ergebnisse auf sich warten lassen. Zweitens: das Risiko des Rad-neu-Erfindens, wenn Berater statt bewährter Lösungen proprietäre Frameworks entwickeln. Drittens: die Gefahr des Vendor-Lock-ins, wenn Wissen und Schlüsselkomponenten ausschließlich bei externen Teams liegen. Viertens: die Berater-Capture, wenn Präsentationen und Managementressourcen dominieren, während die Wertschöpfung stagniert. Fünftens: die Vergabepraxis, wenn Ausschreibungen auffällig eng auf bestimmte Anbieter zugeschnitten sind.

Diese fünf Dimensionen sind bewusst einfach gehalten. Sie fassen die wiederkehrenden Muster zusammen, die sich über Jahre hinweg in Beraterprojekten gezeigt haben. Gleichzeitig lassen sie sich über konkrete Kennzahlen überprüfen.

Messbare Indikatoren statt Bauchgefühl

Ein Beraterradar funktioniert nicht über subjektive Einschätzungen, sondern über klare Messpunkte. Dazu zählen etwa der Anteil nachträglicher Vertragsänderungen, das Verhältnis von Managementstunden zu operativen Leistungen, die Geschwindigkeit bis zum ersten nutzbaren Ergebnis oder die Wiederverwendungsquote bestehender Komponenten. Aus diesen Daten entsteht eine einfache Ampel: Grün signalisiert Stabilität, Gelb zeigt Handlungsbedarf, Rot weist auf deutliche Muster hin, die in vergleichbaren Fällen zu Eskalationen geführt haben. Jede Auffälligkeit ist nachvollziehbar belegt – mit Change-Request-Logs, Jira-Daten oder Vertragsdokumenten.

Wie die Heuristik im Detail funktioniert

Die Stärke des Beraterradars liegt in seiner Heuristik, die aus verschiedenen Indikatoren ein Gesamtbild formt. Wenn zum Beispiel mehr als 35 Prozent des ursprünglichen Projektbudgets durch Change Requests überstiegen werden, signalisiert das ein erhebliches Risiko einer Neverending Story. Werden erste nutzbare Ergebnisse erst nach mehr als 120 Tagen sichtbar, ist das ein weiteres Warnsignal. Ebenso kann das Verhältnis von Managementstunden zu operativen Entwicklungsstunden zeigen, ob ein Projekt von Steuerung und Präsentationen dominiert wird oder ob tatsächlich Wertschöpfung stattfindet.

Auch auf technischer Ebene sind klare Muster erkennbar. Wird für ein Standardproblem eine komplett neue Eigenentwicklung gestartet, während am Markt ausgereifte Open-Source- oder Standardlösungen verfügbar wären, deutet das auf ein Rad-neu-Erfinden hin. Solche Entscheidungen erhöhen nicht nur die Komplexität, sondern binden Unternehmen langfristig an externe Ressourcen. Ergänzend bewertet das Beraterradar, ob Exit-Klauseln in Verträgen enthalten sind, ob Dokumentation vorliegt und ob Schlüsselwissen ausschließlich beim Dienstleister liegt. Diese Faktoren fließen in die Bewertung des Vendor-Lock-ins ein.

Die Heuristik bleibt dabei nachvollziehbar. Jeder Punkt in der Bewertung hat eine Quelle, jede Ampel ein klares Fundament. Das unterscheidet das Beraterradar von reinen Meinungen oder Bauchgefühlen, die in der Vergangenheit oft zu späten Reaktionen geführt haben.

Praktischer Nutzen für CEOs und Geschäftsführer

Für Entscheider entsteht damit ein Werkzeug, das nicht nur Risiken sichtbar macht, sondern auch konkrete Gegenmaßnahmen vorschlägt. Zeigt das Radar Rot beim Thema Rad-neu-Erfinden, ist ein COTS- und Open-Source-Review sofort einzuleiten. Leuchtet es Gelb im Bereich Vendor-Lock-in, gehören Exit-Klauseln und Übergabepläne auf die Agenda. So wird das Beraterradar zu einem Steuerungsinstrument, das Projekte stabilisiert, statt sie auszubremsen.

Ein weiterer Vorteil liegt in der Möglichkeit, Projekte über die Zeit zu beobachten. Anstatt erst im Krisenfall aktiv zu werden, können Führungskräfte Entwicklungen frühzeitig erkennen. Ein schleichendes Abdriften in endlose Beratungszyklen wird so sichtbar, lange bevor es zur Schlagzeile wird.

Beacon als nächste Ausbaustufe

Das Beraterradar ist ein Teil unserer Arbeit an „Beacon“, einem Tool, das Entscheider in die Lage versetzen soll, Transparenz über ihre Transformationsprojekte zu gewinnen. Schon heute ist mit dem kostenlosen Prozessbrowser eine erste Säule verfügbar. Dort lassen sich Aufwände für übliche Prozessautomatisierungen abschätzen – ein erster Schritt, um Klarheit über die wahrscheinlichen Kosten und Nutzen von Digitalisierungsmaßnahmen zu erhalten. Auf diesem Fundament soll Beacon aufbauen und langfristig ein umfassendes Steuerungssystem für Transformation und Beratung werden.

Für CEOs und Geschäftsführer bedeutet das: Sie können schon heute beginnen, mehr Transparenz in ihre Projekte zu bringen, ohne Kosten und Abhängigkeiten zu riskieren. Der Prozessbrowser liefert Orientierung, das Beraterradar ergänzt diese Perspektive und wird in Beacon zu einem ganzheitlichen Werkzeug zusammengeführt.

Von der Risikoerkennung zur Prävention

Wer die Risiken von Beratungsprojekten kennt, denkt schnell an Begriffe wie Kostenexplosion oder Projektverzögerung. Das Beraterradar ist genau dort positioniert: nicht als reaktives Werkzeug nach dem Skandal, sondern als proaktive Lösung. Es schafft die Grundlage, Beratungen gezielt dort einzusetzen, wo sie den größten Nutzen stiften. CEOs und Geschäftsführer gewinnen damit Sicherheit und die Freiheit, Transformationsprogramme unter eigener Kontrolle zu halten – ohne den Schatten endloser Abhängigkeiten.

Fazit

Die Risiken von Beratungsprojekten sind real und gut dokumentiert. Aber sie müssen nicht hingenommen werden. Mit einem Beraterradar erhalten Entscheider ein pragmatisches Frühwarnsystem, das aus klaren Heuristiken Orientierung gewinnt. In Verbindung mit Beacon entsteht so eine neue Qualität der Steuerung: weg von reaktiver Krisenbewältigung, hin zu proaktiver Risikoprävention. Für Unternehmen bedeutet das mehr Sicherheit, mehr Kontrolle und letztlich mehr Erfolg in ihren Transformationsprogrammen.


Quellen

  • Bundesrechnungshof: Bericht zur externen Beratungs- und Unterstützungsleistungen im Verteidigungsministerium (2018)
  • McKinsey Quarterly: Studien zu Transformationsprojekten und Erfolgsfaktoren (verschiedene Jahrgänge)
  • Eigene Analysen aus Projektdaten und typischen IT-Governance-Kennzahlen

Der EU AI Act: Orientierung für Manager im Mittelstand

Die Europäische Union hat mit dem AI Act erstmals einen umfassenden Rechtsrahmen für den Einsatz von Künstlicher Intelligenz geschaffen. Während KI-Anwendungen in vielen Bereichen Chancen eröffnen, wächst zugleich die Sorge um Sicherheit, Transparenz und Grundrechte. Der AI Act setzt hier an und schafft ein verbindliches Ordnungssystem. Für Entscheider im Mittelstand bedeutet das: Klarheit in einem Feld, das bislang oft unübersichtlich war.

Das Problem

Unternehmen implementieren zunehmend KI-Systeme – ob in der Kundenkommunikation, im Personalmanagement oder in der Produktionssteuerung. Dabei ist oft unklar, welche rechtlichen Anforderungen gelten. Systeme, die im Hintergrund Prozesse optimieren, wirken harmlos, doch es gibt Anwendungen, die tief in Grundrechte eingreifen können: Gesichtserkennung, automatisierte Kreditentscheidungen oder Bewerberauswahl ohne menschliches Zutun. Ohne klare Regeln riskieren Unternehmen nicht nur regulatorische Sanktionen, sondern auch Reputationsverluste und den Vertrauensverlust bei Kunden und Mitarbeitenden.

Kontext & Analyse

Der AI Act ordnet KI-Systeme nach ihrem Risiko. Entscheidend ist dabei nicht die technische Funktionsweise, sondern der konkrete Anwendungsfall.

Unzulässiges Risiko (verboten): Systeme, die Menschen manipulieren, ihre Verletzlichkeit ausnutzen oder Social Scoring betreiben, sind in der EU nicht erlaubt. Beispiele sind Emotionserkennung in Schulen oder am Arbeitsplatz, ungezieltes Sammeln von Gesichtsbildern oder die Bewertung von Personen allein anhand sozialer Merkmale.

Hohes Risiko (stark reguliert): Hierzu gehören KI-Systeme in Bereichen wie kritischer Infrastruktur, Justiz, Migration, Gesundheitsversorgung oder Bildung. Auch Anwendungen im Personalwesen – etwa KI-gestützte Auswahlprozesse – fallen darunter. Für diese Systeme gelten strenge Anforderungen: Datenqualität, Nachvollziehbarkeit, Risikomanagement, technische Robustheit und menschliche Kontrolle müssen gewährleistet sein.

Begrenztes Risiko (Transparenzpflicht): KI-Systeme wie Chatbots oder Deepfakes dürfen genutzt werden, müssen aber für Nutzer klar als KI erkennbar sein. Die Verantwortung liegt hier vor allem bei der transparenten Kommunikation.

Minimales Risiko (keine Regulierung): Viele alltägliche Anwendungen, etwa Spamfilter oder KI in Videospielen, fallen in diese Kategorie. Allerdings verändert sich dieser Bereich mit dem Aufkommen generativer KI rasant. Anwendungen, die bislang als gering riskant galten, können durch neue Fähigkeiten an Bedeutung und damit an Regulierungspflicht gewinnen【5†Future-of-Life-InstituteAI-Act-overview-30-May-2024.pdf】.

Für Manager im Mittelstand ist die Botschaft klar: nicht jede KI ist gleich riskant. Maßgeblich ist, wofür sie eingesetzt wird. Ein Chatbot zur Terminbuchung ist anders zu bewerten als ein System, das Personalentscheidungen trifft.

Optionen und Einsichten

Warum reguliert die EU überhaupt? Die Motivation liegt in zwei Dimensionen: Schutz von Grundrechten und Sicherung fairer Marktbedingungen.

KI kann Verhalten beeinflussen und Entscheidungsprozesse entziehen, ohne dass Betroffene es merken. Systeme, die Menschen anhand sozialer Kriterien bewerten, bergen die Gefahr von Diskriminierung. Zudem können Unternehmen durch intransparente Praktiken Wettbewerbsvorteile erzielen, die langfristig Vertrauen in Märkte und Institutionen untergraben. Der AI Act soll hier klare Grenzen ziehen.

Für Unternehmen ergeben sich drei zentrale Handlungsfelder:

  • Prüfen: Jedes Unternehmen sollte seine eingesetzten KI-Systeme inventarisieren und den Risikoklassen zuordnen. Das betrifft nicht nur selbst entwickelte, sondern auch eingekaufte Systeme.
  • Absichern: Für Hochrisiko-Anwendungen sind Prozesse erforderlich, die Datenqualität sichern, Dokumentation ermöglichen und menschliche Aufsicht gewährleisten. Dies bedeutet auch, Verantwortlichkeiten klar zu definieren.
  • Kommunizieren: Transparenz wird Pflicht. Ob Kunden, Mitarbeitende oder Aufsichtsbehörden – wer KI nutzt, muss deren Einsatz offenlegen und erklären können.

Gerade im Mittelstand kann dies herausfordernd sein. Doch die regulatorischen Vorgaben lassen auch Chancen erkennen: Wer frühzeitig Transparenzstandards etabliert, kann sich im Wettbewerb als vertrauenswürdiger Partner positionieren.

Ausblick

Die Umsetzung des AI Act erfolgt in Stufen:

  1. Nach sechs Monaten gelten die Verbote für unzulässige Systeme.
  2. Nach zwölf Monaten greifen die Vorgaben für General Purpose AI, also große Sprach- und Basismodelle.
  3. Hochrisiko-Systeme müssen innerhalb von zwei bis drei Jahren die Vorgaben erfüllen.

Für Entscheider bedeutet das: Es bleibt keine Zeit zu warten. Unternehmen sollten jetzt beginnen, ihre KI-Landschaft zu analysieren und Prozesse zur Risikobewertung und Dokumentation einzuführen. Je nach Branche und Einsatzgebiet wird dies ein überschaubarer oder ein substantieller Aufwand sein.

Offen bleibt, wie die EU die Einhaltung in der Breite überwachen und Verstöße effektiv sanktionieren wird. Mit der Einrichtung eines AI Office und nationaler Behörden entsteht zwar ein Kontrollrahmen, doch dessen praktische Durchsetzung muss sich erst beweisen. Sicher ist jedoch: Unternehmen, die frühzeitig ihre KI-Praktiken prüfen und anpassen, gewinnen Handlungssicherheit und reduzieren Risiken. Für den Mittelstand kann dies ein strategischer Vorteil sein.

Fazit

Der AI Act ist keine Innovationsbremse, sondern ein Versuch, KI-Nutzung mit europäischen Werten in Einklang zu bringen. Für Manager im Mittelstand bietet er Orientierung: Welche Systeme sind erlaubt, welche streng reguliert, welche gänzlich verboten. Die Aufgabe besteht nun darin, die eigenen Anwendungen entlang dieser Linien einzuordnen und die notwendigen Schritte einzuleiten. Wer dies proaktiv angeht, stärkt nicht nur die eigene Compliance, sondern auch die Wettbewerbsfähigkeit im europäischen Markt.

Automatisierte T-Shirt-Produktion als Blaupause für eine profitable Reindustrialisierung Europas

Die westlichen Volkswirtschaften stehen vor der Herausforderung, Industriezweige zurückzuholen, die in den letzten Jahrzehnten in Billiglohnländer ausgelagert wurden. Ein besonders prominentes Beispiel ist die Textilproduktion. Anhand eines konkreten, technischen Szenarios zeigt dieser Artikel, wie ein automatisiertes System zur T-Shirt-Produktion, gestützt durch sogenannte Sewbots, als wirtschaftlich tragfähiges Muster für eine neue industrielle Wertschöpfung in Europa dienen kann.

Technologischer Wandel und wirtschaftliche Chance

Bis heute wird der Großteil der in Europa konsumierten T-Shirts in Asien gefertigt – zu niedrigen Stückkosten, aber mit erheblichen sozialen, ökologischen und ökonomischen Nebenwirkungen. Die entscheidende Wertschöpfung – sowohl finanziell als auch technologisch – findet dabei außerhalb Europas statt. Doch mit dem technologischen Fortschritt im Bereich der Robotik und CNC-gesteuerten Fertigungssysteme eröffnen sich neue Möglichkeiten, textile Fertigungsprozesse zumindest teilweise zu automatisieren und damit wieder wirtschaftlich sinnvoll im Inland durchzuführen.

Erste Prototypen sogenannter Sewbots sind heute in der Lage, einfache Nähprozesse wie das Schließen von Seitennähten, das Annähen von Etiketten oder das Säumen von Kanten mit hoher Wiederholgenauigkeit und Geschwindigkeit auszuführen. Komplexere Arbeitsschritte wie das Einsetzen von Ärmeln oder das exakte Anbringen dehnbarer Bündchen bleiben vorerst menschlicher Hand vorbehalten. Doch auch hier zeigen sich durch den Einsatz adaptiver Vision-Systeme und mechanischer Greifer neue Ansätze für Teilautomatisierungen.

Ein skalierbarer Produktionsansatz

Die Herstellung eines modernen T-Shirts lässt sich in mehrere Schritte gliedern – vom Zuschnitt über das Verbinden der Stoffteile bis hin zum Endsaum und Labeling. Während der Zuschnitt bereits heute durch computergesteuerte Lasersysteme effizient automatisierbar ist, können auch zentrale Nähprozesse durch den Einsatz einfacher CNC-Plattformen mit Industrienähmaschinen übernommen werden. Ein durchdachtes System aus manuellem Eingriff und robotischer Unterstützung ermöglicht bereits jetzt eine Automatisierung von rund 60 bis 70 Prozent der Prozesskette.

Dabei ist der wirtschaftliche Hebel nicht zu unterschätzen: Ein Prototyp, bestehend aus einem XY-Schlitten, Steuerungseinheit und industrietauglicher Nähmaschine, kann bei geringen Investitionskosten von unter 4.000 Euro eine signifikante Entlastung von manueller Arbeit schaffen. Bereits bei kleiner Stückzahl rechnet sich die Anschaffung innerhalb weniger Produktionszyklen, zumal viele der Komponenten aus dem Maker-Bereich stammen und frei konfigurierbar sind.

Lokale Wertschöpfung als strategischer Vorteil

Diese technologische Möglichkeit hat weitreichende Folgen. Zum einen verbleiben die Gewinne – anders als beim Import aus Billiglohnländern – innerhalb Europas und fließen in die lokale Wirtschaft zurück. Zum anderen entstehen neue, qualifizierte Tätigkeiten im Bereich der Wartung, Systemintegration und Bedienung der automatisierten Anlagen. Zugleich können die Umweltbelastungen durch globale Logistikketten erheblich reduziert werden. Gerade im Bereich schnelllebiger Mode könnten lokale Mikrofabriken mit automatisierten Prozessen ein Gegengewicht zur Ressourcenverschwendung der Fast-Fashion-Industrie bilden.

Forschung und Politik als Enabler

Damit diese Entwicklung flächendeckend Wirkung entfalten kann, bedarf es einer gezielten Forschungs- und Industriepolitik. Zentrale Aufgaben bestehen in der Weiterentwicklung robuster Stoffgreifer, der Integration von Bildverarbeitung in Echtzeit sowie in der Standardisierung modularer Fertigungseinheiten. Auch Open-Hardware-Initiativen könnten hier eine wichtige Rolle spielen, indem sie Wissen zugänglich machen und Innovation beschleunigen.

Fazit

Die automatisierte T-Shirt-Produktion zeigt exemplarisch, dass Reindustrialisierung in Europa keine Vision für ferne Zukunft ist, sondern auf Basis bestehender Technologien bereits heute wirtschaftlich möglich erscheint. Es braucht keine milliardenschweren Großprojekte – oft genügen kluge Kombinationen aus bekannten Komponenten, ein pragmatischer Aufbau und die Bereitschaft, Automatisierung als produktiven Hebel und nicht als Bedrohung zu verstehen. Der DIY-Sewbot ist in diesem Kontext nicht nur ein technisches Experiment, sondern eine Blaupause für eine neue Generation schlanker, intelligenter und lokaler Industrieproduktion. Er zeigt, wie Europa in kleinen, konkreten Schritten Souveränität zurückgewinnen kann – wirtschaftlich, technologisch und gesellschaftlich.

America’s AI Action Plan: Zusammenfassung und europäische Perspektive

Der amerikanische AI Action Plan ist ein umfassendes Regierungsprogramm, das die technologische Führung der USA im Bereich Künstliche Intelligenz sichern soll. Schon in der Einleitung wird deutlich: Es geht um globale Dominanz, wirtschaftliche Wettbewerbsfähigkeit und nationale Sicherheit. Drei Pfeiler strukturieren den Plan: Beschleunigung von Innovation, Aufbau von Infrastruktur und internationale Diplomatie und Sicherheit. Die Strategie ist auf Geschwindigkeit, Deregulierung und enge Verzahnung von Industrie und Regierung ausgerichtet.

Für europäische Unternehmen stellt sich damit nicht nur die Frage, wie sie auf diese Dynamik reagieren, sondern auch, ob sie sich weiterhin auf politische Rahmenbedingungen verlassen können oder selbst die wirtschaftlichen Impulse setzen müssen, um Politik und Regulierung in eine innovationsfreundlichere Richtung zu bewegen.

Pfeiler I: Beschleunigung von Innovation

Der erste Pfeiler setzt auf weitgehende Deregulierung, um private Investitionen und schnelle Markteintritte zu fördern. Inhalte sind u. a.:

  • Abbau regulatorischer Hürden und Einschränkungen bei Bundesprogrammen
  • Stärkung von Meinungsfreiheit und ideologiefreien Modellen in öffentlichen Beschaffungen
  • Unterstützung von Open-Source- und Open-Weight-Modellen als Innovationsmotor und geopolitisches Instrument
  • Förderung der KI-Adoption durch Pilotprojekte, Standards und branchenspezifische Testumgebungen
  • Programme für KI-Weiterbildung, Umschulung und den Erhalt von Arbeitsplätzen
  • Investitionen in KI-unterstützte Wissenschaft, hochwertige Datensätze und Grundlagenforschung
  • Aufbau von Evaluations- und Testumgebungen für KI-Systeme
  • Beschleunigter Einsatz von KI in Bundesbehörden und im Verteidigungsministerium
  • Schutz geistigen Eigentums und Bekämpfung manipulativer synthetischer Medien

Pfeiler II: Aufbau von Infrastruktur

Dieser Abschnitt adressiert die physische Grundlage der KI-Führung:

  • Vereinfachte Genehmigungsverfahren für Rechenzentren, Halbleiterfertigung und Energieprojekte
  • Modernisierung und Ausbau des Stromnetzes mit Fokus auf stabile, steuerbare Energiequellen (inkl. Kernkraft)
  • Wiederaufbau der Halbleiterproduktion in den USA
  • Hochsichere Rechenzentren für Militär- und Geheimdienstanwendungen
  • Fachkräfteoffensive für Infrastrukturberufe
  • Stärkung der Cybersicherheit kritischer Infrastrukturen und Sicherstellung „secure-by-design“-Architekturen
  • Ausbau der Fähigkeiten für Incident Response bei KI-bezogenen Ausfällen

Pfeiler III: Internationale Diplomatie und Sicherheit

Die USA wollen ihre technologische Führung exportieren und geopolitisch absichern:

  • Export des gesamten KI-Technologiestacks an Verbündete
  • Aktive Einflussnahme in internationalen Standardisierungs- und Governance-Gremien
  • Verstärkte Exportkontrollen für Hochleistungsrechner und Halbleitertechnologien
  • Globale Abstimmung bei Technologieschutzmaßnahmen
  • Systematische Bewertung von nationalen Sicherheitsrisiken durch KI-Modelle
  • Biotechnologische Sicherheitsstandards für Forschung und Industrie

Analyse

Der Plan ist in seiner Logik konsistent: Geschwindigkeit vor Vorsicht, nationale Interessen vor globalen Konsensprozessen, direkte Industriekooperation statt langwieriger politischer Kompromisse. Damit schaffen die USA einen klaren Wettbewerbsvorteil – nicht nur technologisch, sondern auch in der geopolitischen Positionierung.

Für Europa birgt dies ein strategisches Dilemma: Der regulatorische Fokus auf Vorsicht und Schutz kann in einem globalen Innovationswettlauf dazu führen, dass entscheidende Wertschöpfungsketten ins Ausland abwandern.

Ausblick: Europäische Handlungsoptionen

Wir werden in einem Folgebericht einen Gegenentwurf entwerfen, der aufzeigt, wie europäische Unternehmen – auch ohne initiale politische Weichenstellung – durch eigene Investitionen, offene Kooperationsmodelle und marktorientierte Allianzen eine dynamische KI-Industrie aufbauen können. Ziel ist es, wirtschaftliche Fakten zu schaffen, die die europäische Politik dazu zwingen, innovationsfreundlichere Rahmenbedingungen zu setzen.

Wie KI-Crawler das SEO-Spiel verändern – und was das für Content-Strategien bedeutet

Wir wollten es genau wissen. Ob sich generative KI-Modelle überhaupt gezielt beeinflussen lassen – durch Inhalte, die man online verfügbar macht. Ob es also eine Art neues SEO gibt, das nicht mehr auf Rankings in Suchmaschinen zielt, sondern darauf, Teil des aktiven „Wissens“ eines Sprachmodells zu werden. Die ernüchternde wie interessante Antwort vorweg: Es ist möglich, aber mit erheblichem Aufwand verbunden. Und es könnte sich lohnen.

Problem: Wenn Wissen im Modell statt auf der Website steckt

Die klassische Suchmaschinenoptimierung richtet sich an Systeme wie Google oder Bing, die Inhalte indexieren und ranken. Doch mit dem Aufstieg generativer Modelle wie GPT-4, Gemini oder Claude verschiebt sich die Dynamik: Nutzer\:innen stellen Fragen direkt an das Modell, oft ohne zu wissen, woher die Antwort stammt. Sichtbarkeit entsteht nicht mehr nur durch Platz 1 im Suchergebnis, sondern durch Aufnahme in die Trainingsdaten oder Retrieval-Systeme. Für Contentproduzierende stellt sich damit eine neue Frage: Wie wird man Teil dieser Antwortmaschine?

Kontext & Analyse: Wie KI-Modelle zu ihrem Wissen kommen

Große Sprachmodelle werden auf Milliarden von Webseiten, Dokumenten und Codequellen trainiert. Für die Pretraining-Phase werden Crawler eingesetzt, die öffentlich zugängliche Inhalte indexieren. Diese Inhalte müssen nicht gut gerankt sein, aber sie müssen auffindbar, verlinkt und maschinenlesbar sein. Einige Modelle nutzen ergänzend Retrieval-Augmented Generation (RAG): Dabei wird zum Zeitpunkt der Anfrage aktiv auf externe Datenquellen zugegriffen.

Wir haben in unserem Projekt testweise mehrere Domains mit hochwertigen Fachinhalten ausgestattet, strukturierte Metadaten genutzt, die Inhalte gezielt verlinkt und synthetischen Traffic erzeugt. Ziel war es, herauszufinden, ob die Inhalte in RAG-gestützten Systemantworten oder sogar direkt im Modell auftauchen.

Ergebnisse: Machbar, aber nur mit Masse

Einzelne Artikel, selbst wenn gut geschrieben, gut verlinkt und technisch optimiert, wurden nur in Ausnahmefällen erkennbar eingebunden. Erst eine verteilte, systematisch orchestrierte Kampagne – mit Dutzenden Domains, hunderten Beiträgen, koordiniertem Crosslinking und kontinuierlichem Traffic – führte zu messbaren Effekten. In Promptantworten von GPT-4 tauchten Elemente unserer Inhalte auf, teilweise paraphrasiert, manchmal wortwörtlich. Dabei wurde klar: Die Modelle „wissen“ nicht – sie haben Textmuster gespeichert. Wer diese Muster oft genug und konsistent in öffentliche Räume einspeist, kann Sichtbarkeit im Modell erzeugen.

Einsichten: Was folgt für Content-Strategien?

  • Klassisches SEO bleibt relevant, aber sollte ergänzt werden durch „AI Visibility Optimization“.
  • Inhalte müssen nicht nur für Menschen lesbar sein, sondern für Crawler logisch strukturiert und verlinkt.
  • Verteilte Strategien (z. B. mit Mikroseiten, Partnernetzwerken, Reposting mit Attribution) könnten in Zukunft gezielter eingesetzt werden, um KI-Wissen zu prägen.
  • Authentischer, substanzreicher Content hat weiter Chancen: Sprachmodelle sind weniger empfindlich für manipulative Strategien als klassische Suchmaschinenalgorithmen.

Ausblick: Ein zweiter Blick auf den Wert von Inhalten

Wenn große Modelle zu Gatekeepern für Alltagswissen werden, entscheidet ihre Trainingsbasis mit über die Sichtbarkeit von Argumenten, Fachpositionen und Deutungsmustern. Das öffnet Raum für neue Strategien – aber auch für Hoffnung: Dass gute Inhalte, echte Expertise, klug strukturierter Text wieder an Bedeutung gewinnen. Nicht, weil sie perfekt optimiert sind, sondern weil sie in einem Meer von Redundanz auffallen.

Effiziente Digitalisierung: Unsere Ergebnisse zur Erreichung von 90% Backendautomatisierung

Im Rahmen des Projekts zur Effizienzsteigerung unseres Beratungoverheads untersuchten wir, inwieweit sich die manuellen Arbeitsschritte eines Beratungsunternehmen automatisieren lassen und wie hoch die Effizienzsteierung sein kann. Die Analyse zeigt, dass durch gezielte Automatisierung eine bis zu vierfache Steigerung der operativen Leistung möglich ist – bei gleichbleibender personeller Besetzung. Grundlage dieser Erkenntnis war die systematische Erhebung von Arbeitsabläufen in zehn Beratungsunternehmen sowie die prototypische Umsetzung eines digitalen Workflows. Dieser Bericht dokumentiert das methodische Vorgehen, die beobachteten Effekte und die daraus abgeleiteten Empfehlungen für die Praxis.

Beratungsleistungen, die einst in tagelanger Handarbeit erbracht wurden – Statusberichte, Projektpläne, KPI-Dashboards oder Rechnungen – lassen sich zunehmend durch digitale Werkzeuge automatisieren. In einer internen Analyse zeigen wir, wie eine Beratungsorganisation mit rund 90% automatisiertem Backend operiert und dadurch in typischen Projekten eine rund vierfache operative Effizienz erreicht.

Analyse eines Systemwechsels

In den vergangenen Jahren wurde ein Großteil unserer Backofficeprozesse systematisch identifiziert, katalogisiert und durch eine Kombination aus Scripting, Machine Learning und Sprachmodellen automatisiert. Dabei wurden klassische Deliverables (Erstellen von Lieferscheine, Statusberichten, Risikoanalysen etc. – s.u.) durch automatisierte Varianten ersetzt:

  • Statusberichte: Echtzeitdaten werden direkt aus Projektsystemen gezogen
  • Projektpläne: Synchronisation mit Ressourcenverwaltung statt Excel-Pflege
  • Strategie-Folien: generiert aus Simulationen, unterschiedliche Ausgänge simulierbar
  • Risikoanalysen: datengetrieben, aus historischen Mustern extrahiert, auch mittels predictive AI z.B. bei der Aufwandsschätzung
  • Forecasts & Szenarien: auf Knopfdruck modellierbar
  • Rechnungsstellung: automatisiert bei Meilenstein-Erreichung

Alle Prozesse unterliegen dabei einem systemischen Monitoring.

Beacon: Ein Werkzeug zur Automatisierungsdiagnose

Zur Messung wurde ein internes Tool entwickelt, das Prozessdurchlaufzeiten analysiert – vom Trigger (z. B. Nutzerinteraktion oder Systemereignis) bis zum Sink (z. B. Datenbankeintrag oder Output). Es protokolliert:

  • welche Prozesse existieren
  • welche davon automatisierbar sind
  • welche bereits automatisiert wurden
  • ob und wie zuverlässig sie funktionieren
  • wie lange die Prozesse im Schnitt benötigen

Dieses Tool dient nicht nur der internen Prozessoptimierung, sondern wird ab sofort auch in externen Transformationsprojekten zur Diagnostik eingesetzt. Damit können Unternehmen erstmals systematisch beurteilen, wie digital ihre operativen Prozesse tatsächlich sind.

Technologischer Unterbau

Die eingesetzte Technologie umfasst mehrere Schichten. Im Zentrum steht eine eigene Skripting-Engine zur Prozessverarbeitung. Für Mustererkennung in historischen Datenbeständen kommen klassische Machine-Learning-Modelle zum Einsatz. Sprachmodelle (LLMs) ergänzen das Setup, vor allem bei textlastigen Aufgaben wie der automatisierten Erstellung von Entscheidungsvorlagen, der Extraktion von Aussagen aus Dokumenten oder dem Erkennen und Bewerten von Feedback z.B. im Change Management bei der Einführung neuer Technologie, als Mittel um die Akzeptanz der neuen Lösung im Unternehmen zu messen.

Die Kombination dieser Technologien erlaubt es, repetitive Arbeitsschritte nicht nur zu beschleunigen, sondern vollständig zu eliminieren. Fehlerquellen durch manuelle Interaktion werden dabei deutlich reduziert.

Auswirkungen auf Effizienz und Organisation

Die quantitativen Auswirkungen sind erheblich: In Projekten mit ähnlichem Umfang konnten bei nahezu identischem Scope die Bearbeitungszeiten um den Faktor 3 bis 5 reduziert werden. Der Schlüssel liegt dabei nicht in der Einzelbeschleunigung, sondern in der Eliminierung ganzer und mehrerer Arbeitsschritte.

Die qualitative Wirkung betrifft vor allem die Arbeitskultur. Berater und Analysten arbeiten nicht mehr in permanenten Abstimmungs- und Reportingzyklen, sondern fokussieren sich auf Modellierung, Bewertung und Entscheidungsfindung. Die Automatisierung verschiebt die Wertschöpfung von administrativen zu gestalterischen Tätigkeiten.

Veränderte Skaleneffekte

Ein hoher Automatisierungsgrad verändert nicht nur die interne Arbeitsteilung, sondern auch die betriebswirtschaftliche Struktur von Beratung. Wo früher jeder neue Auftrag neue Personalkapazitäten erforderte, entstehen heute skalierende Systeme. Die operative Marge verbessert sich – gleichzeitig sinken die Einstiegskosten für Kunden.

Dieser Wandel wirkt sich letztlich auch auf das Marktdesign aus: Kleinere Beratungseinheiten mit technologischer Spezialisierung sind in der Lage, komplexe Projekte zu übernehmen, für die früher ganze Großorganisationen notwendig waren.

Fazit

Die konsequente Digitalisierung interner Prozesse verändert die Beratungsarbeit tiefgreifend. Automatisierung ist kein ergänzendes Werkzeug, sondern ein struktureller Hebel, der Geschwindigkeit, Präzision und Skalierbarkeit zugleich ermöglicht. Beratungen, die sich darauf ausrichten, agieren effizienter, transparenter und in kürzeren Zyklen – mit spürbarem Nutzen für Mitarbeiter, Kunden und Projektökonomie.


Quellen

  1. McKinsey Global Institute: Harnessing Automation for a Future That Works¹
  2. Gartner: Top Strategic Technology Trends for 2021: Hyperautomation²
  3. Statistisches Bundesamt (Destatis): Volkswirtschaftliche Gesamtrechnungen 2023³
  4. William J. Baumol: The Cost Disease, Yale University Press 2012⁴

Menschen hängen an ihrer monotone Arbeit – und was Organisationen daraus lernen können

In vielen Unternehmen sind es nicht die kreativen Sonderprojekte, die langfristig laufen, sondern die scheinbar langweiligen Routinen. Prozesse, deren Abläufe seit Jahren feststehen, werden von denselben Mitarbeitenden mit bemerkenswerter Stabilität ausgeführt. Die Fluktuation ist niedrig, die Effizienz hoch. Irritierend nur: Warum scheint es für viele ein Vorteil zu sein, wenn sich möglichst wenig verändert?

Problem: Innovationsdruck trifft auf Widerstand

Gerade im Kontext von Change Management, Digitalisierung und zunehmender Automatisierung erleben Organisationen, dass Teile der Belegschaft sich bewusst gegen Veränderung stellen. Nicht aus Trägheit, sondern aus Überzeugung. Während Innovationsabteilungen neue Tools einführen oder Gamification für neue Arbeitsformen erproben wollen, verteidigen Teams in Verwaltung, Buchhaltung oder Bestands-IT ihre etablierten Vorgehensweisen mit Nachdruck. Innovation wird als Risiko gelesen, nicht als Chance. Dies erschwert nicht nur Modernisierungsprojekte, sondern fördert auch verdeckte Demotivation.

Zweifel an Maslow – Sicherheit als Trugschluss?

Nach der Bedürfnispyramide von Maslow suchen viele Menschen primär nach Stabilität. Repetitive Aufgaben geben Sicherheit, Vorhersehbarkeit und Kontrolle – gerade in Lebensphasen mit hoher externer Belastung. Doch diese Sicherheit ist nicht immer intrinsisch gewollt. Vielmehr lässt sich beobachten, dass Menschen sich mit dem zufrieden geben, was ihnen die Umstände als machbar erscheinen lassen. Nicht aus Zufriedenheit, sondern aus einem Mangel an Mut.

Die Annahme, dass Stabilität ein grundlegendes Bedürfnis sei, lässt sich hinterfragen. Moderne Gesellschaften zeigen wenig kollektiven Mut: Innovation wird skeptisch beäugt, Risikobereitschaft sanktioniert. Die stabile Popularität konservativer Parteien in demokratischen Gesellschaften deutet strukturell auf diese kulturelle Präferenz für Sicherheit hin – auch wenn das kein kausaler Beleg ist. Es bleibt Raum für die These: Es sind nicht die Menschen, die grundsätzlich nach Sicherheit streben, sondern Gesellschaften, die Sicherheit zum höchsten Gut erklären – und dadurch Mut entwerten.

Ready statt ruhig

Eine alternative Perspektive wäre: Sicherheit bedeutet nicht Ruhe, sondern Bereitschaft. Wer „ready“ ist – vorbereitet, kompetent, beweglich –, erlebt Veränderung nicht als Gefahr, sondern als Bestandteil des Normalen. In einer solchen Kultur würde Innovation nicht stören, sondern implizit dazugehören. Das könnte erklären, warum in Kontexten mit starkem psychologischen Sicherheitsgefühl (etwa in resilienten Teams) auch komplexe Veränderungsprozesse produktiv verlaufen. Ein solches Mindset zu fördern – auch im Hinblick auf Automatisierung, digitale Transformation und neue Führungsmodelle – ist zentral für zukunftsfähige Organisationen im Mittelstand.

Flow ohne Innovation

Csikszentmihalyi (1990) beschreibt Flow als Zustand zwischen Unter- und Überforderung. Auch repetitive Aufgaben können Flow erzeugen – etwa wenn sie mit hoher Kompetenz ausgeführt werden. Menschen mit geringem Autonomiebedürfnis erleben Routinejobs häufig als befriedigend, solange die sozialen und strukturellen Bedingungen stimmen (Warr, 2002).

Boreout als Grenzfall

Die Forschung zu Boreout (Stock-Homburg & Werder, 2017) zeigt jedoch: Wird Routine zur Dauerunterforderung, entstehen psychosomatische Beschwerden, Zynismus und innerer Rückzug. Die Grenze ist individuell: Was für den einen stabilisierend wirkt, kann für andere zur psychischen Belastung werden.

Sozialisierung und Organisation

Organisationen sind oft auf Reproduktion ausgelegt. Karl Weick (1995) beschreibt sie als Systeme, die Unsicherheit reduzieren. Kreative Abweichung wird schnell als Störung codiert. Über Jahre gewachsene Routinen erhalten Status und Schutzmechanismen. Wer sie infrage stellt, riskiert soziale Sanktion. Innovation wird dadurch nicht nur strukturell, sondern auch kulturell ausgebremst – insbesondere dort, wo kein wirksames Tooling für gute Arbeit und keine Strategien zur Begleitung digitaler Transformation etabliert sind.

Exploitation vs. Exploration

Benner & Tushman (2003) zeigen in ihrer Arbeit zur Ambidextrie, dass viele Organisationen ihre Ressourcen auf „Exploitation“ konzentrieren – also auf die Optimierung bestehender Prozesse. „Exploration“ – das Ausprobieren neuer Ideen – wird dagegen als ineffizient und risikobehaftet bewertet. Mitarbeitende internalisieren diese Bewertung. Wer sich in Schema-F-Aufgaben sicher fühlt, riskiert durch Innovation den eigenen Status.

Einsichten für die Praxis

  • Nicht jeder will Innovation. Stabilität ist für viele ein funktionales Arbeitsmotiv, kein Defizit.
  • Routine ist nicht gleich Langeweile. Für manche Menschen ist sie Voraussetzung für Konzentration, Flow und Selbstwirksamkeit.
  • Organisationen verstärken diese Muster. Über Belohnungssysteme, implizite Normen und Mikropolitik wird Kontinuität oft stärker gefördert als Innovation.
  • Mut ist kein Persönlichkeitsmerkmal, sondern ein Systemphänomen. Organisationen müssen nicht nur Räume für Innovation schaffen, sondern auch den Mut ermöglichen, sie zu betreten.
  • Kulturwandel und Automation gehören zusammen gedacht. Ohne kulturelle Arbeit verpufft technologische Erneuerung – gerade in Transformationsprozessen in der Führung und Digitalisierung.

Wer kulturelle Veränderung will, muss diese Systemeffekte berücksichtigen. Es reicht nicht, Innovationsfreude zu postulieren – man muss auch Sicherheit für die mitnehmen, die sich in der Stabilität eingerichtet haben.

Ausblick: Anschlussfragen

Wie lassen sich Routinen erhalten, ohne Innovation zu blockieren? Welche Rolle können partizipative Formate spielen, um Risiken für Veränderung sozial abzufedern? Und: Was wäre eigentlich eine Organisation, die beides kann – kontinuierliche Exploitation und selektive Exploration? Die Antworten darauf liegen nicht in neuen Tools, sondern im Design organisationaler Bedingungen.


Quellen:

  • Benner, M. J., & Tushman, M. L. (2003). Exploitation, exploration, and process management.
  • Csikszentmihalyi, M. (1990). Flow: The Psychology of Optimal Experience.
  • Demerouti, E., Bakker, A. B., Nachreiner, F., & Schaufeli, W. B. (2001). The Job Demands-Resources Model.
  • Stock-Homburg, R., & Werder, S. (2017). Boreout. Ursachen und Konsequenzen von Unterforderung.
  • Warr, P. (2002). Psychology at work.
  • Weick, K. E. (1995). Sensemaking in Organizations.

Cloud oder eigener Server? Wann man sich noch für eigene Hardware entscheidet

In vielen IT-Projekten beobachten wir eine wiederkehrende Erwartung: Die Cloud soll nicht nur Kosten senken, sondern auch Flexibilität, Sicherheit und Zukunftsfähigkeit garantieren. Doch diese Annahme ist häufig zu pauschal. Die Entscheidung für oder gegen Cloud-Dienste muss differenziert getroffen werden, insbesondere im Kontext europäischer Anforderungen an Datenschutz, Betriebssicherheit und wirtschaftliche Unabhängigkeit.

Fehlannahmen in der Entscheidungsfindung

Für Entscheider:innen im Mittelstand stellt sich zunehmend die Frage, ob der eigene Unternehmensserver durch eine Cloud-Lösung ersetzt werden sollte. Während Anbieter und Beratungen häufig ein klares „Pro Cloud“ vertreten, bleiben wichtige Differenzierungen aus. Die Folge sind Fehlentscheidungen: Überhöhte Betriebskosten, Abhängigkeiten von Dritten (Vendor Lock), regulatorische Unsicherheit oder unzureichende Performance.

Was ist Cloud, was ist On-Premise?

Auch wenn es sich mittlerweile herumgesprochen hat: Unter dem Begriff „Cloud“ versteht man IT-Dienste, die über das Internet bereitgestellt werden – meist durch spezialisierte Anbieter mit Rechenzentren an verschiedenen Standorten. Andere erklären es seit Jahren (IBM – Was ist Cloud Computing?). Typische Beispiele sind Microsoft Azure, Amazon Web Services (AWS) oder europäische Anbieter wie IONOS oder Scaleway. Statt eigene Server zu betreiben, mietet das Unternehmen Rechenleistung, Speicherplatz oder Software flexibel dazu. Der große Vorteil: Skalierung ist innerhalb von Minuten möglich. Auch die Wartung der Systeme liegt beim Anbieter.

On-Premise (kurz: On-Prem) beschreibt dagegen eine IT-Architektur, bei der Server und Software im eigenen Unternehmen betrieben werden. Das Unternehmen ist selbst für Betrieb, Wartung, Updates und Sicherheit verantwortlich – behält aber auch die volle Kontrolle über seine Daten und Infrastruktur. Investitionen erfolgen vorab und sind planbarer. Die Daten verlassen das Unternehmensgelände nicht, was in sicherheitskritischen Szenarien ein entscheidender Vorteil sein kann.

Wann Cloud die bessere Wahl ist

Cloud-Lösungen sind sinnvoll, wenn der Bedarf an Rechenleistung stark schwankt, beispielsweise bei datenintensiven Kampagnen oder in der Entwicklung von Softwareprodukten. Auch für international verteilte Teams, die auf eine gemeinsame Infrastruktur zugreifen, bietet die Cloud klare Vorteile. Ebenso können Unternehmen profitieren, die standardisierte Anwendungen nutzen möchten, etwa für E-Mail, CRM oder Kollaboration. Besonders relevant ist dies, wenn IT-Ressourcen im Unternehmen knapp sind oder Infrastruktur nicht zum Kerngeschäft zählt. In diesen Fällen reduziert die Cloud Komplexität.

Wann On-Premise notwendig oder sinnvoll bleibt

On-Premise bleibt jedoch relevant, wenn besonders sensible Daten verarbeitet werden, etwa im Gesundheitswesen, in Forschungseinrichtungen oder im Finanzsektor. Auch gesetzliche Auflagen können eine vollständige Datenhoheit verlangen, beispielsweise bei Vergabeverfahren oder kritischer Infrastruktur. Bei industriellen Maschinensteuerungen oder Anwendungen mit niedrigen Latenzanforderungen ist eine lokale Datenverarbeitung oft unabdingbar. Ebenso kann es aus ökonomischer Sicht sinnvoll sein, langfristig auf On-Premise zu setzen, wenn dadurch Kosten planbarer bleiben und Abhängigkeiten reduziert werden.

Rechtliche Rahmenbedingungen in Europa

Besonders in Europa ist der regulatorische Rahmen ein zentrales Entscheidungskriterium. Die Datenschutzgrundverordnung (DSGVO) verlangt, dass personenbezogene Daten sicher und rechtskonform verarbeitet werden. Für viele US-basierte Cloudanbieter gilt der sogenannte „Cloud Act“, der im Zweifel US-Behörden Zugriff auf Daten ermöglicht – auch wenn diese auf europäischen Servern gespeichert sind. Das führt zu juristischer Unsicherheit. Europäische Anbieter wie IONOS, Cleura oder Hetzner bieten hier eine Alternative, wenn auch mit zum Teil eingeschränktem Funktionsumfang gegenüber den US-Plattformen.

Hybride Modelle als strategische Option

Die Entscheidung zwischen Cloud und On-Premise ist keine ideologische, sondern eine strategische. Wer Prozesse differenziert betrachtet, erkennt: Es geht nicht um ein „entweder–oder“, sondern oft um ein „sowohl–als auch“. Hybride Modelle – also die Kombination aus Cloud und On-Premise – können spezifische Vorteile vereinen, erfordern aber eine durchdachte Architektur und klare Zuständigkeiten.

Fazit: Einzelfallbewertung statt Trendfolge

Für Unternehmen im Mittelstand ist entscheidend, nicht blind dem Trend zu folgen. Besser ist es, den tatsächlichen Nutzen je Anwendungsfall zu bewerten – und bewusst zu entscheiden, wo Kontrolle, wo Skalierbarkeit und wo Regulierung den Ausschlag geben.

DSGVO-konforme KI-Lösung: Wie kleine Unternehmen intelligente Assistenten sinnvoll einsetzen können

Wir sind gerade dabei, für unsere Kunden ein System zu entwickeln, mit dem sie ihre eigene KI aufbauen können – ohne Spezialwissen, ohne Cloud-Verpflichtung. Was wir dabei in unserer kleinen Forschung lernen, teilen wir hier.

Mit einfachen Mitteln zur eigenen KI

Selbst mit wenig Mitteln lassen sich eigene intelligente Assistenten entwickeln. Das ermöglicht also selbst Kleinstunternehmen mächtige KI-System zu nutzen, die auf ihre Usecases und Prozesse zugeschnitten sind. Also eine künstliche Intelligenz, wie sie auch in ChatGPT steckt. Ein sogenanntes LLM – Large Language Model. Es gibt offene Modelle, sie heißen LLaMA, Mistral (Mistral: Europas Antwort auf die KI-Frage?) oder Phi. Sie sind nur Nuancen anders als ChatGPT. Mit sogenannten „Retrieval-Technologien“ und einer sauber strukturierten Wissensdatenbank, lassen sich innerhalb weniger Wochen Assistenten realisieren, die verstehen, antworten, lernen – und das alles ohne Daten in unsichere Cloudsysteme zu laden. Keine Abhängigkeit zu Amazon, Google, Microsoft und Co. Keine Abhängigkeit zu Donald Trump und die USA. Auch nicht zu China. Direkt auf deutschen oder europäischen, heimischen Servern.

Ob auf eigenem Server, in europäischer Cloud oder eingebettet in bestehende Software: Es geht. Und es geht jetzt. Wir haben es ausprobiert: Wir können so ein offenes LLM mit einer speziell vorbereiteten Wissensdatenbank so weitertrainieren, dass es zum Experte für ganz bestimmte Wissensdomänen wird. Es weiß dann nicht, wie man einen A320 landet, aber wie man das Sortiment aus Sauerteigbroten des Bäcker Hansen backt als Beispiel und kann Rückfragen dazu beantworten. Der Bäckermeister muss seine geheimen Hausrezepte nicht rausgeben und trotzdem seinen Lehrlingen das Wissen vermitteln ohne es selbst zu tun. Wertvolle Fachkraftkapazität wird freigesetzt. Viele wissen das nur noch nicht. Wir forschen selbst daran und arbeiten mit Unternehmen zusammen, die es ausprobieren – oft schneller, als sie selbst geglaubt hätten.

DSGVO-konform vom ersten Byte an

Die Datenschutz-Grundverordnung (DSGVO) stellt klare Anforderungen an Systeme, die mit personenbezogenen Daten arbeiten – dazu gehören KI-Anwendungen genauso wie klassische Software. Insbesondere relevant sind: Nur die Daten verarbeiten, die unbedingt nötig sind (Datenminimierung). Daten dürfen nur für festgelegte Zwecke genutzt werden (Zweckbindung). Nutzende müssen wissen, wie ihre Daten verarbeitet werden (Transparenz). Es muss möglich sein, Auskunft zu erhalten und Daten löschen zu lassen (Zugriffs- und Löschrechte). Daten dürfen nicht ohne weiteres in Drittstaaten (z. B. USA oder China) übertragen werden (Speicherortkontrolle).

Mit einem sogenannten Retrieval-Augmented-Generation-System (RAG) lässt sich genau das umsetzen: Die zugrunde liegenden Sprachmodelle verarbeiten keine personenbezogenen Daten direkt, sondern greifen gezielt auf interne, strukturierte Wissensquellen zu. Dadurch bleibt die Kontrolle über die Daten beim Unternehmen. Es werden keine sensiblen Informationen dauerhaft in einem Modell gespeichert, sondern temporär „herangezogen“ – und zwar innerhalb klar definierter Systeme.

Das Ganze funktioniert – wie gesagt – ohne US- oder China-Clouds. Alle Komponenten können auf europäischen, auch deutschen Servern betrieben werden. Selbst eine Installation im eigenen Hausnetz (On-Premise-Installation) ist möglich und sogar sinnvoller als die Cloud. So behalten Unternehmen jederzeit die volle Kontrolle über ihre Informationen. Kein Datenabfluss, keine rechtlichen Grauzonen. Und vor allem: keine Abstriche bei der Funktionalität.

Kehrwasser Research: Assistenten zur Selbstbedienung

Wir bei Kehrwasser Research entwickeln derzeit eine Lösung, mit der Unternehmen jeder Größe ihre Wissensbestände selbst hochladen, strukturieren und trainieren können. Innerhalb weniger Stunden entsteht daraus ein einsatzfähiger Assistent oder sogar ein Agent – eingebettet in die eigene Infrastruktur, ohne dass man ein Data Scientist sein muss.

Unsere Erfahrung: Der größte Hebel liegt nicht im „Trainieren“ der KI, sondern darin, das Wissen zugänglich zu machen. Wenn die Struktur einmal stimmt, fügt sich der Rest erstaunlich leicht zusammen.

Ein Buchladen ohne Fragen zur Verfügbarkeit

Ein Beispiel: Eine Buchhandlung, deren Mitarbeiter\:innen täglich auf dieselbe Frage antworten müssen: „Haben Sie den Titel XY da?“ Ein KI-Assistent, angebunden an das Warenwirtschaftssystem, gibt diese Auskunft 24/7 per Website oder Terminal – inklusive Standort im Laden. Warum fällt diese Aufgabe noch immer auf Menschen? Warum nutzt man qualifiziertes Personal nicht dort, wo echte Beratung gefragt ist?

Es ist schlicht eine Frage der Prioritäten. Der Fachkräftemangel ist real. Wer noch immer Menschen für Routinen einsetzt, hat den Markt falsch verstanden. Andere nutzen die Vorteile, legen Kapazität frei und verschaffen sich damit einen Vorsprung. Das ist kein Risiko, das ist eine Notwendigkeit.

Agenten für Gastronomie, Einzelhandel, Mittelstand

Gleiches gilt für Restaurants, Friseure, Apotheken, Filialketten. Ein Agent, der Termine entgegen nimmt, Bestellungen abgleicht, Personalpläne erstellt oder Urlaub verteilt, ist keine Science Fiction. Es ist Alltag – zumindest bei jenen, die sich trauen, damit zu beginnen.

Ein solcher Assistent nutzt vorhandenes Wissen (z. B. Tarifregelungen, Öffnungszeiten, Raumplanung, rechtliche Grenzen) strukturiert, um im Sinne aller Beteiligten Vorschläge zu machen. Konflikte reduzieren sich, Entscheidungen werden nachvollziehbarer, Routine schrumpft.

Wissensmanagement und Sprachschnittstelle

Viele KMU haben einen enormen Schatz an implizitem Wissen: Wie werden spezielle Dinge gemacht, was ist zu beachten, wo steht was? Ein KI-Expertensystem, der diese Informationen zugänglich macht – per Sprache, Chat oder eingebettet ins bestehende Tool – . Die Daten müssen nicht öffentlich sein, die Antworten sind es auch nicht. Aber sie sind intern abrufbar, im richtigen Moment.

Was fehlt?

Nicht das Geld. Nicht die Technologie. Und ganz sicher nicht die Fähigkeit. Was fehlt, ist der Mut zur Entscheidung. Der Wille, das eigene Unternehmen nicht mehr nach dem Gewohnten zu organisieren, sondern nach dem Wirklichen: Wo liegen heute die Pain Points? Was muss nicht mehr von Menschen gemacht werden? Wo würde ein Assistent, der nichts kostet, keine Krankheit kennt und immer da ist, echte Entlastung bringen?

Wir arbeiten mit Unternehmen, die keine Schlagzeilen brauchen – sondern Entlastung. Und wir wissen, wie man Systeme datenschutzkonform, pragmatisch und wirtschaftlich einsetzt. Wer jetzt wartet, läuft Gefahr, in wenigen Jahren erklären zu müssen, warum er es nicht früher getan hat.

Mistral: Europas Antwort auf die KI-Frage

Wer sagt eigentlich, dass die besten KI-Modelle nur aus dem Silicon Valley kommen dürfen? In Frankreich sitzt mit Mistral ein junger Anbieter, der gerade zeigt, dass die leistungsstärksten Sprachmodelle auch aus Europa kommen. Und das sogar als Open Source.

Was ist Mistral?

Mistral AI ist ein französisches Unternehmen, gegründet 2023 von ehemaligen KI-Forschern von Meta und Google DeepMind. Ihr Ziel: die Entwicklung leistungsfähiger, effizienter Sprachmodelle, die in puncto Qualität mit GPT-3.5 und teilweise GPT-4 mithalten können – aber unter einer offenen Lizenz.

Das Unternehmen hat mit Mistral 7B und Mixtral zwei Modelle veröffentlicht, die in der Open-Source-Community enorme Aufmerksamkeit erhalten haben. Sie sind kleiner als GPT-4, aber überraschend leistungsstark, gerade im Hinblick auf europäische Sprachen, auf Effizienz und auf lokale Einsatzmöglichkeiten.

Warum ist das für Unternehmen interessant?

Mistral-Modelle können auf europäischen Servern betrieben werden, ohne Anbindung an US-Clouds oder proprietäre APIs. Für Unternehmen, die Wert auf Datenschutz, Souveränität und Kostenkontrolle legen, ist das ein Gamechanger.

Man kann diese Modelle lokal trainieren, fine-tunen oder per Retrieval-Augmentation mit dem eigenen Wissen anreichern. Damit eignen sie sich hervorragend für interne Assistenten, Wissensdatenbanken, Dokumentenanalyse oder sogar für mehrsprachige Chatbots, ohne dass Daten nach Kalifornien abfließen müssen.

Mixtral: Das MoE-Prinzip

Besonders spannend ist Mixtral, ein sogenanntes Mixture-of-Experts-Modell. Das bedeutet: Statt bei jeder Anfrage das gesamte Netz zu aktivieren, werden gezielt nur einige „Expertenpfade“ genutzt. Das spart Rechenleistung und beschleunigt die Antwortzeiten, ohne auf Genauigkeit zu verzichten.

Dieses Prinzip ist vergleichbar mit GPT-4 Mixture-of-Experts von OpenAI, allerdings ist Mixtral frei verfügbar und kann von jeder Organisation heruntergeladen und betrieben werden. Für viele Anwendungsfälle ist Mixtral damit nicht nur wirtschaftlicher, sondern auch auditierbarer.

Wie schneidet Mistral im Vergleich ab?

Modell Lizenz Verfügbarkeit Leistung (in Benchmarks) Hosting-Optionen Besonderheiten
GPT-4 Proprietär OpenAI only Sehr hoch Nur via API Kein Zugriff auf Modellgewicht
Claude (Anthropic) Proprietär API (eingeschränkt) Hoch Nur via API Sicherheitsfokus, keine Modellgewichte
Mistral 7B Open Source Frei verfügbar Stark (v.a. Multilingual) Lokal & Cloud Klein & effizient
Mixtral Open Source Frei verfügbar Vergleichbar mit GPT-3.5 Lokal & Cloud Mixture-of-Experts, sehr schnell

Was bedeutet das konkret?

Wer heute eine DSGVO-konforme, flexible KI-Strategie aufbauen will, kommt an Mistral kaum vorbei. Die Modelle sind leistungsstark, nachvollziehbar, datenschutzfreundlich und frei nutzbar. Vor allem Unternehmen, die eigene Sprachassistenten, interne Suche oder Agenten aufbauen wollen, können damit deutlich unabhängiger arbeiten.

Fazit

Mistral zeigt, dass europäische KI keine Wunschvorstellung ist, sondern Realität. Es braucht keine Milliardenbudgets und keine amerikanischen Serverparks, um leistungsfähige, flexible und faire KI-Systeme zu betreiben. Man muss es nur machen.

Und ja: Wir selbst arbeiten mit Mistral. Nicht weil es europäisch ist, sondern weil es gut ist.