Archiv der Kategorie: Erfahrungen

AI-augmented Algorithms: Wie wir bei HHLA einen Blocker der Digitalisierung überwunden haben

Seit über 20 Jahren investieren Unternehmen weltweit in die Digitalisierung. ERP-Systeme, Prozessautomatisierung, Robotic Process Automation und Business Intelligence haben ganze Branchen transformiert. Dennoch bleiben zentrale Prozesse bis heute unvollständig digitalisiert. Die Gründe sind vielfältig, doch eines sticht heraus: eine bestimmte Klasse von Prozessen, die zwar theoretisch algorithmisch lösbar ist, in der Praxis jedoch an der Komplexität scheitert.

In eigener Sache: Schreiben sie mich gerne direkt an, wenn sie einen Austausch zu dem Thema wünschen. Linkedin: https://www.linkedin.com/in/heusinger/ oder nutzen Sie unser Kontaktformular.

Mit dem Aufkommen von Large Language Models (LLMs) keimte die Hoffnung, auch diese Blockerprozesse adressieren zu können. Doch schnell wurde deutlich: LLMs sind nicht deterministisch, sie halluzinieren und liefern Ergebnisse, die nur schwer auditierbar sind. Für kritische Prozesse mit regulatorischen Anforderungen reicht das nicht aus.

In der Forschung wird deshalb ein neuer Ansatz diskutiert: AI-augmented algorithms – hybride Architekturen, in denen deterministische Algorithmen und KI gezielt zusammenwirken. Gemeinsam mit der Hamburger Hafen und Logistik AG (HHLA) konnten wir in einem Pilotprojekt zeigen, dass dieser Ansatz in der Praxis funktioniert.

Problemstellung: Zoll- und Containerklassifikation

Die Zoll- und Containerklassifikation ist eine der Kernaufgaben im internationalen Handel. Theoretisch scheint sie klar strukturiert:

  • Jeder Container enthält eine Ware.
  • Diese wird einer Zolltarifnummer (HS-Code) zugeordnet.
  • Daraus ergeben sich Zollsatz, Lagerung und Sicherheitsprüfung.

Auf dem Papier ist das ein deterministischer Prozess. In der Praxis jedoch entsteht eine nahezu unbeherrschbare Komplexität:

  1. Mischladungen: Ein Container kann hunderte verschiedene Produkte enthalten.
  2. Unvollständige oder mehrdeutige Angaben: Papiere enthalten oft nur grobe Beschreibungen („Maschinenbauteil“).
  3. Sonderregelungen: Handelsabkommen wie EU–Südamerika, Brexit oder Sanktionen führen zu abweichenden Regeln.
  4. Abweichungen: Gefahrgut, Kühlketten oder Dual-Use-Güter erfordern besondere Behandlung.
  5. Temporäre Ausnahmen: In Krisenzeiten, wie während der Pandemie bei medizinischen Produkten, gelten zeitlich begrenzte Regelungen.

All diese Fälle sind prinzipiell regelbasiert abbildbar. Doch das Regelwerk würde so umfangreich, dass es kaum noch wartbar wäre. Kleine Änderungen in den Rahmenbedingungen könnten massive Anpassungen im System nach sich ziehen. Genau deshalb galt dieser Prozess lange als „nicht digitalisierbar“.

Ansatz: AI-augmented Algorithms

Im HHLA-Pilotprojekt haben wir uns diesem Problem gestellt und bewusst eine hybride Architektur gewählt. Ziel war es, die Stärken beider Welten – deterministische Algorithmen und KI – zu kombinieren.

Deterministischer Kern

Unverrückbare Regeln wie gesetzliche Vorschriften, Abgabenberechnungen oder zwingende Sicherheitsstandards wurden in einem klassischen Algorithmus abgebildet. Dieser Teil bleibt deterministisch, transparent und auditierbar.

KI-gestützte Vorverarbeitung

LLMs kamen dort zum Einsatz, wo die Regelkomplexität explodierte. Konkret:

  • Interpretation von unklaren oder unvollständigen Warenbeschreibungen.
  • Normalisierung unterschiedlicher Formulierungen.
  • Clustering von Sonderfällen, um Variantenvielfalt zu reduzieren.

Zusammenspiel

Die KI liefert Vorentscheidungen und standardisierte Inputs, der Algorithmus trifft die endgültigen, rechtlich bindenden Berechnungen. So entsteht ein System, das die Flexibilität menschlicher Interpretation mit der Strenge deterministischer Logik verbindet.

Ergebnisse aus dem Pilotprojekt

Das Zusammenspiel von KI und Algorithmus brachte mehrere Vorteile:

  • Transparenz und Auditierbarkeit: Die endgültigen Entscheidungen basieren auf klar nachvollziehbaren Regeln.
  • Flexibilität: Sonderfälle können realistisch verarbeitet werden, ohne dass das System kollabiert.
  • Robustheit: Anpassungen an neue Handelsabkommen oder temporäre Ausnahmen lassen sich schneller einpflegen.
  • Effizienz: Der manuelle Aufwand für Zollklassifikation sank deutlich, während die Bearbeitungszeit pro Container drastisch reduziert wurde.

Damit gelang erstmals die vollständige Automatisierung eines Prozesses, der bislang als „nicht digitalisierbar“ galt.

Einordnung: Drei Typen von Aufgaben

Das HHLA-Projekt zeigt auch, wie wir Aufgaben systematisch klassifizieren können:

  1. Algorithmisch automatisierbar: Der klassische Fall – klare Regeln, deterministisch lösbar. Trotz 20 Jahren Digitalisierung sind viele dieser Prozesse noch nicht vollständig umgesetzt.
  2. Theoretisch algorithmisch automatisierbar, praktisch aber zu komplex: Die Blockerprozesse, die in der Vergangenheit meist aufgeschoben wurden. Hier bieten AI-augmented algorithms nun eine Lösung.
  3. Kommunikationserforderlich: Aufgaben, die Sprache, Aushandeln oder Interpretation benötigen. Mit LLMs rücken auch sie zunehmend in Reichweite.

Die eigentliche Innovation liegt in Typ 2 – Prozesse, die bislang unüberwindbare Komplexität darstellten, können heute mit hybriden Architekturen adressiert werden.

Implikationen für Unternehmen

Das Beispiel zeigt deutlich: Die nächste Welle der Digitalisierung wird nicht durch „mehr KI“ allein entstehen. Stattdessen geht es darum, Architekturen zu entwickeln, in denen Algorithmen und KI gezielt zusammenarbeiten.

Für Unternehmen bedeutet das:

  • Investitionssicherheit: Bestehende Systeme müssen nicht ersetzt, sondern modular erweitert werden.
  • Compliance: Rechtliche Vorgaben bleiben überprüfbar und auditierbar.
  • Skalierbarkeit: Prozesse, die bislang von Expert:innen dominiert wurden, können standardisiert und vervielfältigt werden.
  • Wettbewerbsvorteil: Wer diese Blockerprozesse zuerst automatisiert, gewinnt Geschwindigkeit und Effizienz.

Fazit

Nach zwei Jahrzehnten Digitalisierung bleibt viel zu tun. Klassisch algorithmisch lösbare Prozesse sind keineswegs abgeschlossen. Kommunikationsaufgaben öffnen sich langsam durch LLMs. Doch der eigentliche Durchbruch liegt dazwischen: in den Prozessen, die zwar deterministisch beschreibbar, aber praktisch zu komplex für reine Algorithmen waren.

Das HHLA-Pilotprojekt zeigt: Mit AI-augmented algorithms lassen sich diese Blockaden überwinden. Prozesse, die lange als „nicht digitalisierbar“ galten, werden transparent, auditierbar und gleichzeitig flexibel genug für die Realität.

Wir werden diesen Ansatz bald auch in unseren kostenlosen Prozessrechner aufnehmen. Wenn Sie vor ähnlichen Herausforderungen stehen, sprechen Sie uns gerne direkt an – wir teilen unsere Erfahrungen aus dem Pilotprojekt.

Welche Prozesse sind in Ihrem Unternehmen bisher unantastbar geblieben?

Impact messbar machen für bessere strategische Entscheidungen in der Digitalisierung

Wenn wir bei Kehrwasser von Digitalisierung sprechen, dann nicht, weil es ein schönes Schlagwort ist. Für uns ist es ein Arbeitsauftrag. Wir wollen uns selbst und unsere Kunden in einen Automatisierungsgrad von über 90 Prozent bringen. Damit das gelingt, mussten wir lernen, eine Frage ernsthaft zu beantworten: Welche Maßnahmen entfalten welchen Impact?

Das klingt selbstverständlich. In der Praxis ist es das nicht. „Impact“ wird in vielen Diskussionen als Worthülse verwendet – ein Ersatzwort für etwas Wichtiges, ohne dass genau klar wäre, was damit gemeint ist. Wir haben gelernt, dass Impact nur dann hilfreich ist, wenn er messbar wird und uns hilft, strategische Entscheidungen besser zu treffen.

Impact als Orientierung – nicht als Schlagwort

In Projekten erleben wir immer wieder: Maßnahmen werden nach Budget oder Sichtbarkeit priorisiert, nicht nach Wirkung. Ein neues System, ein zusätzlicher Prozess, ein weiteres Tool – alles kann intern als Fortschritt gelten, solange es eingeführt ist. Doch was ist damit tatsächlich erreicht?

Wir begannen, uns eine andere Frage zu stellen: Welche Engpässe sind wirklich gelöst? Welche Produktivität ist freigesetzt? Welche Abhängigkeiten sind stabilisiert? Wenn Impact so verstanden wird, entsteht eine klare Orientierung. Er zeigt nicht nur, ob ein Projekt erfolgreich abgeschlossen wurde, sondern ob es wirklich etwas verändert.

Impact und Produktivität

Für uns ist der erste Grund, Impact ernst zu nehmen, ganz pragmatisch: Produktivität. Wir können nur dann sinnvoll priorisieren, wenn wir wissen, welche Maßnahmen den größten Effekt haben. Das betrifft interne Entscheidungen genauso wie Kundenprojekte.

Wenn klar ist, welche Investition am stärksten auf Produktivität einzahlt, dann wird auch sichtbar, was wir am dringendsten angehen müssen. Das verbessert nicht nur unsere Planung, sondern gibt auch Hinweise, wo wir den größten wirtschaftlichen Nutzen erwarten dürfen. Manchmal reicht eine kleine Veränderung an der richtigen Stelle, um eine ganze Kette von Verbesserungen auszulösen.

Impact und gesellschaftlicher Nutzen

Der zweite Grund ist uns ebenso wichtig. Wir wollen mit Digitalisierung nicht nur betriebswirtschaftliche Ergebnisse erzielen. Wir wollen zeigen, dass wirtschaftlicher Nutzen und gesellschaftlicher Nutzen zusammenfallen können – jedenfalls dann, wenn die richtigen Baustellen identifiziert werden.

Ein Problem, das wirklich gesellschaftlich relevant ist, hat fast immer auch ein enormes ökonomisches Gewicht. Man spricht nicht umsonst von einem „Billion-Dollar-Problem“. Damit ist gemeint: Die Lösung ist so relevant, dass Menschen in der Gesamtheit bereit wären, Milliarden dafür zu investieren. Wenn Digitalisierung solche Probleme adressiert, entsteht Wert auf beiden Ebenen.

Ein Beispiel aus der Praxis

Wir haben diese Logik im Kleinen erlebt, als wir das Institut für Photonische Technologien (IPHT) unterstützt haben. Das Projekt war für sich genommen überschaubar. Es ging um die Verbesserung bestimmter Prozesse.

Doch die Wirkung entfaltete sich entlang der Bedarfskette. ZEISS konnte dadurch seine Innovationskraft stärken. ASML, als Kunde von ZEISS, reduzierte Risiken in seiner Entwicklung. TSMC wiederum profitierte von stabileren Produktionsbedingungen. Am Ende stand ein Beitrag zur Stabilität der globalen Chipversorgung.

Was auf den ersten Blick wie ein lokales Projekt aussah, wurde zu einem Baustein in einem global relevanten Prozess. Impact zeigt sich oft erst, wenn man die Kaskade von Wirkungen betrachtet.

Impact messbar machen – ein pragmatischer Ansatz

Wie lässt sich Impact nun messen? Aus unserer Erfahrung nicht durch starre Kennzahlen allein. Es braucht eine Mischung aus qualitativen und quantitativen Indikatoren. Wir betrachten zum Beispiel, ob durch eine Maßnahme Durchlaufzeiten sinken, Ausfallrisiken reduziert werden oder neue Umsätze möglich werden. Ebenso wichtig ist, ob die Arbeit für Mitarbeiter sinnvoller wird – weniger repetitiv, besser passend zu ihren Fähigkeiten, stärker anerkannt.

Das Entscheidende ist die Vergleichbarkeit. Wenn mehrere Maßnahmen im Raum stehen, muss klar werden, welche davon die größte Wirkung entfaltet. Nur dann lassen sich Prioritäten setzen, die auch im Alltag tragen. Impact ist damit nicht ein abstraktes Konstrukt, sondern ein Kompass, der bei knappen Ressourcen Orientierung gibt.

Warum gerade Mittelständler profitieren

Für mittelständische Unternehmen ist dieser Ansatz besonders relevant. Sie sind meist Teil größerer Ökosysteme, oft als Zulieferer oder Nischenanbieter. Ihre Ressourcen sind begrenzt, ihre Investitionen müssen präzise wirken. Gleichzeitig verfügen sie über ein detailliertes Prozesswissen, das es ermöglicht, Hebelpunkte schneller zu erkennen.

Impact-Messung hilft ihnen, die Wirkung ihrer Maßnahmen sichtbar zu machen und damit Entscheidungen zu treffen, die über das eigene Haus hinaus Wirkung entfalten. In einem Umfeld, in dem Schlagworte schnell wechseln, schafft das eine belastbare Grundlage.

Fazit

Impact ist kein Modewort, sondern die Bedingung dafür, dass Digitalisierung funktioniert. Wenn wir Wirkung messbar machen, können wir Prioritäten setzen, die wirklich zählen. Das verbessert nicht nur die Produktivität, sondern zeigt auch, dass wirtschaftlicher und gesellschaftlicher Nutzen zusammenfallen können, wenn man die relevanten Probleme adressiert.

Ausblick: Nächster Artikel der Serie

Damit stellt sich die nächste Frage: Warum wollten wir eigentlich Digitalisierung – und warum bleibt Produktivität dabei der Maßstab? Im zweiten Artikel dieser Serie gehen wir dieser Frage nach und zeigen, wie sich die ursprünglichen Erwartungen an Digitalisierung entwickelt haben – und warum gerade jetzt der Moment gekommen ist, das Ziel neu zu definieren.

Virtuelles Kraftwerk digital steuern durch Energieorchestrierung – was die Energiewirtschaft von der IT lernen kann

Ich stand vor ihnen mit dem Schlüssel in der Hand – und doch sahen sie nur das Schloss und schüttelten den Kopf. IT-Infrastruktur und Energiewirtschaft haben keine Gemeinsamkeiten? Aber voll: Systeme wie virtuelle Kraftwerke und Techniken aus der Virtualisierung für Cloudsysteme folgen denselben Grundprinzipien. Sie orchestrieren verteilte Ressourcen, passen sich an Bedarfe an und skalieren automatisch.

Der Punkt ist, dass die Energiewirtschaft gerade das Rad neu erfindet. So fühlt es sich zumindest an. Ich bin immer wieder Erstaunt dass viele etwas für unmöglich halten, was seit zwanzig Jahren zum Grundlagenwissen jedes Informatikstudenten im zweiten Semester gehört.

Nur so wird Dezentralität praktikabel: Durch digitale Energieorchestrierung wird aus einer Vielzahl einzelner Erzeuger und Verbraucher ein robustes Gesamtsystem. Der Vorteil liegt in der Resilienz gegenüber Ausfällen, der Effizienz bei schwankender Nachfrage und der Möglichkeit, kleinteilige Infrastruktur wirtschaftlich tragfähig zu betreiben.

Wenn Sie am Ball bleiben wollen und die neusten Entwicklungen einfach, auf Entscheiderlevel erklärt haben wollen, empfiehlt sich ein Abonnement unsere Newsletters – direkt aus Forschung und Anwendung, verständlich aufbereitet für Entscheider.

Problem: Warum klassische Energieinfrastruktur nicht mehr reicht

Die Energiewende bringt eine fundamentale Verschiebung in der Infrastruktur mit sich: Weg von zentralen Kraftwerken, hin zu verteilten Erzeugern, Speichern und Verbrauchern. Diese Systeme lassen sich mit manuellen Eingriffen nicht mehr effizient steuern.

  • Das Netz wird volatiler
  • Der Verbrauch wird kleinteiliger
  • Der Steuerungsbedarf steigt

Ohne digitale Lösungen, die in Nanosekunden die Ressourcenverteilung steuern, droht nicht nur Ineffizienz – es ist gar nicht manuell machbar. Für Versorger, Betreiber, aber auch für institutionelle Investoren drohen also – ganz wie in der Digitalisierung – Berater, Dienstleister und Engineeringteams, die statt bekannte und gut erprobte Lösungen zu adaptieren, das Rad neu erfinden. Und damit alle Kinderkrankheiten, die Nutzer vergrezen

Das ist in der jüngeren, deutschen Ingenieursgeschichte ja mehr als einmal vorgekommen: Die Automobilhesteller hätten die Möglichkeiten, die User Interfaces und moderne User Experience

Was ist ein virtuelles Kraftwerk

Ein virtuelles Kraftwerk ist kein Gebäude aus Beton und Stahl, sondern eine Idee – eine digitale Klammer, die viele kleine, verstreute Energiequellen zu einem großen Ganzen zusammenfasst. Windräder an der Küste, Solarmodule auf Hausdächern im Süden, ein Batteriespeicher in einem Gewerbegebiet, eine Biogasanlage neben einem Bauernhof – all das bleibt physisch voneinander getrennt, wird aber virtuell verbunden, über eine Softwareplattform, die diese Anlagen überwacht, steuert und koordiniert. In Echtzeit fließen Daten zusammen: Wetterprognosen, aktuelle Einspeiseleistungen, Ladezustände, Netzlasten. Was auf den ersten Blick wie ein Flickenteppich dezentraler Stromproduktion wirkt, verwandelt sich unter der Oberfläche in ein fein orchestriertes System.

Die Plattform berechnet im Nanosekundentakt, wer wann wie viel Strom einspeisen oder verbrauchen soll. Nicht nur, um möglichst effizient zu arbeiten, sondern auch, um auf die ständig schwankenden Anforderungen des Stromnetzes zu reagieren – oder auf die Preise an der Strombörse. Die Biogasanlage kann gezielt hochgefahren werden, wenn eine Windflaute bevorsteht, ein Batteriespeicher entlädt sich, wenn die Sonne hinter Wolken verschwindet. So entsteht aus vielen kleinen Unsicherheiten eine überraschende Stabilität.

Und nochmal: Das passiert täglich, nanosekundlich, seit Jahrzehnten

Was früher Großkraftwerken vorbehalten war, wird heute von Algorithmen übernommen: das Gleichgewicht im Netz zu sichern, Angebot und Nachfrage in Einklang zu bringen, Schwankungen auszugleichen, bevor sie spürbar werden. Das virtuelle Kraftwerk ist damit nicht nur ein technisches Konzept – es ist ein neues Narrativ der Energieversorgung: nicht zentral, sondern vernetzt; nicht monolithisch, sondern modular; nicht statisch, sondern lernfähig. Und vielleicht ist gerade das sein größter Fortschritt.

Wie skalierbare Energie funktioniert: Verteilte Systeme, zentral orchestriert

Cloud-Plattformen wie AWS oder Azure bestehen aus zehntausenden Servern. Virtuelle Kraftwerke bestehen aus zehntausenden dezentralen Assets: PV-Anlagen, Batteriespeicher, steuerbare Verbraucher.

Autoscaling durch datenbasierte Steuerung: In der Cloud werden Instanzen automatisch hoch- und heruntergefahren. Im Energiesystem lässt sich genauso automatisiert laden, entladen, puffern oder abschalten. Entscheidend ist nicht die Hardware, sondern die Regelintelligenz.

Prognosebasierte Optimierung

Forecasts, wie man sie in der Cloud für Auslastung verwendet, finden ihre Entsprechung in Wetterdaten, Lastprognosen oder Strompreisindikatoren. Moderne Steuerzentralen beziehen diese Daten automatisiert ein.

Nur mal als Gedanke: Wenn man da noch predictive Analytics – also KI, die in die Zukunft denken kann und heute schon bessere Wettermodelle ermöglicht, als es die Standardmodelle seit Jahrzenten tun.

Orchestrierung statt Einzelsteuerung

In der IT hat man gelernt, dass man Instanzen nicht einzeln steuern kann. Man orchestriert. In der Energie ist das ähnlich: Systeme wie EOS oder proprietäre Leitsysteme koordinieren Stromflüsse, Speicherverhalten und Reaktionszeiten.

EOS ist ein quelloffenes Steuerungssystem, das speziell für dezentrale Energiesysteme entwickelt wurde. Es ermöglicht die intelligente Koordination von Erzeugung, Speicherung und Verbrauch auf Basis aktueller Daten und vordefinierter Regeln. Durch die Offenheit des Systems lassen sich individuelle Anforderungen flexibel integrieren.

Einsichten aus der Praxis: Was wir bei Solar Estate gelernt haben

Für unseren Kunden Solar Estate haben wir ein System entworfen, das die komplexe Betriebslogik von Photovoltaikanlagen in eine digitale Struktur überführt. Eigentumsverhältnisse, Verträge, Ertragsdaten, Wartungszyklen – all das wird nicht mehr manuell verwaltet, sondern fließt in einem integrierten System zusammen. Messwerte und Dokumente, Benachrichtigungen und Investorenberichte – sie greifen ineinander wie Zahnräder in einem still laufenden Uhrwerk.

Das Entscheidende dabei ist nicht die Digitalisierung an sich, sondern ihr Grad an Durchdringung: Die Prozesse steuern sich weitgehend selbst, Personalaufwand sinkt, menschliche Fehler werden zur Randerscheinung, und das, was früher in Excel-Tabellen versteckt war, wird sichtbar – für Betreiber ebenso wie für Kapitalgeber.

Die Architektur, die hinter diesem System steht, hat sich bewährt. Heute setzen wir sie auch dort ein, wo die Anforderungen ähnlich sind: bei Stadtwerken, die ihre dezentralen Anlagen intelligenter verknüpfen wollen, oder bei Betreibern von Quartierspeichern, die nach Effizienz suchen – nicht als Schlagwort, sondern als messbare Praxis.

Jetzt ist der richtige Zeitpunkt

In vielen Teilen der Energiebranche zeigen sich die Spuren der Geschichte. Systeme, die einst für einzelne Anlagen oder Regionen gebaut wurden, stoßen heute an ihre Grenzen. Sie waren nicht dafür gedacht, zu wachsen – nicht über mehrere Standorte hinweg, nicht mit individuell zugeschnittenen Tarifen, und schon gar nicht in einer Welt, in der Speicher, Netze und Verbraucher automatisch miteinander verhandeln. Doch genau das wird zur Voraussetzung: Skalierung ist kein technischer Luxus mehr, sondern ein struktureller Imperativ.

Die gute Nachricht: Die Mittel, um diese Systeme weiterzudenken, existieren längst. Konzepte aus der modernen IT – modulare Architekturen, offene Schnittstellen, erprobte Open-Source-Werkzeuge – lassen sich auf die Energieinfrastruktur übertragen. Was in der Cloud-Industrie längst Standard ist, beginnt nun, auch im Energiesektor seine Form zu finden. Es geht nicht darum, alles neu zu bauen – sondern Bestehendes so zu öffnen, dass es sich bewegen kann.

Einladung

Wenn Sie aktuell an einem Projekt arbeiten, das wachsen soll – und sich fragen, wie das ohne mehr Personal funktionieren kann: Schreiben Sie uns.

Wir bringen unsere Erfahrungen aus Forschung und Umsetzung ein. Und zeigen, wie sich Energie skalieren lässt. Nicht mit mehr Technik. Sondern mit mehr Intelligenz.

Digitale Effizienz im Ausbau der Energiewende: Wie Solar Estate seinen Vertrieb neu konstruierte

Was passiert, wenn man ein datengetriebenes Vertriebsproblem nicht mit mehr Personal, sondern mit Mathematik und Systemdenken angeht? Die Antwort gibt ein Blick auf die Arbeitsweise von Solar Estate.

Das Problem: Vertriebsprozesse, die mitwachsen sollten – aber nicht konnten

Solar Estate plant und realisiert Photovoltaikprojekte auf Mehrfamilienhäusern in Deutschland. Die Nachfrage ist hoch, das Marktumfeld komplex. Jede Immobilie unterscheidet sich in rechtlicher, technischer und wirtschaftlicher Hinsicht. Die Folge: Der Aufwand für die Analyse, Bewertung und Angebotserstellung wuchs exponentiell mit dem Projektvolumen. Trotz hoher Nachfrage geriet das Vertriebsteam an Grenzen.

Kern des Problems war eine Exceldatei mit mehreren tausend Feldern und Verknüpfungen, in der alle Aspekte eines Projekts abgebildet wurden. Diese Datei war zwar funktional, aber schwer zu warten, nicht versionierbar und für neue Mitarbeiter kaum verständlich.

Der Umbau: Von implizitem Wissen zur expliziten Struktur

Statt den Vertriebsprozess personell auszuweiten, wurde das Modell selbst zerlegt, abstrahiert und neu strukturiert. Was als Werkzeug zur Projektbewertung begonnen hatte, wurde zu einem logischen Framework weiterentwickelt:

  • Alle Eingabefelder wurden typisiert, normalisiert und mit Abhängigkeiten versehen
  • Berechnungslogiken wurden aus der Datei extrahiert und in modulare Recheneinheiten überführt
  • Der gesamte Prozess wurde als Entscheidungsbaum mit über 100 Pfaden formell abgebildet

Das Ergebnis war ein Framework, das nicht nur die Rechenarbeit übernahm, sondern auch Vertriebsszenarien, Projektkonstellationen und technische Restriktionen in ein einziges Modell integrierte.

Das Resultat: Vertriebszeit halbiert, Skalierbarkeit verdoppelt

Die neue Architektur ermöglicht heute:

  • eine standardisierte Erstbewertung innerhalb weniger Minuten
  • automatisierte Entscheidungsvorschläge für oder gegen Projekte
  • Echtzeit-Anpassung von Finanzierungsmodellen und technischem Zuschnitt
  • ein Rollenmodell, in dem juniorige Vertriebskräfte ohne tiefes Vorwissen sinnvoll arbeiten können

Im Ergebnis wurde die Zeit für eine belastbare Projektbewertung um mehr als 90% reduziert. Noch wichtiger: Das Vertriebssystem ist nun nicht nur effizienter, sondern auch robuster gegen Fehler und besser adaptierbar für neue Rahmenbedingungen.

Ein Beispiel für datengetriebenes Wachstum im Mittelstand

Solar Estate zeigt, wie sich aus einem lokalen Vertriebsproblem eine strukturierende Kraft für die Gesamtorganisation entwickeln kann. Der Umbau des Excelmodells war kein IT-Projekt im engeren Sinne, sondern eine strategische Reaktion auf ein operatives Skalierungsproblem.

Die zugrundeliegende Logik lässt sich verallgemeinern: Wer den impliziten Code seiner Arbeitsweise sichtbar macht, kann ihn automatisieren, modulieren und dauerhaft verbessern.

Ausblick: Von der Datei zum digitalen Produkt

Die Entscheidung, aus einem internen Tool ein formalisiertes Framework zu machen, war kein Selbstzweck. Es öffnet nun die Option, dieses Wissen als Produkt weiterzudenken: für Partnerunternehmen, für andere Regionen, für angrenzende Segmente der Energiewirtschaft.

Solar Estate hat mit diesem Schritt nicht nur seinen Vertrieb restrukturiert, sondern ein Fundament geschaffen, auf dem weitere digitale Werkzeuge entstehen können. Die Energiewende braucht Tempo – und Tempo entsteht dort, wo Komplexität beherrschbar wird.

Passwordless: Passwörter sind lästig und ein Sicherheitsrisiko

Laut einer Verizon-Studie von 2021 sind 61 Prozent aller Datenschutzverletzungen mit der unberechtigten Verwendung von Anmeldedaten verbunden. Oder anders gesprochen: Es werden immer mehr Passwörter gestohlen. Die Authentifizierung über Benutzername und Passwort ist eine der anfälligsten Methoden überhaupt und wird auf Dauer nicht mehr ausreichen, um Internetnutzer und Systeme zu schützen. Die Lösung heißt: Passwordless Authentication.

Was bedeutet Passwordless Authentication?

Die passwortlose Authentifizierung ist eine Authentifizierungsmethode, die es ermöglicht, Zugang zu einer Anwendung oder einem IT-System zu erhalten, ohne ein Passwort einzugeben oder Sicherheitsfragen zu beantworten. Stattdessen verwendet der Benutzer eine andere Form des Nachweises, etwa einen Fingerabdruck, eine Transponderkarte („Proximity-Karte“) oder einen Hardware-Token-Code.

Passwordless Authentication wird häufig in Verbindung mit der Multi-Faktor-Authentifizierung (MFA) oder Single Sign-On-Lösungen eingesetzt:

  • Bei MFA muss der Benutzer mehrere Nachweise erbringen, um Zugang zu bestimmten Plattformen oder Systemen zu erhalten. Häufig wird zum Beispiel ein einmaliger SMS-Code ans Handy verschickt, wenn man sich am PC auf einer Plattform anmelden möchte. Das bloße Abgreifen der Zugangsdaten würde einem Kriminellen also nichts mehr nützen, weil er den zweiten Nachweis nicht vorlegen kann.
  • Bei Single Sign-On (SSO) kann der Benutzer denselben Sicherheits-Token oder dieselbe Proximity-Karte für den Zugriff auf alle Anwendungen und Dienste verwenden.

Warum sind Passwörter ein Risikofaktor?

Ob privat oder geschäftlich, jeder ist heutzutage auf eine Vielzahl von Anwendungen angewiesen. Die Folge ist, dass sich Benutzer eine schwindelerregende Anzahl von (häufig wechselnden) Passwörtern merken müssen. Bis zu einem gewissen Punkt mag das funktionieren, doch irgendwann nimmt das Chaos überhand. Was dann?

Sie könnten dasselbe Passwort mehrmals verwenden oder Ihre Passwörter abschwächen, was jedoch ein Risiko darstellt. Sie könnten auch einen Passwort-Manager nutzen – aber welcher ist wirklich sicher?

Bösewichte können diese laxen Praktiken der Passwortverwaltung ausnutzen, um Cyberangriffe zu starten und vertrauliche Daten zu stehlen:

  • Brute-Force-Methoden: Verwendung von Programmen, die zufällige Kombinationen aus Benutzernamen und Kennwort generieren oder gängige schwache Kennwörter wie 123456 ausnutzen
  • Credential Stuffing: Verwendung gestohlener oder geleakter Anmeldedaten eines Kontos, um Zugang zu anderen Konten zu erhalten (Nutzer verwenden oft dieselbe Kombination aus Benutzername und Kennwort für viele Konten)
  • Phishing: Verwendung von gefälschten E-Mails oder Textnachrichten, um ein Opfer dazu zu bringen, mit seinen Zugangsdaten zu antworten
  • Keylogging: Installation von Malware auf einem Computer, um Tastatureingaben von Benutzernamen und Kennwort zu erfassen
  • Man-in-the-Middle-Angriffe: Abfangen von Kommunikationsströmen (z. B. über öffentliches WiFi) und Anmeldedaten

Welche Vorteile bietet eine passwortlose Authentifizierung?

Mit der passwortlosen Authentifizierung müssen Sie sich keine Passwörter oder Antworten auf Sicherheitsfragen mehr merken. Benutzer können bequem und sicher auf Anwendungen und Dienste zugreifen, indem sie andere Authentifizierungsmethoden verwenden, zum Beispiel:

  • Proximity Badges, physische Token oder USB-Geräte (FIDO2-kompatible Schlüssel)
  • Software-Token oder Zertifikate
  • Fingerabdruck, Netzhautscan, Sprach- oder Gesichtserkennung
  • Mobiltelefonanwendung (Anrufe, SMS-Codes)

Entsprechende Vorteile sind die Verbesserung der Benutzererfahrung, Stärkung der Sicherheit und Vereinfachung der IT-Abläufe im Unternehmen.

Die neuesten MFA-Lösungen unterstützen sogar adaptive Authentifizierungsmethoden. Hierbei werden kontextbezogene Informationen (Standort, Tageszeit, IP-Adresse, Gerätetyp usw.) und Geschäftsregeln verwendet, um zu bestimmen, welche Authentifizierungsfaktoren für einen bestimmten Benutzer in einer bestimmten Situation gelten sollen.

Adaptive MFA schafft ein Gleichgewicht zwischen Komfort und Sicherheit. Beispielsweise lässt sich festlegen, dass ein Mitarbeiter, der von einem vertrauenswürdigen Heimcomputer aus auf eine Unternehmensanwendung zugreift, nur eine Form der Authentifizierung angeben muss. Greift er allerdings aus dem Ausland oder über eine nicht vertrauenswürdige WiFi-Verbindung auf die Anwendung zu, ist ein zusätzlicher SMS-Code erforderlich.

Zusammenfassung

Passwordless Authentication ist die Antwort auf zunehmende Datenschutzverletzungen durch kompromittierte Anmeldedaten. Viele Nutzer unterschätzen immer noch, wie schnell und einfach Passwörter gestohlen und geknackt werden können. Mit passwortlosen Authentifizierungsmethoden wie Hardware-Token oder biometrischen Merkmalen lässt sich dieser Risikofaktor beheben. In Kombination mit mehreren Nachweisen (MFA) oder Single Sign-On garantieren Sie Ihren Kunden und Nutzern maximale Sicherheit und Benutzerfreundlichkeit.

Artikelbild - Freelancer auf dem Sofa bei der Arbeit

5 Freelancer aus der Hölle, die jeder Auftraggeber kennt

Ich muss leider gliech für diesen eher negativen Artikel um Verzeihung bitten. In diesem Fall halte ich es für meine Pflicht über meine Erfahrungen aufzuklären. Ich kann damit nicht der Einzige sein. Üblicherweise schreibe ich über Dinge, die funktionieren.

Der Titel dieses Betrags ist übrigens angelehnt an den Artikel „7 Kunden aus der Hölle, die jeder Freelancer kennt„.

Seit etwa 2017 habe ich die finanziellen Möglichkeiten, Aufgaben an Mitarbeiter, Dienstleister und Freelancer zu delegieren. Niemals hätte ich bis dahin gedacht, dass es so schwer ist, die beauftragte Arbeitsleistung auch tatsächlich zu erhalten. Ich habe mit Agenturen, Dienstleistern und Freelancern zusammengearbeitet – die extrem arroganten und unrealistischen Vorstellungen erlegen sind.

Ich arbeite mit professionellen Freelancern, Softwareentwicklern zusammen, die ein hervorragenden Job gemacht haben (Robert Metz, Michael Deichen, Markus Gottschau, Alecsandru, Gabriel – hervorragende Leute, danke für eure Arbeit).

Es hat sich aus meiner Sicht ein neuer Typ Freelancer gebildet, der irgendwie der Illusion erlegen ist, dass er selbst entscheidt, welche Leistungen er bei einem Auftrag erbringen wird, der Arbeitgeber seinerseits jedoch die Pflicht hat, für welches Arbeitsergebnis auch immer die Rechnung zu bezahlen.

Oft pochen diese Freelancer darauf, nicht weisungsgebunden zu sein. Im Folgenden möchte ich kurz meine Erfahrungen mit Freelancern auf den diversen Portalen und Plattformen und in den entsprechenden Aufgabengebieten darstellen.

1. Recherchen in wissenschaftlicher Qualität

Das war der Beginn meiner Erfahrungen mit virtuellen Assistentinnen. Eine wortgewandte, intelligente Frau, die gerade in den letzten Zügen ihres Studiums lag, bot wissenschaftliche Recherchen an. Ich beauftragte eine Wettbewerbsanalyse. Was ich bekam war eine Liste von Internetadressen weniger Firmen, die mal mehr mal weniger etwas mit dem in Frage stehenden Geschäftszweck und Unternehmensstandort zu tun hatten. Zu dem Zeitpunkt hielt ich es noch für einen Einzelfall.

Ich glaube nicht, dass sie mich vorsätzlich betrügen wollte. Sie hatte nur völlig realitätsferne Vorstellungen: Als fast fertige Masterstudierende hatte Sie wohl die Vorstellung, andere Stundensätze, jenseits der 50€ (2017) zu verdienen und dachte sich, die Qualität durfte auch entsprechend sein. Außerdem bat sie zwar Recherchen in wissenschaftlicher Qualität an, unterschätzte allerdings, dass die Kategorie Wirtschaft ein eigene Spezialgebiet ist.

Aus meiner Sicht war es trotzdem Betrug, als sie sich entschied, ein Arbeitsergebnis dieser Güte abzugeben und eine Vergütung zu fordern.

2. Katja (Name geändert), meine virtuelle Assistenz

Erneut hatte ich mich auf das Versprechen „virtuelle Assistenz“ eingelassen. Diesmal benötigte ich jemanden, der mit Kunden kaufmännische Angelegenheit wie das Rechnungswesen klärt. Remote. Sie bei Köln oder Unterwegs beim Wellenreiten, ich in Hamburg. Ich halte viel davon, die Möglichkeiten der IT in der Arbetis welt zu nutzen. Jeder soll nach seiner Facon selig werden. Doch die Voruteile, die Viele zu dieser Art von Arbeit haben, sollte sich vollkommen bestätigen. Unzuverlässigkeit bis hin zum Anpöbeln unseres Kunden via E-Mail war das Einzige, vorauf ich mich verlassen konnte.

Sie war sogar bereits soweit in die Prozesse integriert, als sie das Vertragsverhältnis nach einigen Ermahnungen verließ, hatten wir arge Schwierigkeiten die Arbeit, die sie tat, aufzufangen. Sie war also von Nutzen. Gleichzeit hat sie Schaden verursacht. Das ist nicht die erwartbare Arbeitsmoral. Fehler können passieren, dennoch sollten angebotene Dienste bei Buchung auch die gestellten Anforderungen erfüllen.

3. Texter

Mit etlichen Textern habe ich zusammengearbeitet. 800 Wörter lange Artikel in einer Range von 100€ bis 500€. Ein Artikel, der mit wirklich brauchbar für diesen Blog hier erschien, war nicht dabei. Der Schreiber oder die Schreiberin war stets bemüht sozusagen. Auch da war es wieder: Die Vorstellung alle Arten an Themengebieten anbieten zu können, dann aber festzustellen (und nicht selten erst nach der Beauftragung), dass das Wissen nicht ausreicht. Dazu kommt die Uneinsichtigkeit. Ein klärendes Gespräch wäre okay mit der Ansage, für welche Themen der Freelancer ansonsten geeignet ist. Doch stattdessen wird der Artikel dennoch abgeliefert. Irgendwie.

4. Supertext

Die Plattform Supertext fand ich bis vor ein paar Wochen enorm interessant. Auf der Website des Anbieter findet man ein umfangreiches Userinterface, in dem Textart, Textlänge, Branche etc. definiert werden kann. Allerdings nur wieder theoretisch. Als ich mich anmeldete um den Dienst in Anspruch zu nehmen, musste ich erstmal durch ein persönliches Onboardinggespräch mit einer Mitarbeiterin. Es musste auch unbedingt via Telefon sein. Für mich führt das den Zweck einer solchen Dienstleistung ad absurdum. Denn muss ich jeden Artikel langwierig besprechen, kann ich ihn in der Zeit auch selbst schreiben.

5. Fiverr

Wer es nicht kennt: Fiverr ist ein Marktplatz, auf dem Freelancer Aufgabenpakete anbieten. Ursprünglich zu einem üblichen Preis von fünf Dollar. Daher der Name. Heute ist das anders, auf der Welt herrschen unterschiedliche Lohnniveaus – soviel ist klar.

Auf mich zumindest machte Fiverr zudem immer den Eindruck, man können Dienstleistungen in Pkateform dort einfach buchen. So einfach wie man einen Hotelaufenthalt bucht oder ein Produkt bei Amazon kauft. Doch das ist nicht so. Im Prinzip ist der „Kaufen“-Button auf den Angebotsseiten nutzlos. Bei rund 20 Aufträgen mit Fiverr habe ich bei 18 (ich habe es im Verlauf geprüft) die Reaktion bekommen, dass zuerst die Anfrage besprochen werden soll, bevor ein Auftrag. Egal ob deutscher, indischer, afrikanischer oder amerikanischer Verkäufer.

Also wieder das Gleiche wie bei Suprtext.

Mehrere Keywordanalysen und -recherchen wollte ich dort in Auftrag geben. Ich habe Worddokumente zugesendet bekommen, die mein gesamtes Geschäftsmodell, Konkurrentenseiten und Basiskeywords abgefragt haben und dennoch wurden meine Aufträge abgelehnt, aufgrund mangelnder Informationen.

Gegenargument zu ausführliche Briefings sind wichtig

Es gibt natürlich Situationen, in denen ausführliche Briefing für Auftragnehmer wichtig sind. Wenn ich eine Corporate Identity oder ein neues Webdesign beauftrage. Wenn ich die Unternehmensziele überdenke und den Jahresabschluss mache. Je ganzheitlicher eine Arbeit kontrolliert werden muss, desto detailierter muss das Briefing des Freelancers oder des Mitarbeiters ausfallen.

Genau deshalb sind diese Dinge nicht geeignet, um sie zu delegieren. Und wenn ein Entscheider der Meinung ist, er müsse bei der Beauftragung letztlich alle Keywords einer Keywordsrecherche selbst vorgeben, dann fällt auch eine Keywordrecherche in diesen Bereich. Der Grund dafür ist allerdings nicht die Beschaffenheit der Aufgabe, sondern der Kontrollbedarf des Auftragsgebers. So wird jede Aufgabe undelegierbar und das ist ein Anfängerfehler bei Gründern und Selbstständigen, frischen Chefs: Micromanagement.

Als Unternehmer will ich Aufgaben abgeben. Ich will nur die Details vorgeben, die kritisch sind. Ansonsten hat der Freelancer seinen Gestaltungspielraum. In allen Dimensionen, die nicht vorgegeben sind. Genau darum ging es dem Freelancer doch, oder nicht?

Viele Freelancer sind nicht reif für das Freelancertum (insbesondere die sogenannten virtuellen Assistentinnen): Sie suchen feste Vorgaben, wo sie Freiheit bekämen und wollen Freiheit, wo sie sich an Vorgaben halten sollten.

Erklärungsversuch

Das ist natürlich extreme Spekulation. Ich habe ein paar sinnvolle Erklärungsversuche. Das Buch von Timothy Ferris „Die 4-Stunden-Woche“ konnte ich nicht zuendelesen. Zu dreist die Idee, man müsse sich seine „Kunden erziehen“ und so ausdünnen, dass nur noch die übrigbleiben, die sozusagen stubenrein sind. Also möglichst wenig auf ihr Recht pochen.

Ich gebe Jessica Fichtel vom Blog bileico.com mit ihrem Artikel („7 Kunden aus der Hölle, die jeder Freelancer kennt„) natürlich recht. Doch ihre Punkte haben immer auch eine Rückseite. Sprich: „Können wir nochmal über den Preis sprechen?“ ist nicht das Problem – Wir müssen sogar über den Preis sprechen! Die Frage ist: Wie bemessen wir einen fairen Preis? Wenn ein studierter Softwareentwickler im Schnitt 65€ in der Stunde zurecht verdient, ein ungelernte virtuelle Assistentin für Keywordrecherche bei 45€ in der Stunde aber bereits beleidigt ist. Auch das Argument „dann könnte ich es auch selber machen“ ist nunmal gerechtfertigt, wenn es wahr ist: Muss der Auftraggeber zwei Stunden aufwenden um einen Artikel schreiben zu lassen, ist es wirtschaftlicher es selbst zu tun.

Das Wirtschaftlichkeitsargument ist ein interessantes Thema in diesem Zusammenhang: Es ist doch kindisch darauf soetwas wie „Es geht nicht alles immer nur ums Geld“ bzw. um Gewinnmaximierung bzw. um Wirtschaftlichkeit. Das stimmt: Im Privatleben. In Geschäftsbeziehungen geht es genau um Konsten und Nutzen. Selbst wenn es um Spenden geht.

Schlüsse, die ich daraus ziehe

Freelancer zu finden, vor allem in diesen Allerweltsbereichen wie Texten, Assistenz, Suchmaschinenoptimierung, Rechnungswesen usw. ist ein Schmerz. Ein unglaublicher Aufwand, denn die meisten haben trotz ihrer mäßigen Arbeitsleistung volle Auftragsbücher (interessanterweise). In der Briefingkommunikation stellt sich oft heraus, dass der Freelancer nicht geeignet ist und oft sind Arbeitsergebnisse unbrauchbar.

Für mich habe ich drei Möglichkeiten, die ich versuchen werde. Es muss doch möglich sein, unkompliziert an gute Freelancer zu kommen. Upwork habe ich noch nicht probiert, das werde ich als nächstes tun. Zweitens würde ich gerne unseren bereits vorhanden Pool (oder Netzwerk) an Freelancern nutzen, um Aufgaben einfach in diesen Pool zu geben. Wer Interesse an der Aufgabe hat, kann sie sich nehmen (das geht auch in Richtung unseres Projektes Humanoid („Statt Freelancersuche, Ergebnisse erhalten“ – Könnte das Motto sein). Als dritte Möglichkeit werden es dann doch wieder Agenturen sein, die ich beauftrage, die ihre Freelancer in meinem Auftrag steuern. Das ist dann offensichtlich der Preis, den ich und die Freelancer zu zahlen haben.

Schade. Habt ihr Tipps? Wie löst ihr diese Problematik für euch?

Weiterer Artikel zum Thema: „So wirst du ein Lieblingsfreelancer„.

Beitragsbild: Google-Logo als 3D-Objekt

Wie Sie Synonyme für SEO verwenden sollten oder nicht verwenden sollten

Wenn Sie im Bereich SEO arbeiten oder gerade lernen, haben Sie wahrscheinlich schon einmal von Synonymen gehört:

Jemand hat Ihnen gesagt, dass Sie für SEO Synonyme zu Ihrer Website hinzufügen müssen.
Ein Plugin auf Ihrer WordPress-Website empfahl Synonyme für beste SEO-Ergebnisse.
Sie haben einen Hinweis auf diesen Artikel gesehen und waren neugierig, wie Synonyme Ihre SEO verbessern können.
Sie haben widersprüchliche Artikel über Synonyme gelesen und wissen nicht, was wahr ist.

Was auch immer Sie zu diesem Artikel geführt hat, Sie können eine fundierte Entscheidung in dieser verwirrenden Welt der Synonyme für SEO treffen.

Warum raten Ihnen die meisten SEOs, Synonyme zu verwenden? Die meisten SEOs werden Ihnen sagen, dass Sie in Ihren Inhalten Synonyme verwenden sollten, weil Google dies vorschreibt oder weil es eine gängige SEO-Best Practice ist. Die wenigsten wissen jedoch, wie es zur Verwendung von Synonymen gekommen ist (und kennen auch nicht die Geschichte).

Im Jahr 2010 schrieb Google in seinem offiziellen Blogbeitrag mit dem Titel „Helping Computers Understand Language“, dass:

"Das Ziel einer Suchmaschine ist es, die besten Ergebnisse für Ihre Suche zu liefern, und das Verstehen von Sprache ist entscheidend, um die besten Ergebnisse zu liefern. Ein wichtiger Teil davon ist unser System zum Verstehen von Synonymen."

Im September 2018 twitterte der Google-Suchbeauftragte Danny Sullivan:

"Dies ist ein Rückblick auf eine große Veränderung in der Suche, die aber weiterhin wichtig ist: das Verständnis von Synonymen. Wie Menschen suchen, unterscheidet sich oft von den Informationen, über die Menschen Lösungen schreiben."

Dies hat die Branche noch mehr in Aufruhr versetzt, was die Optimierung von Websites mit Synonymen angeht.

Wie ich in meinem kürzlich erschienenen Artikel über neuronales Matching erwähnt habe, werden SEO-Profis „… Ihnen sagen, dass Sie einfach Synonyme hinzufügen sollen, aber es geht nicht darum, einfach nur Synonyme oder Adjektive zu Ihrem Inhalt hinzuzufügen.“
Sollten Sie Synonyme für SEO verwenden?

Die einfache Antwort auf die Frage, ob Sie Synonyme für die Suchmaschinenoptimierung verwenden sollten, ist ein „Ja“, allerdings sollte diese Strategie mit Vorsicht behandelt werden.

Verwenden Sie Synonyme nur dann und dort, wo sie mit der natürlichen Sprache der Website und/oder Seite übereinstimmen.

Im September 2019 erwähnte John Mueller von Google in einem Hangout Q&A:

"Sie können sich Situationen vorstellen, in denen Sie vielleicht ein pharmazeutisches Produkt haben, das einen ausgefallenen medizinischen Namen hat und auch eine Art allgemeinen umgangssprachlichen Namen hat. Die Nutzer suchen vielleicht nach diesem einfacheren Namen, weil sie von ihren Freunden davon gehört haben, und wenn Sie auf Ihren Seiten nur den ausgefallenen medizinischen Namen verwenden, werden Sie Probleme haben, für diese Begriffe zu ranken.

Unabhängig davon, ob Sie Markenregeln oder Richtlinien haben, die besagen, dass Sie nur diese Art von langen medizinischen Namen verwenden sollten, wenn Sie nicht die Wörter verwenden, mit denen die Leute nach Ihren Seiten suchen, dann wird es schwieriger sein, für diese Begriffe zu ranken. Das ist nicht unmöglich, das können wir im Fall des - oder nicht, das ist leicht zu verstehen. Sogar im Fall eines langen medizinischen Namens im Vergleich zu einem umgangssprachlichen Namen können wir versuchen, das herauszufinden. Wenn Sie aber nicht erwähnen, wonach die Leute tatsächlich suchen, dann werden Sie es schwer haben. Wenn Sie also Inhalte für Nutzer schreiben und wissen, dass sie auf eine bestimmte Art und Weise suchen, dann versuchen Sie, das zu berücksichtigen."

LSI-Schlüsselwörter

LSI, oder Latent Semantic Indexing, ist eine Technik zur Verarbeitung natürlicher Sprache, die in den 1980er Jahren entwickelt wurde. „LSI-Schlüsselwörter“ sind Wörter und Phrasen, die semantisch mit einem Thema verbunden sind.

Viele SEOs werfen LSI-Keywords mit Synonymen in einen Topf, wenn es um die Optimierung einer Website geht.

Sie gehen davon aus, dass, wenn Sie Ihre Website für „Autos“ optimieren, das Wort „Automobile“ und „Fahrzeuge“ in Verbindung mit „Getriebe“, „Motor“, „Bremsen“, „Lenkung“ und anderen autoverwandten Begriffen verwendet werden sollte.

Es ist sinnvoll, dass Google LSI verwendet, twitterte John Mueller:

Alternativ verwendet Google neuronales Matching, d.h. maschinelles Lernen verschiedener Signale, um festzustellen, ob eine Seite für die Suchabsicht des Nutzers relevant ist.

Ein Beispiel: Ein Nutzer klickt auf ein Ergebnis und kommt schnell zurück, um ein anderes Ergebnis anzuklicken.

Wenn eine große Anzahl von Nutzern auf denselben Link klickt und dann zurückkommt, um ein anderes Ergebnis auszuprobieren, zeigt dies Google, dass das Ergebnis nicht den Erwartungen entspricht.

Das zweite Ergebnis, auf das die Nutzer klicken und nicht mehr zurückkommen, wird dann höher eingestuft.

Was sind semantisch verwandte Schlüsselwörter?

Die Semantik ist ein Teilgebiet der Linguistik, das sich mit der Ableitung von Bedeutungen aus einer Reihe von Wörtern befasst.

Semantisch verwandte Schlüsselwörter sind Wörter oder Phrasen, die in einer konzeptionellen Beziehung zueinander stehen und eine zusammenhängende Geschichte erzählen.

SEOs glauben, dass mehr semantisch verwandte Schlüsselwörter bedeuten, dass Ihre Webseiten mehr kontextuellen Hintergrund zu einem Thema bieten und daher in den Suchergebnissen besser abschneiden können.

Die Theorie besagt, dass Google durch die Verwendung von Synonymen und anderen themenverwandten Wörtern in der Lage ist, Verbindungen zwischen den semantisch verwandten Begriffen herzustellen und die Absicht des Nutzers bestmöglich zu erfüllen.
Was Synonyme für SEO bedeuten

Die Idee, dass Sie die Häufigkeit der Verwendung von Synonymen mit Ihren Schwerpunkt-Keywords formulieren sollten, ist eine veraltete SEO-Strategie.

Die Verwendung von Synonymen und semantisch verwandten Schlüsselwörtern sollte sich ganz natürlich in den Fluss Ihrer Website-Inhalte einfügen.

Google nutzt die Signale der Nutzer selbst mehr als die Wörter auf der Seite zu bewerten.

Ein Beispiel: Ein Nutzer sucht nach „Hund, der unberechenbar herumläuft“ oder „Hund, der unberechenbar herumspringt“. Obwohl sie das Gleiche bedeuten, werden sie als unterschiedliche Ergebnisse behandelt, obwohl beide Ergebnisse „Zoomies“ erklären.

Hund, der wild herumrennt
Hund, der eratisch herumspringt

Wenn Sie sich die Ergebnisse für „rennen“ ansehen, ist der Text einfach, mit nur 3 Erwähnungen von rennen und 13 Erwähnungen von „zoomies“ mit einer Erwähnung des exakten Ausdrucks „dog running around erratically“.

Das Ergebnis für „darting“ enthält 6 Erwähnungen von „running“ und 91 Erwähnungen von „zoomies“, ohne dass der genaue Ausdruck oder das Wort „darting“ erwähnt wird, und zusätzlich mehrere Fragen und Antwortabschnitte zum Thema.

Darüber hinaus weist das Ergebnis „Dart“ 44 Links auf, die auf die Seite verweisen, wobei 80 % dieser Links Themen rund um „Zoomies“ beinhalten, und die URL-Struktur befindet sich direkt unter der Hauptdomain.

Im Gegensatz dazu hat das Ergebnis „rennen“ keine Backlinks und die URL-Struktur ist 4 Ebenen von der Hauptdomain entfernt, aber das Ergebnis „rennen“ rangiert auch für „Hund rennt unberechenbar herum“ (obwohl „rennen“ nicht erwähnt wird):

Da das Ergebnis „darting“ die Seite mit dem Schlüsselwort „zoomies“ und so vielen Backlinks vollstopft, könnte das Ergebnis für Variationen des Begriffs auftauchen.

Durch die Überoptimierung der Seite hat die Website sich selbst mehr geschadet als geholfen.

Die Lehre daraus ist, den Inhalt einfach zu halten, Synonyme nur dann zu verwenden, wenn sie sinnvoll sind, und die Website und ihre Seiten nicht übermäßig zu optimieren.
Wann man Synonyme für SEO verwenden sollte

Verwenden Sie Synonyme nur, wenn es Sinn macht. Wenn die Daten zeigen, dass die Nutzer tatsächlich nach Begriffen suchen, die mit Ihrem Schlüsselbegriff verwandt sind, dann ist es sinnvoll, sie einzubeziehen.

Versuchen Sie nicht, Ihren Inhalt mit Synonymen vollzustopfen, nur um ein besseres Ranking zu erreichen. Bei zu vielen Synonymen oder überoptimierten Inhalten wird Google den Schwerpunktbegriff höchstwahrscheinlich nicht aufnehmen.

Ich habe zum Beispiel eine Testseite entwickelt, um Ergebnisse für Suchanfragen zum Thema „in meiner Nähe“ zu erhalten.

Die Domäne der Website ist „nearyouhub.com“, die „in Ihrer Nähe“, „in der Nähe“, „in der Nähe“ und mehr erwähnt, ohne sich stark auf „in meiner Nähe“ zu konzentrieren.

Die Website wurde vor 4 Monaten ins Leben gerufen und verzeichnet seither steigende Zugriffszahlen für die Begriffe „near me“:

Wie man Synonyme für SEO verwenden sollte oder nicht sollte

Die Idee hinter dem Test ist, dass die Nutzer nach „in meiner Nähe“ suchen, aber die Sprache auf der Website macht keinen Sinn, „in meiner Nähe“ zu sagen, da die Website FÜR den Nutzer spricht.

Wann und warum Sie keine Synonyme für SEO verwenden sollten

Wenn Ihr Thema klar ist und es keine Variationen gibt, die von den Nutzern verwendet werden könnten, um das Gesuchte zu finden, dann sollten Sie auf Synonyme verzichten.

Für Wörter wie „Tier“, „Wald“, „Sand“, „Wasser“, „Salz“ und viele andere Wörter, die auch andere Bedeutungen haben können, gibt es möglicherweise keine Alternativen, die das Gleiche bedeuten.

Ihre Marke ist ein Beispiel dafür, dass Sie sich an Ihren Schlüsselbegriff halten und nicht versuchen sollten, Synonyme zu verwenden. Ich habe zum Beispiel vor einigen Jahren mit Hint Water zusammengearbeitet, um deren Website zu optimieren. Es gab Gespräche darüber, wie der Blog Wasser auf kreativere Weise erwähnen könnte.

Wir konzentrierten uns auf die Themen Gesundheit, Ernährung und aromatisiertes Wasser, wenn wir über das Produkt sprachen. Es gab keine alternativen Schlüsselwörter zu „Wasser“ oder dem Markennamen „Hint“.

Fazit

Viele Tools und Fachleute werden Ihnen die Verwendung von Synonymen nahelegen, und manchmal ist diese Strategie auch sinnvoll. Aber verwenden Sie keine Synonyme, um Ihre Platzierung zu verbessern, wenn sie keinen Sinn ergeben. Konzentrieren Sie sich stattdessen auf beschreibende Wörter und halten Sie Ihre Inhalte einfach, leicht verständlich und für den Nutzer zugänglich.

Artikelbild: Zeigt emotionales Teammitglied

Fehlerkultur im Team: So kritisiert man richtig

Wenn Sie jemals in einem Unternehmensteam gearbeitet haben, wissen Sie, dass die meisten Mitarbeiter eine Meinung haben. Ein kluger Umgang mit konstruktiver Kritik ermöglicht es einem Teamleiter, den Beitrag aller Mitarbeiter am Arbeitsplatz zu maximieren. Menschen, die keine konstruktive Kritik annehmen, ignorieren kritische Informationen, die ihr Wachstum und ihre Entwicklung fördern können. Wenn man es versäumt, Grundregeln für das Geben und Empfangen von Feedback in einem Team aufzustellen, kann dies zu Verstimmungen, anhaltenden Konflikten und geringerer Produktivität führen.

Einzelnes Thema

Beschränken Sie sich jeweils auf ein Thema, wenn Sie Feedback geben müssen. Gönnen Sie sich etwas Zeit, um zu formulieren, was Sie Ihrer Mitarbeiterin sagen wollen, bevor Sie Einzelheiten über ihre Leistung mitteilen. Bieten Sie Ihren Rat in objektiver Weise an. Vermeiden Sie es, Ihre Autorität geltend zu machen oder Ihre persönliche Meinung einzubringen. Auch wenn Sie vielleicht versucht sind, auf die Fehler einer anderen Person hinzuweisen, um Ihre eigene Karriere voranzutreiben, erkennt der kluge Mitarbeiter, dass es normalerweise besser ist, zu kooperieren und andere zu unterstützen.

Akzeptanz

Erkennen Sie an, dass Ihre Arbeit analysiert wird und nicht Sie persönlich, wenn Sie diejenige sind, die das konstruktive Feedback erhält. Nehmen Sie eine Kritik an Ihrer Arbeit nicht als Ausdruck Ihrer langfristigen Fähigkeit, im Job erfolgreich zu sein. Das Ziel eines konstruktiven Beitrags ist es, die Arbeit zu verbessern. Ein kollaboratives Umfeld fördert den Austausch und die kontinuierliche Verbesserung. Vermeiden Sie es, sich defensiv zu fühlen, indem Sie die Verantwortung für Ihr Verhalten übernehmen und Maßnahmen ergreifen, wenn Sie können. Sie können sich zwangsläufig auf die negativen Aspekte des Feedbacks konzentrieren und sich angegriffen fühlen, aber versuchen Sie, gemeinsam an der Lösung von Problemen zum Wohle des Teams zu arbeiten. Wenn Sie beständiges Feedback aus verschiedenen Quellen erhalten, wissen Sie, dass Sie etwas haben, woran Sie in Zukunft arbeiten können.

Dokumentation

Sowohl Arbeitnehmer als auch Arbeitgeber müssen die geäußerte und erhaltene konstruktive Kritik dokumentieren. Mitarbeiter sollten Aufzeichnungen über jedes Feedback führen, das sie für ungerechtfertigt halten. Schriftliche Korrespondenz dient als Protokoll. Führen Sie zum Beispiel ein Tagebuch über den mündlichen Austausch und Kopien von E-Mails oder Berichten, die die Leistung in einem schlechten Licht darstellen. Weder ein Arbeitnehmer noch ein Arbeitgeber sollte versuchen, sich auf unprofessionelle Weise an einem Kontrahenten zu rächen.

Verbesserung

Konstruktive Kritik an der Teamleistung am Arbeitsplatz ermöglicht es den Mitarbeitern zu erkennen, dass sie nicht perfekt sind. Vergangene Teamkonflikte sollten die aktuelle Projektarbeit nicht beeinträchtigen. Wenn nötig, vereinbaren Sie ein Treffen, um die Situation zu klären. Jeder Mensch macht Fehler. Um die Teamleistung zu maximieren, sollten Sie jeden Mitarbeiter dazu ermutigen, die Verantwortung für seine Arbeit zu übernehmen, die Ergebnisse doppelt zu überprüfen und sich zu vergewissern, dass er die beste Arbeit leistet, bevor er sie abgibt. Dadurch werden Flüchtigkeitsfehler, dumme Fehler und peinliche Probleme vermieden. Durch die Schaffung eines Umfelds, in dem jeder erwartet, Feedback zu erhalten, schafft ein Teamleiter einen Arbeitsplatz, der übermäßig kritische Kommentare auf ein Minimum reduziert und sich auf kontinuierliche Verbesserungen konzentriert.

Gelernt: Suchmotivation kann auch indirekt sein

Für unsere Smoketests, die wir häufig für alle möglichen neuen Angebote durchführen, ergab sich, dass unsere DevOps-Dienstleistungen nicht direkt das Kaufinteresse des Kunden ansprechen konnten. Am Beispiel unserer DevOps-Angebote, konnten wir also nicht auf die naheliegenden Suchbegriffe gehen. Beispielsweise „devops dienstleistungen“ oder „devops team beauftragen“. Warum nicht und wie haben wir das gelöst?

TL;DR: Das Suchvolumen ist nicht groß genug. Es lässt sich kein ausreichend großer Traffic in kurzer Zeit für einen Smoketest erreichen. Es müssen benachbarte Interessen (z.B. plulp „softwareentwicklung beauftragen“) mit dem DevOps-Angebot beworben werden.

Spannenderweise ist das Interesse via Google für ein Buzz-Thema wie DevOps nicht groß genug. Die IT-Entscheider lieben dieses Thema, weil es langfristig Geld spart. Und dennoch: Dienstleistungen werden nicht gesucht.

In der SEO-Fachsprache Folgendes: Die Intention der Suchen (der sogenannte „Intent“) ist eher „informational“ und nicht „commercial“. Es gibt insgesamt vier: „transactional“ und „navigational“ sind die anderen zwei. Bei kommerziellen Suchen handelt es sich um Anfragen, welche in einen Kauf oder eine (vermutlich) kostenpflichtige Dienstleistung münden sollen. Beispielsweise “Dreirad kaufen, Betreuung Online Marketing“. Eine informative Suche ist in der Regel ein einzelner Begriff, welchen man erklärt haben möchte oder auch ein Vorgang oder eine Tätigkeit, die man erläutert haben mag. Als Beispiel “Europaparlament”, “Wie ziehe ich Tomaten auf dem Balkon?”, “Hinkelsteinherstellung”.

Es wird also nach DevOps gesucht, aber eher zu informativen Zwecken. Warum das so ist, ist mir zum jetzigen Zeitpunkt noch nicht klar. Eine Erklärung wären die verschiedenen Markttypen (nachzulesen beispielsweise bei Steve Blank, „Four Steps to the Epiphany“, ): Blank sagt, es gibt vier Typen von Märkten, nämlich existierende, resegmentierte, neue und Klonmärkte. Zählt DevOps noch zu den neuen oder resegmentierten Märkten? Dann sucht es niemand. Aber ist das so? So buzzy das Thema ist, bin ich ziemlich sicher, es ist DevOps-Dienstleistungen ein etablierter und damit existierender Markt in dem es ja auch genügend Konkurrenz gibt. Nach „Flugtaxi bestellen“ sucht erstmal noch kaum jemand. Wenn ich Flugtaxis anbiete, bin ich erstmal in einem neuen Markt und muss erstmal das Suchvolumen eine „adjacent“ (benachbarten) Marktes anzapfen: „Taxi bestellen“. Da habe ich natürlich mit erhöhten Streuverlusten zu kämpfen, aber das ist Preis des Innovationsgrades.

Ansonsten habe ich nur eine Arbeitshypothese. Vielleicht informiert sich ein Entscheider heute über die Vorteile von DevOps, ist aber in den meisten Fällen ohnehin mit einem Entwicklungsdienstleister bedient, bei dem er dann die Umstellung auf DevOps-Prozesse fordert und beauftragt.

Aus unserer Erfahrung gibt es viele Software-Dienstleister, die keine automatisierten CI/CD-Prozesse haben oder nur rudimentäre. Zumindest nach der informativen Recherche sollte also ein kommerzielles Interesse entstehen, um externe Hilfe dazu heranzuziehen. Was sich nach meinem Verständnis in einem entsprechenden Suchverhalten widerspiegeln sollte. „devops beratung“ z.B. Da dies nicht so ist, habe ich offensichtlich noch eine Verständnislücke. Ich werde das weiter analysieren.

Gelernt habe ich aber schonmal: Wenn ich Birnen via Google verkaufen möchte, kann ich nicht unbedingt darauf setzen, dass Kaufinteressierte „Birnen kaufen“ suchen. Das muss ich erst validieren. Falls das Ergebnis ist, das Suchvolumen ist gering, ist die Frage wieso. Eventuell weil Birnen out sind. Die saisonale Nachfrage nicht da ist. Es gibt viele Gründe. Wenn das nicht passt, kann es auch sein, dass nur indirektes Interesse besteht und man über – ich nenne sie mal so – „Strohmann-Keywords“ gehen. Dann muss ich mich für meine Birnen bei der Suche „Äpfel kaufen“ unterhaken.

Positionierung: Ergebnisse des Smoketests mit Google Ads

So, wir kennen also die Angebotslücken am Markt (Artikel „Ergebnisse unserer Markanalyse“). Aus der Marktanalyse wissen wir, dass das Angebot für Marktplatzentwicklung und DevOps relativ gering ist. Also klare Sache? Die entsprechenden Suchanfragen bei Google bespielen und die Projektanfragen flattern rein? Denkste!

Neben der A/B-Splittests, der Smoketests, der Landingpages, der Zielgruppendefinition ist auch das Schalten und Designen von Google Anzeigen wieder eine eigene Wissenschaft. Auch hier bin ich Autodidakt und schreibe diesen Artikel als Amateur im Online Marketing (Auch wenn ich mittlerweile überzeugt bin, dass man diesen Anspruch an Kleinteiligkeit bei den meisten sogenannten Experten nichteinmal bekommen wird).

Die Keywordrecherche mittels „Intents“

Die Idee war, eine Keywordrecherche durchzuführen. Die Grundlagen kenne ich seid Jahren. Ich habe zusätzlich gelernt, dass Google mittlerweile verschiedene Suchanfragen bestimmten, sogenannten „Intents“ zuordnet. Für unsere Themen wäre das z.B. der Intent „Was ist Marketplace Development?“ oder „Was ist DevOps?“. Diese Intents gibt es in drei Kategorien: Informational, Purchase und Transactional. Die „Was ist…“ Intents sind klar aus der Kategorie Informational. Denn diese Intents suchen halt nach Detailinformationen. Uns wir später noch beschöftigen, dass es nicht immer klar ist, zu welcher Kategorie Google gewisse Intents zuordnet.

Mir waren die Intentkategorien erstmal egal. Ich habe eine erste Keywordrecherce, vorerst für DevOps selbst gemacht und diese Liste dann einem selbsternannten Keywordexperten gegeben. Der hat dann noch diverse Tools verwendet, um weitere Keywordideen zu finden. Wahrscheinlich hat der auch nichts anderes gemacht, als den Google Keyword Planner zu verwenden und mich dafür zu Kasse gebeten. So ist das Unternehmerleben: Manchmal zahlt man nur für die Möglichkeit einer erbrachten Leistung.

Ich habe unterschiedliche Keywords in der Liste: „devops ci cd“, „devops vorteile“, „gitlab devops“, „devops bedeutung“, „devops tutorial“, „devops“ und viele ähnliche Weitere. Wie man sieht, sind fast alle aus der Kategorie Informational, aber zu welcher Kategorie gehört „devops“?

Anzeigen entwerfen

Jetzt ist die Frage: Ist da genug? Ich habe jedenfalls jetzt erstmal keine Ideen mehr.

Der Verlauf der Kampagne

Gewundert hat mich, dass es wieder nur 5000 Menschen zu geben scheint, die in ganz Deutschland, Österreich und der Schweiz, die in drei Wochen nach DevOps-Themen bei Google suchen. Das glaube ich nicht, wenn man sich den Buzz um DevOps vor Augen führt. Eher hätte ich damit gerechnet, dass 10000 pro Woche suchen und entsprechend die Klickpreise hoch sind, da es viel Konkurrenz gibt.

An den schlechten Klickrate konnte ich auf die Schnelle nichts ändern. Aber die Anzahl der Impressionen könnte auch an unserem Tagesbudget gelegen haben. Daher habe ich dieses mal von 5€ auf 15€ pro Tag angehoben und tatsächlich war ein proportionaler Anstieg der Klicks zu sehen. Da ist also Luft nach oben.

Der Klickpreis liegt bei unter 1,50€, was ich okay finde und uns Spielraum für Experimente gibt. Bei 10€ pro Klick wäre jedes weitere Experiment ein teures Unterfangen.

Ergebnisse des Smoketests

Auf wenn also die Performance mit 1,21% Klickrate (Click Trough Rate, CTR) unterirdisch ist. Die Ausstiegsrate auf unserer DevOps-Landingpage ist auch nicht so gut. 20% steigen derzeit aus. Eine gute Erkenntnis ist aber, dass wir 1,48€ pro Klickzahlen und mit einem Budget von 25€ pro Tag durchschnittlich 20 User an Traffic auf unsere Landingpage leiten können, wann immer wir wollen.

Was uns eine neue Kundenanfrage (also eine Konversion) allerdings kostet, können wir aktuell nicht abschätzen, da wir bisher leider keine Konversion hatten. Wir können nur sagen, dass bei jetzigem Setting, eine Kundenanfrage teurer als 155€ ist, was ich nicht gehofft habe. Hoffentlich können wir das optimieren.

Learnings

Build, Meassure, Learn ist noch immer das Motto. Also war haben wir gelernt? Wir können Hypothesen für einen nächsten Test ableiten. Eine starke Vermutung ist die Intentkategorie. Wir haben Anzeigen geschaltet, die einen Suchenden erwarten, der nach einer Dienstleistung sucht, die also einen Intent der Kategorie Purchase erwarten. Die Keywords gehen fast alle eindeutig auf Intents der Kategorie Information. Und selbst das Keyword „devops“, das nicht eindeutig einer Intentkategorie zuzuordnen ist, gehört wahrscheinlich zu Information. Denn schaut man sich die anderen Suchergebnisse und Anzeigen auf „devops“ an, sind dies klar Inhalte, die DevOps erklären und es nicht verkaufen wollen.

Daraus erklärt sich möglichweise die niedrige CTR. Wir sollten als Experiment also Anzeigen entwerfen, die Informationen zum Thema bieten.

Nebenbei: Kann man daraus eine Regel ableiten? Wenn das zentrale Keyword eines Themas zur Intentkategorie Information gehört und ein hohes Interesse erfährt, dann ist das Thema in einem Frühstadium des Produktlebenszyklusses?

Aber wenn es also so gut wie keine Suchen vom Intent Purchase gibt, woher kommen dann die Kunden für DevOps. Nur wie unsere durch Word-of-Mouth? Vielleicht von Messen? Irgendwo müssen die ja herkommen. Eine Hypothese ist, unsere Kunden geben allgemeine Keywords ein um dann einen auf DevOps spezialisierten Dienstleister aus der Masse herausstechen zu sehen und mit den Vorteilen von DevOps konvertiert werden. Das entspricht allerdings wenig meiner persönlichen Erfahrung mit Kundenverhalten.

Ausblick

Wir werden es sehen. Wir machen nun folgende Experimente: Wir checken, ob die CTR bei Anzeigen, die dem Informationintent entsprechen, steigt. Wir checken, ob DevOps-Anzeigen auf unspezifische Suchen wie „Individuelle Softwareentwicklung“ besser funktionieren. Wir A/B-Splittesten die DevOps-Landingpage um zu schauen, ob wir nicht trotz der schlechten Werte, einen akzeptable Preis pro Projektanfrage erzielen können. Letztlich, wenn 1/10 Anfragen erfolgreich ist, wir je Anfrage einen Aufwand von 4 Stunden haben, haben wir eine CAC (Customer Acquisition Cost) von etwa 2.500€, was bei üblichen Projektumfängen immer noch okay wäre.