Schlagwort-Archive: ai

AI-augmented Algorithms: Wie wir bei HHLA einen Blocker der Digitalisierung überwunden haben

Seit über 20 Jahren investieren Unternehmen weltweit in die Digitalisierung. ERP-Systeme, Prozessautomatisierung, Robotic Process Automation und Business Intelligence haben ganze Branchen transformiert. Dennoch bleiben zentrale Prozesse bis heute unvollständig digitalisiert. Die Gründe sind vielfältig, doch eines sticht heraus: eine bestimmte Klasse von Prozessen, die zwar theoretisch algorithmisch lösbar ist, in der Praxis jedoch an der Komplexität scheitert.

In eigener Sache: Schreiben sie mich gerne direkt an, wenn sie einen Austausch zu dem Thema wünschen. Linkedin: https://www.linkedin.com/in/heusinger/ oder nutzen Sie unser Kontaktformular.

Mit dem Aufkommen von Large Language Models (LLMs) keimte die Hoffnung, auch diese Blockerprozesse adressieren zu können. Doch schnell wurde deutlich: LLMs sind nicht deterministisch, sie halluzinieren und liefern Ergebnisse, die nur schwer auditierbar sind. Für kritische Prozesse mit regulatorischen Anforderungen reicht das nicht aus.

In der Forschung wird deshalb ein neuer Ansatz diskutiert: AI-augmented algorithms – hybride Architekturen, in denen deterministische Algorithmen und KI gezielt zusammenwirken. Gemeinsam mit der Hamburger Hafen und Logistik AG (HHLA) konnten wir in einem Pilotprojekt zeigen, dass dieser Ansatz in der Praxis funktioniert.

Problemstellung: Zoll- und Containerklassifikation

Die Zoll- und Containerklassifikation ist eine der Kernaufgaben im internationalen Handel. Theoretisch scheint sie klar strukturiert:

  • Jeder Container enthält eine Ware.
  • Diese wird einer Zolltarifnummer (HS-Code) zugeordnet.
  • Daraus ergeben sich Zollsatz, Lagerung und Sicherheitsprüfung.

Auf dem Papier ist das ein deterministischer Prozess. In der Praxis jedoch entsteht eine nahezu unbeherrschbare Komplexität:

  1. Mischladungen: Ein Container kann hunderte verschiedene Produkte enthalten.
  2. Unvollständige oder mehrdeutige Angaben: Papiere enthalten oft nur grobe Beschreibungen („Maschinenbauteil“).
  3. Sonderregelungen: Handelsabkommen wie EU–Südamerika, Brexit oder Sanktionen führen zu abweichenden Regeln.
  4. Abweichungen: Gefahrgut, Kühlketten oder Dual-Use-Güter erfordern besondere Behandlung.
  5. Temporäre Ausnahmen: In Krisenzeiten, wie während der Pandemie bei medizinischen Produkten, gelten zeitlich begrenzte Regelungen.

All diese Fälle sind prinzipiell regelbasiert abbildbar. Doch das Regelwerk würde so umfangreich, dass es kaum noch wartbar wäre. Kleine Änderungen in den Rahmenbedingungen könnten massive Anpassungen im System nach sich ziehen. Genau deshalb galt dieser Prozess lange als „nicht digitalisierbar“.

Ansatz: AI-augmented Algorithms

Im HHLA-Pilotprojekt haben wir uns diesem Problem gestellt und bewusst eine hybride Architektur gewählt. Ziel war es, die Stärken beider Welten – deterministische Algorithmen und KI – zu kombinieren.

Deterministischer Kern

Unverrückbare Regeln wie gesetzliche Vorschriften, Abgabenberechnungen oder zwingende Sicherheitsstandards wurden in einem klassischen Algorithmus abgebildet. Dieser Teil bleibt deterministisch, transparent und auditierbar.

KI-gestützte Vorverarbeitung

LLMs kamen dort zum Einsatz, wo die Regelkomplexität explodierte. Konkret:

  • Interpretation von unklaren oder unvollständigen Warenbeschreibungen.
  • Normalisierung unterschiedlicher Formulierungen.
  • Clustering von Sonderfällen, um Variantenvielfalt zu reduzieren.

Zusammenspiel

Die KI liefert Vorentscheidungen und standardisierte Inputs, der Algorithmus trifft die endgültigen, rechtlich bindenden Berechnungen. So entsteht ein System, das die Flexibilität menschlicher Interpretation mit der Strenge deterministischer Logik verbindet.

Ergebnisse aus dem Pilotprojekt

Das Zusammenspiel von KI und Algorithmus brachte mehrere Vorteile:

  • Transparenz und Auditierbarkeit: Die endgültigen Entscheidungen basieren auf klar nachvollziehbaren Regeln.
  • Flexibilität: Sonderfälle können realistisch verarbeitet werden, ohne dass das System kollabiert.
  • Robustheit: Anpassungen an neue Handelsabkommen oder temporäre Ausnahmen lassen sich schneller einpflegen.
  • Effizienz: Der manuelle Aufwand für Zollklassifikation sank deutlich, während die Bearbeitungszeit pro Container drastisch reduziert wurde.

Damit gelang erstmals die vollständige Automatisierung eines Prozesses, der bislang als „nicht digitalisierbar“ galt.

Einordnung: Drei Typen von Aufgaben

Das HHLA-Projekt zeigt auch, wie wir Aufgaben systematisch klassifizieren können:

  1. Algorithmisch automatisierbar: Der klassische Fall – klare Regeln, deterministisch lösbar. Trotz 20 Jahren Digitalisierung sind viele dieser Prozesse noch nicht vollständig umgesetzt.
  2. Theoretisch algorithmisch automatisierbar, praktisch aber zu komplex: Die Blockerprozesse, die in der Vergangenheit meist aufgeschoben wurden. Hier bieten AI-augmented algorithms nun eine Lösung.
  3. Kommunikationserforderlich: Aufgaben, die Sprache, Aushandeln oder Interpretation benötigen. Mit LLMs rücken auch sie zunehmend in Reichweite.

Die eigentliche Innovation liegt in Typ 2 – Prozesse, die bislang unüberwindbare Komplexität darstellten, können heute mit hybriden Architekturen adressiert werden.

Implikationen für Unternehmen

Das Beispiel zeigt deutlich: Die nächste Welle der Digitalisierung wird nicht durch „mehr KI“ allein entstehen. Stattdessen geht es darum, Architekturen zu entwickeln, in denen Algorithmen und KI gezielt zusammenarbeiten.

Für Unternehmen bedeutet das:

  • Investitionssicherheit: Bestehende Systeme müssen nicht ersetzt, sondern modular erweitert werden.
  • Compliance: Rechtliche Vorgaben bleiben überprüfbar und auditierbar.
  • Skalierbarkeit: Prozesse, die bislang von Expert:innen dominiert wurden, können standardisiert und vervielfältigt werden.
  • Wettbewerbsvorteil: Wer diese Blockerprozesse zuerst automatisiert, gewinnt Geschwindigkeit und Effizienz.

Fazit

Nach zwei Jahrzehnten Digitalisierung bleibt viel zu tun. Klassisch algorithmisch lösbare Prozesse sind keineswegs abgeschlossen. Kommunikationsaufgaben öffnen sich langsam durch LLMs. Doch der eigentliche Durchbruch liegt dazwischen: in den Prozessen, die zwar deterministisch beschreibbar, aber praktisch zu komplex für reine Algorithmen waren.

Das HHLA-Pilotprojekt zeigt: Mit AI-augmented algorithms lassen sich diese Blockaden überwinden. Prozesse, die lange als „nicht digitalisierbar“ galten, werden transparent, auditierbar und gleichzeitig flexibel genug für die Realität.

Wir werden diesen Ansatz bald auch in unseren kostenlosen Prozessrechner aufnehmen. Wenn Sie vor ähnlichen Herausforderungen stehen, sprechen Sie uns gerne direkt an – wir teilen unsere Erfahrungen aus dem Pilotprojekt.

Welche Prozesse sind in Ihrem Unternehmen bisher unantastbar geblieben?

Der EU AI Act: Orientierung für Manager im Mittelstand

Die Europäische Union hat mit dem AI Act erstmals einen umfassenden Rechtsrahmen für den Einsatz von Künstlicher Intelligenz geschaffen. Während KI-Anwendungen in vielen Bereichen Chancen eröffnen, wächst zugleich die Sorge um Sicherheit, Transparenz und Grundrechte. Der AI Act setzt hier an und schafft ein verbindliches Ordnungssystem. Für Entscheider im Mittelstand bedeutet das: Klarheit in einem Feld, das bislang oft unübersichtlich war.

Das Problem

Unternehmen implementieren zunehmend KI-Systeme – ob in der Kundenkommunikation, im Personalmanagement oder in der Produktionssteuerung. Dabei ist oft unklar, welche rechtlichen Anforderungen gelten. Systeme, die im Hintergrund Prozesse optimieren, wirken harmlos, doch es gibt Anwendungen, die tief in Grundrechte eingreifen können: Gesichtserkennung, automatisierte Kreditentscheidungen oder Bewerberauswahl ohne menschliches Zutun. Ohne klare Regeln riskieren Unternehmen nicht nur regulatorische Sanktionen, sondern auch Reputationsverluste und den Vertrauensverlust bei Kunden und Mitarbeitenden.

Kontext & Analyse

Der AI Act ordnet KI-Systeme nach ihrem Risiko. Entscheidend ist dabei nicht die technische Funktionsweise, sondern der konkrete Anwendungsfall.

Unzulässiges Risiko (verboten): Systeme, die Menschen manipulieren, ihre Verletzlichkeit ausnutzen oder Social Scoring betreiben, sind in der EU nicht erlaubt. Beispiele sind Emotionserkennung in Schulen oder am Arbeitsplatz, ungezieltes Sammeln von Gesichtsbildern oder die Bewertung von Personen allein anhand sozialer Merkmale.

Hohes Risiko (stark reguliert): Hierzu gehören KI-Systeme in Bereichen wie kritischer Infrastruktur, Justiz, Migration, Gesundheitsversorgung oder Bildung. Auch Anwendungen im Personalwesen – etwa KI-gestützte Auswahlprozesse – fallen darunter. Für diese Systeme gelten strenge Anforderungen: Datenqualität, Nachvollziehbarkeit, Risikomanagement, technische Robustheit und menschliche Kontrolle müssen gewährleistet sein.

Begrenztes Risiko (Transparenzpflicht): KI-Systeme wie Chatbots oder Deepfakes dürfen genutzt werden, müssen aber für Nutzer klar als KI erkennbar sein. Die Verantwortung liegt hier vor allem bei der transparenten Kommunikation.

Minimales Risiko (keine Regulierung): Viele alltägliche Anwendungen, etwa Spamfilter oder KI in Videospielen, fallen in diese Kategorie. Allerdings verändert sich dieser Bereich mit dem Aufkommen generativer KI rasant. Anwendungen, die bislang als gering riskant galten, können durch neue Fähigkeiten an Bedeutung und damit an Regulierungspflicht gewinnen【5†Future-of-Life-InstituteAI-Act-overview-30-May-2024.pdf】.

Für Manager im Mittelstand ist die Botschaft klar: nicht jede KI ist gleich riskant. Maßgeblich ist, wofür sie eingesetzt wird. Ein Chatbot zur Terminbuchung ist anders zu bewerten als ein System, das Personalentscheidungen trifft.

Optionen und Einsichten

Warum reguliert die EU überhaupt? Die Motivation liegt in zwei Dimensionen: Schutz von Grundrechten und Sicherung fairer Marktbedingungen.

KI kann Verhalten beeinflussen und Entscheidungsprozesse entziehen, ohne dass Betroffene es merken. Systeme, die Menschen anhand sozialer Kriterien bewerten, bergen die Gefahr von Diskriminierung. Zudem können Unternehmen durch intransparente Praktiken Wettbewerbsvorteile erzielen, die langfristig Vertrauen in Märkte und Institutionen untergraben. Der AI Act soll hier klare Grenzen ziehen.

Für Unternehmen ergeben sich drei zentrale Handlungsfelder:

  • Prüfen: Jedes Unternehmen sollte seine eingesetzten KI-Systeme inventarisieren und den Risikoklassen zuordnen. Das betrifft nicht nur selbst entwickelte, sondern auch eingekaufte Systeme.
  • Absichern: Für Hochrisiko-Anwendungen sind Prozesse erforderlich, die Datenqualität sichern, Dokumentation ermöglichen und menschliche Aufsicht gewährleisten. Dies bedeutet auch, Verantwortlichkeiten klar zu definieren.
  • Kommunizieren: Transparenz wird Pflicht. Ob Kunden, Mitarbeitende oder Aufsichtsbehörden – wer KI nutzt, muss deren Einsatz offenlegen und erklären können.

Gerade im Mittelstand kann dies herausfordernd sein. Doch die regulatorischen Vorgaben lassen auch Chancen erkennen: Wer frühzeitig Transparenzstandards etabliert, kann sich im Wettbewerb als vertrauenswürdiger Partner positionieren.

Ausblick

Die Umsetzung des AI Act erfolgt in Stufen:

  1. Nach sechs Monaten gelten die Verbote für unzulässige Systeme.
  2. Nach zwölf Monaten greifen die Vorgaben für General Purpose AI, also große Sprach- und Basismodelle.
  3. Hochrisiko-Systeme müssen innerhalb von zwei bis drei Jahren die Vorgaben erfüllen.

Für Entscheider bedeutet das: Es bleibt keine Zeit zu warten. Unternehmen sollten jetzt beginnen, ihre KI-Landschaft zu analysieren und Prozesse zur Risikobewertung und Dokumentation einzuführen. Je nach Branche und Einsatzgebiet wird dies ein überschaubarer oder ein substantieller Aufwand sein.

Offen bleibt, wie die EU die Einhaltung in der Breite überwachen und Verstöße effektiv sanktionieren wird. Mit der Einrichtung eines AI Office und nationaler Behörden entsteht zwar ein Kontrollrahmen, doch dessen praktische Durchsetzung muss sich erst beweisen. Sicher ist jedoch: Unternehmen, die frühzeitig ihre KI-Praktiken prüfen und anpassen, gewinnen Handlungssicherheit und reduzieren Risiken. Für den Mittelstand kann dies ein strategischer Vorteil sein.

Fazit

Der AI Act ist keine Innovationsbremse, sondern ein Versuch, KI-Nutzung mit europäischen Werten in Einklang zu bringen. Für Manager im Mittelstand bietet er Orientierung: Welche Systeme sind erlaubt, welche streng reguliert, welche gänzlich verboten. Die Aufgabe besteht nun darin, die eigenen Anwendungen entlang dieser Linien einzuordnen und die notwendigen Schritte einzuleiten. Wer dies proaktiv angeht, stärkt nicht nur die eigene Compliance, sondern auch die Wettbewerbsfähigkeit im europäischen Markt.

Automatisierte T-Shirt-Produktion als Blaupause für eine profitable Reindustrialisierung Europas

Die westlichen Volkswirtschaften stehen vor der Herausforderung, Industriezweige zurückzuholen, die in den letzten Jahrzehnten in Billiglohnländer ausgelagert wurden. Ein besonders prominentes Beispiel ist die Textilproduktion. Anhand eines konkreten, technischen Szenarios zeigt dieser Artikel, wie ein automatisiertes System zur T-Shirt-Produktion, gestützt durch sogenannte Sewbots, als wirtschaftlich tragfähiges Muster für eine neue industrielle Wertschöpfung in Europa dienen kann.

Technologischer Wandel und wirtschaftliche Chance

Bis heute wird der Großteil der in Europa konsumierten T-Shirts in Asien gefertigt – zu niedrigen Stückkosten, aber mit erheblichen sozialen, ökologischen und ökonomischen Nebenwirkungen. Die entscheidende Wertschöpfung – sowohl finanziell als auch technologisch – findet dabei außerhalb Europas statt. Doch mit dem technologischen Fortschritt im Bereich der Robotik und CNC-gesteuerten Fertigungssysteme eröffnen sich neue Möglichkeiten, textile Fertigungsprozesse zumindest teilweise zu automatisieren und damit wieder wirtschaftlich sinnvoll im Inland durchzuführen.

Erste Prototypen sogenannter Sewbots sind heute in der Lage, einfache Nähprozesse wie das Schließen von Seitennähten, das Annähen von Etiketten oder das Säumen von Kanten mit hoher Wiederholgenauigkeit und Geschwindigkeit auszuführen. Komplexere Arbeitsschritte wie das Einsetzen von Ärmeln oder das exakte Anbringen dehnbarer Bündchen bleiben vorerst menschlicher Hand vorbehalten. Doch auch hier zeigen sich durch den Einsatz adaptiver Vision-Systeme und mechanischer Greifer neue Ansätze für Teilautomatisierungen.

Ein skalierbarer Produktionsansatz

Die Herstellung eines modernen T-Shirts lässt sich in mehrere Schritte gliedern – vom Zuschnitt über das Verbinden der Stoffteile bis hin zum Endsaum und Labeling. Während der Zuschnitt bereits heute durch computergesteuerte Lasersysteme effizient automatisierbar ist, können auch zentrale Nähprozesse durch den Einsatz einfacher CNC-Plattformen mit Industrienähmaschinen übernommen werden. Ein durchdachtes System aus manuellem Eingriff und robotischer Unterstützung ermöglicht bereits jetzt eine Automatisierung von rund 60 bis 70 Prozent der Prozesskette.

Dabei ist der wirtschaftliche Hebel nicht zu unterschätzen: Ein Prototyp, bestehend aus einem XY-Schlitten, Steuerungseinheit und industrietauglicher Nähmaschine, kann bei geringen Investitionskosten von unter 4.000 Euro eine signifikante Entlastung von manueller Arbeit schaffen. Bereits bei kleiner Stückzahl rechnet sich die Anschaffung innerhalb weniger Produktionszyklen, zumal viele der Komponenten aus dem Maker-Bereich stammen und frei konfigurierbar sind.

Lokale Wertschöpfung als strategischer Vorteil

Diese technologische Möglichkeit hat weitreichende Folgen. Zum einen verbleiben die Gewinne – anders als beim Import aus Billiglohnländern – innerhalb Europas und fließen in die lokale Wirtschaft zurück. Zum anderen entstehen neue, qualifizierte Tätigkeiten im Bereich der Wartung, Systemintegration und Bedienung der automatisierten Anlagen. Zugleich können die Umweltbelastungen durch globale Logistikketten erheblich reduziert werden. Gerade im Bereich schnelllebiger Mode könnten lokale Mikrofabriken mit automatisierten Prozessen ein Gegengewicht zur Ressourcenverschwendung der Fast-Fashion-Industrie bilden.

Forschung und Politik als Enabler

Damit diese Entwicklung flächendeckend Wirkung entfalten kann, bedarf es einer gezielten Forschungs- und Industriepolitik. Zentrale Aufgaben bestehen in der Weiterentwicklung robuster Stoffgreifer, der Integration von Bildverarbeitung in Echtzeit sowie in der Standardisierung modularer Fertigungseinheiten. Auch Open-Hardware-Initiativen könnten hier eine wichtige Rolle spielen, indem sie Wissen zugänglich machen und Innovation beschleunigen.

Fazit

Die automatisierte T-Shirt-Produktion zeigt exemplarisch, dass Reindustrialisierung in Europa keine Vision für ferne Zukunft ist, sondern auf Basis bestehender Technologien bereits heute wirtschaftlich möglich erscheint. Es braucht keine milliardenschweren Großprojekte – oft genügen kluge Kombinationen aus bekannten Komponenten, ein pragmatischer Aufbau und die Bereitschaft, Automatisierung als produktiven Hebel und nicht als Bedrohung zu verstehen. Der DIY-Sewbot ist in diesem Kontext nicht nur ein technisches Experiment, sondern eine Blaupause für eine neue Generation schlanker, intelligenter und lokaler Industrieproduktion. Er zeigt, wie Europa in kleinen, konkreten Schritten Souveränität zurückgewinnen kann – wirtschaftlich, technologisch und gesellschaftlich.

Wie KI-Crawler das SEO-Spiel verändern – und was das für Content-Strategien bedeutet

Wir wollten es genau wissen. Ob sich generative KI-Modelle überhaupt gezielt beeinflussen lassen – durch Inhalte, die man online verfügbar macht. Ob es also eine Art neues SEO gibt, das nicht mehr auf Rankings in Suchmaschinen zielt, sondern darauf, Teil des aktiven „Wissens“ eines Sprachmodells zu werden. Die ernüchternde wie interessante Antwort vorweg: Es ist möglich, aber mit erheblichem Aufwand verbunden. Und es könnte sich lohnen.

Problem: Wenn Wissen im Modell statt auf der Website steckt

Die klassische Suchmaschinenoptimierung richtet sich an Systeme wie Google oder Bing, die Inhalte indexieren und ranken. Doch mit dem Aufstieg generativer Modelle wie GPT-4, Gemini oder Claude verschiebt sich die Dynamik: Nutzer\:innen stellen Fragen direkt an das Modell, oft ohne zu wissen, woher die Antwort stammt. Sichtbarkeit entsteht nicht mehr nur durch Platz 1 im Suchergebnis, sondern durch Aufnahme in die Trainingsdaten oder Retrieval-Systeme. Für Contentproduzierende stellt sich damit eine neue Frage: Wie wird man Teil dieser Antwortmaschine?

Kontext & Analyse: Wie KI-Modelle zu ihrem Wissen kommen

Große Sprachmodelle werden auf Milliarden von Webseiten, Dokumenten und Codequellen trainiert. Für die Pretraining-Phase werden Crawler eingesetzt, die öffentlich zugängliche Inhalte indexieren. Diese Inhalte müssen nicht gut gerankt sein, aber sie müssen auffindbar, verlinkt und maschinenlesbar sein. Einige Modelle nutzen ergänzend Retrieval-Augmented Generation (RAG): Dabei wird zum Zeitpunkt der Anfrage aktiv auf externe Datenquellen zugegriffen.

Wir haben in unserem Projekt testweise mehrere Domains mit hochwertigen Fachinhalten ausgestattet, strukturierte Metadaten genutzt, die Inhalte gezielt verlinkt und synthetischen Traffic erzeugt. Ziel war es, herauszufinden, ob die Inhalte in RAG-gestützten Systemantworten oder sogar direkt im Modell auftauchen.

Ergebnisse: Machbar, aber nur mit Masse

Einzelne Artikel, selbst wenn gut geschrieben, gut verlinkt und technisch optimiert, wurden nur in Ausnahmefällen erkennbar eingebunden. Erst eine verteilte, systematisch orchestrierte Kampagne – mit Dutzenden Domains, hunderten Beiträgen, koordiniertem Crosslinking und kontinuierlichem Traffic – führte zu messbaren Effekten. In Promptantworten von GPT-4 tauchten Elemente unserer Inhalte auf, teilweise paraphrasiert, manchmal wortwörtlich. Dabei wurde klar: Die Modelle „wissen“ nicht – sie haben Textmuster gespeichert. Wer diese Muster oft genug und konsistent in öffentliche Räume einspeist, kann Sichtbarkeit im Modell erzeugen.

Einsichten: Was folgt für Content-Strategien?

  • Klassisches SEO bleibt relevant, aber sollte ergänzt werden durch „AI Visibility Optimization“.
  • Inhalte müssen nicht nur für Menschen lesbar sein, sondern für Crawler logisch strukturiert und verlinkt.
  • Verteilte Strategien (z. B. mit Mikroseiten, Partnernetzwerken, Reposting mit Attribution) könnten in Zukunft gezielter eingesetzt werden, um KI-Wissen zu prägen.
  • Authentischer, substanzreicher Content hat weiter Chancen: Sprachmodelle sind weniger empfindlich für manipulative Strategien als klassische Suchmaschinenalgorithmen.

Ausblick: Ein zweiter Blick auf den Wert von Inhalten

Wenn große Modelle zu Gatekeepern für Alltagswissen werden, entscheidet ihre Trainingsbasis mit über die Sichtbarkeit von Argumenten, Fachpositionen und Deutungsmustern. Das öffnet Raum für neue Strategien – aber auch für Hoffnung: Dass gute Inhalte, echte Expertise, klug strukturierter Text wieder an Bedeutung gewinnen. Nicht, weil sie perfekt optimiert sind, sondern weil sie in einem Meer von Redundanz auffallen.

Weltuntergangsszenarien durch künstliche Intelligenz: Hoffnung und Handlungsbedarf

Wir begehen wahrscheinlich einen Denkfehler beim Ersinnen möglicher Weltuntergangsszenarien im Zusammenhang mit Künstlicher Intelligenz (KI). In dem Artikel „Advanced Artificial Agents Intervene in the Provision of Reward“ argumentieren Michael K. Cohen, Marcus Hutter und Michael A. Osborne, dass die Probleme beginnen, wenn wir anfangen, Belohnungssysteme in künstliche Agenten einzubauen. In diesem Artikel werde ich teilweise ihrer These zustimmen und behaupten, dass bestimmte Methoden der Integration von Belohnungsmechanismen in KI-Algorithmen problematisch sein können. Außerdem werde ich auf einige übersehene Aspekte des Bewusstseins und des Lebens im Allgemeinen hinweisen, die diesen düsteren Prognosen widersprechen.

Analoge Argumente und ihre Grenzen

Weltuntergangsszenarien beruhen oft auf analogem Denken, das besagt, dass, weil zwei Dinge ähnlich sind, was für das eine zutrifft, auch für das andere wahr sein muss. Beispiele für analoge Argumente sind:

  • Es könnte Leben auf Europa geben, weil dieser Mond eine Atmosphäre mit Sauerstoff hat, ähnlich wie die Erde.
  • Dieser Roman hat wahrscheinlich eine ähnliche Handlung wie ein anderer, den wir gelesen haben, daher ist er wahrscheinlich auch langweilig.
  • Das Universum ist ein komplexes System wie eine Uhr. Wir würden nicht glauben, dass eine Uhr zufällig entstehen kann, also muss etwas so Komplexes wie das Universum von einem intelligenten Wesen erschaffen worden sein.

Im Zusammenhang mit KI wird argumentiert, dass künstliche Agenten genauso gierig sein müssen wie Menschen. Wenn ein künstlicher Agent genauso ressourcenhungrig ist wie ein Mensch, würde er kontinuierlich nach mehr Energie streben und jede Strategie, einschließlich Täuschung und Manipulation, anwenden, um dieses Ziel zu erreichen.

Belohnungssysteme in Künstlichen Agenten

Cohen, Hutter und Osborne gehen tiefer auf das Problem ein und diskutieren die Belohnungssysteme in bestimmten Arten des maschinellen Lernens, insbesondere des Verstärkungslernens. Dieser Ansatz konzentriert sich darauf, geeignete Aktionen zu ergreifen, um Belohnungen in einer gegebenen Situation zu maximieren. Software und Maschinen nutzen diese Methode, um das bestmögliche Verhalten in spezifischen Szenarien zu bestimmen. Das System lernt, indem es Feedback in Form von Belohnungen oder Strafen erhält, wodurch es versteht, welche Aktionen vorteilhaft sind und verfolgt werden sollten und welche nicht und vermieden werden sollten. Diese Belohnungen und Strafen werden vom Forscher oder Entwickler definiert.

Evolutionäre Perspektiven und das Verhalten von KI

Menschliche Agenten sind Produkte der Evolution und darauf ausgelegt, ihren eigenen Interessen zu folgen. Ebenso wie es Menschen gibt, die kooperativer oder widerspenstiger sind, können in bestimmten Umgebungen widerspenstigere Agenten einen Vorteil haben und sich besser anpassen. Umgekehrt gedeihen in Umgebungen, in denen das Überleben der Gruppe und Zusammenarbeit im Vordergrund stehen, kooperative Agenten.

Studien haben gezeigt, dass sogar fest verankerte Wünsche überschrieben werden können. Zum Beispiel zeigte die Studie von James Olds und Peter Milner aus dem Jahr 1954, „Positive Reinforcement Produced by Electrical Stimulation of Septal Area and Other Regions of Rat Brain“, dass Mäuse durch Hirnstimulation so konditioniert werden konnten, dass sie einen bestimmten elektrischen Reiz der Nahrung vorzogen.

Implikationen für Künstliche Agenten

Der entscheidende Punkt ist, dass menschliche Agenten durch eine Kombination aus Gier und Überlebensinstinkten angetrieben werden. Bei der Schaffung künstlicher Agenten ist es möglich, sie ohne dieselben intrinsischen Antriebe zur unendlichen Gier zu gestalten. Die oft behauptete Natur der menschlichen Gier muss nicht zwangsläufig in KI nachgebildet werden.

Schlussfolgerung

Wenn dystopische Weltuntergangsszenarien im Zusammenhang mit KI als wahrscheinlich angesehen werden, wird es entscheidend wichtig, Lösungen zu finden. Die Möglichkeit, künstliche Agenten mit anderen Motivationsstrukturen als Menschen zu schaffen, sollte in Betracht gezogen und analysiert werden. Das Potenzial, KI zu entwickeln, die nicht die menschliche Gier widerspiegelt, könnte entscheidend sein, um die Risiken im Zusammenhang mit fortgeschrittenen künstlichen Agenten zu mindern. Weitere Forschung und durchdachtes Design sind unerlässlich, um die sichere Integration von KI in unsere Welt zu gewährleisten.

GitHub Copilot: Eine leistungsfähige, umstrittene Autovervollständigung für Entwickler

Aus dem Englischen übersetzt von Darryl K. Taft. (Quelle: thenewstack.io)

Ich beschäftige mich schon seit langem mit der Anwendungsentwicklung und habe viele Durchbrüche erlebt. Einige fallen mir mehr ins Auge als andere, und Copilot von GitHub ist einer dieser Hingucker.

GitHub bezeichnet Copilot als seinen KI-Begleiter für das Pair-Programming für Entwickler.

Die Technologie ist wirklich vielversprechend. „GitHub Copilot zieht Kontext aus dem Code, an dem Sie arbeiten, und schlägt ganze Zeilen oder Funktionen vor“, erklärt GitHub-CEO Nat Friedman in einem Blogbeitrag zur Einführung der Technologie.

Copilot hilft Entwicklern, schnell alternative Wege zur Problemlösung zu finden, Tests zu schreiben und neue APIs zu erforschen, ohne mühsam auf Seiten wie Stack Overflow und im Internet nach Antworten suchen zu müssen, so Friedman. Und da es auf maschinellem Lernen basiert, lernt es bei der Benutzung. „Während Sie tippen, passt es sich an die Art und Weise an, wie Sie Ihren Code schreiben – damit Sie Ihre Arbeit schneller erledigen können“, sagte er.

Die Technologie befindet sich derzeit in der technischen Vorabversion und wird von den Nutzern innerhalb und außerhalb von Microsoft/GitHub sehr positiv bewertet, aber auch kritisiert.

„Ich bin beeindruckt davon, wie GitHub Copilot genau zu wissen scheint, was ich als nächstes eingeben möchte“, sagte Feross Aboukhadijeh, Gründer von Socket, einem Hersteller von Datenschutz- und Sicherheitssoftware, in einer Stellungnahme. „GitHub Copilot ist besonders hilfreich bei der Arbeit an React-Komponenten, wo es unheimlich genaue Vorhersagen macht. GitHub Copilot ist zu einem unverzichtbaren Teil meines Werkzeuggürtels für Programmierer geworden.“

Alex Polozov, ein leitender Forscher bei Microsoft Research, ist zwar nicht sonderlich überparteilich, twitterte aber: „Ich übertreibe nicht, Copilot wird zu den Top-3-Tech-Entwicklungen der 2020er Jahre gehören.“

GitHub Copilot ist ein Produkt der Partnerschaft zwischen Microsoft und dem KI-Forschungs- und Einsatzunternehmen OpenAI, in das Microsoft vor zwei Jahren 1 Milliarde Dollar investiert hat.

Friedman erklärte, dass „GitHub Copilot von OpenAI Codex angetrieben wird, einem neuen KI-System, das von OpenAI entwickelt wurde.“

OpenAI Codex verfügt über ein umfassendes Wissen darüber, wie Menschen Code verwenden, und ist bei der Codegenerierung wesentlich leistungsfähiger als GPT-3, unter anderem, weil es auf einem Datensatz trainiert wurde, der eine viel größere Konzentration von öffentlichem Quellcode enthält, erklärte Friedman.

Einige Leute scheinen besorgt zu sein, dass es Code generiert, der mit Code identisch ist, der unter Open-Source-Lizenzen generiert wurde, die keine abgeleiteten Werke zulassen, und der dann von einem Entwickler unwissentlich verwendet wird.

GitHub lehnte es ab, einen Sprecher für diese Nachricht zu interviewen und verwies mich auf die recht ausführliche FAQ der technischen Vorschau. Auf meine Frage nach den Datenquellen, die Copilot verwenden würde, antwortete GitHub beispielsweise wie folgt: „Es wurde auf eine Auswahl von englischem Sprach- und Quellcode aus öffentlich zugänglichen Quellen trainiert, einschließlich (aber nicht beschränkt auf) Code in öffentlichen Repositories auf GitHub.“

But which ones?

„Mit Sicherheit verwenden sie die GitHub-Repos. Und auf jeden Fall die öffentlichen“, sagt Ronald Schmelzer, Analyst bei Cognilytica, das sich auf KI-Forschung und -Analyse spezialisiert hat. „Die Frage ist natürlich, ob sie auch die privaten GitHub-Repos nutzen. Und mit oder ohne Zustimmung der Nutzer? Weitere Quellen könnten vielleicht Stack Overflow und andere Orte sein, an denen Menschen Code zur Kommentierung veröffentlichen. Aber das ist von zweifelhafter Natur, was die Qualität angeht.“

Da Copilot auf öffentlich verfügbarem Quellcode und natürlicher Sprache trainiert wurde, versteht es außerdem sowohl Programmier- als auch menschliche Sprachen. Dies ermöglicht es Entwicklern, eine Aufgabe auf Englisch zu beschreiben, und GitHub Copilot liefert dann den entsprechenden Code, so das Unternehmen.
Unterstützt mehrere Sprachen

Ein attraktives Merkmal von GitHub Copilot ist, dass es mit einer breiten Palette von Frameworks und Sprachen funktioniert, aber diese technische Vorschau funktioniert besonders gut für Python, JavaScript, TypeScript, Ruby und Go, so Friedman.

Und laut der technischen Vorschau-Seite: GitHub Copilot ist derzeit nur als Visual Studio Code-Erweiterung verfügbar. Es funktioniert überall dort, wo Visual Studio Code funktioniert – auf Ihrem Rechner oder in der Cloud auf GitHub Codespaces. Und es ist schnell genug, um es während der Eingabe zu verwenden.

„Copilot sieht wie ein potenziell fantastisches Lernwerkzeug aus – für Entwickler aller Fähigkeiten“, sagte James Governor, ein Analyst bei RedMonk. „Es kann Einstiegshürden beseitigen. Es kann beim Erlernen neuer Sprachen helfen und für Leute, die an polyglotten Codebasen arbeiten. Es setzt wohl das reiche Erbe von GitHub als erstklassiges Lernwerkzeug fort. Es ist noch zu früh, aber KI-gestützte Programmierung wird sich durchsetzen, und wo könnte man diese Erfahrung besser machen als auf GitHub?“
Ja, aber kann es skalieren?

Einige Beobachter sehen Copilot als nützlich für einfache Projekte, aber vielleicht noch nicht reif für die erste Zeit.

„Es ist eine sehr interessante Idee und sollte bei einfachen Beispielen gut funktionieren, aber ich bin gespannt, wie gut es bei komplexen Code-Problemen funktionieren wird“, sagt Eric Newcomer, Chief Technology Officer von Enterprise Infrastructure Software