Schlagwort-Archive: ki

America’s AI Action Plan: Zusammenfassung und europäische Perspektive

Der amerikanische AI Action Plan ist ein umfassendes Regierungsprogramm, das die technologische Führung der USA im Bereich Künstliche Intelligenz sichern soll. Schon in der Einleitung wird deutlich: Es geht um globale Dominanz, wirtschaftliche Wettbewerbsfähigkeit und nationale Sicherheit. Drei Pfeiler strukturieren den Plan: Beschleunigung von Innovation, Aufbau von Infrastruktur und internationale Diplomatie und Sicherheit. Die Strategie ist auf Geschwindigkeit, Deregulierung und enge Verzahnung von Industrie und Regierung ausgerichtet.

Für europäische Unternehmen stellt sich damit nicht nur die Frage, wie sie auf diese Dynamik reagieren, sondern auch, ob sie sich weiterhin auf politische Rahmenbedingungen verlassen können oder selbst die wirtschaftlichen Impulse setzen müssen, um Politik und Regulierung in eine innovationsfreundlichere Richtung zu bewegen.

Pfeiler I: Beschleunigung von Innovation

Der erste Pfeiler setzt auf weitgehende Deregulierung, um private Investitionen und schnelle Markteintritte zu fördern. Inhalte sind u. a.:

  • Abbau regulatorischer Hürden und Einschränkungen bei Bundesprogrammen
  • Stärkung von Meinungsfreiheit und ideologiefreien Modellen in öffentlichen Beschaffungen
  • Unterstützung von Open-Source- und Open-Weight-Modellen als Innovationsmotor und geopolitisches Instrument
  • Förderung der KI-Adoption durch Pilotprojekte, Standards und branchenspezifische Testumgebungen
  • Programme für KI-Weiterbildung, Umschulung und den Erhalt von Arbeitsplätzen
  • Investitionen in KI-unterstützte Wissenschaft, hochwertige Datensätze und Grundlagenforschung
  • Aufbau von Evaluations- und Testumgebungen für KI-Systeme
  • Beschleunigter Einsatz von KI in Bundesbehörden und im Verteidigungsministerium
  • Schutz geistigen Eigentums und Bekämpfung manipulativer synthetischer Medien

Pfeiler II: Aufbau von Infrastruktur

Dieser Abschnitt adressiert die physische Grundlage der KI-Führung:

  • Vereinfachte Genehmigungsverfahren für Rechenzentren, Halbleiterfertigung und Energieprojekte
  • Modernisierung und Ausbau des Stromnetzes mit Fokus auf stabile, steuerbare Energiequellen (inkl. Kernkraft)
  • Wiederaufbau der Halbleiterproduktion in den USA
  • Hochsichere Rechenzentren für Militär- und Geheimdienstanwendungen
  • Fachkräfteoffensive für Infrastrukturberufe
  • Stärkung der Cybersicherheit kritischer Infrastrukturen und Sicherstellung „secure-by-design“-Architekturen
  • Ausbau der Fähigkeiten für Incident Response bei KI-bezogenen Ausfällen

Pfeiler III: Internationale Diplomatie und Sicherheit

Die USA wollen ihre technologische Führung exportieren und geopolitisch absichern:

  • Export des gesamten KI-Technologiestacks an Verbündete
  • Aktive Einflussnahme in internationalen Standardisierungs- und Governance-Gremien
  • Verstärkte Exportkontrollen für Hochleistungsrechner und Halbleitertechnologien
  • Globale Abstimmung bei Technologieschutzmaßnahmen
  • Systematische Bewertung von nationalen Sicherheitsrisiken durch KI-Modelle
  • Biotechnologische Sicherheitsstandards für Forschung und Industrie

Analyse

Der Plan ist in seiner Logik konsistent: Geschwindigkeit vor Vorsicht, nationale Interessen vor globalen Konsensprozessen, direkte Industriekooperation statt langwieriger politischer Kompromisse. Damit schaffen die USA einen klaren Wettbewerbsvorteil – nicht nur technologisch, sondern auch in der geopolitischen Positionierung.

Für Europa birgt dies ein strategisches Dilemma: Der regulatorische Fokus auf Vorsicht und Schutz kann in einem globalen Innovationswettlauf dazu führen, dass entscheidende Wertschöpfungsketten ins Ausland abwandern.

Ausblick: Europäische Handlungsoptionen

Wir werden in einem Folgebericht einen Gegenentwurf entwerfen, der aufzeigt, wie europäische Unternehmen – auch ohne initiale politische Weichenstellung – durch eigene Investitionen, offene Kooperationsmodelle und marktorientierte Allianzen eine dynamische KI-Industrie aufbauen können. Ziel ist es, wirtschaftliche Fakten zu schaffen, die die europäische Politik dazu zwingen, innovationsfreundlichere Rahmenbedingungen zu setzen.

Wie KI-Crawler das SEO-Spiel verändern – und was das für Content-Strategien bedeutet

Wir wollten es genau wissen. Ob sich generative KI-Modelle überhaupt gezielt beeinflussen lassen – durch Inhalte, die man online verfügbar macht. Ob es also eine Art neues SEO gibt, das nicht mehr auf Rankings in Suchmaschinen zielt, sondern darauf, Teil des aktiven „Wissens“ eines Sprachmodells zu werden. Die ernüchternde wie interessante Antwort vorweg: Es ist möglich, aber mit erheblichem Aufwand verbunden. Und es könnte sich lohnen.

Problem: Wenn Wissen im Modell statt auf der Website steckt

Die klassische Suchmaschinenoptimierung richtet sich an Systeme wie Google oder Bing, die Inhalte indexieren und ranken. Doch mit dem Aufstieg generativer Modelle wie GPT-4, Gemini oder Claude verschiebt sich die Dynamik: Nutzer\:innen stellen Fragen direkt an das Modell, oft ohne zu wissen, woher die Antwort stammt. Sichtbarkeit entsteht nicht mehr nur durch Platz 1 im Suchergebnis, sondern durch Aufnahme in die Trainingsdaten oder Retrieval-Systeme. Für Contentproduzierende stellt sich damit eine neue Frage: Wie wird man Teil dieser Antwortmaschine?

Kontext & Analyse: Wie KI-Modelle zu ihrem Wissen kommen

Große Sprachmodelle werden auf Milliarden von Webseiten, Dokumenten und Codequellen trainiert. Für die Pretraining-Phase werden Crawler eingesetzt, die öffentlich zugängliche Inhalte indexieren. Diese Inhalte müssen nicht gut gerankt sein, aber sie müssen auffindbar, verlinkt und maschinenlesbar sein. Einige Modelle nutzen ergänzend Retrieval-Augmented Generation (RAG): Dabei wird zum Zeitpunkt der Anfrage aktiv auf externe Datenquellen zugegriffen.

Wir haben in unserem Projekt testweise mehrere Domains mit hochwertigen Fachinhalten ausgestattet, strukturierte Metadaten genutzt, die Inhalte gezielt verlinkt und synthetischen Traffic erzeugt. Ziel war es, herauszufinden, ob die Inhalte in RAG-gestützten Systemantworten oder sogar direkt im Modell auftauchen.

Ergebnisse: Machbar, aber nur mit Masse

Einzelne Artikel, selbst wenn gut geschrieben, gut verlinkt und technisch optimiert, wurden nur in Ausnahmefällen erkennbar eingebunden. Erst eine verteilte, systematisch orchestrierte Kampagne – mit Dutzenden Domains, hunderten Beiträgen, koordiniertem Crosslinking und kontinuierlichem Traffic – führte zu messbaren Effekten. In Promptantworten von GPT-4 tauchten Elemente unserer Inhalte auf, teilweise paraphrasiert, manchmal wortwörtlich. Dabei wurde klar: Die Modelle „wissen“ nicht – sie haben Textmuster gespeichert. Wer diese Muster oft genug und konsistent in öffentliche Räume einspeist, kann Sichtbarkeit im Modell erzeugen.

Einsichten: Was folgt für Content-Strategien?

  • Klassisches SEO bleibt relevant, aber sollte ergänzt werden durch „AI Visibility Optimization“.
  • Inhalte müssen nicht nur für Menschen lesbar sein, sondern für Crawler logisch strukturiert und verlinkt.
  • Verteilte Strategien (z. B. mit Mikroseiten, Partnernetzwerken, Reposting mit Attribution) könnten in Zukunft gezielter eingesetzt werden, um KI-Wissen zu prägen.
  • Authentischer, substanzreicher Content hat weiter Chancen: Sprachmodelle sind weniger empfindlich für manipulative Strategien als klassische Suchmaschinenalgorithmen.

Ausblick: Ein zweiter Blick auf den Wert von Inhalten

Wenn große Modelle zu Gatekeepern für Alltagswissen werden, entscheidet ihre Trainingsbasis mit über die Sichtbarkeit von Argumenten, Fachpositionen und Deutungsmustern. Das öffnet Raum für neue Strategien – aber auch für Hoffnung: Dass gute Inhalte, echte Expertise, klug strukturierter Text wieder an Bedeutung gewinnen. Nicht, weil sie perfekt optimiert sind, sondern weil sie in einem Meer von Redundanz auffallen.

Weltuntergangsszenarien durch künstliche Intelligenz: Hoffnung und Handlungsbedarf

Wir begehen wahrscheinlich einen Denkfehler beim Ersinnen möglicher Weltuntergangsszenarien im Zusammenhang mit Künstlicher Intelligenz (KI). In dem Artikel „Advanced Artificial Agents Intervene in the Provision of Reward“ argumentieren Michael K. Cohen, Marcus Hutter und Michael A. Osborne, dass die Probleme beginnen, wenn wir anfangen, Belohnungssysteme in künstliche Agenten einzubauen. In diesem Artikel werde ich teilweise ihrer These zustimmen und behaupten, dass bestimmte Methoden der Integration von Belohnungsmechanismen in KI-Algorithmen problematisch sein können. Außerdem werde ich auf einige übersehene Aspekte des Bewusstseins und des Lebens im Allgemeinen hinweisen, die diesen düsteren Prognosen widersprechen.

Analoge Argumente und ihre Grenzen

Weltuntergangsszenarien beruhen oft auf analogem Denken, das besagt, dass, weil zwei Dinge ähnlich sind, was für das eine zutrifft, auch für das andere wahr sein muss. Beispiele für analoge Argumente sind:

  • Es könnte Leben auf Europa geben, weil dieser Mond eine Atmosphäre mit Sauerstoff hat, ähnlich wie die Erde.
  • Dieser Roman hat wahrscheinlich eine ähnliche Handlung wie ein anderer, den wir gelesen haben, daher ist er wahrscheinlich auch langweilig.
  • Das Universum ist ein komplexes System wie eine Uhr. Wir würden nicht glauben, dass eine Uhr zufällig entstehen kann, also muss etwas so Komplexes wie das Universum von einem intelligenten Wesen erschaffen worden sein.

Im Zusammenhang mit KI wird argumentiert, dass künstliche Agenten genauso gierig sein müssen wie Menschen. Wenn ein künstlicher Agent genauso ressourcenhungrig ist wie ein Mensch, würde er kontinuierlich nach mehr Energie streben und jede Strategie, einschließlich Täuschung und Manipulation, anwenden, um dieses Ziel zu erreichen.

Belohnungssysteme in Künstlichen Agenten

Cohen, Hutter und Osborne gehen tiefer auf das Problem ein und diskutieren die Belohnungssysteme in bestimmten Arten des maschinellen Lernens, insbesondere des Verstärkungslernens. Dieser Ansatz konzentriert sich darauf, geeignete Aktionen zu ergreifen, um Belohnungen in einer gegebenen Situation zu maximieren. Software und Maschinen nutzen diese Methode, um das bestmögliche Verhalten in spezifischen Szenarien zu bestimmen. Das System lernt, indem es Feedback in Form von Belohnungen oder Strafen erhält, wodurch es versteht, welche Aktionen vorteilhaft sind und verfolgt werden sollten und welche nicht und vermieden werden sollten. Diese Belohnungen und Strafen werden vom Forscher oder Entwickler definiert.

Evolutionäre Perspektiven und das Verhalten von KI

Menschliche Agenten sind Produkte der Evolution und darauf ausgelegt, ihren eigenen Interessen zu folgen. Ebenso wie es Menschen gibt, die kooperativer oder widerspenstiger sind, können in bestimmten Umgebungen widerspenstigere Agenten einen Vorteil haben und sich besser anpassen. Umgekehrt gedeihen in Umgebungen, in denen das Überleben der Gruppe und Zusammenarbeit im Vordergrund stehen, kooperative Agenten.

Studien haben gezeigt, dass sogar fest verankerte Wünsche überschrieben werden können. Zum Beispiel zeigte die Studie von James Olds und Peter Milner aus dem Jahr 1954, „Positive Reinforcement Produced by Electrical Stimulation of Septal Area and Other Regions of Rat Brain“, dass Mäuse durch Hirnstimulation so konditioniert werden konnten, dass sie einen bestimmten elektrischen Reiz der Nahrung vorzogen.

Implikationen für Künstliche Agenten

Der entscheidende Punkt ist, dass menschliche Agenten durch eine Kombination aus Gier und Überlebensinstinkten angetrieben werden. Bei der Schaffung künstlicher Agenten ist es möglich, sie ohne dieselben intrinsischen Antriebe zur unendlichen Gier zu gestalten. Die oft behauptete Natur der menschlichen Gier muss nicht zwangsläufig in KI nachgebildet werden.

Schlussfolgerung

Wenn dystopische Weltuntergangsszenarien im Zusammenhang mit KI als wahrscheinlich angesehen werden, wird es entscheidend wichtig, Lösungen zu finden. Die Möglichkeit, künstliche Agenten mit anderen Motivationsstrukturen als Menschen zu schaffen, sollte in Betracht gezogen und analysiert werden. Das Potenzial, KI zu entwickeln, die nicht die menschliche Gier widerspiegelt, könnte entscheidend sein, um die Risiken im Zusammenhang mit fortgeschrittenen künstlichen Agenten zu mindern. Weitere Forschung und durchdachtes Design sind unerlässlich, um die sichere Integration von KI in unsere Welt zu gewährleisten.

GitHub Copilot: Eine leistungsfähige, umstrittene Autovervollständigung für Entwickler

Aus dem Englischen übersetzt von Darryl K. Taft. (Quelle: thenewstack.io)

Ich beschäftige mich schon seit langem mit der Anwendungsentwicklung und habe viele Durchbrüche erlebt. Einige fallen mir mehr ins Auge als andere, und Copilot von GitHub ist einer dieser Hingucker.

GitHub bezeichnet Copilot als seinen KI-Begleiter für das Pair-Programming für Entwickler.

Die Technologie ist wirklich vielversprechend. „GitHub Copilot zieht Kontext aus dem Code, an dem Sie arbeiten, und schlägt ganze Zeilen oder Funktionen vor“, erklärt GitHub-CEO Nat Friedman in einem Blogbeitrag zur Einführung der Technologie.

Copilot hilft Entwicklern, schnell alternative Wege zur Problemlösung zu finden, Tests zu schreiben und neue APIs zu erforschen, ohne mühsam auf Seiten wie Stack Overflow und im Internet nach Antworten suchen zu müssen, so Friedman. Und da es auf maschinellem Lernen basiert, lernt es bei der Benutzung. „Während Sie tippen, passt es sich an die Art und Weise an, wie Sie Ihren Code schreiben – damit Sie Ihre Arbeit schneller erledigen können“, sagte er.

Die Technologie befindet sich derzeit in der technischen Vorabversion und wird von den Nutzern innerhalb und außerhalb von Microsoft/GitHub sehr positiv bewertet, aber auch kritisiert.

„Ich bin beeindruckt davon, wie GitHub Copilot genau zu wissen scheint, was ich als nächstes eingeben möchte“, sagte Feross Aboukhadijeh, Gründer von Socket, einem Hersteller von Datenschutz- und Sicherheitssoftware, in einer Stellungnahme. „GitHub Copilot ist besonders hilfreich bei der Arbeit an React-Komponenten, wo es unheimlich genaue Vorhersagen macht. GitHub Copilot ist zu einem unverzichtbaren Teil meines Werkzeuggürtels für Programmierer geworden.“

Alex Polozov, ein leitender Forscher bei Microsoft Research, ist zwar nicht sonderlich überparteilich, twitterte aber: „Ich übertreibe nicht, Copilot wird zu den Top-3-Tech-Entwicklungen der 2020er Jahre gehören.“

GitHub Copilot ist ein Produkt der Partnerschaft zwischen Microsoft und dem KI-Forschungs- und Einsatzunternehmen OpenAI, in das Microsoft vor zwei Jahren 1 Milliarde Dollar investiert hat.

Friedman erklärte, dass „GitHub Copilot von OpenAI Codex angetrieben wird, einem neuen KI-System, das von OpenAI entwickelt wurde.“

OpenAI Codex verfügt über ein umfassendes Wissen darüber, wie Menschen Code verwenden, und ist bei der Codegenerierung wesentlich leistungsfähiger als GPT-3, unter anderem, weil es auf einem Datensatz trainiert wurde, der eine viel größere Konzentration von öffentlichem Quellcode enthält, erklärte Friedman.

Einige Leute scheinen besorgt zu sein, dass es Code generiert, der mit Code identisch ist, der unter Open-Source-Lizenzen generiert wurde, die keine abgeleiteten Werke zulassen, und der dann von einem Entwickler unwissentlich verwendet wird.

GitHub lehnte es ab, einen Sprecher für diese Nachricht zu interviewen und verwies mich auf die recht ausführliche FAQ der technischen Vorschau. Auf meine Frage nach den Datenquellen, die Copilot verwenden würde, antwortete GitHub beispielsweise wie folgt: „Es wurde auf eine Auswahl von englischem Sprach- und Quellcode aus öffentlich zugänglichen Quellen trainiert, einschließlich (aber nicht beschränkt auf) Code in öffentlichen Repositories auf GitHub.“

But which ones?

„Mit Sicherheit verwenden sie die GitHub-Repos. Und auf jeden Fall die öffentlichen“, sagt Ronald Schmelzer, Analyst bei Cognilytica, das sich auf KI-Forschung und -Analyse spezialisiert hat. „Die Frage ist natürlich, ob sie auch die privaten GitHub-Repos nutzen. Und mit oder ohne Zustimmung der Nutzer? Weitere Quellen könnten vielleicht Stack Overflow und andere Orte sein, an denen Menschen Code zur Kommentierung veröffentlichen. Aber das ist von zweifelhafter Natur, was die Qualität angeht.“

Da Copilot auf öffentlich verfügbarem Quellcode und natürlicher Sprache trainiert wurde, versteht es außerdem sowohl Programmier- als auch menschliche Sprachen. Dies ermöglicht es Entwicklern, eine Aufgabe auf Englisch zu beschreiben, und GitHub Copilot liefert dann den entsprechenden Code, so das Unternehmen.
Unterstützt mehrere Sprachen

Ein attraktives Merkmal von GitHub Copilot ist, dass es mit einer breiten Palette von Frameworks und Sprachen funktioniert, aber diese technische Vorschau funktioniert besonders gut für Python, JavaScript, TypeScript, Ruby und Go, so Friedman.

Und laut der technischen Vorschau-Seite: GitHub Copilot ist derzeit nur als Visual Studio Code-Erweiterung verfügbar. Es funktioniert überall dort, wo Visual Studio Code funktioniert – auf Ihrem Rechner oder in der Cloud auf GitHub Codespaces. Und es ist schnell genug, um es während der Eingabe zu verwenden.

„Copilot sieht wie ein potenziell fantastisches Lernwerkzeug aus – für Entwickler aller Fähigkeiten“, sagte James Governor, ein Analyst bei RedMonk. „Es kann Einstiegshürden beseitigen. Es kann beim Erlernen neuer Sprachen helfen und für Leute, die an polyglotten Codebasen arbeiten. Es setzt wohl das reiche Erbe von GitHub als erstklassiges Lernwerkzeug fort. Es ist noch zu früh, aber KI-gestützte Programmierung wird sich durchsetzen, und wo könnte man diese Erfahrung besser machen als auf GitHub?“
Ja, aber kann es skalieren?

Einige Beobachter sehen Copilot als nützlich für einfache Projekte, aber vielleicht noch nicht reif für die erste Zeit.

„Es ist eine sehr interessante Idee und sollte bei einfachen Beispielen gut funktionieren, aber ich bin gespannt, wie gut es bei komplexen Code-Problemen funktionieren wird“, sagt Eric Newcomer, Chief Technology Officer von Enterprise Infrastructure Software