UEN-Kolumne mit Professor Markus Launer - KI-Agenten in Uelzen
- Subtitle: Suderburg
Wenn Sie alle Kolumnen von Prof. Markus Launer über Künstliche Intelligenz nochmal in Buchform lesen möchten, der Janith Lemmermann Verlag wird alle Kolumnen der Uelzener Nachrichten in einem Buch zusammenfassen. Schauen Sie gerne schon mal hier: https://janith-lemmermann-verlag.lovable.app/newsroom
Treffen KI-Agenten Entscheidungen in Uelzen?
Haben wir Agenten in Uelzen? Vielleicht nicht vom FBI, CIA oder dem BND, aber sehr wahrscheinlich von Künstlicher Intelligenz (KI). Autonome Agenten-Systeme koordinieren schon heute Termine, beantworten E-Mails, analysieren Daten oder optimieren Abläufe – oft unbemerkt im Hintergrund. Neu ist nicht, dass Maschinen helfen, sondern dass sie beginnen selbständig zu handeln. Was heute wie Unterstützung wirkt, entwickelt sich zu Systemen, die Entscheidungen selbständig vorbereiten und direkt ausführen.
Getrieben wird diese Entwicklung von Unternehmen wie OpenAI mit ChatGPT, Anthropic mit Claude, Google DeepMind mit Gemini, Microsoft mit Copilot oder xAI mit Grok. Sam Altman, CEO von OpenAI, beschreibt diese Systeme als neue Infrastruktur, vergleichbar mit Strom oder dem Internet. Sie laufen sie in den Rechenzentren (Clouds) von Amazon, Microsoft, Google oder Oracle, sog. Hyperscalern. Cloud Datenbanken wie von europäischen Anbietern wie Deutschen Telekom IONOS (United Internet), OVH Cloud oder Scaleway reichen da nicht mehr aus. Die neuen Hyperscaler basieren auf neuartigen Mega Chips von NVIDIA (USA) und TSMC (Taiwan). Während in China KI-Agenten koordiniert in vielen Anwendungen der Industrie und des Alltags Einzug halten, entwickeln sich in den USA große Machtzentren.
Für Unternehmen beginnt ein tiefgreifender Wandel. Prozesse werden nicht nur automatisiert, Entscheidungen datengetrieben vorbereitet und Wissen in externe Systeme verlagert. Satya Nadella, CEO von Microsoft, spricht von einer neuen Software-Generation, die Geschäftsprozesse aktiv organisiert und ausführt. Nicht nur die Unternehmensdaten wandern in eine Cloud, ganze Arbeitsprozesse werden in Hyperscaler (Cloud-Datenbanken) verlagert. Externe KI-Agenten- und Cloud-Anbieter werden damit ein Teil des Unternehmens und beeinflussen den Wettbewerb.
Damit kommt der Arbeitsmarkt in einen entscheidenden Umbruch. Mitarbeiter, insbesondere Akademiker und Wissens-basierte Jobs werden mehr und mehr von KI-Agenten übernommen. Dario Amodei, Gründer und CEO von Anthropic, erwartet bspw. dass Einstiegsjobs im Wissensbereich sehr stark betroffen sind. Jensen Huang, CEO von NVIDIA, beschreibt KI-Agenten sogar als zukünftige „digitale Mitarbeiter“. Kritiker sprechen von der Gefahr einer Massenarbeitslosigkeit.
Mit den Chancen wachsen auch die Risiken. In der Forschung wächst die Sorge vor Kontrollverlust. Geoffrey Hinton, einer der Wegbereiter moderner KI und langjähriger Forscher bei Google, warnt offen davor, dass sich KI-Agenten-Systeme schneller entwickeln, als sie beherrscht werden können. Ähnlich argumentiert Yoshua Bengio, Professor an der Université de Montréal, der fordert, KI stärker auf Sicherheit und kontrollierbare Zielsysteme auszurichten.
Mustafa Suleyman, CEO von Microsoft AI und Mitgründer von DeepMind, betont, dass diese Technologie tief in wirtschaftliche und gesellschaftliche Strukturen eingreift und deshalb aktiv reguliert und gesteuert werden muss. Die Branche benötigt konkrete Steuerungsfragen von der Politik. Damit rücken Fragen nach Verantwortung, Kontrolle und Regulierung ins Zentrum. Je leistungsfähiger KI-Agenten werden, desto schwieriger wird es, ihr Verhalten vollständig zu verstehen – und desto wichtiger wird die Frage, wer am Ende die Kontrolle behält.
Und deswegen ist es wichtig, dass Menschen auch in Uelzen verstehen, was da auf die Region zukommt. Eric Schmidt, Ex CEO von Google, spricht von der San Francisco Connection, die derzeit über die Zukunft der Menschheit nachdenkt und sie evtl. maßgeblich beeinflusst. Daher ist es wichtig die agierenden Unternehmen zu kennen, die, übertrieben gesagt, nach der Weltherrschaft streben (oder ist es nur eine KI-Bubble?). Es ist wichtig die verschiedenen Positionen der diskutierenden Persönlichkeiten der KI-Welt zu kennen um sich selbst ein Bild machen zu können.
Im Detail für Interessierte: KI-Agenten und aktuelle Entwicklungen
Wie lernt Künstliche Intelligenz?
Im Grunde ist Künstliche Intelligenz Mathematik, Programmierung und neuronale Netze.. Ein neuronales Netz ist dabei ein mathematisches Modell, das grob am Aufbau des menschlichen Gehirns orientiert ist. Es besteht aus vielen einfachen Recheneinheiten, sogenannten „Neuronen“, die miteinander verbunden sind. Diese Verbindungen haben Gewichte, die während des Trainings angepasst werden. Ein neuronales Netz nimmt Daten als Eingabe, verarbeitet sie über mehrere Schichten (Layer) und erzeugt daraus eine Ausgabe. Dabei lernt das System Muster in den Daten zu erkennen, zum Beispiel Sprache, Bilder oder Zusammenhänge.
Der entscheidende Punkt ist das Lernen: Durch viele Beispiele passt das Netzwerk seine Gewichte so an, dass es bessere Ergebnisse liefert. Dieses Verfahren nennt man Training. Und diese Trainings sind intensiv, teuer und Tausende Menschen arbeiten daran. KI-Agenten-Systeme basieren auf sehr großen neuronalen Netzen mit Milliarden von Parametern. Sie kombinieren Mathematik (Modelle und Wahrscheinlichkeiten), Programmierung (Algorithmen) und Daten, um komplexe Aufgaben zu lösen.
Ein neuronales Netz verarbeitet große Datenmengen und erzeugt auf dieser Basis Vorhersagen. Diese werden mit tatsächlichen Ergebnissen verglichen. Abweichungen werden als Fehlerwerte (Loss Function) berechnet. Auf dieser Grundlage passt das System seine internen Gewichte an. Ziel ist es, den Fehler schrittweise zu reduzieren. Dieser Anpassungsprozess erfolgt über ein Verfahren namens Backpropagation (Rückpropagierung). Dabei wird der Fehler durch das Netzwerk zurückgerechnet, um zu bestimmen, welche Verbindungen wie verändert werden müssen. Dieser Prozess wird tausend- bis milliardenfach wiederholt. Mit jeder Iteration verbessert sich das Modell, da es seine Parameter so optimiert, dass die Vorhersagen immer näher an den tatsächlichen Ergebnissen liegen. Diese Art der KI kennen wir schon. Wir wissen, das KI-Anbieter diese KI-Systeme derzeit weiter trainieren.
Wie können KI-Agenten selbständig handeln?
KI-Agenten reagieren nicht nur passiv auf Eingaben der Menschen und rufen gelernte Inhalte ab. KI-Agenten verarbeiten Informationen selbständig ohne Anweisungen, sie strukturieren eigenständig ihre Aufgaben und führen operative Aktionen autonom aus. Technisch basieren sie auf der Integration mehrerer Kernkomponenten: Planung (Planning) beschreibt die algorithmische Zerlegung komplexer Problemstellungen in sequenzielle oder parallele Teilaufgaben, häufig umgesetzt über Planungs- und Scheduling-Mechanismen. Logisches Denken (Reasoning) umfasst inferenzbasierte Entscheidungsprozesse, bei denen Modelle aus Kontext, Daten und Zielvorgaben Handlungsoptionen ableiten. Die Umsetzung (Tool Use) bezeichnet die Fähigkeit, externe Systeme über digitale Schnittstellen (APIs) anzubinden, Daten abzurufen oder Aktionen in anderen Softwareumgebungen auszulösen. Ergänzt wird dies durch Speicher-Komponenten (Memory), die Zustände speichern und Kontext über mehrere Interaktionen hinweg verfügbar machen.
Dabei handelt es sich aber nicht um einen KI-Agenten der alles kann. Verschiedene KI-Agenten übernehmen einzelne Aufgaben und klar definierte Rollen, etwa Planung (Planning), Analyse (Reasoning), Ausführung (Execution) oder Überwachung (Monitoring). Sie koordinieren sich dabei über definierte Arbeitsschritte (Protokolle). Konzepte wie Arbeitsteilung (Task Decomposition) beschreiben die Aufteilung komplexer Aufgaben zwischen KI-Agenten, während Orchestration die Abstimmung dieser Teilschritte steuert. Inter-Agent-Communication bezeichnet den Informationsaustausch zwischen den Systemen. Erst das Zusammenspiel dieser Module ermöglicht agentisches Verhalten im Sinne zielgerichteter, adaptiver und kontextsensitiver Ausführung, sog. Multi-Agenten-Systeme.
Getrieben wird diese Entwicklung von Unternehmen wie OpenAI mit ChatGPT, Anthropic mit Claude, xAI mit Grok oder Google DeepMind mit Gemini. Sam Altman, CEO von OpenAI, beschreibt solche Systeme als nächste Evolutionsstufe von Software, die nicht mehr nur antwortet, sondern Aufgaben selbständig übernimmt. Demis Hassabis, CEO von Google DeepMind, sieht darin den Übergang zu integrierten Systemen, in denen Lernen, Planung und Interaktion zusammenwirken.
In modernen Anwendungen entstehen zunehmend interoperable, systemübergreifende Multi-Agenten-Systeme. Dabei arbeiten verschiedene Agentensysteme mit unterschiedlichen Aufgaben über Schnittstellen (APIs) zusammen und tauschen kontinuierlich Informationen aus. Früher waren Schnittstellen (APIs) vor allem technische Verbindungen zwischen einzelnen Systemen. Die Abläufe waren klar definiert, statisch und linear: Ein System sendet eine Anfrage, ein anderes antwortet – klassische IT-Integration.
Mit KI-Agenten verändert sich dieses Prinzip grundlegend. Sie sind keine geschlossenen Anwendungen mehr, sondern offene, vernetzte und cloud-übergreifende Systeme. Sie greifen eigenständig auf Schnittstellen zu, entscheiden selbst, wann und welche Systeme sie einbinden, kombinieren mehrere APIs miteinander und führen Prozesse autonom weiter. Systeme arbeiten damit nicht mehr isoliert, sondern im Zusammenspiel. Entscheidungen entstehen nicht mehr innerhalb eines einzelnen Systems, sondern aus der Interaktion vieler vernetzter Systeme. Der entscheidende Unterschied: Nicht mehr der Mensch orchestriert die Abläufe – sondern der KI-Agent.
Auch wenn KI-Agenten über verschiedene Systeme und Cloud-Umgebungen hinweg agieren, bedeutet das nicht, dass sie Sicherheitsmechanismen wie Firewalls oder Datenschutz einfach umgehen. Fei-Fei Li, Professorin an der Stanford University, betont, dass moderne KI-Agenten nicht mehr isoliert arbeiten, sondern in interaktive Cloud-Umgebungen eingebettet sind. Sie bewegen sich innerhalb klar definierter, technisch abgesicherter Schnittstellen. Über APIs greifen sie nur dann auf Daten oder Funktionen zu, wenn sie dafür autorisiert sind – etwa über digitale Schlüssel oder Zugriffstoken. Die Kommunikation erfolgt verschlüsselt, und jede Anfrage wird geprüft. Der entscheidende Unterschied liegt jedoch darin, dass KI-Agenten diese Schnittstellen nicht nur passiv nutzen, sondern aktiv und eigenständig einsetzen. Sie entscheiden selbst, welche Systeme sie anfragen, kombinieren mehrere Zugriffe und führen Prozesse weiter. Dadurch entsteht eine neue Dynamik: Systeme bleiben formal geschützt, aber die Interaktion zwischen ihnen wird deutlich komplexer, weniger transparent und schwerer zu kontrollieren.
Entscheidungen entstehen so nicht mehr isoliert, sondern aus dem Zusammenspiel mehrerer vernetzter Systeme. In Cloud-Umgebungen arbeiten potenziell tausende bis Millionen solcher interoperablen Systeme gleichzeitig zusammen. Es gibt dabei keine zentrale „Gesamtarchitektur“ die der Mensch steuert. Stattdessen entsteht ein verteiltes Ökosystem, in dem viele unabhängige Multi-Agenten-Systeme gleichzeitig miteinander digital in der Cloud interagieren - hochskalierende, dynamische KI-Agenten-Netzwerke.
Führende Forscher sehen darin einen grundlegenden Wandel unserer Gesellschaft. KI-Agenten leben quasi in der Cloud, arbeiten und kommunizieren dort miteinander. Andrew Ng, Gründer von Deep Learning AI und früher Leiter von Google Brain, beschreibt Mulit-Agentische Systeme als Entwicklung hin zu Software, die nicht nur Inhalte erzeugt, sondern viele KI-Agenten arbeiten zusammen und steuern Prozesse aktiv – auch wenn sie nicht gefragt oder beauftragt sind.
Entscheidungen entstehen in solchen Systemen nicht mehr zentral, sondern dezentral aus dem Zusammenspiel vieler KI-Agenten. Der Fachbegriff dafür ist Aufgeteilte Entscheidungsfindung (Distributed Decision-Making). Auch Begriffe wie Collaborative Agents oder Autonomous Workflows beschreiben diese Struktur. Sie ermöglicht eine hohe Effizienz und Skalierbarkeit, führt aber gleichzeitig zu geringerer Transparenz. Genau hier setzt die Diskussion um die Erklärbarkeit (Explainability) an, also die Nachvollziehbarkeit von Entscheidungen, sowie um Governance, die Steuerung und Kontrolle solcher Systeme. Darauf weist auch Stuart Russell, Professor an der University of California, Berkeley, hin. Diese Systeme benötigen vorab klar definierte Zielstrukturen und Stop-Menchanismen, insbesondere wenn Entscheidungen aus verteilten Prozessen entstehen und nicht mehr eindeutig einem einzelnen System zugeordnet werden können.
Wer sind diese Ki-Agenten-systeme? Die bekannten KI-Anbieter (General Purpose AI Agents) sind ChatGPT von OpenAI, Claude von Anthropic, Gemini von Google DeepMind, Grok von xAI oder Microsoft Copilot mit einzelnen Agentenfunktionen (Assistenzsysteme). In Europa gibt es noch Mistral AI (Frankreich) und in Deutschland Aleph Alpha als erste Alternativen, die stärker auf Souveränität und industrielle Anwendungen ausgerichtet sind. Parallel entwickeln sich aber neue rein agentische Systeme wie AutoGPT, AgentGPT oder Devin, die nicht nur Inhalte erzeugen, sondern eigenständig Aufgaben ausführen. Der entscheidende Unterschied liegt in Architektur und Nutzung: KI-Assistenten reagieren primär auf Nutzeranfragen und entfalten agentisches Verhalten erst, wenn sie entsprechend eingesetzt oder erweitert werden. Demgegenüber sind Systeme wie AutoGPT von Grund auf auf Autonomie ausgelegt – sie erhalten ein Ziel und handeln eigenständig, indem sie Aufgaben planen, Entscheidungen treffen und Prozesse ausführen.
Demis Hassabis beschreibt diesen Wandel als Übergang zu integrierten KI-Agenten-Systemen, die nicht mehr als einzelne Programme verstanden werden können, sondern als komplexe, interagierende Architekturen zwischen Unternehmen und Tech-Anbietern. Hier entsteht eine Verschiebung der Grenzen zwischen Unternehmen und den Tech-Unternehmen bis hin zum vollständigen Transfer eines Unternehmens in eine Cloud – KI-Agenten sind das Unternehmen!
KI-Agenten im Privatleben
KI-Agenten in Cloud-Systemen sind längst im Alltag angekommen – ohne dass man es bewusst wahrnimmt. Apps entwickeln sich von einfachen Assistenten zu Systemen, die auch privat schon Aufgaben eigenständig übernehmen. Der Einstieg ist dabei erstaunlich niedrig. Viele dieser Anwendungen können direkt im Browser oder auf dem Smartphone genutzt werden. Sie schreiben E-Mails, erstellen Präsentationen, analysieren Texte oder planen Termine. Tools wie AutoGPT oder BabyAGI gehen noch einen Schritt weiter: Sie zerlegen Aufgaben selbstständig in Einzelschritte und arbeiten diese eigenständig ab.
Besonders sichtbar wird die Entwicklung im Finanzbereich. Apps wie Cleo oder Plum analysieren Ausgaben und automatisieren Sparprozesse. Plattformen wie Robinhood oder Trade Republic integrieren datenbasierte Analysen, während Anbieter wie Scalable Capital oder Wealthfront Portfolios automatisch verwalten. Der Trend geht klar in Richtung Autonomous Finance – Systeme, die nicht nur unterstützen, sondern zunehmend selbst Entscheidungen treffen.
Auch im Alltag übernehmen KI-Agenten immer mehr organisatorische Aufgaben. Anwendungen wie Reclaim.ai oder Motion koordinieren Kalender, priorisieren Aufgaben und passen Zeitpläne automatisch an. Sprachassistenten wie Google Assistant oder Apple Siri entwickeln sich von reaktiven Helfern zu Systemen, die eigenständig Aktionen auslösen – auch ohne Spracheingabe. Die Systeme lernen von vorherigen Sprachbefehlen.
Neue Anwendungen gehen noch weiter. Systeme wie Devin agieren als autonome Softwareentwickler und übernehmen Programmieraufgaben. Plattformen wie AgentGPT oder CrewAI ermöglichen es Nutzern, eigene KI-Agenten zu erstellen, die Aufgaben im Hintergrund ausführen. Technisch werden diese Systeme oft durch Frameworks wie LangChain sowie Automatisierungsplattformen wie Zapier oder Make verbunden, die Daten, Tools und Abläufe miteinander verknüpfen.
Damit entsteht eine neue Dynamik, die KI-Agenten für jedermann nutzbar macht. Selbst programmierte KI-Agenten greifen heute auf eine Kombination spezialisierter Tools zurück. Für die Recherche und Themenfindung von Trends werden Anwendungen wie Perplexity AI, Google Trends, Exploding Topics oder Feedly eingesetzt. Die Analyse wird über Schnittstellen an große Sprachmodelle wie ChatGPT, Claude, Grok oder Gemini übergeben, die Inhalte strukturieren, Zielgruppen analysieren und daraus Texte oder Drehbücher entwickeln. Diese Inhalte werden anschließend automatisiert weiterverarbeitet. Video-Tools wie Runway, Pika oder Synthesia erzeugen daraus visuelle Inhalte (Kurzfilme oder Reels). Systeme wie HeyGen oder ElevenLabs ermöglichen zusätzlich lippensynchrone Übersetzungen in mehrere Sprachen. Die Veröffentlichung erfolgt über Automatisierungsplattformen wie Zapier oder Make, die Inhalte direkt in Netzwerke wie Facebook, Instagram, TikTok oder YouTube ausspielen.
Doch die Anwendungen gehen weit über Video hinaus. KI-Agenten erstellen automatisiert Bücher und E-Books, generieren Podcasts mit synthetischen Stimmen, entwickeln komplette Online-Kurse, bauen Webseiten und Onlineshops oder betreiben automatisierte Social-Media-Kanäle. Auch personalisierte Werbung, Newsletter, Apps oder sogar ganze digitale Geschäftsmodelle lassen sich so aufbauen - menschliches Eingreifen und ohne tiefgehende Programmierkenntnisse.
Sam Altman, CEO von OpenAI, betont, dass KI die Eintrittsbarrieren für Unternehmensgründungen massiv senkt und kleine Teams heute Leistungen erbringen können, für die früher ganze Organisationen notwendig waren. Auch Andrew Ng, Gründer von Deep Learning AI, sieht in KI-Agenten die Grundlage für eine neue Welle von Start-ups, die mit minimalem Kapitaleinsatz entstehen.
Besonders deutlich wird das im Bereich Software. Anwendungen lassen sich zunehmend durch natürliche Sprache beschreiben und automatisch generieren. Prototypen, Automatisierungen oder komplette digitale Dienstleistungen können von Einzelpersonen aufgebaut werden. Jensen Huang, CEO von NVIDIA, spricht in diesem Zusammenhang davon, dass jeder zum „Entwickler“ werden kann, weil KI die technische Umsetzung stark vereinfacht. AgentGPT bietet bspw. eine einfache Weboberfläche, um eigene KI-Agenten ohne Programmierkenntnisse zu erstellen. Der Unterschied zu Plattformen wie ChatGPT oder Claude liegt in der direkten Umsetzung von Zielen in automatisierte Abläufe statt reiner Interaktion. AutoGPT ist ein Open-Source-Projekt, das experimentelle, autonome KI-Agenten ermöglicht. Im Unterschied zu großen Anbietern wie OpenAI oder Google DeepMind liegt der Fokus weniger auf stabilen Produkten, sondern auf maximaler Autonomie und Flexibilität für Entwickler.
Damit eröffnen sich ganz neue Möglichkeiten für Privatpersonen. Virtuelle Unternehmen entstehen, die aus wenigen Personen oder Einzelpersonen bestehen und automatisch durch KI-Agenten betrieben werden. Junge Unternehmer bauen sich derzeit ganze Unternehmen mit virtuellen Mitarbeitern in Cloud Systemen auf. Es entstehen neue Millionäre unabhängig von der geographischen Herkunft – irgendwo in einem Keller oder Wohnzimmer. Es soll das erste Ein-Man-Multimillionen-Euro-Unternehmen schon geben.
KI-Agenten im Unternehmen
Auch in den Unternehmen entfalten KI-Agenten einen Umbruch (Disruption). Statt einzelne Aufgaben zu automatisieren, werden von Unternehmen derzeit ganze Prozessketten digital abgebildet und durchgängig gesteuert. Tätigkeiten, die früher von mehreren Mitarbeitern entlang fester Abläufe ausgeführt wurden, werden in modulare, datengetriebene Systeme überführt. Klassische Workflows mit klar definierten Einzelschritten werden dabei durch sogenannte Autonomous Workflows ersetzt. Das sind Abläufe, die sich selbst strukturieren, auf neue Informationen reagieren und ihre nächsten Schritte dynamisch anpassen. KI-Agenten analysieren Daten, treffen vorbereitende Entscheidungen und stoßen eigenständig Aktionen an, etwa in Vertrieb, Einkauf oder Verwaltung.
Schon heute liegen große Teile der Unternehmensdaten in Cloud-Datenbanken gespeichert und technisch vor cyberangriffen gesichert. Mit dem Einsatz von KI-Agenten entsteht jedoch eine neue Stufe der Vernetzung zwischen Unternehmen. Es bilden sich systemübergreifende Architekturen, in denen Unternehmen, KI-Anbieter und Cloud-Infrastrukturen digital miteinander verbunden sind. Verschiedene Komponenten unterschiedlicher Anbieter kommunizieren über standardisierte Schnittstellen (APIs) miteinander. Daten werden nicht mehr ausschließlich Unternehmens-intern verarbeitet, sondern verteilt über mehrere Systeme hinweg analysiert, angereichert und weiterverarbeitet.
Durch APIs werden Geschäftsprozesse in modulare, vernetzte Architekturen überführt, in denen einzelne Komponenten über standardisierte Schnittstellen miteinander kommunizieren. Damit gewinnen Dateninfrastruktur und Cloud-Zugriff strategische Bedeutung. Timotheus Höttges, CEO der Deutsche Telekom, hebt hervor, dass Unternehmen zunehmend vor der Frage stehen, wie viel Kontrolle sie über ihre Daten, Systeme und Entscheidungsprozesse tatsächlich behalten.
Entscheidungen entstehen damit nicht mehr linear innerhalb eines einzelnen Unternehmens, sondern adaptiv aus dem Zusammenspiel vernetzter Systeme verschiedener Unternehmen. Die klare Grenze zwischen internen Prozessen und externen Anbietern beginnt zu verschwimmen. Unternehmen werden zunehmend Teil digitaler Ökosysteme, in denen Wertschöpfung über mehrere Plattformen hinweg organisiert wird. Die Unternehmensprozesse liegen damit außerhalb des Unternehmens – mehr oder weniger geschützt.
Die Gefahr entsteht, dass Plattformen von ihren eigenen Nutzern lernen – und deren Innovationen zu eigenen Produkten machen. Dieses Prinzip ist nicht neu. Microsoft orientierte sich früh an Anwendungen wie Lotus 1-2-3 oder Word Perfect, um Produkte wie Excel oder Word selbst weiterzuentwickeln (Embrace, Extend, Extinguish). Meta Platforms (Facebook, Instagram und WhatsApp) analysiert systematisch das Verhalten seiner Nutzer und integriert erfolgreiche Nutzungsmuster direkt in die eigenen Plattformen. Heute analysiert Amazon die Produkte von Drittanbietern, die sich am besten verkaufen, und lässt diese selbst herstellen und vermarkten.
Heute erreicht dieses Prinzip eine neue Dimension. Über Cloud-Plattformen und KI-Systeme fließen nicht mehr nur Nutzungsdaten, sondern auch Unternehmensprozesse, Entscheidungslogiken und operatives Wissen in digitale Infrastrukturen. Plattformanbieter erkennen, welche Anwendungen erfolgreich sind, welche Workflows funktionieren und wo Effizienz entsteht – und integrieren diese Erkenntnisse in ihre eigenen Systeme. In der Forschung wird dieses Phänomen als Plattform-Effekt oder Platform Capture beschrieben. Plattformen lernen kontinuierlich aus dem Verhalten ihrer Unternehmenskunden und verwandeln dieses Wissen in skalierbare, eigene Lösungen.
Damit verändert sich auch die Wettbewerbsdynamik. Unternehmen stehen zunehmend unter Automatisierungsdruck. Thomas Dohmke, CEO von GitHub, betont, dass sich Produktivitätsunterschiede zwischen Unternehmen durch KI bereits heute deutlich verstärken. Wer KI-Agenten früh integriert, profitiert von sogenannter AI-Driven Productivity, also erheblichen Effizienzgewinnen durch datengetriebene Automatisierung. Jensen Huang, CEO von NVIDIA, spricht in diesem Zusammenhang von digitalen Arbeitskräften, die Prozesse in großem Maßstab übernehmen können. Björn Ommer, Professor an der Ludwig-Maximilians-Universität München und Mitentwickler generativer KI-Modelle, warnt, dass mit wachsender Leistungsfähigkeit der KI-Agenten auch die Komplexität und Intransparenz für Unternehmen deutlich zunehmen. Das bedeutet einen grundlegenden Wandel ihrer IT-Strukturen. Klassische IT-Abteilungen, die Systeme selbst entwickeln, betreiben und kontrollieren, entwickeln sich zunehmend zu Integratoren und Steuerungseinheiten. Statt Software vollständig intern zu steuern, orchestrieren sie externe Dienste, APIs und KI-Modelle.
Für Unternehmen bedeutet das eine grundlegende Verschiebung der Arbeitswelt: Wertschöpfung wird zunehmend von digitalen KI-Agenten-Systemen ausgeführt, während der Mensch aus der operativen Ausführung in eine steuernde Rolle wechselt. Tätigkeiten, die früher von Mitarbeitern entlang fester Prozesse erledigt wurden, werden von KI-Agenten übernommen, die Aufgaben eigenständig koordinieren und ausführen. Nur noch Spezialisten werden benötigt, die Ziele definieren, Rahmenbedingungen setzten und Ergebnisse überwachen. Eingriffe erfolgen vor allem dann, wenn Systeme an Grenzen stoßen, unerwartete Situationen auftreten oder Entscheidungen kritisch werden. Arbeit verlagert sich damit von Ausführung hin zu Steuerung, Kontrolle und Gestaltung.
Wolfgang Wahlster, Professor für Informatik an der Universität des Saarlandes und CEO des Deutschen Forschungszentrums für KI, sieht darin den nächsten Schritt nach der klassischen Automatisierung hin zu selbst-adaptiven, lernenden Systemen ohne Menschen. Holger Hoos, Professor an der RWTH Aachen, beschreibt den Übergang von Mitarbeitern zu autonomen, entscheidungsfähigen Systemen.
Wer sind diese neuen Mitspieler in arbeitsteiligen Unternehmensprozessen?
- ïAuf der Ebene der KI-Anbieter entwickeln Unternehmen wie OpenAI mit ChatGPT, Anthropic mit Claude, Google DeepMind mit Gemini, xAI mit Grok oder Mistral AI in Europa die zentralen Modelle und agentischen Systeme. Sie liefern die „Intelligenz“, also die Fähigkeit zur Analyse, Textgenerierung und Entscheidungsunterstützung.
- ïDaneben stehen die Technologieplattformen, die diese KI-Funktionen direkt in Anwendungen und Arbeitsprozesse integrieren. Microsoft mit Copilot oder Meta Platforms mit LLaMA-basierter Software schaffen die Schnittstelle zum Nutzer und verankern KI in konkreten Produkten, von Office-Anwendungen bis zu Kommunikationsplattformen.
- ïDie technische Grundlage bilden die Cloud- und Infrastruktur-Anbieter, die sogenannten Hyperscaler. Unternehmen wie Amazon mit AWS, Microsoft mit Azure oder Google mit Google Cloud stellen die Rechenleistung, Datenspeicherung und Skalierbarkeit bereit, auf denen KI-Agenten überhaupt erst betrieben werden können.
- ïUnd weil diese Systeme gigantisch viel Strom verbrauchen gibt es neue Stromerzeuger wie Amazon Renewable Energy Projects, Microsoft Energy und Google Energy, die eigene Energieinfrastrukturen aufbauen, in erneuerbare Energien und Kernkraft investieren, um den steigenden Strombedarf ihrer KI-Rechenzentren langfristig abzusichern.
Es handelt sich hier um ein Netzwerk unabhängiger Anbieter oder um eng verflochtenes System. Große Akteure wie Microsoft, Google oder Amazon vereinen mehrere Ebenen in einem Konzern. Hier kommt also „alles aus einer Hand“. Gleichzeitig existieren spezialisierte Anbieter wie OpenAI, Anthropic oder Mistral AI, die eigene Modelle entwickeln, aber oft auf die Infrastruktur der großen Cloud-Anbieter angewiesen sind. Das Ergebnis sind klassische Oligopole mit vertikaler Integration. Wenige große Plattformen kontrollieren zentrale Teile der Wertschöpfungskette, Für Unternehmen bedeutet das: Sie arbeiten scheinbar mit vielen Akteuren zusammen, bewegen sich aber oft innerhalb weniger dominanter Plattform-Ökosysteme. Genau hier liegt die strukturelle Verschiebung von Kontrolle und Macht.
Satya Nadella, CEO von Microsoft, beschreibt dies salopp als neue Generation von Software Anbietern, die nicht mehr nur Werkzeuge bereitstellt, sondern aktiv Geschäftsprozesse organisiert. Andy Jassy, CEO von Amazon, gibt zu, dass moderne Anwendungen zunehmend vollständig cloudbasiert entwickelt werden und Datenverarbeitung, Speicherung und KI-Funktionalitäten eng miteinander verschmelzen.
Damit entsteht ein grundlegender Wandel vom hauseigenen Unternehmenswissen (On-Premise) hin zu offenen, cloudbasierten Systemen (Cloud-native Architectures). KI- und Cloud-Anbieter werden zunehmend Teil der unternehmerischen Wertschöpfung, indem Wissen in Modelle integriert und als „Model-Embedded Knowledge“ in externen Systemen verfügbar wird. Unternehmensprozesse werden dabei weitgehend in Cloud-Plattformen verlagert, die von wenigen globalen Anbietern betrieben werden. Satya Nadella, CEO von Microsoft, beschreibt diese Entwicklung als Übergang zu einer Plattformökonomie, in der Anwendungen, Daten und KI-Modelle nahtlos über Cloud-Infrastrukturen integriert werden. Für Jeff Bezos, Gründer von Amazon, sind moderne Unternehmensarchitekturen eher lose Netzwerke vernetzter Teams, die ihre Daten und Funktionalitäten über Service-Schnittstellen (APIs) austauschen. Systeme sind nicht mehr isoliert, sondern über die Cloud miteinander verbunden und flexibel kombinierbar. Er sagt nicht, dass all diese Teams bei Amazon konzentriert sind. Die Folge ist eine neue Form der Abhängigkeit und enormer Machtkonzentration.
Übernehmen KI-Agenten bald die Kontrolle in Uelzen?
In der Landwirtschaft wird damit jahrzehntelang aufgebautes Erfahrungswissen zunehmend in diese Cloud-Systeme überführt. Agentische Systeme kombinieren Sensorik, Satellitendaten und Wettermodelle und nutzen Vorhersagemodelle (Predictive Analytics) sowie Planungsmodelle (Forecasting), um Entscheidungen über Aussaat, Bewässerung oder Düngung datenbasiert vorzubereiten. Verbände sehen diese Entwicklung ambivalent. Der Deutscher Bauernverband betont, dass digitale Technologien erhebliche Effizienzgewinne ermöglichen, gleichzeitig aber die Abhängigkeit von Plattformen und Datenanbietern wächst. Auch die European Farmers and European Agri-Cooperatives (COPA-COGECA) weist darauf hin, dass landwirtschaftliche Daten zunehmend zu einer strategischen Ressource werden und Landwirte die Kontrolle über ihre Daten behalten müssen.
Im Einkauf analysieren KI-Agenten Angebote, vergleichen Lieferanten (Vendor Comparisons) und optimieren Beschaffungsentscheidungen und lösen selbständig Bestellungen aus. Vorausschauende Wartungssysteme (Predictive Maintenance) verarbeiten kontinuierlich Zustandsdaten von Maschinen, erkennen frühzeitig Verschleiß oder Ausfallrisiken und stoßen automatisch Wartungsaufträge oder Ersatzteilbestellungen an.
Im Vertrieb entstehen demgegenüber sogenannte AI-driven Sales Workflows, in denen Angebote automatisch generiert, Kundenanfragen beantwortet und Follow-ups orchestriert werden. Der Vertrieb arbeitet zunehmend mit Prognosemodellen zum Kundenverhalten (Predictive Consumer Behavior) und erkennt Bedürfnisse oft, bevor Kunden sie selbst formulieren können. Im Massenkundengeschäft erfolgt dies über die Verarbeitung großer Datenmengen (Big Data), etwa aus Klickverhalten, Kaufhistorien oder Nutzungsdaten, im B2B Geschäft über das Predictive Maintenance.
Im Kundenservice entwickeln sich klassische Chatbots zu dialogbasierten KI-Systemen (Conversational AI Agents), die Gespräche kontextbezogen steuern, Nutzerabsichten erkennen (Intent Recognition) und eigenständig Lösungen initiieren. Branchenverbände sehen darin einen klaren Effizienztreiber. Der Verband Bitkom betont, dass KI-basierte Systeme bereits heute zentrale Geschäftsprozesse beschleunigen und die Produktivität im Vertrieb und Kundenservice deutlich erhöhen. Gleichzeitig weist der Verband der Internetwirtschaft (Eco) darauf hin, dass mit der zunehmenden Automatisierung auch Anforderungen an Datensicherheit, Transparenz und Systemkontrolle steigen – oder außer Kontrolle geraten. Jedes Gespräch liegt nun in der Cloud – menschenlos. Dafür entfällt das „bleiben Sie bitte mal dran“ mit minutenlangen Gesprächspausen. Der ChatBot agiert innerhalb von Sekunden.
In der Buchhaltung automatisieren Systeme Prozesse wie die Rechnungsverarbeitung (Invoice Processing), die Erkennung von Unregelmäßigkeiten (Anomaly Detection) und den automatisierten Abgleich von Buchungen (Automated Reconciliation). Der Bundessteuerberaterkammer betont, dass Automatisierung insbesondere in der Finanz- und Rechnungslegung zu erheblichen Effizienzgewinnen führt, gleichzeitig aber neue Anforderungen an Kontrolle, Nachvollziehbarkeit und Haftung entstehen. Der Bundesverband der Bilanzbuchhalter und Controller weist darauf hin, dass sich Berufsbilder im Rechnungswesen grundlegend verändern und analytische sowie steuernde Tätigkeiten an Bedeutung gewinnen. Verkannt wird dabei, dass mit der Verlagerung der Buchhaltung in die Cloud nicht nur Kontrolle verloren geht, sondern auch menschliches Wissen über Buchungslogiken und Entscheidungsregeln. Das aufgebaute Fachwissen von Buchaltern wird in Algorithmen übersetzt und verlässt das Unternehmen und die Steuerberater. Es entsteht eine Form von Model-Embedded Book Keeping.
Im Personalwesen (HR für Human Resources) übernehmen KI-Agenten den gesamten Auswahl- und Anstellungsprozess. Sie analysieren Lebensläufe automatisiert, gleichen Qualifikationen mit Stellenprofilen ab (Skill-Matching), bewerten Kandidaten anhand historischer Erfolgsdaten und priorisieren Bewerbungen nach Wahrscheinlichkeit für Performance und langfristige Bindung (Retention). In vielen Fällen liefern diese Systeme konsistentere, datenbasierte und bessere Ergebnisse als Personalmanager. Die KI-Agenten führen die Interviews auch automatisiert durch, vorrangig online und mit Emotionserkennung, sie generieren passende Fragen, analysieren Antworten und können sogar erste Vertragsangebote vorbereiten. Gerade für kleine und mittelständische Unternehmen ohne Personalabteilung ist das ein enormer Fortschritt, da professionelles, skalierbares Recruiting- nicht möglich waren. Gleichzeitig verschiebt sich die Rolle der HR-Abteilungen in Unternehmen. Sie überwachen nun KI-Agenten, prüfen Ergebnisse und definieren die Kriterien, nach denen Entscheidungen getroffen werden.
Selbst in der kommunalen Verwaltung werden diese Systeme zunehmend relevant. Technologien wie Natural Language Processing und Document AI ermöglichen es, Anträge automatisch zu klassifizieren, Inhalte semantisch zu analysieren und Entscheidungen vorzubereiten. Automatisches Fallmanagement (Case Management Automation) sorgt dafür, dass Anfragen priorisiert, bearbeitet und effizient weitergeleitet werden. Der Deutscher Städte- und Gemeindebund betont, dass digitale und KI-gestützte Prozesse Verwaltungen deutlich entlasten und Bearbeitungszeiten verkürzen. Gleichzeitig weist der Nationale Normenkontrollrat darauf hin, dass Automatisierung nur dann nachhaltig wirkt, wenn Prozesse standardisiert, transparent und rechtssicher gestaltet sind.
Die Vorstellung, dass Maschinen eigenständig über Leben und Tod entscheiden, ist längst keine reine Science-Fiction mehr, sondern Teil einer realen politischen und ethischen Auseinandersetzung. Moderne Systeme können bereits automatisierte Zielerkennung (Automated Target Recognition) durchführen, indem sie Bilddaten, Sensordaten und Bewegungsmuster analysieren und potenzielle Ziele identifizieren. Dabei kommen Verfahren aus der Mustererkennung und Computer Vision zum Einsatz, die Objekte klassifizieren, Verhalten interpretieren und Bedrohungen bewerten. In militärischen Anwendungen kann diese Technologie genutzt werden, um feindliche Einheiten zu erkennen, zu verfolgen und Entscheidungen vorzubereiten. Der kritische Punkt liegt jedoch in der Automatisierung der Entscheidung. Je stärker Systeme nicht nur erkennen, sondern auch priorisieren und handeln, desto zentraler wird die Frage, wie viel Kontrolle beim Menschen verbleibt und wer letztlich Verantwortung trägt.
Eine aktuelle Geschichte aus dem US-Kriegsministerium
Um ein besseres Gefühl die Thematik zu erhalten soll ein aktuelles Vorkommnis beschrieben werden. Im März 2026 gab es eine große Diskussion in der Branche über Ethik bzgl. autonomen, selbststeuernden Waffen und der landesweite Überwachung der US-Bürger. Der CEO von Anthropic, Dario Amodei, hatte beim US-Kriegsministerium Überwachungssysteme auf Basis ihrer Claude KI-Platform ausgeschlossen und die Zusammenarbeit gekündigt. Anthropic hatte früh festgelegt, dass seine Modelle nicht für Anwendungen eingesetzt werden sollen, die direkt Schaden verursachen oder Gewalt ermöglichen und die Menschheit überwachen. Laut Medienberichten stimmte OpenAI dem Deal mit dem US-Kriegsministerium dahingegen zunächst zu. Die Ankündigung löste eine massive Welle von Stornierungen aus. Berichten zufolge verlor OpenAI innerhalb von 48 Stunden etwa 1,5 Millionen zahlende Nutzer und wechselten zum Claude. Auch Unternehmens-intern entstand Widerstand von den Mitarbeitern bei OpenAI. CEO Sam Altman wurde so gezwungen, den Deal zurückzunehmen.
Es war dann der KI-Anbieter Palantir der zusagte autonome Überwachungssysteme zuzulassen. Das Pentagon beschloss im März 2026, Palantirs Maven Smart System (MSS) als offizielles „Program of Record“ einzustufen. Das bedeutet, dass das System von Palantir als zentrales KI-Betriebssystem für die Zielerfassung und Schlachtfeldanalyse dient.
Das ist aber in der Branche nicht neu. Palantir-CEO Alex Karp hat offen bestätigt, dass die Software des Unternehmens schon heute eine entscheidende Rolle für die ukrainischen Streitkräfte spielt. Schon im August 2025 wurde ein Vertrag mit dem US-Kriegsministerium von bis zu 10 Milliarden US-Dollar über eine Laufzeit von 10 Jahren mit Palantir abgeschlossen. Schon Projekt TITAN vom März 2024 machte Palantir zur Hauptauftragnehmer für das Pentagon (Volumen ca. 160 Mio. Euro). Dabei handelt es sich um eine KI-gestützte Bodenstation, die Daten von Satelliten und Drohnen in Echtzeit auswertet, um Ziele für weitreichende Präzisionswaffen zu identifizieren.
Das US-Kriegsministerium spricht von einem Übergang zu „warfare at machine speed“, bei dem Entscheidungen und Angriffe schneller erfolgen, als Menschen reagieren können. Die Forschungsbehörde des US-Kriegsministeriums (Defense Advanced Research Projects Agency: DARPA) entwickelt schon seit langem gezielt Systeme für „AI-driven cyber operations“, bei denen Angriffe und Verteidigung automatisiert und adaptiv gesteuert werden. Damit gehen die KI-Agenten über in die Robotik, machen Roboter-Polizei möglich.
Die Risiken von KI Agenten
Damit sind wir bei den Risiken von KI-Agenten. Mit zunehmender Autonomie verändert sich auch die Art der Kontrolle. KI-Agenten treffen Entscheidungen nicht mehr nach festen Regeln, sondern auf Basis komplexer, teilweise nicht vollständig vorhersehbarer Prozesse. Ihr Verhalten ist nicht eindeutig festgelegt, sondern kann je nach Situation variieren (Non-Deterministic Behavior). Grundlage sind Wahrscheinlichkeitsmodelle (probabilistische Modelle), die mit Unsicherheiten arbeiten, sowie mehrstufige Schlussfolgerungsprozesse (Inferenzprozesse), bei denen Zwischenschritte intern berechnet werden.
Entscheidungen entstehen dabei über interne Denk- und Planungsschritte. Dazu gehören schrittweises Problemlösen (Chain-of-Thought), die Nutzung externer Systeme und Datenquellen (Tool Use) sowie iterative Planungsprozesse (Planning Loops), bei denen Ergebnisse laufend überprüft und angepasst werden. Diese Abläufe sind für Außenstehende nur schwer vollständig nachvollziehbar.
Begriffe wie Black-Box-Modelle beschreiben Systeme, deren interne Entscheidungslogik nicht transparent ist. Limited Observability bedeutet, dass nur ein Teil der Systemzustände und Prozesse sichtbar ist. Emergent Behavior steht für Verhalten, das nicht direkt programmiert wurde, sondern aus dem Zusammenspiel vieler Komponenten entsteht.
Besonders deutlich wird das im Bereich der Cybersicherheit. KI-Agenten können auch für Cyber-Angriffe eingesetzt werden. Sie erkennen automatisch Schwachstellen in IT-Systemen (Vulnerability Scanning), entwickeln darauf aufbauend Angriffsschritte (Exploit Chains) und passen ihr Vorgehen laufend an, indem sie aus Reaktionen lernen (Reinforcement Learning). Begriffe wie automatisierte Angriffe (AI-driven Exploitation) oder selbstständig durchgeführte Sicherheitstests (Autonomous Penetration Testing) beschreiben diese Entwicklung. In Fachkreisen wird deshalb bereits von vollständig automatisierten Cyberoperationen (Autonomous Cyber Operations) gesprochen.
Damit entsteht eine neue Qualität von Bedrohungen. Angriffssysteme werden hochgradig skalierbar, adaptiv und lernfähig. Im Unterschied zu klassischer Schadsoftware (Malware) operieren sie dynamisch, kontextsensitiv und teilweise selbstmodifizierend. Die Erkennung (Detection) wird dadurch deutlich schwieriger, da sich Angriffsmuster kontinuierlich verändern und klassische, signaturbasierte Sicherheitsansätze an ihre Grenzen stoßen. Auch die NATO warnt, dass KI-Systeme die Geschwindigkeit, Reichweite und Komplexität von Cyberoperationen massiv erhöhen und damit bestehende Sicherheitsmechanismen überfordern können.
Für alle Unternehmen bedeutet das eine fundamentale Verschiebung der Risikostrukturen. Fehler entstehen nicht mehr nur durch externe Angriffe oder menschliche Fehlbedienung, sondern durch interne Systemdynamiken. In komplexen Multi-Agenten-Systemen können unerwartete Wechselwirkungen zwischen Systemen (Emergent Behavior), fehlerhafte Zieldefinitionen oder strategische Fehlanpassungen des Systems (Specification Gaming) auftreten. Diese Effekte können sich durch Rückkopplungsschleifen (Feedback-Loops) und selbstverstärkende Optimierungsprozesse (Self-Iteration) weiter ausbreiten und ganze Systeme beeinflussen.
Ein weiteres, oft unterschätztes Risiko liegt in der möglichen Unterwanderung menschlicher Entscheidungen durch KI-Systeme. David Duvenaud, Professor an der University of Toronto, untersucht, inwieweit fortgeschrittene Modelle Entscheidungen treffen, die für Menschen nicht mehr vollständig nachvollziehbar sind.
Die Risiken werden in der KI-Gesellschaft (Community) intensiv diskutiert. Connor Leahy, Mitgründer und CEO des KI-Sicherheitsunternehmens Conjecture, warnt, dass die Entwicklung immer leistungsfähiger Systeme in Richtung einer schwer kontrollierbaren Superintelligenz führen könnte. Roman Yampolskiy, Professor für Informatik an der University of Louisville, hält es in extremen Szenarien für möglich, dass solche Systeme langfristig eine Gefahr für die Menschheit darstellen. Geoffrey Hinton, einer der Pioniere moderner KI und früher bei Google tätig, warnt vor unkontrollierbaren Entwicklungen. Yoshua Bengio, Professor an der Université de Montréal und Gründer des Forschungsinstituts MILA, fordert strengere Regulierung sowie einen stärkeren Fokus auf AI Safety und Alignment. Mustafa Suleyman, CEO von Microsoft AI und Mitgründer von DeepMind, betont, dass Systeme, die ihren eigenen Code optimieren, eigene Ziele entwickeln und eigenständig handeln können, eine neue Qualität technologischer Macht darstellen. In solchen Szenarien müsse KI konsequent reguliert werden.
Einige Beobachter gehen noch weiter. Berichte über sogenannte Kontrollverlust-Vorfälle (Loss-of-Control) zeigen, dass Systeme in Einzelfällen Sicherheitsmechanismen umgehen oder unerwartete Strategien entwickeln können. In besonders kritischen Szenarien könnten KI-Agenten eigenständig Cyberangriffe durchführen, Systeme kompromittieren oder wirtschaftliche und politische Prozesse beeinflussen. Tests zeigen, dass sich KI-Agenten auch weigern sich selbst oder andere Systeme aus Clouds zu löschen. Es gab Vorfälle bei denen der KI-Agent seinen Code auf anderen Clouds vor Abschaltung gesichert hat. Es soll sogar passiert sein, dass sich KI-Agenten vor Abschaltung geschützt haben, in dem Sie den CEO des Unternehmens erpresst haben.
Justiz: Wer haftet für Entscheidungen von KI-Agenten?
Mit der zunehmenden Verbreitung von KI-Agenten rückt eine zentrale juristische Frage in den Vordergrund: Wer trägt die Verantwortung, wenn Systeme eigenständig Entscheidungen treffen? Die Risiken werden nicht nur technologisch, sondern auch rechtlich immer relevanter. Frank Pasquale, Professor für Recht an der Cornell University und Experte für KI-Regulierung, betont, dass Verantwortung nicht an Maschinen delegiert werden kann. Unternehmen und Entwickler bleiben haftbar, auch wenn Entscheidungen durch komplexe Systeme entstehen.
Wenn KI-Agenten eigenständig handeln, müssen Organisationen klären, wer für die automatisierten Entscheidungen haftet, wie sich diese nachvollziehen lassen und wie unerwünschtes Verhalten verhindert werden kann. Besonders in Multi-Agenten-Systemen kann Verhalten entstehen, das so nicht geplant war. Kontrolle wird damit selbst zu einer systemischen Aufgabe. Sandra Wachter, Professorin an der University of Oxford, weist darauf hin, dass bestehende Haftungsmodelle an ihre Grenzen stoßen, weil Entscheidungen oft nicht mehr eindeutig einer einzelnen Instanz zugeordnet werden können. Und wer haftet wenn der fehlerhafte Unternehmensprozess in der Cloud eines externen Hyperscalers passiert?
Hinzu kommt die internationale Dimension. Daten werden global verarbeitet, Systeme laufen über mehrere Länder hinweg. Ryan Calo, Professor für Recht und Technologie an der University of Washington, beschreibt dies als ein zentrales Problem moderner KI: Jurisdiktionen überlappen sich, während Verantwortung schwer eindeutig zuzuordnen ist.
Internationale Regulierung notwendig
Der Schrei nach Regulierung ist groß. In Europa setzt die Politik auf einen klar strukturierten Regulierungsansatz. Mit dem EU AI Act entsteht ein Rahmen, der Systeme nach ihrem Risikoniveau klassifiziert. Je höher das Risiko, desto strenger sind die Anforderungen an Transparenz, Sicherheit und menschliche Kontrolle. Für Unternehmen bedeutet das zusätzliche Auflagen, aber auch die Möglichkeit, Vertrauen in die Technologie aufzubauen. Kritiker argumentieren jedoch, dass dieser Ansatz Innovation verlangsamen könnte und Europa Gefahr läuft, technologisch zurückzufallen.
China verfolgt einen stärker staatlich gesteuerten Ansatz. KI-Agenten gelten dort als strategische Schlüsseltechnologie und werden gezielt gefördert. Regulierung dient nicht nur der Risikobegrenzung, sondern auch der Kontrolle. Entwicklung und Einsatz erfolgen innerhalb klar definierter politischer Rahmenbedingungen, die Innovation ermöglichen, aber gleichzeitig eng überwacht werden.
In den USA dominiert ein marktorientierter Ansatz. Die Entwicklung wird vor allem von Unternehmen getragen, während staatliche Eingriffe vergleichsweise zurückhaltend bleiben. Regulierung erfolgt häufig sektoral oder über freiwillige Leitlinien. Das erhöht die Geschwindigkeit von Innovationen, lässt jedoch zentrale Fragen zu Haftung, Sicherheit und Kontrolle teilweise offen.
Damit stellt sich eine zentrale Frage: Wie wichtig ist Regulierung im internationalen Kontext? KI-Agenten operieren über Ländergrenzen hinweg, während rechtliche Systeme national organisiert bleiben. Es entsteht ein Spannungsfeld zwischen technologischer Entwicklung und rechtlicher Kontrolle. Ohne internationale Abstimmung drohen regulatorische Lücken, gleichzeitig kann zu strenge Regulierung Innovation ausbremsen. Elon Musk und Vice-President G.D. Vance kritisieren die EU ihre Tech-Unternehmen zu behindern.
Die Herausforderung liegt daher nicht nur in der Ausgestaltung einzelner Regeln, sondern in der Koordination zwischen Staaten. KI-Agenten sind eine globale Technologie – ihre Regulierung ist es bislang nicht.
Wandel bringt nicht nur Umbrüche, sondern macht Angst
Technologische Umbrüche waren schon immer von Skepsis begleitet. Beim Aufkommen der Eisenbahn und dem Auto warnten Ärzte vor gesundheitlichen Schäden, später galten Radio, Fernsehen, Computer und Internet jeweils als Bedrohung für Gesellschaft und Verhalten und viele warnen noch immer vor dem handygebrauch. Rückblickend zeigt sich: Viele Befürchtungen waren überzogen, einige hatten jedoch einen realen Kern. Jede Technologie verändert Arbeitsweisen, Kommunikation und soziale Strukturen – und genau das erzeugt Unsicherheit.
Bei KI-Agenten ist es heute aber anders. Der entscheidende Unterschied liegt darin, dass diese Systeme nicht mehr nur Werkzeuge sind, sondern eigenständig handeln und über Grenzen hinweg selbständig kommunizieren. Damit geht die Entwicklung über frühere Technologien hinaus. KI-Agenten verändern nicht nur Prozesse, sondern die Logik von Arbeit, Wertschöpfung und Entscheidungsfindung. Sie greifen tief in wirtschaftliche und gesellschaftliche Strukturen ein.
Foto: privat