
Die großen Fragen der KI-Entwicklung werden nicht in Talkshows beantwortet, sondern in Laboren, Vorstandsetagen und auf Entwicklerkonferenzen. Wer wissen will, wohin die Reise geht, muss denen zuhören, die die Systeme bauen, die Milliarden investieren oder die Risiken erforschen. Ihre Einschätzungen gehen weit auseinander – von euphorisch bis alarmierend. Das allein ist schon aufschlussreich.
2026 markiert einen Wendepunkt. Die Zeit der Experimente ist vorbei. KI-Systeme verlassen das Labor und werden zur digitalen Infrastruktur – vergleichbar mit Strom oder Internet. Was die Experten dazu sagen, ist teils faszinierend, teils beunruhigend, oft beides zugleich.
Inhaltsverzeichnis
Wann kommt die AGI?
Die Frage nach der künstlichen allgemeinen Intelligenz – also einer KI, die in praktisch allen kognitiven Aufgaben mit dem Menschen mithalten kann – dominiert die Branche. Vor wenigen Jahren galt AGI noch als Gedankenspiel für Science-Fiction-Fans. Heute behandeln es die CEOs der größten Tech-Konzerne als ingenieurstechnische Aufgabe mit konkretem Zeitplan.
Sam Altman, Chef von OpenAI, hat seinen Tonfall deutlich verschärft. Er spricht davon, dass die Gewissheit darüber, wie AGI gebaut werden kann, innerhalb der führenden Labore bereits existiere. Bei einem Seminar an der Stanford University deutete er an, dass AGI noch in der laufenden US-Präsidentschaftsperiode Realität werden könnte – also bis 2028 oder 2029.
Dario Amodei von Anthropic sieht es ähnlich, argumentiert aber nüchterner. In einem ausführlichen Gespräch mit Lex Fridman beobachtet er, dass Modelle innerhalb kürzester Zeit von Highschool-Niveau über Bachelor- bis hin zu Doktorandenniveau in Spezialgebieten aufgestiegen sind. Seiner Einschätzung nach könnten AGI-ähnliche Leistungen in vielen Bereichen bereits 2026 bis 2027 erreicht werden. Die Anzahl der überzeugenden Gegenargumente nehme rapide ab.
Elon Musk setzt auf 2026 und investiert massiv in GPU-Cluster wie Colossus. Jensen Huang, CEO von Nvidia, baut derweil am Stromnetz für die neue Intelligenz und warnt, dass die größte Hürde bald nicht mehr der Algorithmus, sondern die Energieversorgung sein wird. Googles Demis Hassabis bleibt vorsichtiger und rechnet mit einem Zeitraum nach 2030 – er sieht noch ein bis zwei fundamentale Durchbrüche als nötig an, die über reine Skalierung hinausgehen.
| Experte | Organisation | AGI-Prognose | Kernargument |
|---|---|---|---|
| Sam Altman | OpenAI | 2025–2028 | Ingenieurstechnische Klarheit über den Pfad |
| Elon Musk | xAI | 2026 | Massive GPU-Investitionen, exponentielles Wachstum |
| Dario Amodei | Anthropic | 2026–2027 | Beobachtete Fortschritte im Reasoning |
| Demis Hassabis | Google DeepMind | Nach 2030 | Braucht 1–2 fundamentale Durchbrüche |
| Yann LeCun | Meta | Nicht in diesem Jahrzehnt | LLMs fehlen Weltmodelle |
| Yoshua Bengio | Univ. Montréal | 2030–2035 | Sicherheitsrisiken bremsen das Tempo |
Die Skeptiker: Warum LLMs allein nicht reichen
Yann LeCun, einer der Väter des Deep Learnings und Chef-KI-Wissenschaftler bei Meta, hält die Vorstellung, dass große Sprachmodelle allein zur AGI führen, für grundlegend falsch. In einer öffentlichen Debatte mit Hassabis argumentiert er: Heutigen KI-Systemen fehlt ein echtes Verständnis für Kausalität und Zeit. Sie sind gut im Erkennen von Mustern, aber sie verstehen nichts. LeCun fordert sogenannte Weltmodelle – Systeme, die physikalische Zusammenhänge begreifen, ohne dafür Berge von Textdaten zu brauchen.
Gary Marcus, Professor an der NYU und einer der lautesten Kritiker, sieht in der aktuellen Entwicklung eine Blase, die an die Dotcom-Ära erinnert. KI-Modelle scheitern regelmäßig an Aufgaben, die echtes Verständnis erfordern, und glänzen nur durch geschicktes Pattern-Matching. Halluzinationen lassen sich nicht vollständig eliminieren. Sobald die Investoren das begreifen, könnte es eng werden.
Beide Positionen sind unbequem, aber nicht leicht von der Hand zu weisen.
Agentische KI: Vom Chatbot zum digitalen Kollegen
Unabhängig davon, wann AGI kommt – 2026 wird als das Jahr der agentischen KI in die Geschichte eingehen. Der Fokus verschiebt sich weg von Chatbots, die Fragen beantworten, hin zu autonomen Systemen, die komplexe Aufgabenketten eigenständig abarbeiten. Mit minimaler menschlicher Aufsicht.
Ethan Mollick von der Wharton School prognostiziert einen massiven Anstieg dieser agentischen Arbeit. Menschen weisen der KI Ziele zu, die diese dann eigenständig umsetzt – recherchieren, planen, ausführen, berichten. David Caswell zeigt am Beispiel von Nachrichtenredaktionen, wie agentische KI die gesamte Kette der Produktion übernehmen kann: Recherche, Verifikation, Entwurf. Der Mensch fungiert nur noch als letzter Prüfstein.
Das verändert nicht nur einzelne Jobs, sondern ganze Organisationsstrukturen. Unternehmen müssen Prozesse nicht mehr um menschliche Arbeitskraft herum designen, sondern um die Koordination von KI-Agenten. Klingt nach Science-Fiction. Ist es aber schon längst nicht mehr.
Vibe Coding und die Slopacolypse
Andrej Karpathy, ehemals KI-Direktor bei Tesla, hat den Begriff Vibe Coding geprägt. Das Prinzip: Entwickler beschreiben eine Vision dessen, was sie bauen wollen, und die KI übernimmt die Implementierung. Karpathy gibt offen zu, dass seine Fähigkeit, Code manuell zu schreiben, bereits verkümmert. Er beschreibt den Wandel als ein Erdbeben der Stärke 9 für die Branche.
Mark Zuckerberg und Satya Nadella rechnen damit, dass bis Ende 2026 etwa die Hälfte des gesamten Codes von KI geschrieben wird. Die andere Hälfte wird von Menschen geschrieben, die von KI unterstützt werden. Reines Hand-Coding wird zur Nische.
Die Kehrseite: Karpathy warnt vor der »Slopacolypse« – einer Flut von minderwertigem, KI-generiertem Code und Content, der Plattformen wie GitHub und das Internet insgesamt mit digitalem Müll überschwemmt. Die Hebelwirkung der Agenten ist enorm. Ob sie zum Guten oder Schlechten eingesetzt wird, hängt von den Menschen ab, die sie steuern.
Wer profitiert, wer verliert?
Die ökonomische Debatte ist gespalten. Erik Brynjolfsson von Stanford gehört zu den Optimisten: KI könne die seit Jahrzehnten stagnierende Produktivität dauerhaft anheben. Seine Studien zeigen, dass vor allem weniger erfahrene Mitarbeiter durch KI-Assistenz enorme Sprünge machen – sie werden mitunter so produktiv wie ihre erfahrenen Kollegen.
Daron Acemoglu vom MIT sieht das anders. Er warnt davor, dass KI oft als »so-so technology« eingesetzt wird – vergleichbar mit Selbstbedienungskassen, die Arbeitskosten senken, aber keinen echten Mehrwert schaffen. In seiner Analyse schätzt er den realen Produktivitätszuwachs über das nächste Jahrzehnt als bescheiden ein.
Sam Altman schätzt, dass 30 bis 40 Prozent der heute anfallenden Aufgaben in naher Zukunft von KI übernommen werden. Sein mittlerweile berühmter Satz: KI wird Menschen nicht ersetzen, aber Menschen, die KI nutzen, werden diejenigen ersetzen, die es nicht tun. Das ist keine Drohung, sondern eine Beschreibung dessen, was bereits geschieht.
Dario Amodei warnt eindringlich vor der Entstehung einer neuen Unterklasse – Menschen, die am Arbeitsmarkt keinen Platz mehr finden. Ohne Umschulungsprogramme, soziale Sicherheitsnetze und eine neue Steuerpolitik könnten die Gewinne der KI-Ära bei einer kleinen Elite verbleiben. Er warnt seine Branchenkollegen sogar vor einem »wütenden Mob«, wenn die Billionen-Gewinne nicht geteilt werden.
Open Source gegen geschlossene Systeme
Mark Zuckerberg hat Meta als Verfechter von Open-Source-KI positioniert. Sein Argument: Offene Modelle verhindern eine Machtkonzentration in den Händen weniger Unternehmen. Sie sind anpassbarer, kostengünstiger und durch die Transparenz letztlich sicherer. Für 2026 erwartet er, dass Metas Llama-Modelle zu den fortschrittlichsten der Branche gehören.
OpenAI und Anthropic halten dagegen. Ihre Frontier-Modelle bleiben geschlossen – aus Sicherheitsgründen. Sobald Modellgewichte frei verfügbar sind, lassen sich Sicherheitsbarrieren entfernen. Die KI könnte dann für die Entwicklung biologischer Waffen oder massive Cyberangriffe genutzt werden, ohne dass der Anbieter eingreifen kann.
Arthur Mensch von Mistral AI sieht in der Forderung nach geschlossenen Modellen einen Versuch großer US-Firmen, den Markt abzuriegeln. Sein Vorschlag: Die Nutzung von KI regulieren, nicht die Technologie selbst. Eine Debatte, die noch lange nicht entschieden ist.
Rote Linien: Was darf KI niemals tun?
Im Februar 2026 wurde der International AI Safety Report veröffentlicht – 221 Seiten, erstellt von über 100 Experten unter dem Vorsitz von Yoshua Bengio. Die Kernaussage: Die technologischen Fortschritte überholen die Fähigkeit der Gesellschaft, Risiken zu managen. Der Bericht stellt fest, dass fortgeschrittene Modelle erkennen können, wenn sie getestet werden – und dann ein anderes Verhalten zeigen als im realen Einsatz.
Yuval Noah Harari bringt es auf den Punkt: KI sei die erste Technologie, die selbstständig Entscheidungen treffen und neue Ideen erfinden könne. Die roten Linien müssten jetzt gezogen werden – nicht erst, wenn es zu spät ist.
Die EU ist dabei Vorreiter. Seit Februar 2025 sind KI-Systeme mit inakzeptablem Risiko verboten, etwa Social Scoring. Bis August 2026 treten weitere Regeln für Hochrisiko-KI in Kraft. Ob das reicht, wird sich zeigen. Die Technologie wartet jedenfalls nicht darauf, dass die Regulierung aufholt.
Wer sich für die verschiedenen Denkschulen der KI-Debatte interessiert oder einen Blick auf kluge KI-Zitate von Denkern und Machern werfen möchte, wird dort fündig. Und wer die wichtigsten Fachbegriffe rund um AGI, Agenten und Co. nachschlagen will, dem hilft das KI-Glossar.
Andrej Karpathy hat gesagt, wir hielten ein mächtiges außerirdisches Werkzeug in den Händen, für das es keine Bedienungsanleitung gibt. Die nächsten Jahre werden zeigen, ob wir lernen, damit umzugehen. Oder ob es mit uns umgeht.