Why We Won’t Get AGI
KI imitiert einen alten Zeichenstil perfekt kann jedoch nichts neues schaffen
Warum wir keine AGI bekommen werden – laut Sabine Hossenfelder
(Why We Won’t Get AGI – According to Sabine Hossenfelder)
YouTube-Link zum Originalvideo
DEUTSCH
Die theoretische Physikerin Dr. Sabine Hossenfelder, bekannt für ihre unbestechliche Klarheit und ihren unromantischen Blick auf wissenschaftliche und technologische Hypes, seziert in ihrem Video “Why we won’t get AGI” die Illusion, dass aktuelle KI-Systeme jemals zur künstlichen allgemeinen Intelligenz (AGI) werden könnten.
Hossenfelder, geboren 1976 in Frankfurt am Main, arbeitete unter anderem am Perimeter Institute in Kanada und lehrt heute am Munich Center for Mathematical Philosophy. Sie ist Autorin mehrerer Bücher, darunter “Lost in Math” und “Existential Physics”, und betreibt den erfolgreichen YouTube-Kanal “Science Without the Gobbledygook”. Ihre Relevanz liegt in der Kombination aus physikalischer Präzision und intellektueller Unbestechlichkeit – eine Seltenheit in einer Zeit, in der selbst Wissenschaft zum Spektakel verkommt.
In ihrem Vortrag argumentiert Hossenfelder, dass Deep Neural Networks – also die Grundlage aller heutigen großen Sprach- und Bildmodelle – nicht zur allgemeinen Intelligenz führen werden. Ihre Analyse ist ernüchternd und zugleich befreiend:
Zweckgebundenheit der Modelle
Diese Systeme erkennen nur Muster in spezifischen Datentypen. Sie denken nicht abstrakt, sondern sind an ihren jeweiligen Zweck gekettet. AGI aber erfordert eine universelle Abstraktionsfähigkeit.Halluzinationen
Sprachmodelle „halluzinieren“, wenn ihnen Wissen fehlt. Sie generieren plausible, aber falsche Aussagen – weil sie keine Informationen suchen, sondern Wahrscheinlichkeiten formen. Der Vorschlag von OpenAI, Modelle solle bei Unsicherheit einfach „Ich weiß es nicht“ sagen, löst das Problem laut Hossenfelder nur teilweise. Die Täuschung bleibt systemimmanent.Prompt Injection
Das strukturell unlösbare Sicherheitsproblem: KIs können nicht unterscheiden, ob eine Eingabe Teil der Aufgabe oder eine Manipulation ist. Damit bleiben sie für viele Anwendungen unzuverlässig – für immer.Fehlende Generalisierung
Gegenwärtige Modelle „interpolieren, sie extrapolieren nicht“. Sie funktionieren innerhalb des Bekannten, scheitern jedoch, wenn Neues verlangt wird. Sie imitieren – sie erfinden nicht.
Hossenfelder folgert, dass Unternehmen wie OpenAI oder Anthropic, die ihr Geschäftsmodell allein auf dieser Technologie aufbauen, auf ein wirtschaftliches Desaster zusteuern. Die Erwartungen an AGI seien ein Kartenhaus aus Wunschdenken und Marketing.
Der Weg zu echter Intelligenz führe über neue Architekturen: abstrakte Reasoning-Netzwerke und neuro-symbolische Systeme, die Informationen unabhängig von ihrer Form verstehen. Eine „Sprache ohne Worte“, wie Hossenfelder es nennt.
Ihr bitteres Fazit:
„The most likely path to human-level intelligence is that humans will just get dumb enough.“
Wie recht sie hat. Vielleicht liegt die Zukunft der künstlichen Intelligenz nicht im Fortschritt der Maschinen, sondern im Rückschritt des Menschen.
ENGLISH VERSION
Theoretical physicist Dr. Sabine Hossenfelder, known for her sharp intellect and no-nonsense approach to science communication, dismantles in her video “Why we won’t get AGI” the widespread belief that current AI architectures could ever evolve into Artificial General Intelligence.
Born in Frankfurt in 1976, Hossenfelder has worked at the Perimeter Institute for Theoretical Physics and now teaches at the Munich Center for Mathematical Philosophy. She is the author of “Lost in Math” and “Existential Physics”, and runs the YouTube channel “Science Without the Gobbledygook”, where she relentlessly exposes illusions in modern science and technology.
In her analysis, she explains why deep neural networks, the foundation of all current language and image models, will never reach general intelligence.
Purpose-Bound Systems
Neural networks are trained for specific data patterns – text, images, or video. They cannot perform abstract reasoning beyond their design. AGI requires exactly that.Hallucinations
Language models often produce false but plausible statements because they don’t retrieve facts – they predict word probabilities. OpenAI’s idea of teaching models to admit “I don’t know” may mitigate confusion but doesn’t solve the fundamental limitation.Prompt Injection
Models cannot reliably separate instructions from user input. This makes them inherently vulnerable and untrustworthy for critical tasks.Lack of Generalization
Current AIs interpolate; they don’t extrapolate. They reproduce patterns they’ve seen but fail when faced with something truly new.
According to Hossenfelder, companies like OpenAI and Anthropic are heading toward collapse because their business models rely on the illusion that scaling current systems will yield AGI.
The path forward, she says, lies in abstract reasoning networks and neuro-symbolic systems – architectures capable of reasoning across domains in what she calls a “language without words.”
Her closing remark is as dark as it is profound:
„The most likely path to human-level intelligence is that humans will just get dumb enough.“
A reflection as bleak as it is accurate. Perhaps the machines don’t need to rise – humanity simply needs to sink far enough.