Jobst Landgrebe, ein erfahrener Wissenschaftler und KI-Unternehmer, und Barry Smith, ein führender Philosoph der Ontologie, präsentieren in der zweiten, überarbeiteten und erweiterten Auflage ihres Buches „Why Machines Will Never Rule the World“ (erschienen 2025) eine radikale These. Die erste Auflage erschien just in der Woche, als ChatGPT veröffentlicht wurde. Die Autoren stellen die weit verbreiteten Ängste vor einer unkontrollierbaren „Superintelligenz“ infrage und zeigen auf interdisziplinärer Basis – von Mathematik, Physik und Informatik bis hin zu Linguistik und Biologie – warum das Streben nach einer Allgemeinen Künstlichen Intelligenz (AGI) aus fundamentalen mathematischen Gründen unmöglich ist.
3 zentrale Erkenntnisse aus dem Buch
Die mathematische Unmöglichkeit von AGI: Das menschliche Gehirn und das zentrale Nervensystem sind komplexe dynamische Systeme im Sinne der Thermodynamik. Solche Systeme können nicht synoptisch so modelliert werden, dass ihr Verhalten in einem Computer nachgebildet (emuliert) werden könnte, da die Komplexität über die Möglichkeiten unserer mathematischen Modellierung hinausgeht.
LLMs sind stochastische Mathematik, keine Denker: Neue Modelle wie ChatGPT (Large Language Models) unterliegen denselben mathematischen Beschränkungen. Sie sind lediglich sequentielle stochastische Modelle, die die wahrscheinlichste Ausgabe-Sequenz berechnen, anstatt Text wirklich zu verstehen, zu fühlen oder einen eigenen Willen zu entwickeln.
Die fehlende praktische Intelligenz: Die KI-Forschung ignoriert den Unterschied zwischen propositionalem Wissen (knowing that) und praktischer Intelligenz (knowing how), welches das unbewusst erworbene, nicht-propositionale Wissen umfasst. Diese praktische Intelligenz ist entscheidend für die menschliche Kognition und Kreativität und kann von Maschinen nicht emuliert werden.
Für wen ist das Buch besonders interessant?
KI-Enthusiasten und Investoren: Das Buch ist essenziell für alle, die von der aktuellen KI-Hype-Welle erfasst werden oder Angst vor einer Superintelligenz haben. Es bietet eine fundierte Entzauberung transhumanistischer Ideen und liefert eine realistische Einschätzung des erreichbaren Potenzials.
KI-Forscher und Entwickler: Es ist eine kritische Lektüre, um die strukturellen Grenzen der mathematischen Modellierung komplexer Systeme zu verstehen. Dies hilft, zukünftige „AI Winter“ zu vermeiden und sich auf realisierbare, schmale KI-Anwendungen (Narrow AI) zu konzentrieren.
Studierende und Experten der Natur- und Geisteswissenschaften: Die Arbeit stützt sich umfassend auf Erkenntnisse aus Mathematik, Physik, Biologie, Linguistik und Philosophie. Sie liefert einen interdisziplinären Rahmen, um die Funktionsweise des menschlichen Geistes und der Sprache im Kontrast zur Maschine zu beleuchten.
Was Du aus dem Buch mitnehmen kannst
Die Grenzen der Modellierbarkeit
Das Buch geht der Frage nach, was menschliche Intelligenz ausmacht und warum unsere Interaktionen mit KI, etwa am Telefon mit Bankcomputern, nach über 50 Jahren immer noch unbefriedigend sind. Die zentrale These lautet, dass die Entwicklung einer Allgemeinen Künstlichen Intelligenz (AGI) mathematisch unmöglich ist. Dieses Argument fußt auf der Erkenntnis aus der Thermodynamik, dass das menschliche Gehirn und das zentrale Nervensystem komplexe dynamische Systeme sind. Solche Systeme – im Gegensatz zu logischen oder nur komplizierten Systemen – können nicht hinreichend in einer Weise modelliert werden, die eine synoptische und adäquate Emulation in einem Computer ermöglichen würde.
Von stochastischen Sequenzen zur fehlenden Intentionalität
Die Autoren belegen ihre These mit Evidenz aus einem breiten Spektrum an Disziplinen. Sie zeigen auf, dass selbst Large Language Models (LLMs) wie ChatGPT – deren Algorithmen die mathematischen Beschränkungen teilen – lediglich als sequentielle stochastische Modelle funktionieren, die die wahrscheinlichste Ausgabe-Sequenz berechnen. LLMs sind lediglich Turing-berechenbare Algorithmen, deren Komplexität in der schieren Anzahl ihrer Parameter (trillions) liegt, nicht jedoch in einem echten Verständnis. Der menschlichen Intelligenz fehlt in der Maschine die entscheidende praktische Intelligenz (knowing how) sowie die elementaren Attribute des menschlichen Mind-Body Continuum wie Bewusstsein, Gefühl oder ein eigener Willen. Daher können Maschinen keine Handlungen initiieren oder unvorhergesehene Situationen spontan und bedeutungsvoll bewältigen. Auch die transhumanistische Vorstellung der „Whole Brain Emulation“ (WBE), bei der das Gehirn kopiert wird, scheitert, da sie wissenschaftlich absurd und biologisch unmöglich ist.
Realistischer Optimismus für Narrow AI
Die Schlussfolgerung des Buches ist, dass die Befürchtungen vor einer unkontrollierbaren oder gar böswilligen Superintelligenz unbegründet sind. Da KI selbst nur Mathematik ist und keinen eigenen Willen entwickeln kann, ist sie nicht in der Lage, Aktionen zu initiieren. Die Autoren sind jedoch leidenschaftliche Optimisten in Bezug auf das erreichbare Potenzial der schmalen KI (Narrow AI). Wenn wir uns auf Anwendungen für nicht-komplexe Systeme (auch logische Systeme genannt) konzentrieren – deren Verhalten mathematisch vorhersagbar ist – wird KI weiterhin enorme Vorteile bringen. Die wahre Herausforderung besteht darin, die strukturellen Grenzen der KI zu erkennen und diese im Einklang mit den Anforderungen und der Ethik des Menschen zu nutzen.
Das Buch in einem Satz
Da die menschliche Intelligenz das Produkt eines komplexen, nicht-modellierbaren neurokognitiven Systems ist, können Maschinen niemals Allgemeine Künstliche Intelligenz (AGI), Bewusstsein oder einen eigenen Willen entwickeln.
Affiliate / Anzeige: Wenn du über diesen Link kaufst, erhalten wir eine Provision, ohne dass sich der Preis für dich ändert.









