Eine kurze Geschichte der künstlichen Intelligenz – von der Antike bis ChatGPT

(Anmerkung: Wenn Sie die durch ChatGPT gekürzte und umformulierte Fassung dieses Artikels lesen möchten, klicken Sie hier.)

Die Geschichte der künstlichen Intelligenz (KI) ist eine faszinierende Reise durch technologische Fortschritte, Rückschläge und bahnbrechende Innovationen. Von den ersten Konzepten bis zu den hochmodernen KI-Systemen von heute hat sich die Entwicklung der KI in den letzten Jahrzehnten überschlagen.

Antike

Künstliche Intelligenz scheint zunächst eine moderne Erfindung. Tatsächlich ist die Vorstellung einer künstlichen Form der menschlichen Intelligenz, ja sogar der menschlichen Gestalt, Jahrtausende alt.

Bereits im ältesten Werk der europäischen Literatur, Homers Ilias (spätes 8. Jh. v.u.Z.), lesen wir von selbstfahrenden Dreifüßen (Gesang 18.373) und aus Gold gefertigten jungen Frauen (Gesang 18.417), die ihren Erfinder, den Gott Hephaistos, bei seiner Arbeit unterstützen. In der Argonautika von Apollonios von Rhoodos (3. Jh. v.u.Z.) wird von dem sprechenden Schiff Argo und dem aus Bronze gefertigten Mann Talos erzählt.

Diese mythologischen Erzählungen inspirierten sicherlich antike griechische Erfinder wie Philon von Byzanz und Heron von Alexandria zu hydraulisch, pneumatisch und mechanisch angetriebenen, teilweise programmierbaren Automaten diverser Art. Der selbstfahrende, mit Seilen programmierbare, dreirädige Theaterwagen von Heron erinnert schließlich deutlich an Hephaistos autonome Dreifüße.

Mittelalter und Renaissance

Auch im Mittelalter finden sich Legenden und Bestrebungen künstlich Menschen bzw. menschenähnliche Geschöpfe zu erschaffen. Ein Beispiel aus der jüdischen Mystik ist der Golem. Eine Anleitung zu seiner Erschaffung findet sich zum ersten Mal im 12. Jh. in einem Kommentar von Eleasar ben Juda zum kabbalistischen Werk Sefer Jetzira. Auch der Arzt und Alchemist Paracelsus beschrieb im 16. Jh. die Erschaffung eines künstlichen Homunculus (dt. Menschlein).

Neuzeit und Moderne

Philosophen und Mathematiker beschäftigten sich seit der Antike mit formalem Denken, der Basis für Programmierung jeder Art. Seit René Descartes etablierte sich langsam die Vorstellung, dass der Mensch (zumindest körperlich) einer Maschine gleicht. Thomas Hobbes schreibt beispielsweise in der Einleitung zu Leviathan:

Die Natur oder die Weisheit, welche Gott in der Hervorbringung und Erhaltung der Welt darlegt, ahmt die menschliche Kunst so erfolgreich nach, daß sie unter anderen Werken auch ein solches liefern kann, welches ein künstliches Tier genannt werden muß. [...] warum sollte man nicht sagen können, daß alle Automaten oder Maschinen [...], gleichfalls ein künstliches Leben haben? Ist das Herz nicht als Springfeder anzusehen? Sind nicht die Nerven ein Netzwerk und der Gliederbau eine Menge von Rädern, die im Körper diejenigen Bewegungen hervorbringen, welche der Künstler beabsichtigte?

  • Hobbes, Thomas ; Mayer, J. P. (Hrsg.): Leviathan oder Von Materie, Form und Gewalt des kirchlichen und bürgerlichen Staates, Europäische Reihe. Zürich ; Leipzig : Rascher, 1936

Gottfried Wilhelm Leibniz ging noch einen Schritt weiter und sah auch das rationale Denken als eine Art mathematische Operation, welche, mit passenden Zeichen ausgedrückt, formal berechnet werden kann.

All diese und viele weitere Vorläufer nahmen mit dem Werk von Alan Turing, dem Vater der theoretischen Informatik und der künstlichen Intelligenz, festere Gestalt an. Bereits im Jahr 1950 entwarf er den Turing-Test, welcher überprüft ob ein Computer sich so gut menschlich ausdrücken kann, dass ein Mensch ihn nicht von einem Menschen unterscheiden kann.

Aufschwung der modernen KI

Eine der signifikantesten Entwicklungen für die moderne KI waren die künstlichen Neuronen von McCulloch und Pitts, inspiriert durch Entdeckungen in der Neurowissenschaft. McCulloch und Pitts zeigten bereits 1943, dass aufgrund der Aktivierungseigenschaften von biologischen Neuronen (ein Neuron feuert entweder, oder nicht), mathematische Logik verwendet werden kann um das Verhalten von neuronalen Netzen zu berechnen.

Der Begriff "künstliche Intelligenz" etablierte sich für dieses Forschungsgebiet im Jahre 1956, durch den von John McCarthy und anderen Wissenschaftlern organisierten Dartmouth Workshop. Im Antrag zur Abhaltung des Workshops heißt es:

Die Studie geht von der Annahme aus, dass jeder Aspekt des Lernens oder jedes andere Merkmal der Intelligenz prinzipiell so genau beschrieben werden kann, dass eine Maschine sie simulieren kann. Es wird versucht herauszufinden, wie man Maschinen dazu bringen kann, Sprache zu verwenden, Abstraktionen und Konzepte zu bilden, Probleme zu lösen, die heute Menschen vorbehalten sind, und sich selbst zu verbessern.

Somit war das allgemeine Ziel dieses Forschungsgebietes gesetzt. Der Enthusiasmus unter Forschern und Regierungsorganisationen wie der US-amerikanischen DARPA war groß, und es wurden viele konzeptuelle und praktische Fortschritte erzielt.
ELIZA, ein Chatprogramm von Joseph Weizenbaum, war in der Lage auf englisch zu kommunizieren und bestand sogar manchmal den Turing-Test. Tatsächlich verstand ELIZA jedoch die Inhalte nicht. Antworten generierte das Programm durch geschickte Anwendung von Grammatikregeln zur Umformulierung der Eingabetexte, dem Stellen von Fragen und der Ausgabe von einigen vorgefertigten Texten.

KI-Forscher machten sehr optimistische Vorhersagen über die Zukunft dieses Gebietes. Zum Beispiel prognostizierten Simon und Newell im Jahre 1958, dass innerhalb der nächsten zehn Jahre ein Computer Schachweltmeister sein würde, insofern er an der Schachweltmeisterschaft teilnehmen dürfe.

Doch es sollte noch Jahrzehnte dauern, bis künstliche Intelligenz Früchte außerhalb von Universitäten und Forschungsgruppen tragen sollte.

KI-Winter

Der Optimismus der KI-Forscher führte zu großen Enttäuschungen, als ihre Prognosen sich nicht erfüllten. In den 1970er Jahren führte das dazu, das immer weniger Forschungsgelder in KI investiert wurden. Somit kam die Entwicklung nur langsam voran.

Erst in den 1980er Jahren kam es zu einem erneuten Aufschwung als die ersten Expertensysteme kommerzielle Erfolge verbuchten. Beispielsweise konnte das System XCON geschätzte 15 Millionen Dollar einsparen. Diese Systeme basierten auf dem Wissen menschlicher Experten und konnten mithilfe von Logikregeln fachlich-spezifische Probleme lösen und Fragen beantworten. Damit rückte die Wissensverarbeitung immer weiter in den Fokus der KI-Forschung.

Doch auch diese Welle des Enthusiasmus hielt nicht an. Bereits Ende der 80er verloren Expertensysteme an Interesse, da sie sehr teuer in der Erstellung, begrenzt in der Anwendung und schwer auf dem neuesten Stand zu halten waren. Auch waren sie zu instabil um mit flexiblen Anfragen umzugehen. So kam es in den 1990er Jahren zu einem zweiten "KI-Winter", d.h. einem großen Einbruch an Investitionen und Forschungsgeldern.

Trotzdem wurde weiter an KI-Anwendungen gearbeitet. IBM entwickelte den Schachcomputer Deep Blue, welcher den amtierenden Schachweltmeister Garri Kasparow im Mai 1997 schlug. Neue Konzepte und Algorithmen wurden entwickelt, oft durch interdisziplinären Austausch mit anderen Gebieten wie Statistik, Ökonomie, und Ingenieurswesen. Viele kommerzielle Produkte zur Spracherkennung, im Finanzwesen oder in der Robotik beinhalteten Methoden aus der KI-Forschung - auch wenn das oft nicht hervorgehoben wurde, da KI damals als idealistische Träumerei empfunden wurde.

Auf jeden Winter folgt der Frühling

Durch die rasant ansteigenden Speicher- und Rechenkapazitäten von Computern in den 90er und 2000er Jahren wurden immer mehr KI-Methoden praktisch nützlich. Teilweise jahrzehntealte Algorithmen konnten nun zu ihrer vollen Leistung ausgenutzt und erweitert werden. Gleichzeitig führte die zunehmende Digitalisierung und einfachere Ansammlung von großen Datenmengen über das Internet dazu, dass KI-Methoden wie neuronale Netzwerke auf genügend Daten trainiert werden konnten um den ursprünglichen Zielen der KI-Forschung tatsächlich nahe zu kommen.

Die heutigen Errungenschaften in der Bild- und Sprachverarbeitung, die selbstfahrende Autos und ChatGPT möglich werden ließen, gehen auf das sogenannte Deep Learning zurück. Dabei werden künstliche Neuronen in vielen Schichten hintereinander angeordnet und mit einem Arsenal an mathematischen Werkzeugen trainiert. Durch die geschickte Kombination unterschiedlicher Methoden und der Verwendung hochqualitativer Datensätze können künstliche Intelligenzen heute Texte oder Programmcode verfassen, Bilder aus Beschreibungen generieren oder Videos bearbeiten.

Was die Zukunft bereithält lässt sich nicht leicht sagen. Doch um faszinierende Chancen zu entdecken, müssen wir nur in die Gegenwart blicken:
Heutige KI-Anwendungen sind vielseitig, flexibel und zunehmend erschwinglich, was es Unternehmen jeder Größe möglich macht, von den Vorteilen dieser aufstrebenden Technologie zu profitieren. Von der Automatisierung von Prozessen bis hin zur Personalisierung von Kundenerlebnissen – KI hat das Potenzial, die Art und Weise wie Unternehmen arbeiten, zu revolutionieren.

Nach oben scrollen