Künstliche Intelligenz

Photo by Christopher Burns on Unsplash

Die künstliche Intelligenz (KI) oder Artifizielle Intelligenz (AI, eng. Artificial Intelligence) befasst sich als Teilgebiet der Informatik mit der maschinellen Simulation und Automatisierung von intelligentem menschlichen Denken. Als integraler Bestandteil der digitalen Revolution und in Kombination mit bahnbrechenden Innovationen in der Biotechnologie wird die KI das gesellschaftliche, wirtschaftliche und politische Leben grundlegend verändern.

Definition der KI

Bereits 1948 prägte der amerikanische Philosoph Norbert Wiener mit dem Terminus Cybernetics den Versuch, die Informationsverarbeitung eines Computers der des menschlichen Gehirns nachzuempfinden. Der Begriff „künstliche Intelligenz“ geht auf den amerikanischen Informatiker John McCarthy zurück, der 1956 am Dartmouth College in New Hampshire eine Konferenz unter dem Titel Summer Research Project on Artificial Intelligence organisierte. McCarthy definierte KI als “die Wissenschaft intelligenter Maschinen, insbesondere intelligenter Computerprogramme”. Eine allgemeine Definition von künstlicher Intelligenz scheitert an der Tatsache, dass der Begriff Intelligenz selbst nicht allgemeingültig definiert ist, sondern nur als Sammelbegriff für die durch verschiedene Intelligenztheorien erklärte kognitive Leistungsfähigkeit des Menschen steht. In gleichem Maße wurde McCarthys Definition der künstlichen Intelligenz mit fortschreitender technischer Entwicklung erweitert und in der Folge sogar grundlegend in Frage gestellt.

Geschichte der KI

Die Auffassung, dass sich die Vorgänge menschlichen Denkens automatisieren oder mechanisieren lassen könnten, existierte lange vor der Entwicklung des modernen Computers im 20. Jahrhundert. Schon 1748 beschrieb der französische Philosoph Julien Offray de La Mettrie in seinem Werk L’homme Machine die Gleichsetzung von Mensch und Maschine. Die Vorstellung eines künstlichen Menschen manifestierte sich in fiktiven Gestalten wie dem Laplace’schen Dämon, dem Homunkulus oder Frankensteins Monster.

Zur tatsächlichen Umsetzung fehlte jedoch die sogenannte “physische Trägersubstanz”, also ein materielles Objekt, auf das sich die formale Logik einer künstlichen Intelligenz übertragen ließ.

Dies änderte sich 1936, als der britische Mathematiker Alan Turing bewies, dass jedes algorithmierbare Problem mithilfe einer universellen Rechenmaschine lösbar ist. Sein 1950 erschienener Aufsatz Computing Machinery and Intelligence führte wegweisende Überlegungen zu künstlicher Intelligenz ein. Der Turing-Test, eine Methode zur Feststellung maschinellen Denkvermögens, wird bis heute in der Debatte um die Fähigkeiten der KI herangezogen.

Die Konferenz am Dartmouth College 1956 um John McCarthy, Marvin Minsky, Nathaniel Rochester und Claude Shannon gilt als Geburtsstunde der künstlichen Intelligenz als akademischem Fachgebiet. 1966 hatte Minsky die Definition von KI weiterentwickelt: “Künstliche Intelligenz liegt dann vor, wenn Maschinen Dinge tun, für deren Ausführung man beim Menschen Intelligenz unterstellt”. Den amerikanischen Wissenschaftlern Allen Newell und Herbert Simon ging diese Definition nicht weit genug; in ihrer Physical Symbol System Hypothesis beschreiben sie 1976 die Informationsverarbeitung des Gehirns als einen reinen Rechenvorgang, eine Manipulation von Symbolen. Dadurch sei Intelligenz unabhängig von der physischen Trägersubstanz (dem Gehirn) und könne von einer Maschine erlernt werden. Newell und Simon sprachen sogar von der “Überwindung des Todes” durch KI. Dieser Vorstellung einer starken KI widersprach 1980 der amerikanische Philosoph John Searle in seinem Gedankenexperiment Das chinesische Zimmer, in dem er die Limitationen von KI-Systemen aufzeigte. Er sah eine enge Verknüpfung zwischen menschlichem Denken und der natürlichen Biologie des Menschen: “So wenig, wie ein simuliertes Unwetter nass macht, so wenig ist ein simulierter Denkprozess dasselbe wie menschliches Denken”.

Die 1980er Jahre machten die KI-Forschung einer breiteren Öffentlichkeit bekannt. Sogenannte Expertensysteme vereinten das Wissen eines Fachgebiets in Form von Regeln und Wissensbasen in Computerprogrammen, die beispielsweise für die Diagnose von Krankheiten eingesetzt werden sollten. Die Komplexität dieser von Hand programmierten Systeme erforderte jedoch bald den Einsatz von maschinellem Lernen, basierend auf künstlichen neuronalen Netzwerken. Diese orientieren sich am biologischen Gehirn und verarbeiten Informationen, wie ihr biologisches Vorbild, auf Basis von (künstlichen) Neuronen. Die intelligente Robotik wurde in den 1990er Jahren zu einem vorrangigen Forschungsthema. 1997 besiegte IBMs DeepBlue als erster Schachcomputer den amtierenden Schachweltmeister, Garri Kasparow.

Während die Entwicklung der künstlichen Intelligenz im 20. Jahrhundert akademisch geprägt und technisch limitiert war, erlebt die KI seit der Jahrtausendwende einen kommerziellen und technischen Boom. Leistungsfähigere Software und Hardware, verbesserte KI-Verfahren und die Verfügbarkeit von großen Datenmengen zum Training für Computersysteme ermöglichen die Entwicklung immer intelligenterer Anwendungen, insbesondere im Bereich des maschinellen Lernens. 2011 präsentierte IBM Watson, eine Computerplattform, die mit Hilfe von KI Antworten auf Fragen in natürlicher Sprache geben kann. Watson und andere KI-gestützte Systeme finden mittlerweile Anwendung in den verschiedensten Industrien und Dienstleistungen.

Anwendungen der KI

Die schwache KI, also Computersysteme, die auf konkrete Anwendungsprobleme spezialisiert sind, hat ihre menschlichen “Gegner” in klassischen Gesellschaftsspielen wie Schach, Bridge und Go bereits seit Jahren überholt. Sie wird für Suchmaschinen, Chat-Bots, Sprachassistenten, Übersetzung und Navigationssysteme genutzt. Expertensysteme helfen bei der Erschließung von Ölquellen oder der Überprüfung von Kreditwürdigkeit. KI unterstützt das Militär bei autonomen Waffensystemen, die Geheimdienste bei der Terrorismusabwehr und Investmentbanken bei der Kursprognose im Hochfrequenzhandel. In der nahen Zukunft wird die schwache KI in selbstfahrenden Autos, für medizinische Diagnosen und in humanoiden Robotern eingesetzt werden. Die meisten dieser Systeme basieren auf maschinellem Lernen, insbesondere dem Teilbereich Deep Learning, der Muster und Strukturen mit Hilfe künstlicher neuronaler Netze und großer Datenmengen erkennen kann. Laut dem amerikanischen Computerwissenschaftler Alex Pentland benutzt die heutige KI jedoch nur rudimentäre Algorithmen und ist “im Kern strohdumm”.

Hier soll die starke KI, oder auch AGI (Artificial General Intelligence) in bisher ungeahnte Bereiche vordringen. Ob es möglich sein wird, eine dem Menschen ebenbürtige oder überlegene Superintelligenz zu schaffen, ist allerdings unter Wissenschaftlern und Philosophen höchst umstritten. Wie schon John Searle 1980 sind viele der Meinung, dass jede scheinbare Intelligenz eines Computers höchstens als Simulation echter (menschlicher) Intelligenz zu sehen ist. Eine echte Superintelligenz würde außerdem ein Bewusstsein benötigen, um aktiv zu beeinflussen und eigene Entscheidungen treffen zu können. Nach dem heutigen Kenntnisstand ist es unwahrscheinlich anzunehmen, dass künstliche Intelligenz jemals ein Bewusstsein entwickeln wird. Theorien wie das Free Energy Principle des britischen Neurowissenschaftlers Karl Friston bieten jedoch neue Ansätze, wie eine AGI erreicht werden könnte.

Chancen und Risiken der KI

Unabhängig von der Frage, ob eine AGI möglich und erstrebenswert ist, sind die Vorteile einer schwachen KI bereits in den bestehenden Anwendungen erkennbar. Intelligente Systeme können unserer Leben vereinfachen und bereichern. Ein mit KI unterstütztes Gesundheitssystem kann eine bessere und günstigere Gesundheitsversorgung gewährleisten. Selbstfahrende Autos könnten den Großteil der jährlich 1,25 Millionen Todesfälle bei Autounfällen verhindern. Automatisierte Systeme und Robotik könnten monotone und schwerfällige Arbeiten übernehmen, während gleichzeitig neue Industrien und Berufsfelder entstehen. Die Theorien der technologischen Singularität und des Transhumanismus beschreiben eine Zukunft, in der der Mensch seine physischen und intellektuellen Möglichkeiten durch den Einsatz von KI und Biotechnologie erweitert und sogar die biologische Unsterblichkeit erreichen könnte.

Die Angst vieler Menschen vor der künstlichen Intelligenz ist oft durch dystopische Szenarien in Filmen wie Die Matrix oder Terminator geprägt, in denen intelligente Maschinen ein Bewusstsein entwickeln und sich von ihren menschlichen Schöpfern lossagen, um die Weltherrschaft zu übernehmen. Mittelfristig wird sich die Menschheit jedoch mit den realen Problemen der KI beschäftigen müssen. Die digitale Revolution wird von Unternehmern und Ingenieuren vorangetrieben, die sich der politischen und sozialen Auswirkungen von technologischen Entwicklungen oft nicht bewusst sind. Maschinelles Lernen und Robotik im Verbund integrierter Netzwerke könnten hunderte Millionen Menschen aus dem Arbeitsmarkt drängen. Neu entstandene Jobs werden eine technische Expertise benötigen, die geringqualifizierte Arbeiter nicht besitzen. So könnte es zu der paradoxen Situation eines Fachkräftemangels bei gleichzeitig hoher Arbeitslosigkeit kommen. Es gibt verschiedene Ansichten, wie massiv die Veränderungen auf dem Arbeitsmarkt sein werden. Allein die geringe Wahrscheinlichkeit einer globalen Massenarbeitslosigkeit durch KI, vor allem in Entwicklungsländern, sollte jedoch ernst genommen werden.

Die Entwicklung von KI-Systemen muss Leistungsfähigkeit gegen Transparenz und den Schutz der Privatsphäre abwägen. Deep Learning verbessert sich durch das Training mit immer mehr Daten und basiert auf mathematischen Berechnungen, deren Ergebnisse schon heute selbst für Experten unmöglich nachzuvollziehen sind. Ein dem Programm zugrundeliegender systematischer Fehler kann kaum erkannt, geschweige denn behoben werden. So diskriminierte eine Rekrutierungs-KI von Amazon systematisch Frauen, da die Trainingsdaten mehr Männer enthielten.

Der Verlust der Privatsphäre und der individuellen Freiheit durch das systematische Sammeln von Daten stellt eine weitere Gefahr dar. Künstliche Intelligenz könnte in der Hand autoritärer Regime missbraucht werden, um die Bevölkerung systematisch zu manipulieren. Chinas geplantes Social Credit System lässt bereits erahnen, wie KI zur Kontrolle von Staatsbürgern eingesetzt werden kann. Eine digitale Diktatur, in der KI-gestützte Systeme der Regierung bedingungslos gehorchen, würde selbst George Orwells Vision eines Überwachungsstaates übertreffen.

Langfristig besteht die potenzielle Bedrohung einer Unterteilung der Menschheit in biologische Kasten mit Hilfe von künstlicher Intelligenz und biotechnischen Innovationen. Selbst eine schwache KI hat das Potential, die Leistung des menschlichen Gehirns zu steigern. Eine kleine, biologisch überlegene Kaste könnte so die eigene Kreativität, Gesundheit und mentale Stärke exponentiell steigern, während ein Großteil der Menschheit evolutionär zurückbleibt. Die Möglichkeit einer Verschmelzung von Mensch und Maschine wirft außerdem noch größere Fragen auf: Müssen sich Menschen mit KI aufrüsten, um mit den Maschinen mithalten zu können? Und was sagt das über das Selbstverständnis des Menschen selbst aus?

Zukunftsaussichten der KI

Die digitale Revolution in Kombination mit Innovationen in der Biotechnologie wird das Leben aller Menschen in den nächsten Jahrzehnten grundlegend verändern. KI wird die wirtschaftlichen und sozialen Transformationen, die durch die erste Welle der Digitalisierung bereits angestoßen wurden, noch verstärken. Neben großen Chancen gehen mit der Entwicklung von KI auch beträchtliche Risiken für die gesamte Menschheit einher.

Wie jede technologische Entwicklung ist auch die der künstlichen Intelligenz nicht vorbestimmt. Die Gesellschaft muss sich darüber im Klaren sein, welche Technologien sie zulassen und ob und wie sie diese beschränken will. Negative Begleiterscheinungen der industriellen Revolution wurden nur langsam durch schmerzvolle Anpassungsprozesse überwunden. Für die Folgen der digitalen Revolution sollte sich die Menschheit besser vorbereiten, um die KI zuverlässig, transparent, vertrauenswürdig und verantwortungsvoll im Interesse des Menschen zu gestalten.

Weiterführende Literatur

Nick Bostrom: Superintelligenz: Szenarien einer kommenden Revolution. Berlin 2016.

John Brockman: Possible Minds: 25 Ways of looking at AI. London 2019.

Erik Brynjolfsson und Andrew McAfee: The Second Machine Age: Wie die nächste digitale Revolution unser aller Leben verändern wird. Berlin 2014.

Peter Buxmann und Holger Schmidt: Künstliche Intelligenz – mit Algorithmen zum wirtschaftlichen Erfolg. Berlin 2018.

Yuval Noah Harari: Homo Deus – Eine Geschichte von Morgen. München 2017.

Ray Kurzweil: Menschheit 2.0: Die Singularität naht. Berlin 2014.

Hubert Mania und Max Tegmark: Leben 3.0: Mensch sein im Zeitalter Künstlicher Intelligenz. Berlin 2017.

Sarah Spiekermann: Digitale Ethik: Ein Wertesystem für das 21. Jahrhundert. München 2019.

Johannes Kirnberger

Johannes Kirnberger studiert Internationale Beziehungen im Master an der Sciences Po in Paris und an der Columbia University in New York. Zuvor machte er in London, Turin und Berlin seinen Bachelor in Betriebswirtschaftslehre an der ESCP Europe.