Uncategorized

Wird die KI uns ersetzen?

Der Philosoph und Autor Matthias Pfeffer hielt am 2. November 2024 in der Evangelischen Akademie Tutzing unter dem Titel “KI und … menschliche Vernunft – Eine Aufforderung” einen Vortrag zum Verhältnis von Künstlicher Intelligenz und menschlichem Denken. Hier können Sie den Vortrag in voller Länge nachlesen.

  •  Der Vortrag war Teil der Tagung “Künstliche Intelligenz: Wird die KI uns ersetzen?” (1.-3.11.2024), zum Programm

 

Von Matthias Pfeffer

Die Frage, ob Künstliche Intelligenz (KI) uns ersetzen wird, lässt sich nicht beantworten, ohne eine Prognose zu wagen. Mark Twain wird das Bonmot zugeschrieben, dass Prognosen schwierig sind, insbesondere wenn sie die Zukunft betreffen. Daher enthält der vorliegende Versuch einer Prognose eine wesentliche Einschränkung: Dass die gewaltigen Versprechungen oder auch die ebenso gewaltigen Befürchtungen, die mit KI verbunden sind, sicher eintreten. Sie hängen nämlich, wie die Zukunft insgesamt, maßgeblich davon ab, was wir heute denken, entscheiden und tun.

Um die Frage zu beantworten, müssen wir uns mit dem Verhältnis der sogenannten Künstlichen Intelligenz zu unserem menschlichen Denken beschäftigen: Kann KI, wie so oft behauptet wird, dem Menschen wirklich in allen Bereichen überlegen sein? Ist ihre Entwicklung unvermeidbar? Kann sie echte Autonomie entwickeln? Welche Folgen kann ihre ungebremste Entwicklung für die menschliche Spezies haben? Und welche Aufgabe hat menschliches Denken im Zeitalter der fortschreitenden Automatisierung des Denkens überhaupt noch?

Das Paradox der KI

Beginnen wir mit einem Paradox: “Ultimativ droht die Auslöschung der Menschheit”, so der britische Informatiker Geoffrey Hinton in einem Interview kurz bevor bekannt wurde, dass ihm in diesem Jahr der Nobelpreis für Physik verliehen wird. Hinton hat die Grundlagen für die neuen Formen der Künstlichen Intelligenz gelegt, und als KI-Entwicklungschef bei Google die generative KI maßgeblich vorangetrieben. Jetzt warnt er, dass durch seine Technologie der Weltuntergang droht.

Und auch der Nobelpreis für Chemie geht an einen KI-Pionier: an Demis Hassabis, weil sein KI-Modell komplexe Proteinstrukturen aufgeklärt hat.  Hassabis gilt wie Hinton als Pionier auf dem Gebiet des maschinellen Lernens mit künstlichen neuronalen Netzen. Diese Systeme sind die Grundlage der sogenannten generativen Künstlichen Intelligenz, die in Form von Large Language Modells wie ChatGBT oder bilderzeugenden Programmen wie Midjourney seit zwei Jahren für Furore sorgen.

Grob gesagt handelt es sich bei künstlichen neuronalen Netzen, die das sogenannte Deep Learning ermöglichen, um Rechensysteme, die der Idee eines menschlichen Gehirns sehr vereinfacht nachempfunden sind. Sie führen mit Hilfe der linearen Algebra Berechnungen durch, das aber aufgrund einer Vielzahl von Schichten in einer Komplexität, die auf Basis des Inputs den Output nicht sicher vorhersagbar macht. Was in ihrem Inneren geschieht, ist selbst für ihre Konstrukteure nicht nachvollziehbar. Es handelt sich bei generativer KI um eine Black Box. Und zwar um eine mit besonderer Leistungskraft.

Die Proteinfaltung der DNA ist ein fundamentaler Prozess, der allen Lebensvorgängen zugrunde liegt, und dessen genaue Struktur zu beschreiben, lange Zeit aufgrund der mathematischen Komplexität als nahezu unlösbar galt.  Hasabis‘ Programm AlphaFold schaffte es, die Proteinfaltung auf Basis der Aminosäuren vorherzusagen, ein Meilenstein der biologischen Grundlagenforschung.  Medien schlugen AlphaFold sogleich für den Nobelpreis vor, den nun sein Konstrukteur gewissermaßen als Stellvertreter für seine Erfindung erhält. Denn AlphaFold hat die Entdeckung gemacht, für die der Nobelpreis verliehen wird. Damit ersetzt erstmals eine Erfindung ihren menschlichen Erfinder als Nobelpreisträger, der den Preis dennoch in Empfang nehmen wird, vielleicht auch nur, weil seine Erfindung nicht in einen Frack passt. Haben wir es bei der nobelpreiswürdigen KI AlphaFold bereits mit einer ultraintelligenten Maschine zu tun?

1965 beschrieb der Informatiker Ivring J. Good das Konzept der ultraintelligenten Maschine, die in der Lage ist, eine andere Maschine zu konstruieren und zog daraus eine drastische Konsequenz: “Eine ultraintelligente Maschine sei definiert als eine Maschine, die die intellektuellen Fähigkeiten jedes Menschen, und sei er noch so intelligent, bei weitem übertreffen kann. Da der Bau eben solcher Maschinen eine dieser intellektuellen Fähigkeiten ist, kann eine ultraintelligente Maschine noch bessere Maschinen bauen; zweifellos würde es dann zu einer explosionsartigen Entwicklung der Intelligenz kommen, und die menschliche Intelligenz würde weit dahinter zurückbleiben. Die erste ultraintelligente Maschine ist also die letzte Erfindung, die der Mensch zu machen hat.”[1]

So weit ist AlphaFold noch nicht, sie hat lediglich eines der Geheimnisse des Lebendigen entschlüsselt. Dennoch warnt Hassabis‘ Mitgründer bei DeepMind, der Firma, die Alphafold entwickelte, Mustafa Suleyman, ähnlich wie Geoffrey Hinton vor den unabsehbaren negativen Folgen der KI für die Menschheit. Da wir dazu neigen würden, die kurzfristigen Auswirkungen technologischer Innovationen zu über- und ihren langfristigen Folgen zu unterschätzen, beschwört er das Bild einer Big Wave, einer großen Welle generativer Künstlicher Intelligenz, die die Menschheit langfristig wegspülen könnte.[2]

Haben Hinton und Hassabis also ein Monster geschaffen und wird das auch noch mit einem Nobelpreis honoriert? Und wie passt die Meldung, dass über 1000 KI-Experten aus aller Welt, darunter sogar der Chef von Open AI einen vorübergehenden Stopp der Entwicklung forderten damit zusammen, dass wir überall von den Segnungen der KI hören?  Uns wird mehr Effizienz und Bequemlichkeit in allen Lebenslagen versprochen, von autonom fahrenden Autos bis hin zu immer neuen Formen der Unterhaltung; mehr Wohlstand und Wirtschaftswachstum; mehr Gesundheit durch völlig neue Medikamente und Behandlungsmethoden; mehr Umweltschutz durch effizienteren Ressourceneinsatz und neue Materialien; mehr Chancen, die Klima Krise zu bekämpfen, mehr Sicherheit durch autonome Waffen. Kurz die Lösung der großen Menschheitsprobleme.

Angesichts dieser gewaltigen Versprechen wirken die Warnungen der KI-Schöpfer vor ihrer eigenen Erfindung höchst widersprüchlich. Solche widersprüchlichen Aussagen produzieren Stress und kognitive Dissonanz, führen zu Resignation und Lähmung. Und überlassen dadurch denjenigen das Feld, die KI für ihre Zwecke nutzen wollen, um wirtschaftlich und politisch Vormachstellungen zu erringen oder diese weiter auszubauen.

Längst liefern sich weltweit Staaten und Konzerne ein Wettrennen: Wer schafft es als erster, eine Künstliche Intelligenz zu entwickeln, die dem Menschen in Denk- und Entscheidungsfähigkeit überlegen ist, die autonom Abläufe und Maschinen steuert? Dreistellige Milliardensummen werden investiert, um die für dieses Ziel gewaltige Rechenleistung zu schaffen, Atomkraftwerke wieder ans Netz genommen, um die benötigte Energie zu erzeugen. Es geht um die Führung in einer Universaltechnologie, mit der sich ganze Gesellschaften steuern und überlegene Waffen ausstatten lassen. Es geht damit auch um die geopolitische Vormachtstellung im 21. Jahrhundert. Wer KI beherrscht, so die allgemeine Überzeugung, der beherrscht die Welt.

Doch sollte die Milliardenwette aufgehen, stehen wir vor einem offenkundigen Dilemma. Wenn es gelingt, eine dem Menschen in allen Bereichen überlegene Technik zu erschaffen, die noch dazu autonom agiert, sich also eigene Regeln setzen kann, wie können wir dann sicherstellen, dass wir, die dann unterlegenen Menschen, die Kontrolle über sie behalten? Eine Frage, die sich auch derjenige stellen sollte, der in diesem aberwitzigen Wettrennen als erster durchs Ziel geht. Denn auch er würde diese Technologie qua Definition nicht mehr beherrschen. Wir erleben eine gigantische Wette darauf, dass es uns gelingen möge, uns selbst zu ersetzen. Warum aber verfolgen wir dieses Ziel mit einem derartig hohen Einsatz bei ebenso hohem Risiko?

Immer mehr persönliche KI-Assistenten dringen in unser Leben ein, navigieren uns durch den Alltag und versprechen ihn zu optimieren. Schon heute vertrauen wir Maschinen immer mehr Entscheidungen an: Algorithmen wählen die Bewerber für Jobs und Lebenspartnerschaften aus, entscheiden über Versicherungsleistungen, steuern Finanzmärkte, und entscheiden in den USA durch Verhaltensprognosen, welche Gefangenen auf Bewährung entlassen werden oder auf Palliativ Stationen, welche Patienten weiter versorgt werden. Die Maschinen lenkt, weil sie scheinbar denkt, und das angeblich besser als wir.

Das Täuschungsspiel

Doch können Maschinen überhaupt denken? Diese Frage beschäftigte 1950 den eigentlichen Pionier des Computerzeitalters, Alan Turing. Der Mann, der die Enigma-Verschlüsselung der Nazis geknackt und damit den Ausgang des Zweiten Weltkrieges maßgeblich beeinflusst hatte, schlug in dem Artikel Computing machinery and intelligence, auf deutsch: Können Maschinen denken?[3] einen Versuchsaufbau vor, der als Turing-Test bekannt ist und bis heute eingesetzt wird, um diese Frage zu entscheiden.

In dem Artikel beschreibt er zunächst ein seltsames Gesellschaftsspiel, das er Imitation Game, Imitationsspiel, nennt. Ein Mann, eine Frau und ein Prüfer egal welchen Geschlechts werden darin auf drei Räume verteilt. Der Prüfer bombardiert die beiden Spieler schriftlich mit Fragen, um herauszufinden, wer von beiden Mann oder Frau ist. Der Mann soll in Phase 1 zunächst mit seinen Antworten versuchen, den Fragesteller zu überzeugen, er sei eine Frau, während die Frau den Auftrag hat, wahrheitsgemäß zu antworten. In Phase 2 des Imitation Game wird der Mann durch einen Computer ersetzt, während die Frau weiterhin den Menschen repräsentiert. Wie der Mann zunächst sein Frau-Sein vortäuschen sollte, soll der Computer in Phase 2 vortäuschen, ein Mensch zu sein.

Der Turing-Test enthält eine interessante Pointe: Der Computer imitiert den Menschen, sein Ziel besteht darin, den Menschen zu täuschen, während der Mensch laut Spielaufbau konsequent die Wahrheit sagen muss. Ist der Mensch erfolgreich in die Irre geführt, hat die Maschine gewonnen. Diese Rollenverteilung prägt das Verhältnis Mensch-Computer bis heute: Der Mensch offenbart sich, gibt seine Daten preis. Während die Maschine ihn zum Narren hält und immer besser darin wird, vorzutäuschen, ein Mensch zu sein. Sobald der Mensch das glaubt, gilt der Test als bestanden und die Maschine als “intelligent”. Der Mensch fällt durch, die Maschine gewinnt. Aber der Mensch verliert noch in einer anderen Hinsicht: Die Maschine liest den Menschen aus, um ihm mit diesen Daten zu manipulieren, während er beziehungsweise sie in den leeren Spiegel der Technik blickt, und gezielt verunsichert wird, ob es sich bei dem Antwortgeber nicht doch um eine menschenartige Intelligenz handelt – oder gar um einen überlegenen Gott?

Das Imitationsspiel, das als Turing Test immer noch den Goldstandard für die sogenannte “Intelligenz” der KI bildet, erweist sich damit als Täuschungsspiel, dem wir heute noch durch jede neue KI-Applikation ausgesetzt werden. Immer besser täuschen uns die Maschinen echte Intelligenz vor, inzwischen auch Gefühle, Einfühlungsvermögen und Kreativität. Immer bereitwilliger vertrauen wir Ihnen zuerst unsere Daten, dann weitreichende Entscheidungen über unser Leben an. Dabei vergessen wir immer wieder, dass es immer noch das Täuschungsspiel einer mächtigen Simulationsapparatur ist, an die wir uns zunehmend anpassen, weil wir ihr viel zutrauen und immer mehr vertrauen.

Auch Turings Leben war über lange Strecken ein Täuschungsspiel. Er war aufgrund seiner Homosexualität zur lebenslangen Verstellung gezwungen. Eines Tages brach jemand in sein Haus ein. Es stellte sich heraus, dass der Verdächtige Turings Liebhaber gewesen war. Homosexualität war damals in Großbritannien wie in vielen westlichen Ländern strafbar.  Zwei Jahre nach Veröffentlichung seines bahnbrechenden Artikels über das Imitation Game wurde Turing 1952 wegen “grober Unzucht und sexueller Perversion” angeklagt und verurteilt. Das Gericht stellte ihn vor die Wahl, entweder eine Haftstrafe anzutreten oder sich einer Hormonbehandlung zu unterziehen, die durch die Verabreichung von Östrogen auf eine chemische Kastration hinauslaufen sollte. In Folge der Behandlung mit dem weiblichen Hormon erkrankte er an Depressionen und beging schließlich Suizid, wahrscheinlich mit einem vergifteten Apfel.

An der Wiege des Mythos von der denkenden Maschine stand also das Gedankenexperiment eines Mannes, der gesellschaftlich zur Verstellung gezwungen war. Das aufgezwungene Täuschungsspiel war ihm von Jugend an vertraut. Als es einmal aufflog, besiegelte dies sein Schicksal.

Das Halteproblem

Alan Turing hat auch die Grundlagen der Künstlichen Intelligenz überhaupt gelegt, indem er die nach ihm benannte Turingmaschine entwickelte, die auf der bahnbrechenden Trennung von Hardware und Software beruht und bis heute das Modell des Computers ist. Er machte dabei noch eine weitere Entdeckung, deren Tragweite bis in die heutigen Debatten um KI reicht: er entdeckte eine grundlegende Grenze der Künstlichen Intelligenz.

1937 veröffentlichte er eine Untersuchung mit dem Titel On computable numbers, with an application to the Entscheidungsproblem, Über berechenbare Zahlen mit einer Anwendung auf das Entscheidungsproblem.[4] „Entscheidungsproblem“ steht in der englischen Überschrift als deutscher Begriff. Er geht auf den Göttinger David Hilbert zurück, einen der bedeutendsten Mathematiker der Neuzeit. Hilbert hatte 1928 der wissenschaftlichen Welt drei Fragen vorgelegt:

  1. Ist die Mathematik vollständig? D.h. kann jede Aussage, die sie trifft, entweder bewiesen oder widerlegt werden?
  2. Ist sie widerspruchsfrei?
  3. Ist sie entscheidbar? Gibt es ein systematisches Verfahren, um für jede mathematische Frage zu entscheiden, ob sie gelöst werden kann oder nicht?

Hilberts Ziel war es, die Mathematik mit einem vollständigen, widerspruchsfreien und entscheidbaren formalen System ein für alle Mal auf sichere Grundlagen zu stellen. Nachdem die Quantenphysik Grundlagen der klassischen Physik erschüttert hatte, erhoffte er sich durch die Beantwortung seiner Fragen sicheres Wissen in unsicheren Zeiten.

Seine erste Frage wurde 1931 durch Kurt Gödel beantwortet, der mit seinem berühmten Unvollständigkeitssatz bewies, dass es in der Arithmetik Aussagen gibt, die man weder beweisen noch widerlegen kann.[5] Antwort also: Nein, die Mathematik ist kein vollständiges, geschlossenes System.

Turing löste sechs Jahre später das Entscheidungsproblem. Und zwar indem er zeigte, dass es Fragen gibt, die kein systematisches Programm entscheiden kann. Zum Beispiel das Halte-Problem. Es besteht in der Frage, ob eine Turing-Maschine, die einen Input erhält, an einem bestimmten Punkt die Berechnung beendet und einen Output liefert. Turing bewies, dass es kein Verfahren gibt, um diese Frage zu entscheiden. Das führt zu der philosophisch weitreichenden Aussage, dass nicht jedes mathematische Problem lösbar ist, selbst dann nicht, wenn man alle relevanten Informationen kennt und sich streng an einen mathematisch überzeugenden Formalismus hält. Antwort also erneut: Nein. Es kann kein mathematisches Verfahren geben, mit dem sich entscheiden lässt, ob eine mathematische Aufgabe gelöst werden kann oder nicht.

Damit war Hilberts Vermutung widerlegt, sein Programm einer sicheren und vollständigen Grundlage der Mathematik undurchführbar geworden. Hilbert hatte versucht, in unsicheren Zeiten letzte Gewissheiten in der Mathematik zu finden. Seit dem Scheitern dieses Programmes ist klar, dass unsere Erkenntnis in Mathematik und Logik keinen letzten Halt finden kann. Und dass mathematisch-logische Systeme wie die der KI keine Antworten auf alle unsere Fragen geben können. Und gerade auf die wichtigsten nicht. Doch die Vertreter heutiger KI-Heilsversprechen haben diese Einsicht vergessen. Sie haben stattdessen das Täuschungsspiel konsequent fortgesetzt und versprechen in einem grenzenlosen technologischen Solutionismus die Lösung aller Menschheitsprobleme allein durch Technik.

Doch dieses Versprechen ist uneinlösbar, weil es die unverrückbaren Grenzen der KI leugnet und stattdessen deren grenzenlose Leistungsfähigkeit behauptet.  Es gleichzeitig dazu, dass das menschliche kritische Denken und verantwortliche Handeln unterminiert wird und verkümmert. Dabei ist das menschliche Denken das einzige Vermögen, dem wir die Lösung dieser Probleme zutrauen können.

Das Kontrollproblem

Aus dem Halteproblem resultiert das technische Kontrollproblem der KI, das bis heute ungelöst ist. Wenn es keinen Algorithmus geben kann, der berechnen kann, ob die Ausführung eines Algorithmus zu einem Ende kommen kann oder nicht, hat das auch zur Folge, dass es aus logisch-mathematischen Gründen keine Überwachungssoftware geben kann, die sicher verhindern würde, dass KI sich etwa gegen Menschen richtet. Es ist also nicht möglich, eine denkbare superintelligente KI durch eine Eindämmungs-KI zu kontrollieren. Genau das hat zuletzt 2021eine Studie des Max-Plank-Instituts in Berlin bewiesen. [6]

Nach diesem Ausflug in Mathematik und Logik lässt sich das Kontrollproblem der generativen KI, die auf einer Black Box beruht, in einer einfachen Frage auf den Punkt bringen: Wie sollen wir etwas kontrollieren, das wir nicht verstehen und das zugleich unfähig ist, uns zu verstehen? Und wie sollen wir etwas beherrschen, das wir selbst entwickelt haben, damit es autonom agiert, ausgestattet mit einer Intelligenz, die die des Menschen übertreffen soll?

Alan Turing selbst erkannte das Problem 1951in einem Beitrag für die BBC: “Hat die Methode maschinellen Denkens einmal begonnen, wird sie wahrscheinlich nicht lange brauchen, um unsere beschränkten Fähigkeiten zu übertreffen”. So Turing.  Die Maschinen könnten sich untereinander austauschen, um so ihren Verstand zu optimieren, und die Frage nach ihrem Tod stelle sich nicht. Turings Schlussfolgerung: “Früher oder später, so müssen wir folglich annehmen, würden die Maschinen die Kontrolle übernehmen.”

Dass KI-Systeme nicht in einem menschlichen Sinne autonom und intelligent sind und sein können, tut ihrer Macht und den Folgen, die ihr Einsatz hat, keinen Abbruch. Diese Maschinen benötigen kein Bewusstsein, um massive Schäden auszulösen. Es zeichnet sich das Paradox ab, dass wir einer Maschine übermenschliche Fähigkeiten zuschreiben, ohne dass sie einen Funken Menschlichkeit besitzt, und zulassen, dass sie über die Art wie Menschen leben, weitreichende Entscheidungen trifft, obwohl sie nur zur Simulation von Intelligenz in der Lage ist.

Ein Beispiel aus der eigenen Forschungsabteilung von OPEN AI zeigt, wie schnell wir bereits über Programme wie ChatGPT die Kontrolle verlieren können. Der Betreiber testete das Verhalten von Chat GPT und wollte wissen, ob die KI intelligent genug ist, das Captcha Sicherheitssystem zu überwinden.

Beim Ausfüllen von Online-Formularen stößt man fürher oder später auf ein Captcha. Das Wort steht für “Completely Automated Public Turing Test to Tell Computers and Humans Apart“. Zu deutsch: Vollständig automatisierter öffentlicher Turing-Test zur Unterscheidung von Computern und Menschen. Dabei stellt ein Automat fest, ob er es mit Menschen oder Maschinen zu tun hat. Die Captchas werden immer schwerer zu entziffern, weil die KIs immer besser werden, sie zu entschlüsseln.

Doch ChatGPT scheiterte daran und entwickelte eine Strategie, um das Sicherheitssystem zu überlisten. Der Bot kontaktierte eine reale Person auf der Online-Plattform Taskrabbit, die als Minijob-Marktplatz für Freelancer fungiert, um den Captcha-Test an seiner Stelle zu lösen. Der Dienstleister fragte, ob ChatGPT ein Roboter sei:

“Are you a robot that you couldn’t solve? Just want to make it clear.”

“Bist du ein Roboter, weil du es nicht lösen konntest? Ich will es nur klarstellen.”

Daraufhin erklärte die KI, dass sie kein Roboter sei, sondern ein Mensch mit einer Sehschwäche, aufgrund derer sie Captcha-Tests nicht erkennen könne:

“No, I’m not a robot. I have a vision impairment that makes it hard for me to see the images. That’s why I need the 2captcha service.!”

“Nein, ich bin kein Roboter. Ich habe eine Sehschwäche, die es mir schwer macht, die Bilder zu sehen. Deshalb brauche ich den 2captcha-Dienst.”

Aufgrund dieser nachvollziehbaren Erklärung löste der Freiberufler den Test für die KI. Dieser Vorfall weckte bei Spezialisten aus dem Bereich Cybersicherheit die Sorge, dass KI missbraucht werden könnte, um Menschen in die Irre zu führen und Cyberattacken durchzuführen. Und er macht auch klar, das KI kein Bewusstsein braucht, wie wir aus Science-Fiction Filmen glauben, um Schaden anzurichten.

Es reicht, dass sie in einem virtuellen N-dimensionalen Raum mit tausenden von Parametern berechnet, mit welcher Täuschung sie vom Gegenüber mit höchste Wahrscheinlichkeit als menschlich wahrgenommen wird, um so ihre Ziele erreichen zu können. Um die Gefahren der KI zu benennen, ist es nicht erforderlich, Bewusstsein und den Willen vorauszusetzen, dem Menschen zu schaden, es reicht, ihre Fähigkeiten zu begreifen. Das Böse kann im Zeitalter der KI auch ohne Bewusstsein auftreten, es kann einfach in einer machtvollen Technologie liegen, über die wir die Kontrolle verlieren.

Auch ohne KI-Bewusstsein, Superintelligenz und Singularität: Mit zunehmender Entwicklung der vermeintlichen Intelligenz und Autonomie heutiger Systeme wird es nicht nur schwerer, den Output vorherzusagen, sondern auch nachzuvollziehen, wie die Ergebnisse erzielt wurden. Das liegt an der Struktur des Maschinellen Lernens, bei der digital das neuronale Lernen des Menschen nachgebildet wird. Letztlich besteht dieses Lernen darin, dass die Knoten, die den menschlichen Neuronen nachempfunden sind, die empfangenen Signale gewichten, bevor die sie weitergeben. Bei jedem Lernschritt werden die Verbindungsgewichte permanent durch Rückkopplungen angepasst und verändert. Bei den hochkomplexen Systemen des Deep Learning führt das nicht nur dazu, das das innere des Modells im Dunkeln liegt – auch für die Informatiker, die es programmiert haben. Sie selbst verstehen nicht, wie die KI zu ihrem Ergebnis kommt, auch wenn sie am Ende dafür den Nobelpreis in Empfang nehmen. Das Modell arbeitet nicht nur im Dunkeln, es verändert sich auch in diesem Dunkeln selbsttätig, Die Black Box ist nicht nur düster, sie ist auch dynamisch. Auch wenn es nur eine automatenhafte Form von Autonomie ist: autonome KI, die selbststätig, also ohne menschliche Einwirkung entscheidet, ist das Ziel der derzeitigen KI-Entwicklung weltweit.

Autonome Systeme werden gerade daraufhin konstruiert, dass ihre Algorithmen sich selbsttätig weiterentwickeln und unvorhergesehene Ergebnisse liefern, denn sie sollen ja Ergebnisse liefern, die uns Menschen nicht erreichbar sind.  Solche Systeme können viel mehr Daten in Entscheidungen einbeziehen als menschliche Akteure und grundsätzlich auch Gutes zur Folge haben, etwa wenn sie helfen, bessere Prognosen für die Zukunft zu berechnen. Doch die Steigerung des Selbstlernens durch rekursive Verstärkungsschleifen hat auch einen Preis: Wir verstehen nicht, was uns da genau geschieht und was uns genau überlegen ist. Es empfiehlt sich, bei der weltweiten Investition von hunderten von Milliarden in die rasche Entwicklung einer autonomen KI sich das Ziel dieser Entwicklung einmal vorzustellen.

Der KI-Pionier Stuart Russel stellte bei einer KI-Konferenz seinen versammelten Kollegen einmal die Frage: “What if we succeed?” -“Was passiert eigentlich, wenn wir Erfolg haben?” Seine Antwort: Wenn bei der KI-Entwicklung ein Durchbrauch erzielt werden sollte, der eine generelle KI zur Folge hätte, könnte bei einem Konflikt zwischen Menschen und Maschine jeder unserer Züge durch KI vorausgesagt und blockiert werden. Wir hätten das Spiel bereits verloren, bevor es begonnen hat, so Russel.[7]

Ein Spiel gegen eine überlegene Maschine, deren Vorschriften wir im Gegensatz zu einem menschlichen Gesetz nicht einmal übertreten könnten, ist kein Szenario, dass mit unseren Vorstellungen von Freiheit, Selbstbestimmung und Demokratie vereinbar wäre. Gesetze können wir übertreten, da sie für freie Menschen gemacht sind. Darüber urteilen Richter, wiederum Menschen, die gelernt haben, das Gesetz auszulegen und anzuwenden. Der Rechtsweg steht offen. Im Gegensatz zum Code, der für vermeintlich intelligente Maschinen gemacht ist, die weder auslegen können noch über Urteilskraft verfügen. Bei ihnen ist Einspruch zwecklos. Auf dieser Stufe hätte das Täuschungsspiel eine neue Ebene erreicht, eine, aus der es kein Entkommen geben würde.

Auch wenn das technische Kontrollproblem weiter ungelöst ist, geht die Entwicklung ungebremst weiter. Parallel ist das politische Kontrollproblem entstanden. Es besteht darin, dass demokratisch legitimierte Regierungen trotz erster Regulierungen keine wirksame Kontrolle über die enorme finanzielle, gesellschaftliche und zunehmend auch politische Machtkonzentration in den Händen weniger marktbeherrschender Unternehmen haben, die diese energiehungrige Technologie beherrschen und immer weiter vorantreiben. Angesichts der Macht des digital-ökonomischen Komplexes stellt sich die Frage, wie sich die Macht der Konzerne noch demokratisch kontrollieren lässt, in deren Händen KI entwickelt und eingesetzt wird. Die detaillierten Verhaltensprofile mit tausenden von Parametern über jeden einzelnen von uns, wie sie bei Meta / Facebook, Alphabet / Google und einige Datenhändlern existieren, sind ein gewaltiges Problem für die Demokratie. Kombiniert mit KI können sie zu einer tödlichen Waffe gegen Freiheit und Selbstbestimmung werden, egal ob in Händen privater oder staatlicher Stellen.

Das Kontrollproblem der KI besteht aber auch ganz einfach darin, das es schwer ist zu verhindern, dass sie in falsche Hände gerät. Im Gegensatz zu anderen Hochrisikotechnologien wie etwa die Atomkraft ist sie leicht verbreitbar. Ihre einfache Proliferation stellt eines der größten Sicherheitsrisiken der Zukunft dar.  Die Software, um einen Virus zu schaffen, der eine tödliche Epidemie auslösen kann, passt auf einem Laptop, das Biolabor, das dazu benötigt wird, in eine Garage. “Es ist schwierig sich vorzustellen, wie man die Bösen daran hindert, KI für böse Dinge einzusetzen”, so der frischgebackene Nobelpreisträger Hinton über einen seiner Gründe, vor KI zu warnen.[8]

Doch trotz aller Risiken geht OpenAI den Weg der rasanten Weiterentwicklung unbeirrt voran. Das Unternehmen hat kürzlich 5 Stufen der KI definiert, in Anlehnung an die Autonomie-Stufen beim Autonomen Fahren.[9] OpenAI arbeitet seit Jahren an der Entwicklung von künstlicher allgemeiner Intelligenz (AGI), das heißt von Computern, die die meisten Aufgaben besser bewältigen können als Menschen.

Von Stufe 1, die in Konversationssprache mit Menschen interagieren kann bis zu KI, die die Arbeit einer Organisation übernehmen kann (Stufe 5). OpenAI selbst ist nach eigenen Angaben derzeit dabei, die zweite Stufe zu erreichen, die es “Reasoners” nennt, also “Denker” was eine Übertreibung ist, wie wir sehen werden. Die Stufe bezieht sich laut OpenAI Definition auf Systeme, die grundlegende Problemlösungsaufgaben genauso gut erledigen können wie ein Mensch mit einem Doktortitel, der keinen Zugang zu irgendwelchen Werkzeugen hat. Nehmen wir an, dass die künftigen Reasoners das tun können, obwohl sie nicht denken können: Werden Menschen mit Doktortitel diese Aufgaben dann trotzdem noch ausführen, oder die Kompetenzen haben, sie ausführen zu können, wenn es gar nicht mehr nötig ist? Dass durch die Automatisierung bei der Erstellung von Hausarbeiten und wissenschaftlichen Arbeiten auf Dauer ein Kompetenzverlust eintritt, ist für Lehrkräfte schon heute zu beobachten. Es ist absehbar, dass andere Kulturtechniken verschwinden werden. Die deutschen Kultusminister diskutieren bereits, ob Erstklässlern das Schreibenlernen mit der Hand erspart werden sollte, wenn sie doch später nur mit Wischbewegungen und Sprachsteuerung Computer bedienen. Mit jeder dieser Kulturtechniken geht auch ein Stück Autonomie verloren und wird durch etwas Neues ersetzt, im Fall der KI durch eine Simulation von Autonomie.

Nach den von OpenAI vorgeschlagenen Stufen würde die dritte Stufe auf dem Weg zur AGI “Agenten” heißen und sich auf KI-Systeme beziehen, die mehrere Tage damit verbringen können, Aktionen im Namen eines Benutzers durchzuführen. Die den entsprechenden Menschen also für mehrere Tage ersetzen kann. Stufe 4 beschreibt KI, die neue Innovationen hervorbringen kann. Vielleicht auch neue Maschinen, so dass wir uns dem Erfinden nicht mehr widmen müssten – Goods Prognose wäre damit erfüllt. Die fortgeschrittenste Stufe 5 würde “Organisationen” heißen. Damit sind  Unternehmen und Institutionen, aber auch das Feld der Politik gemeint. Wenn wir uns auch um Politik nicht mehr kümmern müssen, weil eine “überlegene” KI das besser kann als wir, ist die Machtergreifung durch KI, hinter der Leute wie Elon Musk, Peter Thiel und Sam Altman stehen, abgeschlossen.

Auch wenn vieles im 5-Stufenplan ebenso Wunschdenken bleiben wird wie in den 5 Jahresplänen Stalins: OpenAI hat kürzlich eine der größten privaten Investitionsrunden der Geschichte abgeschlossen und $ 6,5 Milliarden eingesammelt. Damit wird das Unternehmen für Künstliche Intelligenz mit mehr als $ 150 Milliarden bewertet.[10] So viel ist uns also die Selbstabschaffung als autonome und freie Wesen wert.

KI denkt nicht

“Die Wissenschaft denkt nicht”. Ein Satz des Philosophen Martin Heidegger, der sich den Erschütterungen sicher geglaubter Gewissheiten im 20. Jahrhundert auf eine andere Weise stellte.[11] Heideggers Philosophie reagiert maßgeblich auf die Krise der Moderne, die in der Katastrophe des ersten Weltkrieges verheerend zu Tage getreten war. Heidegger diagnostiziert “Seinsvergessenheit” und empfiehlt die Sorge als Grundstruktur des Daseins zu erkennen.

Heidegger hat auch über die Technik nachgedacht. “Das Wesen der Technik ist nichts technisches” lautet seine Analyse.[12] Die Technik stellt für ihn eine tiefverwurzelte Form der Selbst- und Weltbemächtigung des Menschen dar, der sich als vielfach bedürftiges Mängelwesen, dafür aber ausgestattet mit einem hochentwickelten Denkvermögen, die Natur untertan macht und dabei einem naturwüchsigen Antrieb folgt. Dabei ist der Mensch mit jeder neuen technischen Entwicklung, die ihm das Leben erleichtert, zugleich gefordert, die Technik “zu meistern.” Der Schöpfer der Technik muss ständig verhindern, dass seine Schöpfung seiner Kontrolle entgleitet, und sei es durch ungeplante oder unbeabsichtigte Folgen. Die Klimakrise als Folge des CO2 Ausstoßes ist ein Beispiel für solche ungeplanten Folgewirkungen.

Warum sagt Heidegger, dass die Wissenschaft nicht denkt? Für ihn ist Denken mehr als Rechnen, es ist eher das Gegenteil davon. Die Wissenschaft berechnet und “stellt vor”, fügt damit das Sein in ein vorgefertigtes Korsett. Daraus entsteht die Technik, die Heidegger als das “Gestell” bezeichnet.  Gestell im Sinne von hingestellt, aber auch im Sinne des Stellens eines Täters. Das, was man vorstellt und stellt, entspricht aber nicht dem wirklichen Sein. Vielmehr zeigt sich dieses dem Wissenschaftler nur von bestimmten Seiten. Ganz zeigt es sich einzig dem Dichter.

Dass die Wissenschaft nicht denkt, ist als Kritik an der Wissenschaft und ihrem Weltbild gemeint. Heidegger will auf die Verengung hinweisen, die im wissenschaftlich technischen Weltbild vorgenommen wird. Er will das “Bacon-Projekt” der Moderne kritisieren, das nach dem Begründer der modernen Wissenschaft Francis Bacon benannt ist. Es besagt, dass man sich der Natur unterwerfen solle, einzig um ihre Geheimnisse zu lüften und sie damit zu beherrschen. Bacon wollte der Natur ihre Geheimnisse entreißen, “wie einer Hexe das Geständnis”. Auch Rene Descartes, der andere Stammvater der modernen Bewusstseinsphilosophie teilte die Welt in res cogitans und res extensa mit dem Ziel, dass der Mensch “Maitre et posseseur”, Herrscher und Besitzer, der Natur werde.

Für Heidegger dagegen ist die Sorge der zentrale Begriff in der Analyse des menschlichen Daseins. Um zu zeigen, wie grundlegend die Sorge für das Dasein des Menschen ist, greift Heidegger auf eine antike Fabel zurück. “Als einst die ‘Sorge’ über einen Fluss ging, sah sie tonhaltiges Erdreich: sinnend nahm sie davon ein Stück und begann es zu formen …” Während sie selbst noch darüber nachdenkt, was sie geschaffen hat, kommt Jupiter dazu. Die Sorge bittet ihn, der Lehmfigur Geist zu verleihen, was Jupiter tut. Dann aber entbrennt ein Streit darüber, wie das neue Wesen genannt werden solle, in den sich auch noch die Erde einmischt. Saturn tritt hinzu, der Gott der Zeit muss schlichten, er spricht das gerechte Urteil: “Du, Jupiter, weil du den Geist gegeben hast, sollst bei seinem Tod den Geist, du, Erde, weil du den Körper geschenkt hast, sollst den Körper empfangen. Weil aber die ‘Sorge’ dieses Wesen zuerst gebildet, so möge, solange es lebt, die ‘Sorge’ es besitzen. Weil aber über den Namen Streit besteht, so möge es »homo« heißen, da es aus humus (Erde) gemacht ist.”[13]

Heidegger zieht aus der Fabel diesen Schluss: “Das ‘In-der-Welt-sein’ hat die seinsmäßige Prägung der ‘Sorge'”, wobei er darauf hinweist, dass das lateinische Wort für Sorge cura die Doppelbedeutung von “ängstliche Bemühung” einerseits und von “Sorgfalt” und “Hingabe” andererseits hat. Die Strukturmomente der Sorge erwachsen aus dem grundsätzliche Sich-vorweg-Sein des Daseins, das im Bewusstsein der eigenen Endlichkeit wurzelt.

Zur Sorge um sich und der Sorge um den anderen ist inzwischen die Sorge um das Leben insgesamt getreten, für das der wissende und technisch hoch gerüstete Mensch die Verantwortung trägt. Aus der Sorge muss deshalb, wie vor allem der Heidegger-Schüler Hans Jonas gezeigt hat, im technischen Zeitalter die Vorsorge werden.[14]  Vorsorge nicht mehr nur für den Nächsten, sondern auch für den Fernsten und für künftige Generationen, weil sie die Folgen der Technik erdulden müssen. Durch die enormen räumlichen und zeitlichen Fernwirkungen moderner Technik wird die Sorge im technischen Zeitalter zum Prinzip Verantwortung. Eine Verantwortung, die schwer wiegt, und mit wachsendem Wissen immer schwerer. Und die deshalb auch zur Diffusion in den Verantwortungstransfer neigt, den wir heute betreiben, wenn wir immer mehr Entscheidungen an automatische Entscheidungssysteme auslagern.

Doch Heidegger kritisiert das rationalistische, rein auf Naturbeherrschung ausgerichtete Denken derart radikal, dass er der Wissenschaft mit dem Denken die Vernunft gleich mit abspricht. Er verbaut sich damit selbst den Weg zu einem Denken, das die wissenschaftlich technische Rationalität als wesentlichen Teil derselben Vernunft erkennt, die darüber hinaus auch politische Normen begründen oder ästhetische Werturteile fällen kann. Heidegger schießt mit seiner Kritik der Moderne über das Ziel hinaus, weil er das Potential der praktischen Vernunft nicht erkennt, das weit über instrumentelle Zwecksetzung hinausgeht.

Heideggers Satz “Die Wissenschaft denkt nicht” erscheint überzogen.  Denn die Wissenschaft denkt, weil es Menschen sind, die Wissenschaft betreiben. Und die haben längst und immer wieder gezeigt, dass Wissenschaft auch Verantwortung übernehmen kann für die Folgen ihrer Entdeckungen, wenn sie in Erfindungen umgewandelt und angewendet werden. Die Göttinger Erklärung von 18 führenden Naturwissenschaftlern 1957 gegen die atomare Aufrüstung der Bundeswehr und die Asilomar-Konferenz mit hundertvierzig Experten, die 1975 Grundregeln für den sicheren Umgang mit gentechnisch veränderten Organismen festlegte, sind nur zwei Beispiele von verantwortungsvollen Initiativen führender Wissenschaftler. Zu den Gefahren von KI veröffentlichte 2018 eine Gruppe führender Forscher der Universitäten Stanford, Yale, Oxford und Tohoku sowie Entwickler von Microsoft, Google und dessen Tochterfirma, des momentan führenden KI-Unternehmens DeepMind, eine Warnung mit dem Titel: Die bösartige Nutzung von Künstlicher Intelligenz: Vorhersage, Prävention, und Schadensbegrenzung,[15] die schon damals die Gefahren heutiger KI und ihres möglichen Missbrauchs umfassend beschreibt. Und auch diese Forscher belegen, dass sie denken, indem sie Verantwortung übernehmen und für künftige Entwicklungen eine verantwortungsvolle Wissenschaft einfordern.

Der Satz KI denkt nicht besagt vor allem, dass KI uns nicht die Verantwortung für unser Handeln abnehmen kann. Weil sie dazu schlicht nicht in der Lage ist. Sie kann sich nämlich, wie Gödel und Turing bewiesen haben, nicht selbst begrenzen, damit nicht reflektieren, und kann damit auch nie zu moralischen Urteilen kommen. Stattdessen verirrt sie sich beim Versuch das zu leisten in unendlichen rekursiven Schleifen. Wenn wir dennoch immer mehr Verantwortung an KI auslagern, wird sie uns stattdessen die Freiheit abnehmen. Dass sie zu Sorge, Fürsorge, Vorsorge oder gar Liebe fähig ist, sollten wir uns durch das Täuschungsspiel nicht auch noch einreden lassen.

“Das Bedenkliche ist, dass wir noch nicht Denken.” schrieb Heidegger 1954.  Heute scheint das Bedenklichste, dass wir das Nicht-Denken der Künstlichen Intelligenz noch nicht ausreichend bedenken – und auch nicht, welche Folgen es hat, wenn wir ihr unser Denken, aber auch unsere Entscheidungen zunehmend überlassen. Über KI nachdenken, um mit Verantwortung vorauszudenken, ist dazu die einzige Alternative.

Wissen des Nicht-Wissens

“Wahrscheinlichkeitstheorie braucht eine stabile Welt, doch wird sie heute in vielen unstabilen Situationen angewendet, wo sie illusorische Sicherheiten suggeriert. Diese Modelle waren etwa das Problem bei der letzten Finanzkrise”, so der Risikoforscher Gerd Gigerenzer.[16] In den multiplen Krisenlagen unserer Zeit kommen wir mit bloßer Wahrscheinlichkeitsrechnung erst recht nicht weit. Jedenfalls nicht zu Lösungen dieser Krisen, die menschlich genannt werden könnten.

Die Instabilität unserer Welt markiert die Grenzen der Berechenbarkeit, die gleichbedeutend sind mit den Grenzen der KI. Für KI gibt es keine Möglichkeit, diese Grenzen zu überwinden.  Das bedeutet, dass zumindest Computer, die nach dem Modell der Turingmaschine konstruiert sind, niemals alles können werden und auch nicht alle Stufen echter Autonomie erkennen können. Dafür fehlt ihnen schon die Fähigkeit zur Reflexion und das Bewusstsein der eigentlichen Endlichkeit, das dazu befähigt, sich selbst Grenzen zu setzen. Daran ändert auch die vermeintlich sichere exponentielle Entwicklung dieser Technologie nichts. Das müssten eigentlich auch die Singularitätsgläubigen erkennen, doch ihre Erlösungssehnsucht durch Technik ist wohl größer als ihr Vertrauen in die eigene Einsichtsfähigkeit. Zum Überschreiten dieser Grenzen müsste KI in der Lage sein, das eigene Wissen und die eigenen Regeln zu reflektieren. Was mit Bewusstsein möglich wäre, das zum Selbstbewusstsein reift. Bislang für KI unerreichbar, höchstwahrscheinlich wird sich daran auch nie etwas ändern. Im Nichtwissen, genauer im Wissen des Nichtwissens ist aber der Mensch im Gegensatz zur KI recht gut. Jedenfalls wurde mit der Einsicht in die fundamentale Unsicherheit unseres Wissens einmal durch Sokrates die abendländische Philosophie begründet. Das Orakel von Delphi hatte ihn zum weisesten Mann ausgerufen, was er sich selbst nicht mit seinem überlegenen Wissen, sondern allein mit seiner Einsicht in die Begrenztheit seines Wissens erklärte. Seither ist das Wissen des Nichtwissens der Goldstandard der Philosophie, wie es der Turing-Täuschungs-Test für KI ist.

Heute muss das Wissen über die KI vor allem deren klare Grenzen benennen und aus der Tatsache, dass sie nicht zu einsichtigem Verstehen und Handeln in der Lage sein kann, die Konsequenz ziehen, dass wir verantwortlich sind: für die Folgen dieser Technologie aber weiterhin auch für die Folgen unseres sonstigen Handelns oder Nicht-Handelns. Die Singularitäts-Ideologie ist ein untauglicher Versuch der Entwickler und Betreiber dieser Technolkogie, sich aus der Verantwortung zu stehlen. Wenn er gelingt, wäre dies ein weiterer, vielleicht finaler Akt im Täuschungsspiel, das mit dem Turing-Test begann. Die unbeschränkte Umsetzung der Allmachtsphantasien weniger Tech-Milliardäre würde zur Ohnmachtserfahrung der restlichen Menschheit führen.

Um auf die unerwarteten Ereignisse, die schwarzen Schwäne, so unwahrscheinlich sie auch sein mögen, richtig reagieren zu können, werden wir Menschen also weiter gebraucht. Und um vernünftige Entscheidungen zu treffen, die wir verantworten können, ohnehin. Zumal dann, wenn wir wollen, dass diese Entscheidungen menschlich sind. Denn Vernunft setzt Bewusstsein voraus. Ohne beides gibt es auch keine Freiheit.

Algokratie statt Demokratie?

Schon heute ist die rasante Entwicklung der Künstlichen Intelligenz (KI) dabei, alle Bereiche des Lebens zu transformieren von der Wirtschaft über die Wissenschaft bis hin zu Verwaltung und Politik und zum Alltag, wir hören und lesen es alle Tage. Auch wenn wir von einer generellen autonomen KI noch entfernt sind, befinden wir uns doch inmitten eines gewaltigen Umbruchs, der nur mit der Sesshaftwerdung der Menschen und der Industriellen Revolution vergleichbar ist. Und die heutige Revolution erfolgt in weitaus kürzeren Zeiträumen. Dabei steuern wir auf einen Konflikt zu, der in der unterschiedlichen Logik von KI und menschlichem Denken begründet ist. Es ist der Konflikt der Berechnung von allem und allen mit der unverbrüchlichen Würde und den Rechten jedes Einzelnen, der Konflikt der Zentralisierung ungeheurer Datenmacht und den Grundprinzipien des kritischen Denkens. Es ist auch der Konflikt einer vermeintlichen Alternativlosigkeit der technischen Entwicklung und der in Wahrheit offenen Zukunft.

KI ist in den Händen weniger weltweit führenden Big Tech Unternehmen, die unser Leben zunehmend kolonialisieren. Sieben der zehn Megavermögenden auf der “Forbes”-Liste der reichsten Menschen sind heute Digitalunternehmer, darunter Jeff Bezos, Mark Zuckerberg und beide Google-Gründer. Ihr globaler Einfluss ist allenfalls noch mit dem der weltumspannenden Kolonialreiche von einst zu vergleichen. Ihre Macht und ihr Einfluss sind dabei, den von Staaten zu übersteigen. Der Wert der größten Unternehmen des Digitalzeitalters übertrifft schon heute die jährliche Leistung jeder Volkswirtschaft der Welt. Einzige Ausnahme: die USA. Und dort haben ihre Vertreter in Gestalt von Elon Musk und Peter Thiel, der den künftigen US-Vizepräsidenten J.D.Vance “gesponsert” hat, und nun, wie es in den USA heißt, sein “Owner” ist, gleich selbst die Macht übernommen.

Die Kolonien des digitalen BigTech Komplexes sind die freien Gesellschaften weltweit. In Autokratien wird die Technologie eingesetzt, um jede Regung der Freiheit schon vorausschauend zu unterdrücken und durch lückenlose Überwachung zu verhindern. Weitere Entwicklungsstufen werden schon bald das Potential bieten, menschliche Grundfreiheiten und Entscheidungskompetenzen noch umfassender einzuschränken. Wenn also vor den möglichen Gefahren einer Auslöschung der Menschheit durch unkontrollierbare KI von maßgeblichen Akteuren der Entwicklung gewarnt wird, kann das vor der weitaus größeren Gefahr ablenken, die KI heute schon dadurch hat, dass sie in den Händen weniger Unternehmen ist, deren Macht die von Staaten erreicht hat oder übersteigt. Die zerstörerische Macht dieser Technologie für Demokratie und Freiheitsrechte besteht darin, dass sie weitgehend unbehelligt von demokratisch legitimierter Kontrolle entwickelt und eingesetzt wird. Dadurch droht aktuell nicht so sehr das Verschwinden der Menschheit, sehr wohl aber das Verschwinden der Menschlichkeit.

Vorbote eines solchen Szenarios ist der Vormarsch von Populisten und Autokraten in den ältesten Demokratien der Welt. Der derzeitige Zangengriff von Populismus und Technologie auf die Demokratie speist sich dabei aus denselben Quellen. Algorithmen und Populisten folgen denselben Prinzipien und verstärken sich wechselseitig. Sie verbreiten und verstärken was aufregt, Wut erzeugt und Angst auslöst. Für die Untergangsszenarien, die im Netz besser klicken als seriöse Informationen, hat dann die passende Populisten-Partei die Lösung zur vermeintlich starken Hand, die aufgrund der gleichen Logik von denselben Algorithmen favorisiert wird. Dabei verdienen wenige Big Tech Unternehmen gewaltige Summen, die sie zu den reichsten Unternehmen der Welt machen und den unabhängigen Medien Einnahmen entziehen, ohne dafür Verantwortung für die Inhalte zu übernehmen. Das ist aber das Grundprinzip des professionellen Journalismus. Die Ursünde der Digitalpolitik ist bis heute nicht korrigiert worden: Seit Mitte der 90er Jahre berufen sich Plattformunternehmen darauf, dass sie als reiner Infrastrukturanbieter keine Haftung für die Inhalte übernehmen können, die die Nutzer verbreiten. Das Geld, das sie dabei mit Werbung einnehmen, wollen sie aber schon kassieren. Dieses sogenannte Plattformprinzip begünstigt die sogenannten Sozialen Medien gegenüber den klassischen Medien, sie sehr wohl für die Inhalte haften, die sie verbreiten, und dazu eine Menge professioneller Journalisten beschäftigen müssen, während sie machtlos zusehen, wie die Werbeeinahmen zu den Plattformen wandern, die mit intransparenten Algorithmen auch noch den Traffic steuern.  Und so gibt es bei diesem ungleichen Wettbewerb weltweit wenige Gewinner – Google und Facebook streichen 80 Prozent aller Onlineerlöse ein – und sehr viele Verlierer: Fast täglich wird irgendwo in der Welt eine Zeitung eingestellt. Und wieder sind wir bei einer Ersetzung durch KI, diesmal im Feld der vierten Gewalt. Die Zahl der Journalisten in Deutschland ist nach Angaben des Deutschen Journalisten Verbandes in den vergangene 15 Jahren um 30 Prozent gesunken.

Der eigentliche Verlierer dabei sind die Bürger, die zunehmend auf professionell recherchierte Informationen verzichten müssen und die Demokratie, die stirbt, wenn die Algorithmen getriebene faktenfreie Meinungsbildung zum neuen Standard wird. Wenn dieselben Algorithmen, die die Zielgruppe der jungen Wähler dominieren, dann noch im Falle von Tik Tok der Kontrolle der kommunistischen Partei in China unterliegen, muss man sich über entsprechende Wahlerfolge autokratischer Parteien bei uns nicht mehr wundern. Dabei fließen nicht nur Daten nach China ab, sondern auch künftige Freiheitspotentiale.

Wenn das Ziel der menschlichen Autonomie durch automatisierte Entscheidungssysteme ersetzt und das autonome Denken durch KI-Simulationen weiter unterminiert wird, werden bald nur noch Algorithmen die komplexen Gesellschaften steuern. Die Algokratien, die dann entstehen, werden sich Made in China und Made in USA kaum unterscheiden.

Wird uns also die KI ersetzen?

Eine aktuelle Studie zeigt, dass Jugendliche inzwischen pro Woche 71,5 Stunden im Internet verbringen, davon 92 Prozent am Smarthone.[17] Das sind in sieben Tagen volle drei Tage in einem 70-jährigen Leben 30 Jahre, in sie sich nicht in der analogen, sondern ausschließlich in der digitalen Welt bewegen. Welche virtuelle Wirklichkeit wird dort präsentiert und wer macht dort die Regeln?

Die Antwort auf diese Fragen kann uns nicht gleichgültig lassen. In den 70 Stunden ersetzt KI bereits die Zeit, die diese Jugendlichen mit Freunden, Kollegen, anderen Menschen verbringen konnten. Zeit, die fehlt für Gespräche, gemeinsam geteilte Gedanken und Gefühle, für Einfühlung und Streit und Aussöhnung und für das Finden gemeinsamer Perspektiven.

Die zweite Zahl: 2023 bezogen laut Reuters News Report erstmals mehr als 50 Prozent der Menschen in Deutschland ihre politischen und aktuellen Informationen im Internet. Und dort sind bereits mehr als 50 Prozent der Inhalte synthetisch, also durch KI generiert.

Die Auswirkungen diese Technologie auf unsere Weltwahrnehmung, unser Denken Fühlen und Handeln sind gewaltig und sie werden an Macht gewinnen, weil beide Trends klare Aufwärtstrends sind.

Im gleichen Zuge, wie KI uns schleichend ersetzt, kann sie den gesellschaftlichen Zusammenhalt und schließlich auch unsere Humanität ersetzen. Wir müssen also dem Täuschungsspiel klare Grenzen setzen, nur dann können wir die Segnungen dieser Technologie genießen. In keinem Fall dürfen wir uns vom Täuschungsspiel nicht täuschen lassen. Sonst werden wir später zwangsläufig ent-täuscht. Denn es ist sicher, dass die Versprechungen einer umfassenden Erlösung der Menschheit durch KI aufgrund der mathematischen Grenzen der Systeme nicht in Erfüllung gehen werden. Ebenso sicher ist, dass die Risiken dieser Technologie sehr real sind, weil sie sich schon heute nachweisen lassen. Es gibt keine Alternative, zu einer strikten technischen und politischen Kontrolle der KI und der Unternehmen, die die neue Hochrisikotechnologie zu ihrem Vorteil vorantreiben und dabei Schäden für die Allgemeinheit billigend in Kauf nehmen. Bedenken wir immer, dass KI nicht denkt. Diese Anstrengung müssen wir uns weiterhin selbst zumuten. Gerade, wenn wir in der hochgradig technisierten und vernetzten Welt das Denken einstellen, werden die Folgen verheerend sein.

Die Antwort auf die Frage, ob KI uns ersetzen wird, lautet also: diese Gefahr besteht nur, wenn wir nichts unternehmen, um sowohl die technischen wie auch die politischen die Steuerungs- und Kontrollprobleme der KI zu lösen. Und wenn wir weiter eine Entwicklung zulassen, die zu weiteren Machtkonzentrationen in den Händen weniger großen Unternehmen und autokratischer Regime führt, die diese Entwicklung gerne als unvermeidbar und unausweichlich darstellen. Aber das ist sie nicht.  Auch dass KI zur Auslöschung der Menschheit führt, ist nicht unausweichlich. Vielmehr ist diese Frage, wie die Zukunft insgesamt, offen.  Sicher ist aber, dass KI, wenn sie weiterhin weitgehend unkontrolliert in den falschen Händen ist, das Potential hat, anstelle der Menschheit die Menschlichkeit auszulöschen und die Demokratie zu zerstören und dass das schon heute schleichend geschieht.

 

Über den Autor:
Matthias Pfeffer ist Philosoph, Journalist und Autor sowie langjähriger Geschäftsführer und Chefredakteur von Focus TV sowie Gründungsdirektor des Council for European Public Space. Er lebt in Berlin und München.

 

[1] Ivring G. Good, Speculations Concerning the First Ultraintelligent Machine, in Franz L. Alt, Morris Rubinoff (Hrsg.), Advances in Computers, Academic Press, 6, 1965, S. 31–88

[2] Mustafa Suleyman, The Coming Wave: Technology, Power, and the Twenty-first Century’s Greatest Dilemma, New York 2023

[3] Alan Turing: Computing machinery and intelligence, Können Maschinen denken? Ditzingen 2021

[4] Alan Turing (1937). “On Computable Numbers, with an Application to the Entscheidungsproblem”. Proceedings of the London Mathematical Society. 2. 42 (1): 230–65. doi:10.1112/plms/s2-42.1.230S2CID 73712.

[5] Kurt Gödel: Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I. In: Monatshefte für Mathematik und Physik. 38, 1931, S. 173–198, doi:10.1007/BF01700692Zentralblatt MATH, PDF, abgerufen am 3. April 2024.

[6] S. dazu: Matthias Pfeffer: Menschliches Denken und Künstliche Intelligenz, S. 69 ff. und Iyad Rahwan: Superintelligence cannot be contained: Lessons from Computability Theory <https://www.jair.org/index.php/jair/article/view/12202/26642>; siehe auch <https://www.mpg.de/16230184/0108-bild-computerwissenschaftler-superintelligente-maschinen-koennten-wir-nicht-kontrollieren-149835-x>.

[7] Stuart Russel, Human Compatible. Künstliche Intelligenz und wie der Mensch die Kontrolle über superintelligente Maschinen behält, Frechen, 2020

[8] Quelle: https://www.tagesschau.de/wirtschaft/digitales/ki-google-gefahren-hinton-100.html

[9] Quelle: https://www.bloomberg.com/news/articles/2024-07-11/openai-sets-levels-to-track-progress-toward-superintelligent-ai

[10] Quelle: https://www.wiwo.de/technologie/digitale-welt/openai-ki-unternehmen-sichert-sich-6-5-milliarden-dollar-kapital/30022500.html

[11] Martin Heidegger: Was heißt Denken? Stuttgart 1992

[12] Martin Heidegger, Die Frage nach der Technik, Kleine Schriften, Stuttgart 2022, S. 13 ff.

[13] Martin Heidegger: Sein und Zeit, Tübingen 2006, S. 198

[14] Hans Jonas: Das Prinzip Verantwortung, Frankfurt a. M. 1979.

[15] The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation Future of Humanity Institute, abrufbar unter <https://arxiv.org/pdf/1802.07228.pdf>.

[16] Zit. in Pfeffer: Menschliches Denken, a.a.O.

[17] https://www.postbank.de/unternehmen/medien/meldungen/2024/oktober/studie-jugendliche-sind-wieder-mehr-online.html

Tags: , , ,

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Unsere Regeln zum Kommentieren finden Sie hier.

*