Dramatisierende Mythen zur KI zu hinterfragen, heißt nicht, ihre Bedeutung kleinzureden, sondern genauer hinzuschauen. Statt in Heilserwartung oder Gruselangst zu verfallen, sollten wir die realen Möglichkeiten der KI in den Blick nehmen.
Wer Audrey Hepburn zu schätzen weiß, reibt sich irritiert die Augen: Der Roboter „Sophia“ soll der großen Schauspielerin und Stil-Ikone nachempfunden sein – so das Hongkonger Unternehmen Hanson Robotics. Es hat Sophia entwickelt und lässt sie seit 2018 durch internationale Konferenzen tingeln. Allerdings weist Sophia nicht einmal eine annähernde Ähnlichkeit mit Audrey Hepburn auf. Viel gravierender jedoch: Auch hinsichtlich sehr grundlegender Eigenschaften nimmt das Marketing des Unternehmens den Mund arg voll. So behauptet Sophia auf der Homepage, Gefühle zu haben und über eine basale Form von Bewusstsein zu verfügen. Während die fehlende Ähnlichkeit mit Audrey Hepburn offensichtlich ist, dürften nicht wenige hinsichtlich der anderen Zuschreibungen (Bewusstsein, emotionales Erleben) unsicher sein oder sogar zustimmen. Schließlich hat Sophia eine recht differenzierte Mimik, sie scheint Gefühle auszudrücken, spricht mit einem modulierten Tonfall, stellt scheinbar Augenkontakt her, kann Gesichter wiedererkennen, auf Fragen antworten und sogar Witze machen. Kurzum: Sophia kann mitunter so erscheinen, als ob sie ein Mensch oder doch ein sehr menschenähnliches Wesen sei. Und doch bleibt es beim „als ob“, handelt es sich bei Sophia um die Simulation eines Menschen. Oder wie es der Philosoph und Psychiater Thomas Fuchs auf den Punkt bringt: „Natürlich ist all dies nur ein Bluff“. Sophia sei trotz ihrer beeindruckenden technischen Leistungsfähigkeit nicht nur graduell vom Menschen unterschieden, sondern fundamental anders – nicht zuletzt deshalb, weil ihr ein bewusstes Erleben und die dafür notwendige lebendige Leiblichkeit fehlen. Was sie von sich gebe, seien „tönende Worte, wie die eines Papageis, beziehungsweise nicht einmal das, da ein Papagei seine Laute immerhin auch erlebt“
Allerdings führt der technologische Fortschritt dazu, dass Simulationen wie Sophia immer besser werden, gleichsam „täuschend echt“ wirken. „Intelligente“ Maschinen und An- wendungen lassen sich von außen immer schwerer von Menschen „mit Leib und Seele“ unterscheiden. Immer häufiger können sie den Eindruck erwecken, tatsächlich und in einem menschlichen Sinne wahrnehmen, denken, verstehen, sprechen und entscheiden zu können. Nicht zuletzt diese verführerische Kraft der Simulation kann uns empfänglich machen für Erzählungen und Botschaften, in denen die KI ungemein aufgeladen wird: Sie sei – so heißt es dann – in ähnlicher Weise intelligent wie der Mensch, werde ihn eines nicht fernen Tages in vielerlei Hinsicht übertreffen und gar zu einer Superintelligenz werden, der nicht selten gottähnliche Eigenschaften zugeschrieben werden, zum Beispiel Allwissenheit. Dieser meines Erachtens völlig überdrehte Diskurs mag zum Teil eine Marke- tingstrategie sein: Forschungs- und Entwicklungsprojekte wollen gefördert, Produkte und Dienstleistungen verkauft werden – dazu braucht es Aufmerksamkeit heischende Botschaften und Schlagzeilen. Nicht selten scheinen diese aber auch echter Überzeugung zu entspringen. Ray Kurzweil etwa, Entwicklungsleiter bei Google und zugleich eine Art KI-Prophet, dürfte seinen Prognosen zur immer näher rückenden „technologischen Singularität“ und ihrer gleichsam erlösenden Kraft selbst glauben.
Einerseits wird die KI – oft diffus mit Robotik und Digitalisierung verwoben – mit regelrechten Heilsversprechen und Verheißungen verknüpft. Kaum ein Lebens- und Gesellschaftsbereich, für den nicht die Hoffnung auf umfassende KI-basierte technologische Lösungen, auf allumfassende Effizienz und Objektivität geweckt wird. Nur zwei ausgewählte Beispiele:
Im „Tagesspiegel“ wurde jüngst mit Blick auf das gras- sierende Problem der Einsamkeit auf die Entwicklung „digitaler Begleiter“ verwiesen, und zwar nicht nur als notdürftiger Menschen-Ersatz oder unterhaltsame Abwechslung. Zu ihnen könnten wir womöglich sogar „viel tiefere Beziehungen“ als zu Menschen pflegen. Immerhin gibt es im Bericht auch die Frage, ob es nicht nur eine „Illusion der Nähe“ sei. Oder: In einem Artikel der „TAZ“ wurde vor kurzem ernsthaft erwogen, die Entscheidung in Asylverfahren der KI zu überlassen – diese sei doch unvoreingenommen und objektiv.
Noch wilder und quasi-religiös werden die frohgemuten Spekulationen, wenn sich futuristische Prognosen zu einer künstlichen Superintelligenz mit der Sehnsucht nach der transhumanistischen Überwindung menschlicher End- lichkeit verbinden – bis hin zur Verheißung eines unsterb- lichen „Geistes“, der sich in künstliche Strukturen „up-loaden“ und von seinen leiblichen Fesseln befreien lässt. Hier feiert eine uralte Leibfeindlichkeit fröhliche Urständ und verbündet sich mit einer reduktionistischen Sicht auf Seele und Geist.
Nicht weniger schlagzeilenträchtig als Heilsversprechen sind gruselige Untergangsszenarien. Diese knüpfen an alte Mythen und Geschichten an, in denen der Mensch ein ihm ähnliches Wesen erschafft, das dann außer Kontrolle gerät und zum übermächtigen Monster wird – man denke nur an das namenlose, mit Hilfe der Elektrizität „belebte“ Geschöpf im 1818 erschienenen Roman „Frankenstein“. Mit seinen übermenschlichen Kräften, auch seinen durch Nachahmen von Sprach- und Handlungsmustern erlernten Fähigkeiten, wendet es sich gegen seinen Schöpfer und wird zu einer tödlichen Gefahr. In etlichen dystopischen Science-Fiction-Romanen, -Filmen und -Serien wird die KI zu einer dem Menschen in jeglicher Hinsicht überlegenen Supermacht, die für Menschen oder gar die Menschheit insgesamt gefährlich wird. An diese (pop-)kulturell verankerten Bilder in vielen Hinterköpfen können manche Progno- sen, die in schrillen Tönen vor dem KI-bedingten Weltuntergang warnen, wirkmächtig anschließen.
Die mythenähnliche Quasi-Vergöttlichung und Dämonisierung sind zwei Seiten derselben Medaille: der dramatisierenden Überhöhung der KI, sei es im Guten oder im Schlechten. Nun könnte man diese KI-Mythen kopfschüttelnd und achselzuckend ignorieren – das allerdings hätte gefährliche Konsequenzen. Zunächst: Wenn wir die KI nicht „niedriger hängen“ und stattdessen in Gruselangst vor dem angeblich drohenden Untergang der Menschheit durch eine superböse KI oder aber in gläubiger Sehnsucht nach Heil und Erlösung durch die KI verharren, bekommen wir die realen und keineswegs zu unterschätzenden Möglichkeiten, Risiken wie Chancen der KI nicht angemessen in den Blick. Die KI-Mythen zu hinterfragen, heißt nicht, die Bedeutung der KI kleinzureden – es bedeutet, genauer hinzuschauen.
Die positive oder negative Aufladung der KI kann den kritischen Blick auf schon wirksame und tendenziell wachsende Gefahren und Probleme der KI verstellen. So können KI-basierte Bewertungs- und Prognoseanwendungen ohnehin bestehende Diskriminierungen fortführen und sogar verstärken. Die KI-Unterstützung von Prozessen etwa in medizinischer Diagnose oder auch im Einsatz automatisierter Waffen kann aufgrund der scheinbaren absoluten Objektivität der KI de facto zur Verdrängung menschlicher Urteilskraft und zur Diffusion von Verantwortung führen. KI kann Datenschutz und die ohnehin prekäre Privatsphäre gefährden. KI-erzeugte Nachrichten, Geschichten, Bilder oder auch Stimmen können die Gefahr von fakenews steigern, den Unterschied zwischen Schein und Sein weiter einebnen und damit auch den für eine Demokratie unerlässlichen öffentlichen Diskurs untergraben.
Und: Um die KI mit den für ihre Weiterentwicklung nötigen Daten zu „füttern“ braucht es unzählige „Click-Worker“ (gleichsam die menschliche Intelligenz hinter der künstlichen Intelligenz). Viele sind oft im globalen Süden unter prekären Bedingungen beschäftigt. Nicht wenige werden traumatisiert, weil sie Inhalte voller Grausamkeit und Gewalt erkennen und aussortieren müssen. Die oberflächlich so „cleane“ KI hat hier eine durchaus schmutzige Seite.
Freilich können auch die realen und beeindruckenden Chancen der KI aus dem Blick geraten, wenn wir den utopischen oder dystopischen KI-Mythen glauben, statt auf die realen Möglichkeiten zu schauen.
In der Tat kann die KI nämlich ein sehr nützliches Instrument sein, das den Menschen von vielen alltäglichen, lästigen, zeit- und kraftraubenden oder auch belastenden und gefährlichen Tätigkeiten im privaten wie beruflichen Bereich entlasten kann; manches (z. B. Mustererkennung in gigantischen Datenmengen) kann sie tatsächlich besser und vor allem viel schneller. Dadurch kann Zeit und Kraft frei werden für Tätigkeiten, in denen wir Freude und Sinn erleben und unsere spezifisch menschlichen Begabungen entfalten und einbringen können. Je mehr wir, eine ethisch- politische Einhegung vorausgesetzt, die spezifische Kraft der KI als Entlastung und Unterstützung zum Zuge kommen lassen, desto mehr kann sich auch das entfalten, was eben nur der Mensch kann und die KI niemals können wird. Und: Zwar kann die KI nicht im eigentlichen Sinne des Wortes entscheiden. Dazu mangelt es ihr an Bewusstsein, Willen, Emotionalität, selbst gesetzten Zwecken – es geht ihr schlicht um nichts. Und doch kann sie menschliche Prognose-, Abwägungs- und Entscheidungsprozesse unterstützen und verbessern – vorausgesetzt, wir setzen sie reflektiert ein und wissen, unter welchen Umständen und in welchen Hinsichten wir der Technik vertrauen können (oder auch nicht).
Um diese realen Risiken und Chancen der KI frühzeitig wahrzunehmen und berücksichtigen zu können, braucht es eine KI-Ethik, die nicht nachträglich (und zu spät) hinzukommt, sondern als sogenannte „embedded ethics“ bereits innerhalb konkreter Entwicklungsprozesse zum Zuge kommt und dort eine Art „ethical awareness“ schafft, so die Ethikerin Alena Buyx. In christlicher Perspektive ist hier eine Option für die (ohnehin) Benachteiligten entscheidend: Welche Gruppen, die bereits benachteiligt und von Entscheidungsprozessen weitgehend ausgeschlossen sind, können durch diese technologische Entwicklung zusätzlich benachteiligt werden – oder auch von ihr profitieren?
Wie können z. B. KI-basierte Systeme und Instrumente so entwickelt und eingesetzt werden, dass sie die digitale und soziale Teilhabe von Menschen mit Behinderungen und Beeinträchtigungen erleichtern – und nicht noch zu- sätzliche Barrieren errichten? Auch hier gilt: Eine gerechte KI wird es nur geben, wenn die Perspektive, Bedarfe und Rechte der Betroffenen von Anfang an systematisch einbezogen werden.
Und es braucht angesichts der rasanten technologischen Entwicklung politische Regulierungen, wie sie z. B. auf EU-Ebene versucht werden oder auch vom Vatikan (mit Unterstützung auch anderer Religionsgemeinschaften) gefordert werden. Freilich: Dagegen stehen mächtige Interessen, etwa das Profitstreben der oft global agierenden Tech- Unternehmen oder auch Kontroll- und Sicherheitsbestrebungen in der Politik. Ob sich ethische Gesichtspunkte und politisch-rechtliche Regulierungen dagegen durchsetzen lassen, ist mehr als ungewiss. Statt sich in dystopischen und letztlich nur lähmenden Phantasien vor „der KI“ zu fürchten, sollten wir daher eher einen kritischen, ethischpolitischen Diskurs über politische und ökonomische Machtverhältnisse führen, unter denen KI zu gemeinwohlschädlichen Zielen eingesetzt wird.
Statt das Heil von der KI zu ersehnen oder die Gefahr des Weltuntergangs zu beschwören, sollten wir die technologische Entwicklung zum Anlass nehmen, alte Fragen neu zu stellen. Einige seien exemplarisch genannt:
Genauer: den Menschen und all seine Vollzüge als „biologische Maschine“ zu verstehen und die perfekt funktionierende Maschine zum Idealbild menschlicher Entwicklung und Bildung zu erheben. Schon seit geraumer Zeit werden Menschen und ihre Handlungen zum Objekt von Vermessung und Berechnung (was gegenüber Maschinen angemessen ist), immer mehr soll der (bereits sehr junge) Mensch aus diversen Inputs möglichst fehlerfrei und möglichst effizient messbaren Output produzieren (was man von einer Maschine durchaus erwarten darf); immer mehr ist das Ziel, möglichst perfekt zu funktionieren (was wir an einer Maschine zu Recht schätzen). Wollen wir so unser Mensch-Sein verstehen und leben? Ist die Maschine das Bild, nach dem wir uns und einander bilden wollen? Was ist mit den Vollzügen des Menschen, die keinen Beitrag zur Optimierung des Input-Output-Verhältnisses leisten, sich dem Funktionalismus entziehen oder sogar stören – aber das Leben durch alle Wirrungen und Irrungen hindurch vielleicht erst schön, sinnvoll und wunderbar machen?
Erst, wenn wir diese Fragen redlich stellen und versuchen zu beantworten, können wir die KI sinnvoll als das einsetzen, was sie durchaus sein kann: ein sehr nützliches, menschendienliches, vielleicht sogar segensreiches Mittel zum Zweck. Worin jedoch dieser „Zweck“ besteht, wird uns auch eine noch so smarte Superintelligenz niemals sagen können.
---
Text: Thomas Steinforth