Es wäre fatal, die KI-Potenziale nicht im Sinne der diakonischen Arbeit zu nutzen – meinen Birte Platow und Jürgen Kopecz, die sowohl in der Theologie als auch auf dem Gebiet der Künstlichen Intelligenz (KI) zu Hause sind. Ein Gespräch über den aktuellen KI-Hype, Gefühle in der KI-Debatte und Zukunftsbilder.

Chat GPT kann verblüffende Texte schreiben, Dall-E kann faszinierende Bilder erzeugen. Neue Anwendungen haben die KI-Debatte neu entfacht. Die Reaktionen scheinen zwischen Faszination und Grusel, Euphorie und Angst zu pendeln. Wie steht Ihre Gefühlsdynamik beim Thema aus?

PLATOW: Das große Staunen, das Fast-Verzaubert-Sein von Ergebnissen Künstlicher Intelligenz war der Einstieg in meine Forschung. So bin ich als Theologin zur KI gekommen, weil ich fast das Gefühl hatte, da steht mir etwas Allwissendes, Omnipotentes gegenüber und viele Menschen empfinden das ähnlich. Inzwischen bin ich natürlich geerdeter, weil ich mit KI-Projekten zu tun habe und mir die Prozesse dahinter besser erklären kann. Dass KI so widersprüchliche Gefühle auslöst, liegt im Wesen der Sache. Es ist schwer zu akzeptieren oder wahrzuhaben, dass wir vielleicht doch nicht so einzigartig, unvorhersehbar und mysteriös sind, wie uns das speziell in der christlichen Kultur vermittelt wird. Jetzt zeigt uns KI, dass wir ziemlich vorhersagbar sind, dass wir in unseren Fähigkeiten doch nicht so einzigartig sind, dass sie uns in bestimmten Bereichen übertreffen kann. Das kann die genannten Reaktionen hervorbringen, große Hoffnung und große Angst. Das habe ich auch in meiner Forschung zur KI-Debatte festgestellt. Zu beobachten sind - auch religiös geprägte - Bilder von KI-Erlösung und KI-Untergang. Zwischen diesen Extremen gibt es oft nicht viel. Es wäre ein guter Weg, das ‘Dazwischen’ etwas stärker zu machen.

Spirituelle Phantasien

Woher kommt das Religiöse in der KI-Debatte? 

PLATOW: Das hat viele Gründe. Das eine ist die Unerklärbarkeit der KI-Prozesse. Wenn wir etwas nicht verstehen, neigen wir dazu, es zu überhöhen – auch als Rechtfertigung, warum wir es nicht verstehen. Das Zweite ist die Entstehungsgeschichte in den 1950er und 1960er Jahren. Die ersten KI-Forschenden in den USA waren durchaus spirituell. Ihr Anspruch, die Welt zu verbessern, ihr quasi religiöses Anliegen, hat sich in die Technologie, in die Begrifflichkeiten und Narrative eingeschrieben. Warum hat man es überhaupt Intelligenz genannt und keinen eher technischen Begriff gewählt? Auch sind wir Menschen schlichtweg empfänglich dafür, nach dem zu suchen, was das Normale und uns selbst übersteigt.

KOPECZ: Bestimmte KI-Ansätze regen spirituelle Phantasien an. Manche versprechen etwa, das Leben virtuell zu verlängern, zum Beispiel in Form eines Avatars. Die Gedankenspiele gehen im Extrem bis zum ‚Hochladen‘ des menschlichen Bewusstseins in eine KI. 

Eine neue Qualität

Herr Kopecz, Sie haben bereits in den 90er Jahren an der Uni Bochum zu autonomen Systemen geforscht. Können Sie den aktuellen KI-Hype nachvollziehen?

KOPECZ: In den 90ern haben wir mit Ansätzen der Gesichtserkennung gearbeitet, doch die Erwartungen konnten sich technisch noch nicht erfüllen. Das hat sich in den letzten acht Jahren rasant geändert. Jetzt ist die Rechenleistung da. Dass Viele von Systemen wie ChatGpT so überwältigt sind, hat mehrere Gründe. Die neuen, komplexen Schnittstellen über die Sprache lassen uns die KI menschlich erscheinen. Gegen diesen Eindruck können wir uns kaum wehren, wie Studien zeigen. Dass uns eine Art künstliches Wesen auf unserer sprachlichen Ebene gegenübertritt, müssen wir erstmal verarbeiten. Das ist uns in der Evolution noch nie passiert und hat für uns eine neue Qualität. Das Wesen der künstlichen Intelligenz lässt sich philosophisch lange debattieren, doch allein der Anschein, sie bewege sich mit uns auf Augenhöhe, reicht aus, uns emotional und mental herauszufordern.

Bild: Dall E-2, Open-AI

Zur Verunsicherung trägt bei, dass KI sich exponentiell entwickelt, nicht linear. Als Menschen sind wir schon von unserer Biologie her nicht in der Lage, exponentielle Entwicklungen zu überblicken.

Berechtigte Gefühle

Müssten wir unsere Gefühle erstmal reflektieren, bevor wir uns möglichst nüchtern mit den Chancen und Risiken von KI befassen können?

PLATOW: Zunächst sollten wir feststellen: wir haben diese Gefühle. Sie sind nur menschlich und legitim. Wir sollten sie nicht einfach als unprofessionell abtun. Allerdings sind diese Gefühle keine Entschuldigung dafür, sich einfach abzuwenden. Wir sollten uns schon selbst aufklären: Warum neige ich dazu, KI als übermächtig wahrzunehmen und mich selbst so stark zu hinterfragen? Oder auch: Warum neige ich dazu, KI-Ergebnissen blind zu vertrauen? Wenn ich Angst bekomme, dass KI meine Arbeit überflüssig macht, sollte ich nicht einfach resignieren. In der einen Nische bin ich der KI vielleicht unterlegen, aber in vielen tausend anderen bin ich es nicht. Es ist schlicht notwendig, die Folgen der Technologie – auch für die eigene Rolle – nüchtern zu durchdenken.

Auch die KI-Entwicklerinnen und -Entwickler sind übrigens von Gefühlen beeinflusst, etwa von der Hoffnung, mit KI die Welt zu verbessern. Auch sie sollten das reflektieren, damit ihnen ihre Handlungen und Verantwortlichkeiten bewusster werden.

Bild: Dall-E2, OpenAI

KOPECZ: Wichtig ist, über diese Technologie aufzuklären. Das wirkt der Mystifizierung und auch allzu großen Gefühlen entgegen. Da ist auch eine Bildungsaufgabe. Ergänzen möchte ich: Nicht nur die individuelle Haltung zur KI ist – wie Frau Platow das richtig beschreibt – in den Blick zu nehmen, sondern auch der Veränderungsprozess im Ganzen. Ein Beispiel: Wir fragen uns gerade an den Unis, ob ChatGPT das Ende der Hausarbeiten bedeutet. Eine uralte Praxis wird innerhalb weniger Monate in Frage gestellt. Je weiter künstliche Mitspieler in unser Privat-, Geschäfts- und Berufsleben vordringen, desto stärker werden wir unser Verhalten daran anpassen. Für diesen Veränderungsprozess müssen wir jetzt schnellstens die nötigen Kompetenzen aufbauen, auf der emotionalen, aber auch auf der prozessualen Ebene. Wir sollten uns nicht einfach treiben zu lassen, sondern vor die Welle kommen.

Fahrlässig, Potenzale nicht zu nutzen

Kommen wir zu den Chancen. Zum Beispiel können KI-Technologien wie Chatbots, Sprachsteuerung, Sprache-zu-Text-Umwandlung oder Bilderkennung insbesondere Menschen mit körperlichen oder kognitiven Einschränkungen mehr Teilhabe ermöglichen. Zugespitzt gefragt: Erleben wir den Beginn der Diakonie-KI?

KOPECZ: In der Tat können die genannten Anwendungen enorm helfen, aber auch physisch unterstützende Systeme und die KI-gestützte Prothetik. Sie haben ein unheimlich großes Potenzial für mehr Teilhabe. Diese Potenziale nicht zu nutzen, wäre fahrlässig.

Man könnte einwenden, echte Diakonie können nur Menschen leisten ...

PLATOW: Da greift jetzt gleich wieder das Gegeneinander ‘Mensch versus Maschine’. Wie Herr Kopecz würde ich zunächst sagen, es wäre fatal, zu ignorieren, was mit KI möglich wird, und zwar ganz im Sinne von Mitmenschlichkeit und Nächstenliebe. Es wäre dezidiert nicht christlich, das Unterstützungspotenzial zu ignorieren, im Bereich von körperlichen oder auch geistigen Einschränkungen, aber auch zur Entlastung der Pflegenden. Diakonische Arbeit zielt auf die körperliche Unversehrtheit bzw. die bestmögliche Wiederherstellung von Möglichkeiten, darauf, Menschen in ihrer Selbständigkeit zu unterstützen. Wenn wir außerdem den Fachkräftemangel und den demographischen Wandel in Betracht ziehen, wäre eine Ignoranz gegenüber den KI Potenzialen fatal. Diese Potenziale sind kleinschrittig für jeden Bereich zu denken, wobei sich aus der Technologie ganz neue Logiken ergeben können.

Nicht zum Objekt werden

Haben Sie ein Beispiel?

PLATOW: Ich konnte die Forschung an einem Pflegeroboter begleiten. Der Roboter sollte zum Beispiel beim Waschen helfen oder Wassergläser anreichen. Die Idee der Techniker war, dass die Pflegekräfte den Roboter anleiten – ihm also sagen ‘mach dies’ und ‘mach das’. Aber genau in dieser Konstellation wäre der zu Pflegende zum Objekt der Technologie geworden. Wenn aber der zu Pflegende den Roboter selbst anweist, gewinnt er dadurch an Autonomie und die – schon vorher bestehende – Hierarchie zwischen dem Pflegenden und dem Gepflegten bricht etwas auf. Das heisst, aus den technischen Lösungen ergeben sich neue Strukturen, Prozesse und Abläufe. Darauf müssen sich alle Beteiligten erstmal einlassen. Das ist durchaus anstrengend. Dafür braucht es interdisziplinäre Teams, die alle Perspektiven einbringen, nicht nur die technische, sondern auch die der Nutzenden und Beteiligten.

KI-Einsatz: Unproblematisch bis heikel

Werden Mitarbeitende in der Diakonie vermehrt Teile ihrer Tätigkeiten an KI-Anwendungen abgeben?

PLATOW: Ja, zunächst ist da sicherlich an unproblematische Arbeitsteilung zu denken, etwa in der Dokumentation von Pflege. Weiter kann KI aber auch Entscheidungen indizieren, etwa über Sensoren in der Matraze rückmelden, wann ein Patient bewegt werden muss, und wann nicht. Zuletzt ist auch an vermeintlich ‚heikle‘ Situationen zu denken. Sprachprogramme können heute über Spiegelungen seelsorgerliche Gespräche führen, individuell unterhalten, zu Aktivitäten anregen und damit auch jenen Bereich berühren, von denen wir glauben, dass müsse ein Mensch tun. Hier ist jedoch zu bedenken, dass Pflegende dafür oft gar keine Zeit haben, Interaktion unter Umständen erschöpfend sein kann – etwa mit dementen Menschen – und eine KI am Ende besser ist als gar nichts – oder gar besser, geduldiger agiert als ein Mensch.
KOPECZ: Es gibt den alten Satz:‘Wer heilt, hat Recht’. Aber das sind genau die Punkte, an denen es auch um unser Menschenbild geht.

Ein Einwand gegen KI-Systeme lautet, dass die Interaktion mit anderen Menschen verloren geht. Sitzen wir irgendwann umgeben von KI-Systemen alleine da? 

Dall E-2, OpenAI

PLATOW: Das ist eine Erzählung, die so tut, als sei in der heutigen Pflege reichlich Zeit für die menschliche Interaktion da. Aber so ist es ja nicht.  

KOPECZ: Die menschliche Interaktion können wir selbst gestalten. Wenn ich mich damit wohl fühle, nur noch von Robotern gepflegt zu werden, ist dagegen nichts zu sagen. Ich selbst kann mir das nicht vorstellen. Aber vielleicht hat sich die gesellschaftliche Haltung hierzu in 10 Jahren geändert. Das lässt sich schwer vorhersagen.  

Grenzen der Optimierung

Kommen wir zu einem der Risiken. Manche warnen vor dem gesellschaftlichen Druck auf den Einzelnen, die neuen KI-Technologien, etwa in der Prothetik, auch zu nutzen. Sehen Sie diese Gefahr?

KOPECZ: Ja. Wir sehen den Hang und auch den Druck zur Selbstoptimierung jetzt schon ganz massiv. Das kann noch weitergehen. Eine Versicherung könnte irgendwann sagen: ‘Sie sind nicht berufsunfähig, sondern haben fünf Jahre Zeit, sich zu reparieren‘. Das ist bei der Entwicklung der KI-gestützten Prothetik durchaus denkbar. Die Frage ist: Soll die Optimierung und Leistungserweiterung Grenzen haben? Insbesondere für Menschen mit einer Einschränkung? Das ist ein völlig offenes Feld. Wir brauchen aber diese Debatten heute schon, möglichst bevor die technischen Möglichkeiten da sind.

PLATOW: Systemisch stimme ich zu. Was ich allerdings noch nicht so sehe ist, dass sich der Einzelne diesem Druck komplett preisgibt. In einer meiner Studien gab es viel Zustimmung zu der Position: ‘Ich bin ein Mensch, ich kann viele Dinge nicht, und das ist gut so’. Menschen wissen um ihre Fehlbarkeit, etwa Kapazitätsbeschränkung beim Daten erfassen und verarbeiten, ihre Fehleranfälligkeit, etwa durch Müdigkeit. Die ‚perfekte Maschine‘ macht diese Fehleranfälligkeit nun aber bewusst, weil KIs als neue Kollegen in unser Bewusstsein treten.

Wir können uns als Reaktion auf dieses neue Bewusstsein klein und ohnmächtig fühlen – was Viele tun – oder aber uns mit dem ‚menscheln‘ versöhnen. Das wäre meines Erachtens eine aussichtsreiche Perspektive mit Gestaltungsraum.

Interdisziplinär über Grenzen hinausdenken

Kommen wir zu den diakonischen Unternehmen. Inwiefern können diese die KI-Entwicklung mitgestalten?

PLATOW: Natürlich kann ich mich als diakonisches Unternehmen an gute Produktanbieter wenden und auch als Praxispartner an Projekten mitwirken, um auf KI-Lösungen Einfluss zu nehmen. Die Option der ganz eigenständigen KI-Entwicklung sehe ich in der Diakonie aus Ressourcengründen aber nicht. Faktisch liegt der größte Gestaltungsspielraum darin, die eigenen Abläufe an die Möglichkeiten der Technologie anzupassen. Damit meine ich keine sklavische Unterwerfung, sondern kalkuliertes Vorgehen. Ich überlege mir, welche Aufgaben KI übernehmen kann, wie das meine Prozesse verbessert und welche Ressourcen auf diese Weise frei werden. Da geht es eher um eine organisationstheoretische Umstellung. Dazu würde ich mir interdisziplinäre Teams suchen, die über die bisherigen Grenzen und Gewohnheiten hinausdenken.

Gefragt ist ein Zukunftsbild

Sehen Sie das auch so, Herr Kopecz?

KOPECZ: Ja, ich würde nur sagen, das Thema Prozesse ist ein sensibler Punkt, in allen Unternehmen. Da traut sich niemand gerne ran, und nicht alle haben die Ressourcen für tiefgehende Prozessanalysen. Trotzdem ist das ein wichtiger Punkt. Was ich mir von den großen diakonischen Unternehmen wünsche, ist, dass sie ein gemeinsames Zukunftsbild entwickeln, eine Vorstellung, was Sie mit KI erreichen wollen und wo auch die Grenzen liegen. Nur so merke ich überhaupt, ob die Reise in die gewünschte Richtung geht und auch, ob ich meine Grenzen überschreite. Nur so komme ich vor die Entwicklung und reagiere nicht immer nur. Dafür ist es wichtig, wie Frau Platow sagt, interdisziplinär zu arbeiten, nicht nur in einem reinen IT- oder Diakonie-Kontext. Das ist die große Herausforderung und der bisherige Schwachpunkt.

Ein weiterer Punkt ist natürlich die Refinanzierung. Der Gesetzgeber und die Krankenkassen müssen Spielräume dafür schaffen, über den Status Quo hinauszudenken. Auch die Ausbildung muss in den Fokus, um junge Menschen auf die Veränderungen vorzubereiten. Was wir auch nicht vergessen dürfen, ist die Konkurrenzsituation. Wir agieren nicht auf einer einsamen Insel. Wir müssen auch sehen, was die anderen tun, auch außerhalb Europas.

Dall E-2, OpenAI

PLATOW: Entscheidend für ein Zukunftsbild ist nicht die Technologie an sich, sondern was ich damit erreichen will. Die Diakonie hat ein klares Menschenbild und klare Ziele – jetzt sollte sie sich fragen, wie KI hilft, diese Ziele umzusetzen. Es sollte nicht so laufen wie im Schulbereich, wo erstmal viele tausend Touchpads gekauft werden, aber kaum jemand weiß, was damit anzufangen ist. Ein Touchpad macht noch keine digitale Bildung. Genauso macht eine bloße Ansammlung vieler Apps und Systeme noch keine Diakonie.

Vielen Dank für das Gespräch!

Zu den Personen

Foto: Giacinto Carlucci

Jörg Kopecz ist Mitbegründer des Instituts für Transformationsmanagement (iTM) und lehrt als Professor an der FOM Hochschule Betriebswirtschaft. Der Physiker und Theologe ist Mitglied im Vorstand des Arbeitskreises Evangelischer Unternehmer (AEU). Der promovierte Neuroinformatiker arbeitet u.a. zu Themen der Ethik und KI. Foto: Giacinto Carlucci.

Foto: Platow

Birte Platow ist Professorin für Religionspädagogik und Geschäftsführende Direktorin am Institut für Evangelische Theologie der Technischen Universität Dresden. Im sächsischen Kompetenzzentrum ScaDS.AI Dresden / Leipzig (Center for Scalable Data Analytics and Artificial Intelligence) ist Platow Mitglied des Vorstands und verantwortet das Forschungsgebiet „Responsible AI. Gesellschaftliche Relevanz von KI“. Foto: Platow. 


VdDD.Magazin "diakonie unternehmen"

Hinweise: Die Bilder zum Text wurden mit den KI-Bildgeneratoren Dreamstudio AI (Titelbild) und Dall-E 2 / OpenAI (Textbilder) erstellt. Dieser Text ist in einer leicht kürzeren Version am 27. April 2023 im VdDD-Mitgliedermagazin "diakonie unternehmen" 1/23 erschienen. 

Ansprechpartner


Alexander Wragge
Alexander Wragge

Referent für digitale Kommuni­kation und politische Netzwerk­arbeit