KI menschenzentriert gestalten

Dr. Cedric Janowicz leitet die Abteilung Gesellschaften der Zukunft im DLR Projektträger. Mit seinem Team arbeitet er an der Schnittstelle von Technologie, Gesellschaft und Innovation, beschäftigt sich intensiv mit den gesellschaftlichen Auswirkungen von Künstlicher Intelligenz und forciert den interdisziplinären Austausch.
Auf der re:publica hostet der DLR Projektträger die Session „Cross-Gen KI-Talk: Chancen, Werte, Perspektiven im Spiegel von Forschung und Gesellschaft“. Sie sind als Panelist dabei.
Als jemand aus der Generation X, der die digitale Transformation seit vielen Jahren miterlebt und wissenschaftlich-fundiert begleitet: Wie hat sich Ihre Perspektiven auf disruptive Technologien wie Künstliche Intelligenz im Laufe der Zeit verändert? Und was erwarten Sie von der Diskussion zwischen den Generationen auf der re:publica in Bezug auf die Chancen und Herausforderungen von KI?
Dr. Cedric Janowicz: Ich bin der festen Überzeugung, dass KI-Technologien ihre positive Kraft vor allem dort entfalten werden, wo sie das Analoge stärken. Wenn wir das Smartphone nutzen, um uns zu verabreden, fördert das unser Miteinander. Wenn wir das Smartphone während unserer Verabredung nutzen, dann ist das Gegenteil der Fall.
Ein ganz aktuelles Szenario: Vor kurzem haben wir einen neuen Bundestag gewählt. Der Wahl-O-Mat kann helfen, zu einer fundierten Wahlentscheidung zu kommen und das Interesse an demokratischen Prozessen steigern. Übernehmen dagegen algorithmische Systeme die politische Entscheidungsfindung, in der Annahme, dass diese ‚objektivere‘ Entscheidungen fällen, geht ein wichtiges, charakteristisches Merkmal unserer demokratischen Kultur verloren: dass Demokratien aus widerstreitenden Interessen und Kompromissen bestehen. Aber vielleicht eröffnet mir die Diskussion zwischen den Generationen auch neue Perspektiven – ich bin gespannt!
Stichwort „Widerstreitende Interessen“: Welche Narrative bestimmen den aktuellen wissenschaftlichen und gesellschaftlichen Diskurs über KI?
Janowicz: Das positive Narrativ von KI als Schlüsseltechnologie verspricht uns viel: KI wird Krankheiten heilen, Verbrechen verhindern, Volkswirtschaften managen, die Demokratie perfektionieren – oder um es mit den Worten von Marc Zuckerberg auf den Punkt zu bringen: „AI will fix this“. Dabei handelt es sich natürlich um ein verführerisches Versprechen: die Automatisierung von Intelligenz, die Verwissenschaftlichung von Politik, die Ausmerzung aller Fehler und Konflikte. Es liegt auf der Hand, dass dieses Narrativ für einige Akteure des Geschehens Vorteile besitzt.
Auf der anderen Seite gehen disruptive Technologien immer auch mit Veränderungen und Verlustängsten einher. Schon Platon setzte sich im „Phaedrus“ mit der Einführung der Schrift auseinander − einer damals revolutionären, heute würde man sagen ‚disruptiven‘, Kommunikationstechnologie. Eine seiner zentralen Ängste war, dass mit Einführung dieser damals neuen Technologie grundlegende, den Menschen definierende Fähigkeiten verloren gehen würden. Insbesondere befürchtete er, die Fähigkeit unseres Gedächtnisses ginge dadurch verloren, umfassende Inhalte zu verstehen, zu memorieren und wiederzugeben.
Heute wissen wir, dass er damit falsch lag. Zwischen den Narrativen von KI als Allheilmittel oder Apokalypse: Wo liegen denn die Chancen von KI?
Janowicz: KI kann hervorragend Muster erkennen und große Datenmengen verarbeiten. Sie kann damit verbundene Aufgaben zuverlässiger und viel schneller als Menschen erledigen, beispielsweise bei der Früherkennung von Krebskrankheiten. Dadurch haben Behandelnde mehr Zeit, sich dem Problem einer adäquaten Therapie zuzuwenden.
Ein anderes Beispiel hat unser Leiter Klaus Uckel vor kurzem in einem Interview angeführt: KI-Systeme können in der Verwaltung helfen, Vorgänge zu beschleunigen. Auch hier kommt ihre bereits erwähnte Stärke zum Tragen, große Mengen von Daten zu verarbeiten. Das macht sie als Werkzeuge so nützlich. Wenn die Bürgerinnen und Bürger in den Genuss dieser Vorteile kommen, arbeitet KI sogar gegen Politikverdrossenheit und unterstützt das Ansehen eines demokratisch verfassten Staates, der sich schnell und effizient um die Anliegen seiner Bürgerinnen und Bürger kümmert.
Was braucht es, damit es zukünftig gelingt, die Potenziale von KI im Dienst der Gesellschaft zu heben?
Janowicz: Um ‚vor die Welle‘ der Technologieentwicklung zu kommen und die positiven Potenziale von KI zu heben, müssen wir uns fragen, in welcher Zukunft wir leben wollen. Das impliziert nicht nur ein reaktives Nachdenken darüber, wie KI-Technologien unser Leben voraussichtlich verändern werden, sondern auch ein proaktives Nachdenken darüber, wie wir diese neuen Technologien in unser Leben und unsere Gesellschaft integrieren wollen.
Die Leitfrage „In welcher Welt wollen wir morgen leben?“ verschiebt im Gegensatz zu der Frage „In welcher Welt werden wir leben?“ automatisch den Fokus auf unsere Gestaltungsmöglichkeiten und unsere Wertvorstellungen. Wir brauchen eine interdisziplinäre Debatte, wie technologische Innovationen so gestaltet werden, dass sie mit sozialen und ökologischen Zielen vereinbar sind. Das meinen wir, wenn wir von einer menschenzentrierten Gestaltung von KI-Technologien sprechen!
„Wir brauchen eine interdisziplinäre Debatte, wie technologische Innovationen so gestaltet werden, dass sie mit sozialen und ökologischen Zielen vereinbar sind.“
Welche Rolle können Forschung und Wissenschaft spielen, um diese Debatte anzustoßen und die Zukunft verantwortungsbewusst zu gestalten?
Janowicz: Die gute Nachricht aus der Wissenschaft lautet: Technologien sind keine Naturgewalten. Sie sind prinzipiell gestaltbar, also entwicklungsoffen. Allerdings ist das kein Selbstläufer. KI-Technologien müssen bewusst nach auszuhandelnden Maßstäben gestaltet werden, damit sie wertebasiert, verantwortungsbewusst, menschenzentriert und nicht zuletzt demokratiekompatibel entwickelt und verwendet werden.
Welchen konkreten Beitrag können Wissenschaft und Forschung dazu leisten?
Janowicz: Sie können helfen, allgemeine Bewertungskriterien einer „responsible AI“ zu erarbeiten und zu diskutieren – auf diesem Feld könnte sich insbesondere Deutschland als marktführend etablieren. Hier herrscht noch großer Forschungsbedarf, der vor allem einen interdisziplinären Ansatz benötigt. Aktuelle Ansätze misslingen allerdings vielfach und produzieren mitunter Systeme, die in der realen Welt schlicht nicht funktionieren.
Woran scheitert es?
Janowicz: Die Vorstellung, dass sich Ethik in einfache Regeln gießen lässt, mag in Videospielen funktionieren. In der realen Welt sind ethische Entscheidungsprozesse aber komplexe soziale und psychologische Vorgänge, die trotz identischer ethischer Regeln zu ganz unterschiedlichen Ergebnissen führen können – je nach sozialem, politischem, religiösem oder kulturellem Hintergrund der entscheidenden Person. Um die Regeln einer Ethikmaschine zu programmieren, müsste man sie aller sozialer Unschärfe und Menschlichkeit berauben. Nur wäre das vermutlich stark diskriminierend, weil genau eine Wertvorstellung als normal definiert würde – diejenige derer, die solche Systeme entwickeln.
Darum kann die Automatisierung einer Ethik nur scheitern. Hier müssen wir andere Wege gehen, die beispielsweise unter dem Stichwort einer „hybriden Intelligenz“ diskutiert werden. Hybride Intelligenz kombiniert die Stärken menschlicher und künstlicher Intelligenz und impliziert, dass die Letztverantwortlichkeit des Menschen stets gewahrt wird. Die Maschine arbeitet zu – als Werkzeug für den Menschen. Der Mensch ordnet ein und übernimmt die Verantwortung. Erst und nur in der Zusammenarbeit von Mensch und KI entsteht der Mehrwert.
Worin sehen Sie die zentrale Herausforderung in Bezug auf die Zukunft von KI-Technologien? Und wie können Förderprogramme helfen, diese Herausforderungen zu bewältigen?
Janowicz: Die entscheidende Herausforderung in Bezug auf die Zukunft von KI wird aus meiner Sicht sein: Ist es realistisch, dass wir diese Technologie vernünftig reguliert bekommen? Wie können wir sicherstellen, dass die neue Welle von Technologien verantwortungsbewusst, menschenzentriert und für die Gesellschaft lohnend ausgestaltet werden? Hier müssen staatliche Förderprogramme ansetzen, die sowohl auf der immateriellen als auch auf der materiellen Ebene zu KI-Sicherheit beitragen.
Eine immaterielle Ebene wäre beispielsweise eine interdisziplinäre Förderung zur Ausarbeitung moralischer Richtlinien bei der Entwicklung von KI-Technologien, analog zum hippokratischen Eid der Ärzte. Nach dem Prinzip primum non nocere – zuerst einmal nicht schaden. Auf materieller Ebene müsste dazu das nach wie vor unterentwickelte Feld der KI-Sicherheitsforschung durch entsprechende Förderprogramme in die Lage versetzt werden, effiziente technische Sicherheitskonzepte zu entwickeln. Diese würden verhindern, dass KI-Technologien autonom agieren und ggf. katastrophale Ereignisse in Gang setzen. Es gibt bereits Vorschläge, dass in allen Förderrichtlinien zum Thema KI ein fester Prozentsatz nur für diese Art Forschung eingeplant werden soll.
DLR Projektträger veranstaltet KI-Session auf der re:publica 25
Wie verändert Künstliche Intelligenz unser Leben – und was bedeutet das konkret für die Generationen X, Y und Z? Welche Hoffnungen und Sorgen verbinden sie damit? Und welche Verantwortung tragen wir bei der Entwicklung und Anwendung von KI?
Dazu veranstaltet der DLR Projektträger am 26. Mai im Rahmen der re:publica 25 eine Podiumsdiskussion unter dem Titel: Cross-Gen KI-Talk - Chancen, Werte, Perspektiven im Spiegel von Forschung + Gesellschaft. Gemeinsam mit Fachleuten aus Wissenschaft und Wirtschaft wollen wir Denkanstöße geben, Debatten anstoßen und Impulse für ein verantwortungsvolles Zusammenwirken von Mensch und Maschine setzen. Seien Sie dabei und diskutieren Sie mit uns.