Inhaltsverzeichnis
Sozialethik als problemsensible Zeitgenossin
„Den Menschen wieder mehr zum Subjekt zu machen“[1] ist das ausgewiesene Programm der Sozialethik. Dabei geht es ihr weniger um die Klärung begründungstheoretischer Einzelheiten oder eine individualethische Normenreflexion. Sie fragt als angewandte Ethik gesellschaftliche Strukturen, Praktiken und Dynamiken vielmehr danach, ob sie ein verantwortungsvolles und befreites Mensch-Sein und Miteinander unterstützen, d.h. emanzipatorische Potentiale eröffnen oder diese (unbemerkt) kompromittieren. In diesem Sinne geht es ihr, so der Sozialethiker Günter Wilhelms, „um die moralische Bewertung des Sozialen, also jener institutionellen Gebilde, zu denen sich Interaktionen verdichtet und verfestigt haben.“[2] Ihr normativer Glutkern ist die Wahrung und Sicherung der menschlichen Würde in allen gesellschaftlichen Bereichen und Systemen. In der Bestimmung und Operationalisierung einzelner Prinzipien ergibt sich damit eine normative Nähe zum demokratischen Wertekanon oder der allgemeinen Erklärung der Menschenrechte. Als interdisziplinäre Reflexionspraxis zeichnet sich die Perspektive der Sozialethik besonders aber auch durch den Versuch aus, ethische Konflikte, Spannungen und Dilemmata zu identifizieren, in ihren komplexen Lebensweltbezügen zu erfassen und so mögliche Handlungsoptionen problemsensibel einzuordnen.[3] Unter der Prämisse der Gestaltbarkeit der Welt erschöpft sie sich entsprechend weder in einer Hermeneutik des Verdachts noch in einer Moralisierung soziopolitischer Praxis, sondern setzt sich im Rahmen ihrer methodischen Möglichkeiten für die Sichtbarmachung der moralischen Interessen ungehörter und marginalisierter Stimmen ein.[4] Um in einzelnen gesellschaftlichen Bereichen konkrete Machtmuster und Subjektivierungsformen in den Blick zu bekommen, erfordert verantwortete Zeitgenossinnenschaft im Sinne der Sozialethik zum einen, „geschichtlich zu denken“[5] und sich zum anderen von den Sorgen und Hoffnungen der Menschen betreffen zu lassen.
Technik als Gegenstand sozialethischer Reflexion
Im Gegenlicht der systematischen Auseinandersetzung mit den sozialen und strukturellen Voraussetzungen einer menschenwürdigen, gerechten und solidarischen Organisation moderner Gesellschaften müssen in diesem Zusammenhang notwendig auch die Entwicklung, der Einsatz und die Wirkung digitaler Technologien in den Blick kommen.[6]
Dieser Blick wurzelt dabei in einem rekursiven Verständnis von Menschen und Technik. So argumentiert die Anthropologin Lucy Suchmann in Übereinstimmung mit zeitgenössischen philosophischen Handlungstheorien dafür, dass menschliches Handeln immer sozial situiert ist, d.h. aus dynamischen Interaktionen mit der sozialen und damit auch der materiellen bzw. technischen Welt (re)konstruiert werden muss:[7] Limitierende Faktoren, sozialpolitische Krisen und existentielle Herausforderungen katalysieren die Entwicklungen von lösungsorientierten Technologien, deren Verfügbarkeit wiederum bedingt konkrete Handlungsmöglichkeiten und Prozessabläufe, beeinflusst menschliches Selbst- und Weltverstehen und formuliert nicht zuletzt (neue) Erwartungen und Bedarfe an Technik.[8] Vom Feuer angefangen lässt sich eine solche Dynamisierung grundsätzlich für viele Kulturtechniken nachzeichnen. Entsprechend ist Technik nie neutral und lässt sich nur sinnvoll im Blick auf ihre Verwobenheit mit sozialen Normen, politischen Strukturen und wirtschaftlichen Interessen sinnvoll besprechen.[9]
Vor dem Hintergrund dieser komplexen Wechselwirkungen ist aus ethischer Perspektive dabei immer zu fragen, wie sich dabei die Bedingungen menschlicher Selbstbestimmung bzw. Handlungssouveränität verändern oder, welchen Einfluss die Nutzung und Verbreitung solcher Techniken bzw. Technologien auch für demokratische Steuerungs- und Legitimationspraktiken haben.
…und ‚Künstliche Intelligenz’? Ein Votum für die Thematisierung konkreter Freiheitsgefährdung
Spätestens mit der Veröffentlichung der KI-basierten Webanwendung ChatGPT durch das US- Unternehmen OpenAI Ende 2022 oder der scheinbar erfolgreichen Implantierung eines Brain-Computer-Interface Anfang 2024 werden dabei zudem Fragen zur Zuschreibung von Verantwortung im Sinne der Handlungsautorschaft laut und haben die öffentliche Diskussion über Künstliche Intelligenz, ihre Potentiale und ihre Risiken neu entfacht:
Was passiert, wenn KI sich verselbstständigt und nicht mehr zu kontrollieren ist? Wie verändern sich durch sie die Wahrnehmung und Beurteilung von menschlicher Leistung? Was geschieht, wenn sie ein Bewusstsein entwickelt? Wer ist verantwortlich für negative Auswirkungen und mögliche Schäden?
Diese Fragen sind keinesfalls trivial oder zeugen von Fortschrittsskepsis. Bedenken gegenüber einem unkontrollierten Wettlauf um immer leistungsfähigere Technologien haben jüngst auch KI-Expertinnen weltweit formuliert und in einem offenen Brief die vorläufige Unterbrechung der KI-Entwicklung gefordert. Die Sorge über ein baldiges Eintreten der ‚technologischen Singularität’ – eines irreversiblen Punktes in der Geschichte, ab dem die KI und mit ihr gekoppelte Systeme durch Menschen nicht mehr zu kontrollieren sind – teilen sie dabei nicht nur mit den Autorinnen und Zuschauern zahlreicher SciFi-Serien und Filme.[10] Die Frage danach, ob, wann, wie schnell und mit welchen Folgen technische Selbstoptimierung an den Punkt der Selbstermächtigung kommt, wird ebenso im Kontext der sozialwissenschaftlichen Technikfolgeabschätzungen kontrovers diskutiert und hat zahlreiche internationale Zentren und Komitees zur Erforschung der Chancen und Risiken KI-gestützter Technologien ins Leben gerufen.[11]
Die ethischen Anschlussfragen nach der supportiven oder kompromittierenden Wirkung digitaler Technologien auf menschliche Selbstbestimmung bzw. Handlungsmacht (Agency) im Allgemeinen und KI-Technologien im Besonderen sind also schon lange nicht mehr alleine Gegenstand fachwissenschaftlicher Diskurse. Die rege Beteiligung an Veranstaltungen, Thementagen oder Bürgerforen unterstreicht dabei den Stellenwert dieser Fragen. Die grundsätzlich wünschenswerte emotionale Betroffenheit erschwert allerdings mitunter eine realistische, d.h. funktionsorientierte Einordnung.
Für die kritisch-konstruktive Auseinandersetzung mit KI gilt es aus (sozial)ethischer Perspektive deshalb einerseits polarisierenden oder vereinseitigenden Extrempositionen gegenüber skeptisch zu sein ohne dabei andererseits die in diesen Positionen gelösten menschliche Hoffnungen und Sorgen zu ignorieren. Entsprechend sei in einem ersten Reflexionsgang zunächst skizziert, was Künstliche Intelligenz eigentlich ist und, was sie kann – bzw.: was sie nicht ist und nicht kann (I). Auf dieser Basis sollen in einem zweiten Reflexionsgang sowohl Potentiale, besonders aber Risiken skizziert werden (II). Selbst wenn die (trans- und posthumanistischen) Szenarien bewusstseinsfähiger Roboter und biotechnologisch optimierter Menschen im Sinne einer antizipativen Risikoeinschätzung durchaus Teil der (maschinen)ethischen Diskussion sein sollten, möchte ich in diesem Beitrag insgesamt dazu ermutigen, den ethischen Blick nicht auf diese Szenarien zu fixieren, sondern auf die an realen Freiheitsgefährdungen ansetzenden Handlungsnotwendigkeiten zu fokussieren. Diese Gefährdungen stellen sich – so meine These – weniger als Problem der KI, denn als Problem der Menschen dar. Erkenntnisleitend für die Frage nach Interventionsmöglichkeiten und Regulierungen ist damit die Überzeugung, dass die verantwortungsvolle und machtkritische Gestaltung des Designs und Einsatzes von KI-Technologien mit den Worten der Arbeitswissenschaftlerin Sabine Köszegi „ausschließlich eine Frage unserer Werte und keine Frage der technischen Machbarkeit“[12] ist. In einem Ausblick soll schließlich auch in Rekurs auf bereits bestehende Regelwerke und Gesetzesentwürfe überlegt werden, wie Entwicklung und Einsatz von KI und digitaler Technik ethisch differenziert und rechtlich wirksam begleitet werden können (III).
Über was reden wir, wenn wir von ‚Künstlicher Intelligenz‘ sprechen?
Seit dem Jahrtausendwechsel hat die KI-Entwicklung eine markante Dynamisierung erfahren. Treibende Faktoren waren dabei u.a. die Leistungssteigerung von Computern, eine zunehmende Vernetzung digitaler Systeme sowie die damit verbundenen Möglichkeiten über hochleistungsfähige Hard- und Software große Datenmengen aufnehmen und verarbeiten zu können. Die Verarbeitung folgt dabei Algorithmen, d.h. Anweisungen und Rechenoperationen, durch die Daten nach klar definierten Regeln umgeformt und für weitere Arbeitsschritte informationell zur Verfügung gestellt werden. Die Philosophin und Publizistin Manuela Lenzen vergleicht Algorithmen mit einem Backrezept, das nicht nur die einzelnen Zutaten und Schritte erläutert, sondern zudem auf einer Metaebene programmiert, wie aus Zutaten generell Kuchen gemacht werden können.[13] Gleichwohl braucht es Training, um den Punkt zu bestimmen, ab dem aus einem Kuchen eine Quiche, eine Torte oder ein Brot wird. Die damit entstehenden mehrgliedrigen Systeme und die in ihnen verwendeten algorithmischen Verfahren der Datenakkumulation und Klassifizierung werden vielfach unter dem Stichwort des maschinellen Lernens bzw. des Deep-Learning zusammengefasst.
Künstliche oder artifizielle Intelligenz ist also zunächst nichts anderes als ein Sammelbegriff, für solche auf Algorithmen basierenden, interaktiven Netzwerke aus Hard- und Software-Anwendungen.[14] Durch gezieltes Training des Mustersuchens und Modellbildens werden wiederum Algorithmen stetig optimiert und können so mit immer höherer Geschwindigkeit und Präzision die mit ihnen verbundenen Netzwerke und Module anweisen oder korrigieren. Diese Form der netzwerkvermittelten, softwaregestützten, automatisierten Datenerhebung und besonders deren zielorientierte Verarbeitung vermitteln dabei den Eindruck von Intelligenz. Weil dabei immer komplexere Umgebungen und Prozesse analysier- und steuerbar werden, gehen KI-Anwendung über bisherige Formen der rein maschinellen Informationsverarbeitung hinaus. Durch die digitale Vernetzung mit anderen technischen, datenerhebenden Systemen erfolgt trotz einer Informationszunahme mittelfristig zudem eine Komplexitätsreduktion, durch die wiederum die Verlässlichkeit und Effizienz technischer Anwendungen maßgeblich gesteigert werden kann.[15] Der Blick auf Sprachassistenten, Suchmaschinen, Navigationssysteme oder personalisierte Smart-Tech-Anwendungen zeigt dabei insgesamt, dass solche KI-basierten Systeme und mit ihnen verknüpfte (End-)Geräte bereits selbstverständliche Bestandteile des spätmodernen Lebens- und Arbeitsalltags sind.
Schwache KI, starke KI, ChatGPT – optimierte menschliche Intelligenz?
Es handelt sich bei den skizzierten Einsatzmöglichkeiten dabei um Formen schwacher KI. Solche Formen also, die als kognitive und lernende Systeme gelten, insofern sie aus erhobenen Daten mittels Algorithmen Klassifizierungen, Priorisierungen und Selektionen durchführen, d.h. situative Komponenten in einem sehr umgangssprachlich verstandenen Sinne „beurteilen“ können. Gleichsam sind diese Anwendung Problembezogen, d.h. funktionieren nur in einem vorprogrammierten, festgelegten Rahmen.
Bei starker KI wiederum wird die Technik so trainiert, dass sie menschliche oder tierische Fähigkeiten, deren Intelligenz, nachahmen und optimieren soll. Starke KI verfügt dabei zudem über Mechanismen der Selbstoptimierung und kommt nicht nur mit dem Ziel zum Einsatz, für den Menschen redundante oder auch gefährliche Arbeiten zu übernehmen, sondern ebenso die defizitären oder fehlerhaften kognitiven Leistungen des Menschen aus Prozessen und Abläufen herauszunehmen. Am Beispiel der KI-basierten Anwendung ChatGPT lässt sich zudem unter dem Label der generativen KI ein weiterer Entwicklungsschritt anzeigen. Wenn man den Chatbot fragt, wie er funktioniert, erhält man in ungefähr vier Sekunden folgende Antwort:
„ChatGPT basiert auf einem Modell namens GPT (Generative Pre-trained Transformer), das mit Hilfe von künstlicher Intelligenz entwickelt wurde. Es wurde darauf trainiert, menschenähnliche Texte zu generieren, indem es große Mengen an Textdaten analysiert und Muster erkennt. Wenn du eine Frage stellst, versucht ChatGPT, basierend auf seinem Training und den verfügbaren Informationen, eine passende Antwort zu generieren. Es ist jedoch wichtig zu beachten, dass ChatGPT nicht immer perfekt ist und manchmal falsche oder ungenaue Informationen liefern kann.“[16]
Auch generative KI funktioniert der Sache nach folglich mittels algorithmisierter Mustererkennung in großen Datensätzen, einer Reihe von einzelnen trial-error-Trainingsschritten der Modellbildung und Wahrscheinlichkeitsrechnungen, sowie der offen bzw. rekursiven Anlage dieser Abläufe.[17] Besonders bemerkenswert ist dabei die daran anschließende Ausgabe von Datensätzen, die als Texte, Bilder oder Musikkompositionen zum Teil eine verblüffende Überschneidung mit menschengemachten Artefakten haben oder diese sogar in einzelnen Aspekten, wie z.B. hinsichtlich ihrer Zeitersparnis oder Logik, übertreffen können.
KI-Systeme, Datenpapageien und verleiblichte Vernunft
Selbst, wenn mit ChatGPT bzw. der Entwicklung generativer KI-Systeme tatsächlich also ein bemerkenswerter Entwicklungsschritt gelungen ist und es sicher nicht angemessen wäre, sie lediglich als Datenpapagei zu beschreiben, ist ebenfalls festzuhalten: Bei den gegenwärtigen Formen der KI – selbst wenn es gelingt sie in Robotersysteme zu integrieren – handelt es sich, so formuliert es der Neurowissenschaftler Raul Muresan, doch lediglich um „ausgefeilte Techniken der Mustererkennung“[18] und Informations-Kompilierung. Technikentwicklerinnen und IT-Expertinnen halten also zurecht fest, dass eine starke KI, so wie sie in den Schreckensszenarien guter SciFi-Dystopien antizipiert wird nicht existiert.
Selbst generative KI-Modelle sind weiterhin nicht mit der allgemeinen Intelligenz (common intelligence) des Menschen bzw. höher entwickelter Lebewesen vergleichbar. Auch wenn sich im Blick auf die Mechanismen des konsistenten Regelfolgens, des logischen Schlussfolgerns oder einer sinnvollen Verknüpfung gespeicherter bzw. memorierter Informationen durchaus Parallelen zwischen den Fähigkeiten der theoretischen Vernunft und der Arbeitsweise von KI-Systemen nahelegen, zeigen sich doch gravierende Unterschiede hinsichtlich der für autonome Urteilsfähigkeit unerlässlichen Fähigkeiten des Sinnverstehens, der Intentionalität oder der Fähigkeit nicht-arithmetischer Abwägungen von Gütern und Wertigkeiten. Darüber hinaus, so argumentieren exemplarisch Thomas Fuchs oder Catrin Misselhorn, ist Vernunft immer schon leiblich eingebunden. Menschliche Urteilsfindung ist damit – besonders im Rahmen praktischer Vernunft – ein komplexer Prozess aus leiblich situierten Erfahrungen, Reflexion, Deutungen, Emotionen und Beziehungen.[19] Aus rationalitäts- und handlungstheoretischer Perspektive sind Intelligenz, aber ebenso Intentionalität und damit verantwortete Akteurschaft vielschichtige Konzepte. Jenseits begründeter Einzelurteile oder statistischer Risiko-Scorings ist menschliche Urteilsfindung zudem um kohärente und resiliente Orientierungen bemüht, die über einen möglichst langen Zeitraum ein ausgewogenes Verhältnis zwischen Selbst und Welt erlauben und so die Bedingungen eines gelingenden, selbstbestimmten Lebens zu stabilisieren suchen.[20]
…wer ist verantwortlich, wenn nicht die ‚Künstliche Intelligenz’?
Vor diesem Hintergrund ist die Verwendung der Begriffe ‚Intelligenz’, aber auch ‚Autonomie’ im Zusammenhang mit Technik und Robotik irreführend und aus philosophischer Perspektive letztlich nicht adäquat.[21] Entsprechend ist auch die Grundbedingung einer Zuschreibung von Akteurschaft und Verantwortung nicht gegeben. Selbst in komplexen digitalen Mensch-Maschine-Systemen, in denen eine Verantwortungsdiffusion erfolgt, lässt sich mit dem Philosophen Luciano Floridi festhalten, dass KI-Systeme zwar moralisch bedeutsame Resultate produzieren oder initiieren können, in diesem Sinne also moralische Handlungsfähigkeit (moral agency) bzw. Zurechenbarkeit besitzen. Ohne Intentionalität lässt sich jedoch keine moralische Verantwortlichkeit (moral responsiblity) zuweisen.[22] Auch der Deutsche Ethikrat resümiert in seiner Stellungnahme zu KI-Systemen und der Frage nach (juristischer) Verantwortungsübernahme entsprechend:
„Verantwortung muss daher anders geregelt werden, zum Beispiel durch Zuschreibung von Verantwortung an relevante Institutionen bzw. Organisationen. Dies können beispielsweise die Betreiber dieser Systeme sein, da sie aufgrund ihrer intentionalen Entscheidung zu deren Einsatz einschließlich der diffusen Verteilung von agency zugestimmt haben“[23].
Donna Haraway hat in ihrem berühmten Cyborg manifesto bereits 1985 in diesem Zusammenhang festgehalten, dass die Übergänge zwischen Mensch und Maschine, zwischen Technik und Natur zwar immer fließender werden (sollten). KI-Systeme und selbst humanoide Robotik können aber bis auf weiteres „den Traum des Menschen nicht erfüllen, nur nachäffen“[24]. Von ChatGPT generierte Bilder, Gedichte oder Abhandlungen bleiben damit eine Kopie menschlicher Fähigkeiten – wenn vielleicht auch eine beeindruckende. Erst wenn kognitive Systeme ohne menschliche Programmierung „von der Welt zu träumen“[25] begännen, könnten Maschinen eine vom Menschen losgelöste und damit tatsächlich unkontrollierbare Agency entwickeln. Dann wären sie allerdings – selbst wenn dies nur ein schwacher Trost sein mag – für ihren Output auch verantwortlich zu machen.
Alles also nur halb so schlimm? Alles schlimm genug!
Diese kursorischen Hinweise sind ausreichend, um zwei Dinge klar zu stellen: Zum einen ist deutlich geworden, dass es im Gegenlicht des skizzierten auf einem komplexen Intelligenzbegriff fußenden, ethisch gehaltvollen Autonomieverständnisses weder möglich ist KI-Systemen als intelligent zu bezeichnen, noch ihnen Verantwortungen zuzusprechen. Neben der Knüpfung stabiler digitaler Netzwerke und leistungsstarker Prozessoren hat sich zum anderen besonders die algorithmenkoordinierte Datenauswertung als ein zentraler technikimmanenter Faktor für die optimale Arbeits- und Funktionsfähigkeit aller bisherigen KI-Formen herausgestellt.
Auch, wenn es folglich irreführend ist von ‚Künstlicher Intelligenz’ zu sprechen und sich im Blick auf die skizzierten Funktions- und Arbeitsweisen alternative Formulierungen wie ‚datenbasierte autoregulative Systeme’ anbieten, markieren die algorithmischen Strategien, die neuronale Netzwerke zur Bewältigung programmierter Aufgaben entwickeln, doch eine Herausforderung für einen souveränen Umgang mit KI-Systemen. So sind die Mechanismen der Autoregulation so komplex, schnell und automatisiert, dass der Nachvollzug dieser Abläufe menschlichen Programmiererinnen und IT-Entwicklerinnen alleine wegen der Datenmengen aber auch der Geschwindigkeit der KI-Systeme nur eingeschränkt – bzw. unter Rückgriff weiterer KI-basierter Anwendungen – möglich ist. Nimmt man zudem ernst, dass die Entwicklung und auch Nutzung von KI-Systemen immer schon sozioökonomisch imprägniert, d.h. Teil eines komplexen Netzwerks aus technikspezifischen Funktionsnotwendigkeiten, industriellen Nutzungsinteressen und individuellen Nutzungsgewohnheiten ist, lässt sich dafür argumentieren, dass der gefürchtete Kontrollverlust nicht erst in dem Moment eintritt, in dem Maschinen tatsächlich ein Bewusstsein und damit eine selbstbestimmte Handlungsmacht entwickeln. Vielmehr will ich in Rekurs auf die ethische Suche nach kompromittierter Selbstbestimmung im folgenden Abschnitt plausibel zu machen versuchen, dass dieser Kontrollverlust bereits da ist – sich durch die vielschichtigen Wechselwirkungen in den Akteur-Netzwerken und die zunehmende Kompetenzmonopolisierung jedoch trotz existierender Regulationen nur schwer erkennen und bearbeiten lässt.
Verantwortungsvolle Nutzung und konsequentes Gefahrenmanagement
Sowohl auf Ebene der Technikentwicklung bzw. des Designs als auch der Nutzung kann jedoch die herausgeforderte menschliche Souveränität exemplarisch verdeutlicht werden. Ich möchte damit in Erinnerung an die Untersuchungen des Soziologen Helmut Willke weder behaupten, dass spätmoderne Freiheit – sowohl personale als auch demokratische – nicht auch durch andere Mechanismen eine zutiefst herausgeforderte ist. Noch will ich mit der kritischen Einordnung einem pauschalen Technikpessimismus oder -determinismus das Wort reden. Im Gegenteil: die durch KI-integrierte Systeme ermöglichte Qualität und Quantität in der aussagekräftigen, präzisen Datenauswertung hält enormes Potential für Medizin, Mobilität oder Industrie bereit.[26] In diesem Zusammenhang und in Antizipation zukünftiger Einsetzszenarien betont nicht zuletzt auch das Europäische Parlament, dassKI-basierte Technik grundsätzlich einen entscheidenden Beitrag zu einer nachhaltigen, gerechten Transformation der Gesellschaft leisten kann.[27] Um jedoch an diesen Punkt kommen und die Versprechen verbesserter Technologien einlösen zu können, ist es im Sinne ethischer Abwägungen notwendig, auch deren Gefahren zu erkennen und möglichst umfassend zu bearbeiten. Nur unter dieser Prämisse ließe sich von einem verantwortungsvollen Einsatz der KI-Technologien sprechen, der nicht abermals – wie so oft in der Geschichte zuvor – dazu beiträgt Machstrukturen zu zementieren und soziale Ungleichheiten weiter zu verstärken.
Schlaglichter der sozialethischen Kritik
I. Selbstbestimmung zwischen Clickwork und algorithmischer Diskriminierung
Auf Ebene der Technikentwicklung- und -performanz, d.h. im Blick auf die skizzierten technischen Funktionsbedingungen von KI-Systemen lassen sich unter den Stichworten des ‚Clickwork‘ und der ‚Daten- bzw. Algorithmen-Diskriminierung‘ zwei erste ethische Problemzonen identifizieren:
Um KI-Systeme bzw. konkrete Algorithmen arbeitsfähig zu machen, ist es, wie skizziert, notwendig, sie zu trainieren. Diese Trainings sind mindestens in den ersten Arbeitsphasen durch ein Data Labeling gekennzeichnet, um in Rohdaten nach statistisch auffälligen Mustern zu suchen und sie mit Prädikaten zu versehen, die dann wiederum die Basis für komplexere algorithmische Anweisungen bilden. Besonders, wenn festgelegte Einzelmerkmale in Kombination mit unbekannten Variablen auftreten, wird die Erkennung durch KI-Systeme jedoch unpräzise. Die Qualität der Merkmalszuweisung erhöht sich umgekehrt maßgeblich, nehmen Menschen zumindest in einer Trainingsphase Differenzierungen innerhalb komplexer Datensätzen vor. In einem der ersten, durch ein selbstfahrendes Auto verursachten, tödlichen Unfälle, ist dieser Umstand auf tragische Weise deutlich geworden: So hatte der Algorithmus zwar gelernt Menschen oder Fahrräder zu identifizieren und die Route des Fahrzeugs entsprechend anzupassen, die Kombination von Mensch und Fahrrad ‚erkannte‘ er mit tragischen Folgen jedoch nicht. Auch um dem in der Selbstreferentialität lernender Algorithmen immanenten Problem eines Model Autography Disorder vorzubeugen, d.h. einem zunehmend surrealen und kryptischen Output der damit arbeitenden KI-Systeme entgegenzuwirken, sind menschlich begleitete Trainingsphasen, die sogenannte Klickarbeit oder Clickwork, notwendig. [28]
Zur Design- und Produktionsbedingten Verstetigung von Ausbeutungsachsen
Insofern es sich dabei gleichwohl um Arbeitsvorgänge handelt, die wenig bis keine Spezialisierung brauchen und deshalb oft über Freelance-Plattformen angeboten werden oder Teil von kostenreduzierenden Outsourcing-Prozessen sind, werden sie in der Regel gering bezahlt und erfolgen meistens ohne arbeitsrechtliche Absicherungen der Arbeitnehmenden.[29] Dieser Umstand ist auch deshalb problematisch, weil Klickarbeiterinnen im Rahmen ihrer Tätigkeiten Datensätze vorfiltern und von ungewünschten Inhalten bereinigen sollen, d.h. oft unmittelbar (Bild-)Materialien ausgesetzt sind, die extreme Gewalt gegen Menschen, Grausamkeit gegen Tiere oder pornografische Inhalte zeigen. Solche prekären Arbeitsverhältnisse lassen sich ebenso im Blick auf die Materialgewinnung identifizieren, insofern mit der zunehmenden Nachfrage an digitalen Technologien in Industrie und Wirtschaft aber auch den Endgeräten im privaten Bereich ebenso der Bedarf an seltenen Mineralien gestiegen ist. Deren Abbau birgt jedoch sowohl für Menschen als auch lokale Ökosysteme gravierende Risiken.[30] Gerade weil Materialgewinnung und Clickwork überwiegend in Ländern des globalen Südens durchgeführt werden, verstetigen sich schließlich auch im Kontext der KI-Technologieentwicklung und -herstellung bereits bestehende weltweite Externalisierungs- und Ausbeutungsachsen. Der KI-Ethiker Rainer Mühlhoff hält entsprechend fest:
„Today, the scarce resource on which the success of a DL [deep learning A.W.] project depends is neither algorithms nor computing power but rather the availability of training and verification data, which is ultimately obtained through human participation. The importance of this resource led to the emergence of new forms of exploitation and implicit labor in the digital that build on existing socio-economic divides.”[31]
Diese analogen, systematischen Ausbeutungsstrukturen und die damit angezeigte Reproduktion sozioökonomischer Machthierarchien erweisen sich dabei nicht als einzige ethisch problematische Dimensionen im Bereich der KI-Technikentwicklung und -herstellung: Zahlreiche Studien der letzten Jahre haben immer wieder darauf verwiesen, dass die algorithmische Sortierung von Datensätzen präjudizierend wirken kann, weil Trainingsdatensätze bereits Kennzeichnungen von Kategorien für die Zuordnung von Personen enthalten.
Algorithmenbasierte Diskriminierung
Die Programmierung von Differenzierungsentscheidungen im Bereich des maschinellen Lernens und der prädikativen Analytik nimmt notwendig Informations-Clustering und -Kategorisierung vor. Dabei werden geschützte Merkmale durch vermeintlich ‚neutrale‘ Variablen substituiert oder korreliert, wie z.B. ‚Wohnort‘ und ‚Ethnie‘. Auf diesen Daten und statistischen Vorhersagemodellen basierende Prognosesysteme neigen gleichsam intrinsisch zu induktiven Fehlschlüssen und Informationsverzerrung. Insofern Menschen die Prädikation und Kategorisierung programmieren bzw. trainieren, werden auch deren Wertungen, Stereotype oder Vorurteile verarbeitet und in den jeweiligen Algorithmen verallgemeinert. Somit produzieren Algorithmen mit Vorurteilen behaftete Ergebnisse.
Die von der Anti-Diskriminierungsstelle des Bundes 2019 beim Institut für Technikfolgenabschätzung in Auftrag gegebene Studie zu den mit KI einhergehenden Diskriminierungsrisiken führt zahlreiche Beispielfälle von solcher algorithmenbasierten Ungleichbehandlung in unterschiedlichen Sektoren und Bereichen auf – vom Arbeitsleben, über den Immobilienmarkt, die Kreditwirtschaft, Polizei- und Bildungswesen, Strafvollzug, Medizin oder Verkehr.[32] KI-Systeme übernehmen jedoch nicht alleine die stereotypen kulturellen Vorstellungen der Trainingsdatensätze. Ilona Horwath betont, dass darüber hinaus ebenso kulturelle, gesellschaftliche und politische Werte und wirtschaftliche Interessen von Unternehmen oder Nutzerinnen in Algorithmen und damit KI-Operationen einfließen.[33]
Die automatisierte Illusion von Objektivität
Auf diese Weise verstetigen und unterstützt der Einsatz von KI-Systemen – ob beim Prüfen von Lebensläufen, der Einschätzung von Kreditwürdigkeit, der Bestimmung krimineller Energien oder auch bloß der Kompilierung von Texten – nicht nur stereotype Urteilsbildung. Durch die häufig unterstellte Neutralität und Rationalität der Technik bzw. der Daten werden diese implicit bias zudem unsichtbar gemacht. Alexander Campolo und Kate Crawford halten entsprechend fest, dass ein solcher unkritischer Technikoptimismus bestehende Ungleichheiten und Diskriminierungsmuster perpetuiert und „shields the creators of these systems from accountability while its deterministic, calculative power intensifies social processes of classification and control.“[34]
Vor dem Hintergrund ihrer Studie zu den rassistischen Vorurteilen von Suchmaschinen unterstreicht auch die Medienwissenschaftlerin Safiya Umoja Noble, dass diese Formen der Diskriminierung durchsetzt sind von sozioökonomischen Machtkonstellation, die letztlich den imperialen Habitus der OECD-Staaten auch in die Tech-Branchen übersetzen und normalisieren.[35] Insofern diese Prozesse opak sind und automatisiert ablaufen erzeugen sie eine „Illusion der Objektivität“[36]. Betroffene haben so nicht einmal die Möglichkeit, Ungleichbehandlung anzuzeigen oder das verfassungsrechtlich zugesicherte Recht auf Chancengleichheit einzufordern. Solche philosophisch als Silencing gekennzeichneten Dynamiken gefährden dann nicht nur die freie Persönlichkeitsentfaltung und das Recht auf informationelle Selbstbestimmung, sondern perpetuieren als „enchanted determinism“[37] die Prekarisierung von Personen und Personengruppen entlang analog wirksamer, sozioökonomischer Ungleichheitsdynamiken.[38]
II. Demokratie zwischen Deepfake und Tech-Konzernen
Auf Ebene der Nutzung von KI-Systemen lassen sich darüber hinaus unter Stichworten wie ‚Desinformation‘, ‚Deepfake‘ aber auch ‚Machtakkumulation‘ und ‚Kompetenz-Monopolisierung‘ weitere Risiken identifizieren – sowohl für die personale Freiheit als auch demokratische Vergesellschaftungsprozesse:
Die digitalen Informations- und Kommunikations-Technologien (IKT) haben mit den Worten Jürgen Habermas‘ einen neuerlichen Strukturwandel der Öffentlichkeit eingeleitet.[39] Die Infrastrukturen der Partizipation im digitalen Raum sind dabei technischer und ökonomischer Art, d.h. setzen zwar einerseits ein Mindestmaß an Know How und Materialzugang voraus. Andererseits entgrenzen sie den öffentlichen Diskurs durch niedrige Partizipationshürden und machen Nutzende zu (vernetzten) Autorinnen. Entlang der digitalen Vernetzungsmöglichkeiten entstehen somit neue Freiheitsräume, so wie u.a. der Soziologe Helmute Wilke festhält.[40] Ähnlich wie auch der Berliner Philosoph Byung Chul Han problematisiert er jedoch, dass die Komplexität und Quantität der Informationen von Einzelpersonen kaum noch sinnvoll zu verarbeiten ist und deshalb überwältigt.[41]
Der Abgrund des Nichtwissens
Gerade wenn an die Stelle anspruchsvoller diskursiver Meinungsbildung und Entscheidungsfindung eine „zu Gefallens- und Missfallensklicks abgerüstete (…) Öffentlichkeit“[42] tritt, unterwandert diese Plattformisierung der Öffentlichkeit das Potential komprehensiver, d.h. an Verständigung orientierter Vernunft und deren emanzipatorisch-egalisierenden Effekte bei der sozialen Integration und Reproduktion.[43] Oft klafft neben den Chancen, durch die digitalen IKTs selbstständig Wissen ansammeln zu können, angesichts der Informationsquantität immer deutlicher ein „Abgrund des Nichtwissens“[44]. Mit der Komplexität und Quantität an Informationen einher geht jedoch nicht nur eine information fatigue, d.h. ein Erschöpfungszustand, in dem Einzelpersonen die Relevanz von Informationen kaum noch kognitiv erfassen und einordnen können. Zugleich wird das redaktionelle bzw. journalistische „Gate-Keeping“ in vielen Apps und Newsfeeds zunehmend von Algorithmen übernommen.[45] Im Gegenlicht der bereits problematisierten stereotypen Informationsverzerrung aber auch der intentionalen algorithmenbasierten Informationsselektion gerinnt die Meinungsbildung so potentiell zu einem passiven Akt. Die Ethikerin Katharina Klöcker spricht vor diesem Hintergrund von einer „Algorithmisierung menschlicher Entscheidungen“[46] im Bereich der politischen Öffentlichkeit.
Digitale Echokammern und öffentliche Meinungsbildung
Die Herausforderung für demokratische Urteils- und Entscheidungsprozesse besteht dabei zum einen in einem durch persönliche Präferenzen und algorithmische Feedback-Loops entstehenden informationellen Lock-In. So wird der perspektivenplurale Diskurs als Erkenntnisort eindampft und durch selbstreferentielle Echokammern ersetzt. Durch „die Abwehr dissonanter und die assimilierende Einbeziehung konsonanter Stimmen in den eigenen, identitätswahrend begrenzten Horizont des vermeintlichen, doch professionell ungefilterten »Wissens«“[47] verliert die digital entgrenzte Öffentlichkeit nicht nur an Inklusivität, sondern immunisiert zudem die jeweiligen Weltdeutungsperspektiven trotz erhöhter Partizipationsmöglichkeiten: „Aus einer durch die gegenseitige Bestätigung ihrer Urteile befestigten Sicht geraten die über den jeweils eigenen Horizont hinausreichenden Universalitätsansprüche grundsätzlich in den Verdacht der Hypokrisie.“ Aus erkenntnistheoretischer Perspektive verliert die alternierende Wirklichkeitsdeutung ihre Funktion als Mitarbeiterin in der gemeinsamen Suche nach epistemisch verlässlichen und ethisch verantwortbaren Urteils- und Handlungsgrundlagen und wird potentiell zur Bedrohung der eigenen Identität.[48]
Deepfakes und postfaktische Politik
Besonders im Blick auf politische Wahlen hat sich in den letzten Jahren und spätestens seit dem Krieg in der Ukraine zum anderen gezeigt, dass die öffentliche und politische Meinungsbildung mit Hilfe relativ einfacher KI-basierter Bots unbemerkt manipuliert werden kann. Solche aktiven Manipulationen, die weit über Nudging oder Emotionalisierung hinaus gehen und von einer argumentativ abgerüsteten digitalen Öffentlichkeit profitieren, werden für strategische Desinformationskampagnen und Propaganda eingesetzt. Durch KI-Technik weiter perfektionierte und sekundenschnell verbreitete Deepfakes – ob in Schrift, Ton oder Bild – nehmen so unmittelbaren Einfluss auf die Wahrnehmung von geopolitischen Ereignissen. Die Diskussion um Urheberrechte oder gefälschte Studienleistungen markiert damit also lediglich die Spitze des Eisberges der KI-basierten Möglichkeiten interessengeleiteter, gezielter Platzierung von (Des-)Informationen. In dem Moment, in dem nicht mehr klar ersichtlich ist, wer aus welchen Motiven welche Informationsinterpretation vornimmt und es kaum wirksame (technische) Kontroll- und Überprüfungsverfahren gibt, bergen selbst Formen schwacher KI also massive Risiken für freiheitliche Meinungsbildung und demokratische Entscheidungsfindung.
Monopolisierung und politische Macht
Die Herausforderungen algorithmenbasierter und damit gesteuerter und manipulierter Wahrnehmung endet dabei natürlich nicht in Fehleinschätzungen gesellschaftspolitischer Ereignisse oder der Austrocknung perspektivenpluraler Diskurse durch ein Stranden in Filterblasen und Echokammern. Ebenso bergen die mit dem Wert von Daten korrelierten Kapitalakkumulationen potentielle Herausforderungen für demokratische Steuerungsprozesse. Wie auch in anderen Branchen begünstigen diese die Bündelung technologischer und kreativer Kompetenz und führen zu Monopolbildung. Damit erschweren sie weniger ressourcenstarken Unternehmen einen dauerhaften Marktzugang – entweder indem sie deren Ideen und Kompetenzen aufkaufen oder sie durch die Übermacht ihrer Marktvorteile wettbewerbsunfähig machen. Zugleich erhöhen technikinnovationsbezogene Feedbackeffekte sowie direkte und indirekte Netzwerkeffekte die Nutzungsattraktivität bereits etablierter Anwendungen und stärken die im Hintergrund stehenden Unternehmen und Konzerne. Die größtenteils unregulierte datenbasierte Kapitalakkumulation und die damit einhergehenden Marktvorteile einzelner großer, weltweit agierender Tech-Firmen beschreiben für die Wirtschaftswissenschaftlerin Shoshana Zuboff nicht nur die zentralen Zutaten eines Überwachungskapitalismus.[49] Politisch besonders sensibel ist im Blick auf die skizzierten Nutzungsmöglichkeiten zudem, „dass einige Unternehmen der digitalen Wirtschaft durch die Art Ihres Geschäftsmodells unmittelbar auf die politische Willensbildung Einfluss nehmen können.“[50] Jenseits der Nachteile, die global umsatzstarke Unternehmen für den wirtschaftlichen Wettbewerb und damit mittelfristig resiliente Unternehmensstrukturen haben, ist die Form der Monopolbildung, die sich entlang der bekannten IT- und Tech-Unternehmen sowie ihrer Kapitalinteressen und Angebote entwickelt hat, also deshalb so problematisch, weil ihre digitalen Infrastrukturen weltweit Kommunikations-, Vergesellschaftungs- und Wirtschaftsformen präjudizieren und alternativlos erscheinen lassen.[51] Auf dieser Basis können marktmächtige Unternehmen auch politischen und gesellschaftlichen Einfluss gewinnen. Im schlimmsten Fall, so zeigt es das stetige Ringen der europäischen Union und ihrer Datenschutzbestimmungen mit den wirtschaftlichen Interessen der US-amerikanischen Tech-Konzerne, erlischt die Souveränität demokratisch legitimierter Politik und ihrer Steuerungsmechanismen an der Marktmacht einzelner Unternehmen.[52] Dies gilt besonders für international tätige Konzerne, wenn und insofern diese verschiedene Standorte gegeneinander ausspielen können.[53] Auch auf Ebene der Techniknutzung zeigt sich abermals, dass sich die Verzahnung technikimmanenter Nutzungsbedingungen, konkreter sozioökonomischer bzw. politischer Interessen und fehlender wirksamer Regulation zu einer ethisch problematischen Kompromittierung der Voraussetzungen von personaler Selbstbestimmung entwickeln und zugleich die elementaren Grundlagen der demokratischen Selbstorganisation schwächen können.
III. Weltbeziehungen, Verletzlichkeit und Smart Tech
Als weitere Herausforderung möchte ich im Blick auf die mit KI ermöglichten und stetig verbesserten sogenannten smarten Technologien sowie ihre soziotechnischen Datenökosysteme in einem letzten kritischen Reflexionsgang weitere problematische Entwicklungen anzeigen. Diese sind insofern subtiler, als dass sie mit einer grundsätzlich positiv assoziierten Nutzung einhergehen, d.h. mögliche Wechselwirkungen korrelativ und weniger augenscheinlich sind:
Ob in Smartphones, Smart Homes, Smart Cars – smart Tech soll Prozesse und Arbeitsabläufe automatisieren, vereinfachen, effizienter machen und den Menschen entlasten.[54] Digitale Kommunikationsformen- und mit ihnen KI-Technologien, beeinflussen, so resümiert Esfandiar Tabari, dabei nicht nur zunehmend „die Art und Weise (…), wie wir Emotionen ausdrücken, soziale Beziehungen aufbauen und kreativ sind.“ Simplifizierung lässt sich vielmehr als Denkform und „zentrales Designprinzip von Digitalität“[55] bestimmen.
Zwischen Weltwiderständigkeit und Weltbeheimatung
Die anfängliche Befürchtung damit einhergehender disruptiver Veränderungen des Arbeitsmarktes bzw. die vollständige technologische Substitution niedrigqualifizierter Arbeit, konnte zwar durch Umschulungs- und Weiterbildungsmaßnahmen abfangen werden. Es ist aber dennoch eben diese charakteristische Automatisierung und Vereinfachung, die menschliche Welt- und Selbstbeziehung herausfordern kann. Folgt man der Resonanzsoziologie Hartmut Rosas, dann erweisen sich Resonanzbeziehungen als entscheidende Voraussetzungen für Beheimatung und gelingendes Leben.[56] Auch unter psychologischen Vorzeichen wird positive Resonanz mit der belebten und unbelebten Welt als essentieller Faktor von Selbstwirksamkeitserfahrungen verstanden und markiert somit eine wichtige Gelingensbedingung stabiler und resilienter Persönlichkeitsentwicklung.[57] Voraussetzung für Resonanz in einem solchen soziologisch und psychologisch anspruchsvollen Sinne ist dabei eine grundlegende Eigenlogik von begegnender Welt. Nur nämlich, wenn sich zwei eigenlogische und damit potentiell konfligierende Pole mit- und aneinander abarbeiten, kann sich überhaupt ein Resonanzdraht zwischen diesen entwickeln. In dem Moment, in dem Welt als das begegnende, eigenlogische Gegenüber durch smarte Technologien dauerhaft vereinfacht und geglättet wird, verfällt der Konstitutionsmoment von Resonanzbeziehungen. Es ist natürlich richtig, dass mit der Übernahme banaler Alltagsaufgaben durch smarte Technologien Zeitressourcen für andere, kreative Aufgaben frei werden, die wiederum Resonanz verheißen können. Es lässt sich im Blick auf die psychologische und pädagogische Bedeutung von Routinen im Alltag jedoch plausibel dafür argumentieren, dass auch kleine, scheinbar belanglose oder sogar zähe Alltagsaufgaben einen Wert haben, um ein realistisches Erwartungsprofil an die eigenen Fähigkeiten entwickeln zu können.[58] Auch sie sind somit wichtige Trittsteine auf dem Weg der Identitäts- und Persönlichkeitsentwicklung.
Smarte Technologien, Perfektionismus und Resonanzsensibiltät
Für Rosa gilt, dass Menschen ohne Selbstwirksamkeitserfahrungen und resonante Beziehungen ihre Mit- und Umwelt tendenziell als indifferent, stumm oder kalt erfahren und sich selbst als irrelevant. KI-basierte, smarte Technologien helfen zwar auf den ersten Blick dabei, die Welt zu organisieren, Komplexität zu bewältigen und zu reduzieren. Unter resonanzsoziologischen Vorzeichen kann ein dauerhaft entlastetes und von der Widerständigkeit der Welt unberührtes Subjekt jedoch nur schwer resonante Beziehung zur Welt und mit ihnen Selbstvertrauen aufbauen. Ihm fehlt das authentische Engagement in, an und mit der Welt – und damit auch die Erfahrungsgrundlage für Beheimatung und Daseinsakzeptanz.[59] Das Versprechen, sich durch smarte Technologien um nichts mehr kümmern zu müssen, mutiert unter diesen Vorzeichen zu einer Drohung in einer sterilen, kalten Weltbeziehung zu erstarren, die – so bildlich gesprochen – an der glatten Oberfläche der Technik abrutscht.[60] Natürlich ist diese Entwicklung nicht zwingend, bleibt die Welt an vielen anderen Stellen doch widerständig und damit resonanzoffen. Dennoch ist es wert, diese Dynamik nicht außer Acht zu lassen, gesteht man ein, dass mit der Entwicklung der KI immer auch die Frage nach der spezifischen Position, Aufgabe und Rolle des Menschen in dieser Welt an uns als Einzelne und als Gesellschaft zurückgeworfen wird. Die Philosophin Lisz Hirn resümiert in ihrer kritischen Beurteilung des Potentials von KI-Technologien entsprechend, dass diese einerseits vom Menschen überschätzt werden und zugleich andererseits eine von Welt befreite, perfekt funktionierende Existenz als erstrebenswerten Zustand suggerieren.[61] Noch vor der Frage nach der realen technologischen Umsetzbarkeit trans- oder posthumanistischer Visionen, stellt sich also vielmehr die Frage, ob eine solche technisch von Widerständigkeit dauerhaft entlastete Lebensform tatsächlich erstrebenswert sein kann. Zumindest droht das Vergessen und Bekämpfen existentieller Vulnerabilität nicht nur eine wesentliche Erfahrungsdimension der Conditio Humana zu ignorieren, sondern diese auch als Ressource einer leidsensiblen Daseinsakzeptanz außer Acht zu lassen. In einer solchen geglätteten Lebensform bleiben schließlich kompetitive Dynamiken ungebrochen, so dass (Selbst)Optimierungspraktiken und mit ihnen die Logik der Verfügbarmachung von Welt abermals normalisiert werden. Weil die Forderung, solche smarten Technologien für das physische oder mentale Enhancement zu nutzen zudem nicht automatisch auch den Zugang zu diesen Technologien garantiert, wäre einer Zweiklassengesellschaft Vorschub geleistet, in deren Fahrwasser alle Energien in ein unmenschliches Steigerungsspiel einflössen und den Spielenden zugleich die Möglichkeit der Regeländerung blockierten.
Handlungsoptionen: Von der Fahrradbremse zu Human-Rights-Based Data-Based Systems?
Die hier diskutierten Schattenseiten gegenwärtiger KI-Entwicklung und -Nutzbarmachung sind keinesfalls unbekannt oder neu. Dass die Potentiale von KI-Technologie mittelfristig nur dann für alle Menschen gleichumfänglich gehoben werden können, wenn auch die damit verbundenen Herausforderungen identifiziert, nachhaltig bearbeitet und anwendungsspezifische Missbrauchsrisiken minimiert werden, hat weltweit eine ganze Reihe von Regularien, Leitlinien und Kodizes entstehen lassen. Der Blick auf die Datenschutz-Grundverordnung oder der viel diskutierte Artificial Intelligence Act der Europäischen Union machen deutlich, dass auch auf Ebene des internationalen Rechts die Risiken der KI-Technologien präsent und einer Bearbeitung zugeführt werden sollen. Gleichsam lässt sich exemplarisch mit dem KI-Forscher Thilo Hagendorff konstatieren, dass besonders die auf reiner Selbstverpflichtung basierenden Regelwerke kontingent bleiben, insofern ihnen Durchsetzungsmechanismen fehlen:
„Deviations from the various codes of ethics have no consequences. And in cases where ethics is integrated into institutions, it mainly serves as a marketing strategy. Furthermore, empirical experiments show that reading ethics guidelines has no significant influence on the decision-making of software developers.”[62]
Dies liegt zum einen daran, dass solche Kodizes selten die sozioökonomischen Dynamiken der technikimmanenten Risiken adressieren und in Unternehmen kritische Auseinandersetzungen über alternative politische Wirtschaftsstrategien mit der Forderung nach dem notwendigen Erhalt internationaler Wettbewerbsfähigkeit zum Schweigen gebracht werden. Zum anderen wirken ethische aber auch rechtliche Empfehlungen und Vorgaben solange, wie die von Ulrich Beck lakonisch beschriebene Fahrradbremse am Interkontinentalflugzeug,[63] wie es nicht gelingt sie zu institutionalisieren, d.h. obligatorisch zu machen und zugleich mehrheitlich überzeugend und nachvollziehbar zu kommunizieren. Die Wirksamkeit hängt mit anderen Worten an der strukturellen Implementierung und – in einem weiten Sinne – ebenso an der kulturellen Akzeptanz. Es muss mit anderen Worten plausibel sein, wie normative Vorgaben, freiheitliche Lebensgestaltung und wirtschaftliche Interessen zusammenhängen und damit verbundene Spannungen nur im Rahmen demokratischer Selbstverständigungsprozesses bearbeitet werden können. Erst nämlich, wenn Regeln von Gesellschaft und Einzelpersonen grundsätzlich mitgetragen sind, können sie wirksam werden und nachhaltige Veränderungsprozesse katalysieren.
KI-Sorgen als Chance ethischer Verständigung und gesellschaftlicher Gestaltung
Neue Technologien stellen Menschen immer wieder neu vor die Frage, wie sie miteinander leben und nach welchen Maßgaben sie Gesellschaft gestalten möchten. Damit bieten sie auch Gelegenheit, den Reflex, ungehemmte (KI)Forschung mit Verweis auf ökonomische Sachzwänge zu rechtfertigen, als kurzsichtige Ablenkungsmanöver zu entlarven. In diesem Sinne lassen sich auch die jüngsten Entwicklungen generativer KI als Chance verstehen, um sich über gemeinsame Werte und damit auch demokratische Praxis, über nachhaltiges Wirtschaften oder sozial gerechtes Technikdesign zu verständigen. Peter Kirchschläger votiert in diesem Zusammenhang – aber ebenso im Blick auf die Notwendigkeit möglichst länder- und kulturübergreifend überzeugende Orientierungen zu identifizieren – dafür, in diesen Verständigungsprozessen die Bedeutung der Menschenrechte für spätmoderne Lebensformen zu erinnern und sie zu den zentralen ethischen Referenzpunkten auch in internationalen und lokalen KI-Regulierungen zu machen. [64]
Vor dem Hintergrund der hier bemühten sozialethischen Perspektivierung, d.h. dem Versuch KI-Technologien in ihren sozialen und ökonomischen Wechselwirkungen zu adressieren, erwiest sich deren Operationalisierung als Querschnittsaufgabe. Mit anderen Worten müssen die ethischen und rechtlichen Regulierungen im Gespräch mit wirtschafts-, bildungs- und sozialpolitischen Programmen sein, nach Synergien aber auch gegenläufigen Agenden suchen. Dazu zählt auch die Ermittlung struktureller oder sozialer Interventionsmöglichkeiten. Grundsätzlich lässt sich dafür argumentieren, dass besonders die auf EU-Ebene entstehenden und entstandenen Gesetzesvorschläge und Regelungen diese Aspekte im Blick haben und besonders in konkreten Anwendungsbereichen sinnvolle und ethisch differenzierte Bestimmungen enthalten. Sowohl der seit 2021 erarbeitete KI-Pakt der Europäischen Union,[65] als auch der im Dezember 2023 vorgelegte Interim Report des AI Advisory Body der UN [66] verweisen auf die Menschenrechte und antizipieren zudem Folgekosten und Risiken des umfassenden Einsatzes KI-basierter Systeme in Einzelbereichen.
Handlungsnotwendigkeiten und Hinweise auf der politisch-strukturellen Ebene
Auch wenn die Forderungen eines menschenrechtsbasierten Umgangs mit KI-basierten Technologien, deren Entwicklung und Nutzung rational begründet und damit de iure einen verbindlichen Charakter haben, bleibt allerdings solange ein Durchsetzungsproblem bestehen, wie de facto Sanktionen und Strafen umgangen werden können – entweder weil die bürokratischen Hürden schnelle Interventionen blockieren und Unternehmen so ihre Produktion ins Ausland verlegen oder aber Entwicklungs- und Produktionsschritte intransparent und damit nicht justiziabel sind. Der Soziologe Helmut Willke hat im Blick auf die Herausforderungen politischer Steuerung in spätmodernen, hyperkomplexen Gesellschaften bzw. deren demokratischen Legitimation vorgeschlagen, im Sinne einer horizontalen Subsidiarität intermediäre Organisationen auf Ebene der Zivilgesellschaft zu stärken und unabhängige Expertinnenräte zu bilden, die nicht nur beratende, sondern regulative Funktion haben.[67] Solche intermediären auf die Menschenrechte verpflichteten Instanzen, die KI-Unternehmen rechtlich bindend in Entwicklungs- und Produktionsprozesse involvieren müssten, und die umgekehrt gegenüber der Öffentlichkeit wie auch staatlichen Organen rechenschaftspflichtig wären, könnten auch für die Umsetzung und Durchsetzung internationaler Abkommen auf lokaler Ebene hilfreich sein.
Um eine problematische Verkapselung von Wissen in Expertinnendiskurse oder Lobbyismus zu vermeiden, wären solche multiperspektivischen, interdisziplinären Teams ad intra und ad extra zu einer stetigen Übersetzungsarbeit, d.h. Dokumentation und Kommunikation ihrer Entscheidungen angehalten. Die Beteiligung von Expertinnen in solchen Gremien oder Räten könnte dabei stärker als bisher als Teil des wissenschaftlichen Arbeitens an Europäischen Universitäten und Hochschulen etabliert werden. Im Blick auf die zahlreichen Forschungsinstitute und ihre internationalen Vernetzungen könnte zudem länder- und damit systemübergreifend gezielt Handlungsdruck auf Unternehmen aufgebaut werden. Parallel dazu gälte es zumindest auf Ebene des EU-Rechts Monopole zu zerschlagen, d.h. die Wissens- und Datenmacht, „die sich in den Händen der Operateure von KI-Systemen sammelt“[68], zu beschränken.
Handlungsnotwendigkeiten und Hinweise auf der individuell-kulturellen Ebene
Um wirksam zu werden, brauchen diese auf der politisch-strukturellen Ebene angesiedelten Vorschläge, die sich hier nur auf das Problem der Durchsetzung von (internationalen) KI-Regularien konzentrieren können, zudem eine komplementäre Ergänzung auf der ‚individuell-kulturellen’ Ebene. Dazu zählt, wie es in den Erziehungswissenschaften bereits an vielen Stellen Common Sense ist, die Vermittlung von IT-Grundkompetenzen. Ein solches grundlegendes Verständnis von den Wirkungsweisen algorithmenbasierter Systeme ist die Grundlage umfassender Data Literacy, d.h. digitaler Souveränität und Mündigkeit. Dieser Kompetenzerwerb ist dabei keinesfalls lediglich im Bereich der schulischen Bildung anzusiedeln. Vielmehr sind der Sache nach alle zivilgesellschaftlichen Akteurinnen angesprochen – als Nutzende und als Betroffene. Entsprechend wären Fort- und Weiterbildungen so zu institutionalisieren, dass sie alle Bürgerinnen unabhängig von ihren individuellen Voraussetzungen und Lebenssituationen erreichen. Dabei ist es mit dem Informatikdidaktiker Carsten Schulte gesprochen insgesamt entscheidend, das technische Know How mit dem soziotechnischen Know About zu verbinden,[69] d.h. das technische Verfügungswissen im Sinne des ‚Wie?’ ebenso mit einem soziokulturellen Orientierungswissen im Sinne des ‚Wozu?’ bzw. des ‚Wer profitiert?’ zu korrelieren.[70] In diesem Zusammenhang und im Sinne eines solchen digitalen bzw. technologischen Empowerment gilt es nicht zuletzt auch die persönlichen Nutzungsgewohnheiten und darin eingelassene Identitätspraktiken kritisch zu adressieren. Das Subjekt ist – dafür hat spätestens Michel Foucault sensibilisiert – immer zugleich Durchgangspunkt der Macht wie auch ihr Gegenlager. Insofern die Macht der KI-Systeme nicht technologisch, sondern Menschen gemacht ist, sind also auch wir es, die sich für wirksame Veränderungen in die Pflicht nehmen lassen müssen.
© Anne Weber
[1] Diese Formulierung geht zurück auf Oswald von Nell-Breuning. Siehe: Oswald von Nell-Breuning, Subsidiarität – ein katholisches Prinzip? in: Ders., Den Kapitalismus umbiegen. Schriften zu Kirche, Wirtschaft und Gesellschaft. Ein Lesebuch (hrsg. von Friedhelm Hengsbach), Düsseldorf 1990, 349-370.
[2] Zum Zitat und Abschnitt: Günter Wilhelms, Christliche Sozialethik. Paderborn 2010, 38.
[3] Vgl. grundlegend.: Annemarie Pieper/Urs Thurnherr, Angewandte Ethik. Eine Einführung, München 1998, 7–13; Dagmar Fenner, Angewandte Ethik zwischen Theorie und Praxis. Systematische Reflexionen zum Theorie-Praxis-Verhältnis der jungen Disziplin, in: Zeitschrift für philosophische Forschung63/1 (2009), 99–121; Nikolaus Knoepffler, Angewandte Ethik. Ein systematischer Leitfaden. Köln 2010.
[4] In dieser Hinsicht verbindet sich die Perspektive der Sozialethik selbstkritisch mit postkolonialem Denken und Emanzipationsbewegungen. Vgl. dazu: Michelle Becka, Welcher (V)Erkenntnisgewinn? Postkolonialismus und Christliche Sozialethik, in: JCSW 61 (2020), 137-160.
[5] Vgl. dazu programmatisch: Oswald von Nell-Breuning, „Wir alle stehen auf den Schultern von Karl Marx“, in: Ders., Den Kapitalismus umbiegen. Schriften zu Kirche, Wirtschaft und Gesellschaft. Ein Lesebuch (hrsg. von Friedhelm Hengsbach), Düsseldorf 1990, 188-196, 190. Zum Gedanken ebenso: Wilhelms 2010, 57.
[6] Der Technik- bzw. KI-Ethiker Rainer Mühlhoff votiert für eine Allianz zwischen Technikethik und Sozialphilosophie. Vgl. Rainer Mühlhoff, Automatisierte Ungleichheit. Ethik der Künstlichen Intelligenz in der biopolitischen Wende des Digitalen Kapitalismus, DZPhil 2020, 68:6, 867-890, besonders: 879f. M.E. ist diese Allianz der Sache nach in der Sozialethik als interdisziplinär arbeitende, angewandte und damit auf die Wechselwirkung von sozialen, ökonomischen, ökologischen und technologischen Wechselwirkungen fokussierende Ethik bereits realisiert.
[7] Vgl. Lucy A. Suchman, Human-Machine Reconfigurations. Plans and Situated Actions, Cambridge 2007. Siehe ebenso im Gespräch mit der Akteur-Netzwerk-Theorie: Werner Rammert/ Ingo Schulz-Schaeffer, Technik und Handeln. Wenn soziales Handeln sich auf menschliches Verhalten und technische Artefakte verteilt, in: Dies. (Hg.): Können Maschinen handeln? Soziologische Beiträge zum Verhältnis von Mensch und Technik. Frankfurt am Main 2002, 11–64.
[8] Armin Nassehi argumentiert, dass digitale Technologien und deren Erfolg letztlich in der Mustererkennungssehnsucht der Gesellschaft wurzeln: Armin Nassehi, Muster. Theorie der digitalen Gesellschaft, München 2019. Vgl. zur techniksoziologischen Diskussion ebenso: Ulrich Dolata/ Raymund Werle (Hg.), Gesellschaft und die Macht der Technik. Sozioökonomischer und institutioneller Wandel durch Technisierung. Frankfurt am Main 2007.
[9] Auch die Akteur-Netzwerk-Theorie hat diese Wechselwirkungen im Blick. Damit ist Technik politisch nie neutral. Vgl. dazu: Sebastian Berg/ Niklas Rakowski/ Thorsten Thiel, Die digitale Konstellation. Eine Positionsbestimmung, in: Zeitschrift für Politikwissenschaft (30/2) 2020, 171—191.
[10] Es ist mehr als berechtigt, dass Szenarien wie die gewaltsame Versklavung der menschlichen Spezies durch KI-basierte, bewusstseinsfähige Roboter in Literatur, Film und Kunst thematisiert werden. Die mit solchen Narrationen verbundene Sensibilisierung hilft Menschen bei der kritischen Auseinandersetzung mit infrage stehenden Werten, Normen oder Gesellschaftsvorstellungen. Gleichsam ist es fraglich, solche Szenarien zum Kern einer KI-Ethik zu machen, insofern damit tendenziell von realen und konkreten Herausforderungen abgelenkt wird.
[11] Aus dem Anspruch heraus, ungewollte Folgen neuer Technik zu antizipieren und zu vermeiden, hat die sozialwissenschaftliche Technikforschung neuartige Konzepte zur Gestaltung von Technik erarbeitet. Diese basieren auf einer Expert*innen gestützten Analyse alternativer Szenarien der Technikentwicklung und der Bewertung der möglichen gesellschaftliche Folgen dieser Szenarien. Vgl. u.a. Armin Grunwald, Technikfolgenabschätzung. Eine Einführung, Berlin 2002; sowie die Beiträge in: Dolata/Werle, Gesellschaft und die Macht der Technik, 2007.
[12] Sabine T. Köszegi, Über die Illusion von Objektivität bei der Nutzung von KI-Systemen. Wie KI die Realität richtig erkennen kann, in: https://www.meinungsbarometer.info/beitrag/ueber-die-Illusion-von-Objektivitaet-bei-der-Nutzung-von-KI-Systemen_4685.html (eingesehen am 05.02.2024).
[13] Vgl.: Manuela Lenzen, Künstliche Intelligenz. Fakten, Chancen, Risiken. München 2020, hier: 29.
[14] Vgl. dazu exemplarisch: Julian Nida-Rümelin, Überblick über die Verwendung der Begriffe starke & schwache Künstliche Intelligenz, in: Kuuya J. Chibanguza/ Christian Kuß/ Hans Steege (Hg.), Künstliche Intelligenz. Recht und Praxis automatisierter und autonomer Systeme, Baden-Baden 2022, 75–90.
[15] Siehe dazu u.a. die Beiträge in: Reimund Neugebauer (Hg.), Digitalisierung. Schlüsseltechnologien für Wirtschaft und Gesellschaft, München 2018.
[16] Genutzt habe ich die frei zugängliche deutsche Version des ChatGPT 3.5-Turbo unter https://chatopenai.de/.
[17] Siehe zum Zitat: https://www.ibm.com/de-de/topics/artificial-intelligence
[18] Siehe ausführlich dazu das Interview mit Raul Muresan geführt von Helmut Linde: Helmut Linde, Künstliche Intelligenz. Eine starke KI muss von der Welt träumen können, in: https://glm.io/172891
[19] Vgl. u.a.: Thomas Fuchs, Verkörperung, Sozialität und Kultur, in: Thiemo Breyer u.a. (Hg.), Interdisziplinäre Anthropologie. Leib – Geist – Kultur, Heidelberg 2007, 11–33; Catrin Misselhorn, Grundfragen der Maschinenethik. 2. Aufl. Stuttgart 2018, besonders 17-44.
[20] Vgl. dazu: Franz-Josef Bormann, Ist die praktische Vernunft des Menschen durch KI-Systeme ersetzbar? Zum unterschiedlichen Status von menschlichen Personen und (selbst-)lernenden Maschinen, in: Alexis Fritz/ Christof Mandry/ Ingo Proft/ Josef Schuster (Hg.), Digitalisierung im Gesundheitswesen. Anthropologische und ethische Herausforderungen der Mensch-Maschine-Interaktion, Freiburg i.B. 2021, 41–64.
[21] So z.B. Peter G. Kirchschächter, Ethische KI? Datenbasierte (DS) mit Ethik, in: HMD (2022) 59, 482–494; Johannes Frühbauer, Künstliche Intelligenz, Autonomie und Verantwortung. Erkundungen im maschinen- und roboterethischen Reflexionskontext, in: Benjamin Held/ Frederike van Oorschot (Hg.), Digitalisierung: Neue Technik – neue Ethik. Interdisziplinäre Auseinandersetzung mit den Folgen der digitalen Transformation, Heidelberg 2021, 219–234. Kirchschläger spricht deshalb nicht von KI sondern datenbasierten Systemen (DS). Die EKD-Denkschrift „Freiheit digital“ spricht wiederum von automatisierten autoregulativen Systemen.
[22] Dazu: Luciano Floridi, Distributed morality in an information society, in: Science and Engineering Ethics, 19 (3), 727–743.
[23] Mensch und Maschine. Herausforderung durch Künstliche Intelligenz. (Stellungnahme des Deutschen Ethikrats, Berlin 2023), 175f.
[24] Donna Haraway, Manifesto for Cyborgs. Science, Technology, and Socialist Feminism in the 1980’s, in: Socialist Review (80/1985), 65-108. Deutsche Übersetzung: Dies., Ein Manifest für Cyborgs. Feminismus im Streit mit den Technowissenschaften, in: Dies., Die Neuerfindung der Natur. Primaten, Cyborgs und Frauen. Frankfurt a. M./New York 1995, 33- 72, Zitat: 37. Es ist wichtig festzuhalten, dass Cyborgs für Haraway ein emanzipatorisches Potential aufweisen, insofern sie die patriarchal-dualistische Körperpolitik unterlaufen können: „Die Cyborg ist eine Art zerlegtes und neu zusammengesetztes, postmodernes kollektives und individuelles Selbst. Es ist das Selbst, das Feministinnen kodieren müssen.“ Entlang der Cyborg Metaphorik verwischen die Grenzen zwischen Natur und Technik, Mensch und Maschine, so dass ein Raum für Empowerment jenseits identifizierender Praktiken entstehen kann: „Cyborg-Politik bedeutet, zugleich für eine Sprache und gegen die perfekte Kommunikation zu kämpfen, gegen das zentrale Dogma des Phallogozentrismus, den einen Code, der jede Bedeutung perfekt überträgt. Daher besteht die Cyborg-Politik auf dem Rauschen und auf der Verschmutzung und bejubelt die illegitime Verschmelzung von Tier und Maschine. Solche Verbindungen machen den Mann und die Frau problematisch, sie untergraben die Struktur des Begehrens, die imaginierte Macht, die Sprache und Gender hervorgebracht hat und unterlaufen damit die Strukturen und die Reproduktionsweisen westlicher Identität, Natur und Kultur, Spiegel und Auge, Knecht und Herr, Körper und Geist.“
[25] Linde, Künstliche Intelligenz. Eine starke KI muss von der Welt träumen können, 2023.
[26] So erlauben sie z.B. in der Präzisionsmedizin präzisere und schonende Diagnoseverfahren. Mit einer verbesserten Früherkennung ebenso wie einer an individuelle Parameter angepassten Medikation, aber auch der Optimierung chirurgischer Abläufe durch entsprechenden Einsatz von KI-basierter Robotik, erhöhen sich Therapieerfolge deutlich. Auch im Bereich der Koordination des Verkehrs, der Cybersicherheit, wie ebenso im Blick auf Ernährungsversorgung oder Landwirtschaft lassen sich mit Hilfe künstlicher Intelligenz bessere, d.h. nachhaltigere, effizientere und sicherere Prozessabläufe, Handlungs- bzw. Lösungsstrategien erreichen. Vgl. dazu exemplarisch im Kontext der Pflege die Beiträge in: Karsten Weber u.a. (Hg.), Digitale Technik für ambulante Pflege und Therapie. Herausforderungen, Lösungen, Anwendungen und Forschungsperspektiven, Bielefeld 2022.
[27] Siehe dazu: Philip N. Boucher, Artificial intelligence. How does it work, why does it matter, and what can we do about it? (Panel for the Future of Science and Technology) Brüssel 2020, 18f. Abrufbar unter: https://www.europarl.europa.eu/RegData/etudes/STUD/2020/641547/EPRS_STU(2020)641547_EN.pdf; Vgl. auch: https://www.europarl.europa.eu/news/de/headlines/society/20200918STO87404/kunstliche-intelligenz-chancen-und-risiken
[28] Siehe dazu und zum Folgenden insgesamt: Catherine D’Ignacio /Lauren F. Klein, Data Feminism. Cambridge 200, 187f.; Rainer Mühlhoff, Human-aided Artificial Intelligence: Or, how to run large Computations in human Brains? Toward a Media Sociology of Machine Learning, New Media & Society 2020 (22/10), 1868-1884. Neben dieser Form der aktiven Klickarbeit, erweisen sich ebenso KI Nutzende als passive Trainingsressourcen. Auch wenn dabei unter Umständen, d.h. durch fehlende Transparenz, Nutzugsrechte und die informationelle Souveränität verletzt werden können, ist ebenso ethisch problematisch.
[29] Vgl. in kritischer Auseinandersetzung mit microwork crowdsourcing exemplarisch: Lilly Irani, The Cultural Work of Microwork, in: New Media & Society, 2015(17/5), 720-739.
[30] Vgl. hierzu auch: Kate Crawford, Atlas of AI. Power, Politics, and the Planetary Costs of Artificial Intelligence, New Haven/London 2021; Aimee van Wynsberghe/ Tijs Vandemeulebroucke/ Larissa Bolte/ Jamila Nachid, Towards the Sustainability of AI; Multi-Disciplinary Approaches to Investigate the Hidden Costs of AI’, in: Sustainability (14/2022), 16352. https://doi.org/10.3390/su142416352.
[31] Zum Zitat: Mühlhoff, Human-aided Artificial Intelligence, 2020, 1869.
[32] Siehe dazu: Carsten Orwat, Diskriminierungsrisiken durch Verwendung von Algorithmen: https://www.antidiskriminierungsstelle.de/SharedDocs/downloads/DE/publikatonen/Expertsen/studie_diskriminierungsr isiken_durch_verwendung_von_algorithmen.pdf?__blob=publicatonFile&v=3
[33] Siehe dazu und zum Folgenden insgesamt: Ilona Horwath, Algorithmen, KI und soziale Diskriminierung, in: Kordula Schnegg u.a. (Hg.), Innsbrucker Gender Lectures IV, Innsbruck 2022, 71-101, 84f.
[34] Alexander Campolo /Kate Crawford, Enchanted Determinism. Power without Responsibility in Artificial Intelligence, in: Engaging Science, Technology, and Society 6 (2020), 1-19, Zitat: 1.
[35] Siehe: Safiya Umoja Noble, Algorithms of Oppression: How Search Engines Reinforce Racism, New York 2018.
[36] Zur Formulierung und Kritik: Köszegi 2023.
[37] Campolo / Crawford, Enchanted Determinism, 2020, 1.
[38] Vgl. dazu: Virginia Eubanks, Automating Inequality: How High-Tech Tools Profile, Police, And Punish The Poor, New York 2019. Siehe zum Phänomen des Silencing: Miranda Fricker, Epistemic Injustice. Power and the Ethics of Knowing, Oxford 2007.
[39] Dazu ausführlich: Jürgen Habermas, Ein neuer Strukturwandel der Öffentlichkeit, Berlin 2022.
[40] Vgl. Siehe dazu: Helmut Wilke, Komplexe Freiheit. Konfigurationsprobleme eines Menschenrechts in der globalisierten Moderne, Bielefeld 2019, besonders: 63-88.
[41] Besonders: Byung-Chul Han, Im Schwarm. Ansichten des Digitalen, Berlin 2013.
[42] Habermas, Ein neuer Strukturwandel der Öffentlichkeit, 2022, 62.
[43] Siehe zur Argumentation auch: Jessica Heese, Verantwortlich Forschen mit und zu Big Data und Künstlicher Intelligenz, in: Anja Seibert-Fohr (Hg.), Entgrenzte Verantwortung. Zur Reichweite und Regulierung von Verantwortung in Wirtschaft, Medien, Technik und Umwelt, Berlin 2020,285– 303, besonders 291f.
[44] Wilke, Komplexe Freiheit, 2019, besonders: 98f.; 269f.
[45] Siehe zur Problematisierung dieser Entwicklungen: Otfried Jarren/ Renate Fischer, Die Plattformisierung von Öffentlichkeit und der Relevanzverlust des Journalismus als demokratische Herausforderung, in: Martin Seeliger/Sebastian Sevignani (Hg.), Ein neuer Strukturwandel der Öffentlichkeit? Baden-Baden, 365-382.
[46] Vgl. Katharina Klöcker, Autoritäre Algorithmen, in: Herder Korrespondenz 7/2021, 37-39; Dies., Erlösung von der Last der Entscheidung? Die Algorithmisierung der Gesellschaft in theologisch-ethischer Reflexion, in: Amosinternatonal (3/2022).
[47] Zu diesem und dem folgenden Zitat: Habermas, Ein neuer Strukturwandel der Öffentlichkeit, 2022, 62f.
[48] Siehe zur epistemischen Relevanz alternierender Stimmen u.a.: Anne Weber, Gelingende Verständigung und epistemische Verantwortung zwischen Vorurteilen, Repräsentation und Silencing. Versuch einer kritischen Relektüre der Diskursethik, in: Andreas Koritensky/ Margit Wasmaier- Sailer/ Veronika Weidner (Hg.), Wie Dialoge gelingen. Gesprächsfähigkeit und epistemische Verantwortung, Freiburg i.B. 2023, 105-128.
[49] Seihe dazu: Shoshana Zuboff, Das Zeitalter des Überwachungskapitalismus, Frankfurt a.M./New York 2018.
[50] Traugott Jähnichen/ Joachim Wiemeyer, Wirtschaftsethik 4.0. Der digitale Wandel als wirtschaftsethische Herausforderung, München 2020, 179/180.
[51] Vgl. auch: Mühlhoff, Automatisierte Ungleichheit, 2020, 880f.
[52] Siehe dazu weiterführend: Helmut Willke, Regieren. Politische Steuerung komplexer Systeme, Wiesbaden 2014, 74–93, besonders: 88f.
[53] Dazu u.a.: Rupprecht Podszun, Wettbewerb, Werte und Recht in Zeiten der Digitalisierung – auf dem Weg zu einem Ordnungsrahmen für Google&Co, in: Randolf Rosenstock/ Nese Sevsay-Tegethoff (Hg.), Werte – und was sie uns wert sind – eine interdisziplinäre Anthropologie, München 2018, 207–223.
[54] Vgl. dazu: René Peinl, Privatleben 4.0. Wie Digitalisierung, das Internet der Dinge und Deep Learning unser Privatleben verändern, in: Dietmar Wolf/Richard Göbel (Hg.), Digitalisierung: Segen oder Fluch? Wie die Digitalisierung unsere Lebens- und Arbeitswelt verändert, Berlin 2018, 225–252.
[55] Zu beiden Zitaten: Esfandiar Tabari, Philosophie der Digitalität. Eine Kritik der politischen Technologie, Baden-Baden 2023, 138; 175.
[56] Siehe dazu und zur folgenden Argumentation: Hartmut Rosa, Resonanz. Eine Soziologie der Weltbeziehungen, Berlin 2016; Anne Weber/Günter Wilhelms, Distanz und Resonanz. Versuch einer Kritik der Digitalisierung, in: Klaus von Stosch/ Stefan Walser/ Anne Weber (Hg.), Theologie im Übergang. Identität, Digitalisierung, Dialog, Freiburg i.B. 2022, 134–161.
[57] Vgl. dazu als Übersicht exemplarisch: Katrin Nicole Barysch, Art.: Selbstwirksamkeit, in: Dieter Frey (Hg.), Psychologie der Werte. Von Achtsamkeit bis Zivilcourage – Basiswissen aus Psychologie und Philosophie, Berlin/Heidelberg 2016, 201–212.
[58] Vgl. dazu exemplarisch: Samantha Heintzelman/ Laura A. King, Routines and Meaning in Life. Personality andSocial Psychology Bulletin, 2019 (45/5), 688-699; Matthew Hutson, The Richness of Routine, in: Scientific American Mind 2015 26(4).
[59] Vgl. dazu: Richard Ottinger, Leibliche Authentzität und digitale Mediatisierung, Phänomenologisches und theologisches Leibverständnis als kritische Anfrage an den Wandel der Kommunikation, Baden-Baden 2023.
[60] Vgl. dazu auch: Günter Wilhelms, „Smart Politcs“? Kulturethische Anmerkungen zum Verhältnis von Digitalisierung und Politik, in: Bernhard Emunds (Hrsg.), Christliche Sozialethik. Orientierung welcher Praxis? Baden-Baden 2018, 261–280.
[61] Vgl. dazu insgesamt: Lisz Hirn, Der überschätzte Mensch. Anthropologie der Verletzlichkeit, Wien 2023.
[62] Siehe dazu exemplarisch: Thilo Hagendorff, The Ethics of AI Ethics: an Evaluation of Guidelines, in: Minds and Machines, (30/1) 2020, 99–120, Zitat: 119.
[63] Sie zur Formulierung und zum technikphilosophischen Diskussionskontext: Ulrich Beck, Die organisierte Unverantwortlichkeit, Frankfurt a.M. 1988, 194.
[64] Peter G. Kirchschläger, Ethische KI? Datenbasierte Systeme (DS) mit Ethik, in: HMD Praxis der Wirtschaftsinformatik, (59/2) 2022, 482–494.
[65] https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai (zuletzt eingesehen am 02.02.2024).
[66] https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pdf (zuletzt eingesehen am 02.02.2024).
[67] Siehe dazu: Willke, Komplexe Freiheit, 2019, 149f.
[68] Rainer Mühlhoff, Die Macht der Daten, Osnabrück 2023, 72.
[69] Siehe dazu exemplarisch: Carsten Schulte/ Felix Winkelnkemper, Digitalisierung als Chance und Herausforderung. Bemerkungen aus der Didaktik der Informatik, in: Klaus von Stosch/ Stefan Walser/ Anne Weber (Hg.), Theologien im Übergang. Identität, Digitalisierung, Dialog, Freiburg i.B. 2022,115-132, besonders 130f.
[70] Vgl. dazu: Jürgen Mittelstraß, Der Flug der Eule. 15 Thesen über Bildung, Wissenschaft und Universität, in: Winfried Böhm/ Martin Lindauer (Hg.), „Nicht Vielwissen sättigt die Seele“. Wissen, Erkennen, Bildung, Ausbildung heute, Stuttgart 1988, 129-146.
0 Kommentare