Peter G. Kirchschläger hinterfragt aus theologisch-ethischer Sicht, ob Technologien „moralisch“ sein können. Die zentralen Kategorien sind dabei das Gewissen, die Freiheit und Verantwortung sowie die grundsätzliche Fähigkeit zur Moral, die er Technologien abschreibt.
Im gegenwärtigen Diskurs über Automatisierung, Digitalisierung und Robotisierung der Gesellschaft und ihres Subsystems Wirtschaft kommt die Erwartung zum Ausdruck, dass es möglich sei, „moral technologies“ zu schaffen. Zentrales Anliegen ist dabei beispielsweise, zu verhindern, dass Roboter Menschen Schaden zufügen können. Die Bezeichnung „moral technologies“ basiert auf den ihnen zugesprochenen Fähigkeiten, moralische Regeln zu befolgen sowie darauf basierend moralische Entscheidungen zu fällen und Handlungen zu vollziehen. Die Rede von „moral technologies“ kann Irritationen auslösen. Denn können technologische Entwicklungen wirklich moralisch sein? Ist technologischen Systemen Moralfähigkeit zuzutrauen? Im folgenden Beitrag soll die Charakterisierung als „moral technologies“ einer Kritik aus theologisch-ethischer Sicht unterzogen werden.
1. Gewissen
Ein erstes grundlegendes Fragezeichen angesichts der Bezeichnung „moral technologies“ stützt sich auf den für den Menschen und seine Moralität zentralen Begriff des Gewissens. Die Pastoralkonstitution über die Kirche in der Welt von heute Gaudium et spes hält in Art. 16 fest: „(…) Im Gewissen erkennt man in wunderbarer Weise jenes Gesetz, das in der Liebe zu Gott und dem Nächsten seine Erfüllung hat (vgl. Mt 22,37-40; Gal 5,14). Durch die Treue zum Gewissen sind die Christen mit den übrigen Menschen verbunden im Suchen nach der Wahrheit und zur wahrheitsgemässen Lösung all der vielen moralischen Probleme, die im Leben der Einzelnen wie im gesellschaftlichen Zusammenleben entstehen. Je mehr also das rechte Gewissen sich durchsetzt, desto mehr lassen die Personen und Gruppen von der blinden Willkür ab und suchen sich nach den objektiven Normen der Sittlichkeit zu richten. (…)“
Das Gewissen wird als Entdeckungsvorgang verstanden. „Conscience is an active faculty that discovers and discerns the good within the complexity of each situation.“[1] Es handelt sich dabei nicht um ein Ablese- oder Kontrollorgan für Normen.[2] Die Enzyklika Veritatis splendor 58 von Papst Johannes Paul II. umschreibt das Gewissensgeschehen als „innerer Dialog des Menschen mit sich selbst“ und als „Dialog des Menschen mit Gott“. Dem Menschen ist nach Gaudium et spes die Verantwortung für die folgende Aufgabe anvertraut: „Die freie Suche nach dem Guten“[3]. Papst Franziskus hält in seinem Nachsynodalen Apostolischen Schreiben Amoris Laetitia 37 dazu fest: „Wir sind berufen, die Gewissen zu bilden, nicht aber dazu, den Anspruch zu erheben, sie zu ersetzen.“
Mangel von Gewissen ist Argument gegen die Bezeichnung „moral technologies“
Die Potentiale, die Technologien hinsichtlich von Entscheidungen und Handlungen besitzen, die zur Bezeichnung „moral technologies“ geführt haben, kommen dem menschlichen Gewissen nicht einmal in Ansätzen nahe. Ihnen fehlen die verschiedenen Ebenen der Sittlichkeit bzw. der Pflicht sowie der Existenz, die im Gewissen in unterschiedlicher Qualität, Intensität und geprägt von individueller Entwicklung bzw. sozialer Beeinflussung zusammenfliessen.[4] Daher kann von Technologien nicht Gewissen ausgesagt werden. Wenn das Gewissen als wesentlich für Moralität verstanden wird, dann stellt der Mangel von Gewissen ein erstes gewichtiges Argument gegen die Bezeichnung „moral technologies“ dar.
2. Freiheit und Verantwortung
Ein zweites grundlegendes Fragezeichen ergibt sich vor dem Hintergrund von Freiheit und Verantwortung,[5] die bereits im Zuge der obigen Auseinandersetzung mit dem Gewissen aufgetaucht sind. Verantwortung gelingt es, die eigene Freiheit in Verknüpfung mit der Freiheit aller anderen Menschen sowie mit der Achtung der Menschenwürde aller Menschen und der Sorge um die von Gott gnadenhaft geschenkte Schöpfung zu verstehen. „Die Verantwortung bricht die individualistische und auf eigene Bedürfnisse konzentrierte Freiheit auf und bindet sie ein in soziale Gefüge, in gemeinsame Aufgaben und Ziele.“[6]
Freiheit und Verantwortung sind unbedingte Voraussetzung für Moralität.
Freiheit und Verantwortung erweisen sich in ihrem Zusammenspiel als conditio sine qua non für Moralität. Die Frage stellt sich, ob bei Robotern Freiheit und Verantwortung angenommen werden kann. Dies muss verneint werden, da Roboter heteronom hergestellt und programmiert werden, was ein zweites gewichtiges Argument gegen die Bezeichnung „moral technologies“ bildet.
3. Moralfähigkeit
Ein drittes grundlegendes Fragezeichen hinsichtlich der Bezeichnung „moral technologies“ löst die vom Menschen ausgesagte Moralfähigkeit aus. Immanuel Kant bindet die Würde der Menschen an ihre Moralfähigkeit bzw. an ihre Autonomie zurück.[7] Der Mensch erweist sich als Trägerin bzw. Träger von Würde und darf daher nicht instrumentalisiert werden, weil es ihr bzw. ihm als vernünftigem Wesen entspricht, für sich selbst allgemeine moralische Regeln und Prinzipien zu erkennen, diese für sich selbst zu setzen und diese ihren bzw. seinen Handlungen zugrunde zu legen. Die Selbstgesetzgebung der Vernunft, zu der der Mensch fähig ist, bildet das Fundament der Würde des Menschen „als eines vernünftigen Wesens, das keinem Gesetz gehorcht, als dem, das es zugleich selber gibt“[8].
Dies bedeutet, dass die moralischen Regeln und Prinzipien, die der Mensch in ihrer bzw. seiner Autonomie formuliert, den folgenden Anforderungen an eine kritisch rationale Moral genügen müssen, was ihre Verallgemeinerbarkeit gewährleistet: „Eine rationale oder kritische Moral ist eine, die für ihre Grundsätze den Anspruch rationaler Begründbarkeit erhebt. Moralische Grundsätze sind rational begründet, wenn sie allgemein zustimmungsfähig sind, d. h. annehmbar für alle betroffenen Personen unter der Voraussetzung ihrer vollkommenen Gleichberechtigung und Selbstbestimmungsfähigkeit.“[9]
Technologien sind nicht moralfähig.
Entspricht die Beschreibung der Moralfähigkeit des Menschen, die von Menschen ausgesagt werden kann, dem Potential von Technologien, moralische Regeln zu befolgen, dementsprechend moralische Entscheidungen zu fällen und dazu korrespondierende Handlungen zu vollziehen? Eine weitere Verneinung ist ein drittes gewichtiges Argument gegen die Bezeichnung „moral technologies“.
Grundsätzlich gilt es hinsichtlich der bereits bestehenden Möglichkeiten und Fähigkeiten von Technologien, diese präzise einzuordnen und begrifflich zu fassen. Beispielsweise erheben sich Zweifel, ob der Zuspruch von „Intuition“ an Roboter, die beim Go-Spiel – einem Spiel, das nicht nur auf logischer Deduktion, sondern auch auf Intuition beruht – menschliche Mitspieler besiegen konnten,[10] adäquat ist oder ob die Phänomene, die auf „Intuition“ bei Robotern zurückgeführt werden, in letzter Konsequenz nicht doch auf Wahrscheinlichkeitsberechnungen zurückgehen. Oder es scheint unangemessen zu sein, einem Roboter gleich die Fähigkeit zu einem „Pokerface“ zuzutrauen, wenn er menschliche Mitspieler in einem 20-Tage-Poker Marathon besiegt,[11] was realistisch betrachtet auf die Fertigkeit zurückzuführen ist, strategisch mit imperfekter Information zu denken. Ähnlich verhält es sich bei der Bezeichnung „moral technologies“. Roboter sind primär auf Zweckmässigkeit ausgerichtet. Dabei können ihnen auch ethische Regeln einprogrammiert werden, um ein moralisch akzeptables Handeln eines aktiven Robotersystems zu ermöglichen.[12] Dieses Potential führt zur Bezeichnung „moral technologies“.
Doch es gilt nicht zu vernachlässigen: „When we talk about robot ethics, we should talk about normative ethics for the use of robots, i.e. right and wrong conduct of robots is the responsibility of the robot users and not of the robots themselves. (…) a robot should not be ethical by itself; it should be ethically used.”[13] Andere Bezeichnungen als „moral technologies“ erweisen sich deshalb als adäquater, wie z. B. „technical tools“[14], „intelligent computer interfaces“[15] , „socio-technical systems“[16] oder „implicit ethical agent“[17]. Die letzte Bezeichnung erweist sich jedoch insofern ebenfalls als problematisch, als von Robotern „agency“ bzw. eine „ethical agency“ ausgesagt würde, was als Voraussetzung moralische Autonomie hätte.[18] Denn „agents“ sind „deliberating, assessing, choosing, and acting to make what we see as a good life for [them]selves“[19]. Ähnliche Überlegungen legen auch die Rede von automatisierten und nicht von autonomen Fahrzeugen im Bereich der Automatisierung von Mobilität nahe.[20]
4. Schlussbemerkungen
Eine Kernkonsequenz der hier vorgelegten Kritik der Bezeichnung „moral technologies“ umfasst, dass die Menschen die Verantwortung tragen, ethische Prinzipien festzulegen, moralische und rechtliche Normen zu setzen sowie Rahmenbedingungen, Ziele und Grenzen der digitalen Transformation zu definieren. Ein ethischer und rechtlicher Diskurs über den Zweck, über die Prioritäten, Kontexte und Schranken für technologischen Fortschritt[21] muss konstant geführt werden. Ein konkretes Beispiel dafür kann die „Charta der Digitalen Grundrechte der Europäischen Union“ sein – ein Text, der von Politikern [u. a. dem damaligen EU-Parlamentsvorsitzenden Martin Schulz] und ExpertInnen vorbereitet worden ist und nun dem EU-Parlament als Diskussionsgrundlage dienen könnte.[22] Artikel 8 hält fest: „(1) Ethisch-normative Entscheidungen können nur von Menschen getroffen werden. (2) Der Einsatz und die Entwicklung von künstlicher Intelligenz in grundrechtsrelevanten Bereichen muss gesellschaftlich begleitet und vom Gesetzgeber reguliert werden.“
Ethisch-normative Entscheidungen können nur von Menschen getroffen werden.
Bei lernenden Systemen ist schliesslich auch die theoretische Möglichkeit mitzubedenken: „Irgendwann könnte es dann sein, dass niemand mehr weiss, was die ursprüngliche Programmierung solch eines Roboters war, sondern er uns sehr selbstständig erscheint, ganz so, als verfolge er seine eigenen Ziele.“[23]
Anmerkungen:
[1] L. Hogan, Conscience in the Documents of Vatican II, in: C. E. Curran (Hg.), Conscience. Readings in Moral Theology 14, New York 2004, 82-88, hier 86-87.
[2] Vgl. G. Virt, Wie ernst ist das Gewissen zu nehmen? Zum Ringen um das Gewissen auf dem 2. Vatikanischen Konzil, in: J. Kremer (Hg.), Aufbruch des Zweiten Vatikanischen Konzils heute, Innsbruck 1993, 130-153, 140. Vgl. dazu die Dokumentation von für das II. Vatikanische Konzil vorbereiteten Texten K. Golser, Gewissen und objektive Sittenordnung, Wien 1975, 21-23.
[3] S. Dlugoš/S. Müller, Kirche im Dialog mit der modernen Welt – Illusion oder Notwendigkeit? Zur Aktualität von Gaudium ets spes, in: J.-H. Tück (Hg.), Erinnerung an die Zukunft. Das Zweite Vatikanische Konzil, Freiburg i. B. 22013, 622-634, hier 634.
[4] Vgl. H. Schmitt, Sozialität und Gewissen. Anthropologische und theologisch-ethische Sondierung der klassischen Gewissenslehre. Studien der Moraltheologie Bd. 40, Wien 2008.
[5] Vgl. dazu P. G. Kirchschläger, Verantwortung aus christlich-sozialethischer Perspektive, in: ETHICA 22 (2014) 29-54.
[6] A. Holderegger, Art. Verantwortung, in: J.-P. Wils/C. Hübenthal (Hg.), Lexikon der Ethik, Paderborn 2006, 394-403, hier 401.
[7] Vgl. I. Kant, Grundlegung zur Metaphysik der Sitten. Werkausgabe Weischedel. Vol. 7. Frankfurt a. M. 1974, 69.
[8] I. Kant, Grundlegung zur Metaphysik der Sitten. Werkausgabe Weischedel. Vol. 7. Frankfurt a. M. 1974, 67.
[9] P. Koller, Die Begründung von Rechten, in: P. Koller/C. Varga/O. Weinberger (Hg.), Theoretische Grundlagen der Rechtspolitik. Ungarisch-Österreichisches Symposium der internationalen Vereinigung für Rechts- und Sozialphilosophie. ARSP 54, Stuttgart 1990, 74-84, hier 75.
[10] Vgl. Nature, Digital Intuition, 27 January 2016, http://www.nature.com/news/digital-intuition-1.19230 (27. Februar 2017).
[11] Vgl. B. Spice, Carnegie Mellon Artificial Intelligence Beats Top Poker Pros. https://www.cmu.edu/news/stories/archives/2017/january/AI-beats-poker-pros.html. (27. Februar 2017).
[12] Vgl. W. Wallach/C. Allen, Moral Machines: Teaching Robots Right From Wrong, Oxford 2009.
[13] B. Krenn, Multiuse Tool and Ethical Agent, in: R. Trappl (Hg.), A Construction Manual for Ethical Systems, Cham 2016, 11-29, hier 17.
[14] Vgl. Engineering and Physical Sciences Council, EPSRC Principles of Robotics 2011, https://www.epsrc.ac.uk/research/ourportfolio/themes/engineering/activities/principlesofrobotics/ (27. Februar 2017).
[15] Vgl. dazu R. Van Est/D. Emerding (Hg.), Making Perfect Life. European Governance Challenges in 21st Century Bio-engineering, 2012 <http://www.europarl.europa.eu/RegData/etudes/etudes/join/2012/471574/IPOL-JOIN_ET(2012)471574_EN.pdf> (27. Februar 2017).
[16] Vgl. zu ihrer ethischen Beurteilung A. Manzeschke/K. Weber/E. Rother/H. Fangerau (2013), Studie Ethische Fragen im Bereich Altersgerechter Assistenzsysteme. http://www.ttn-institut.de/sites/www.ttn-institut.de/files/Abschlussbericht%20Ethische%20Fragen%20im%20Bereich%20altersgerechter%20Assistenzsysteme.pdf. (27. Februar 2017).
[17] B. Krenn, Multiuse Tool and Ethical Agent, in: R. Trappl (Hg.), A Construction Manual for Ethical Systems, Cham 2016, 11-29, hier 17.
[18] Vgl. J. Griffin, First Steps in an Account of Human Rights, in: European Journal of Philosophy 9 (3/2001) 306-327, hier 311-312.
[19] J. Griffin, On Human Rights, Oxford 2008, 32.
[20] Vgl. P. G. Kirchschläger, Automatisierung von Mobilität – theologisch-ethische Überlegungen, in: feinschwarz.net (27. Februar 2017).
[21] Vgl. P. G. Kirchschläger, Human Rights as an Ethical Basis for Science, Journal of Law, Information and Science 22 (2/2013) 1-17.
[22] Vgl. http://digitalcharta.eu/.
[23] C. Neuhäuser, Roboter und moralische Verantwortung, in: E. Hilgendorf (Hg.), Robotik im Kontext von Recht und Moral.Robotik und Recht Bd. III, Baden-Baden 2014, 269-286, hier 270.
—
Autor: PD Dr. theol., lic.phil. Peter Kirchschläger ist Visiting Fellow an der Yale University (USA) und Forschungsmitarbeiter an der Theologischen Fakultät der Universität Luzern
Beitragsbild: Pixabay https://pixabay.com/de/bin%C3%A4r-eins-cyborg-kybernetik-1536651/