4
Robotik und menschliches Handeln
4.1
Einleitung
Die Robotik ist für unser personales und kulturelles Selbstverständnis folgenreicher
als andere Technologien. In der Robotik scheint der Mensch sich selbst zu begegnen. Variationen solcher Begegnungen finden sich in den Mythen und Fiktionen
zum künstlichen Menschen, die sich bis in die griechische Antike zurückverfolgen
lassen. Indem Robotik menschliche Intelligenz und Bewegungsformen simuliert,
wirkt sie mittelbar oder unmittelbar auf unsere Alltagsanthropologie, auf das Bild,
das wir von uns und unseren Mitmenschen als Akteure im gesellschaftlichen Raum
haben. In ihren kulturellen Auswirkungen ist die Robotik mit der Gentechnik vergleichbar. Während sich in der Gentechnik bereits jetzt schwerwiegende ethische
Probleme stellen, entwickelt sich die Robotik langsamer als viele öffentlichkeitswirksame Voraussagen nahelegen. Ohnehin ist davon auszugehen, dass das ethische
Konfliktpotential der Robotik nicht an das der Gentechnik heranreichen wird.
Anders als bei dem Großteil der Problemfälle Angewandter Ethik sind im Falle von Robotikbewertungen die engeren Kontexte der Technikfolgenbeurteilung zu
überschreiten und Überlegungen zu den Grundlagen gesellschaftlicher Selbstverständigungen zu berücksichtigen. Der Beitrag der Philosophie zur Bewertung der
Robotik hat dementsprechend anthropologische, ethische und kulturelle Orientierungen zu umfassen, die normalerweise bei der Technikfolgenbeurteilung zumindest nicht in durchgreifender Weise erfolgen müssen. Argumentative Rückgriffe,
die sich nicht nur auf die Angewandte Ethik beschränken, sondern philosophische
Anthropologie, Philosophie des Geistes, Metaethik und Kulturphilosophie mit einbeziehen, sind zwar Optionen der Technikfolgenbeurteilung, 1 sie sind ihr aber nicht
von vomherein gleichsam als Pflichtprogramm eingeschrieben. 2 Im Fall der Robotik sind derartige Rückgriffe jedoch unumgänglich.
Das Bild von der Robotik in der Öffentlichkeit ist unscharf. Es herrscht kein klares Verständnis von dem tatsächlichen Zuschnitt dieser Technologie. Erschwerend
kommt hinzu, dass der mittlerweile einsetzende Diskurs über Robotik mit einseitigen und hochgradig verzerrenden Einlassungen belastet wird, denen größte öffentliche Aufmerksamkeit zuteil wird. 3 Das gilt vor allem für Vorstellungen von
humanoiden Robotern. Aus diesem Grunde muss bei der Analyse der ethischen und
kulturellen Konsequenzen der Robotik zunächst Klarheit darüber hergestellt wer1
Zur immer noch vorherrschenden Unbezüglichkeit von Technikfolgenbeurteilung und philosophischer Fachdiskussion siehe Gethmann 1999, S. 2f.
2
Vgl. Kapitel2 sowie Gethmann und Grunwald 1996 und Grunwald 1999.
3
Siehe Moravec 1988 und 1999, Kurzweil 1999, Joy 2000.
T. Christaller et al., Robotik
© Springer-Verlag Berlin Heidelberg 2001
112
4 Robotik und menschliches Handeln
den, über welchen technologischen Sachverhalt tatsächlich zu befinden ist. Dabei
wird sich zeigen, dass nicht nur technologische Problemstellungen im engeren Sinn
zu behandeln sind. Bei der Bewertung der ethischen und kulturellen Konsequenzen
der Robotik müssen vor allem auch die Implikationen und Konsequenzen unserer
Einstellungen, einschließlich des Sprachgebrauchs, gegenüber dieser Technologie
berücksichtigt werden.
Bereits der Ausdruck ,Ersetzbarkeit des Menschen' lässt in seiner Allgemeinheit noch keine klare Problemstellung zu. Viele Ersetzbarkeitsszenarien beruhen
auf einer unscharfen Semantik, die die tatsächlich zu verhandelnden Sachverhalte
und Konflikte verdeckt. Für das Projekt einer Ersetzbarkeil des Menschen im wörtlichen Sinne zeichnen sich trotz der viel beachteten Entwürfe von Moravec und
Kurzweil nicht einmal Ansätze ab. Abgesehen von den technologischen Schranken
stehen derartigen Projekten schwerwiegende ethische Bedenken gegenüber, denn
sie würden die grundlegenden ethischen Bestimmungsstücke des Naturgemäßen,
des lnstrumentalisierungsverbots, der Autonomie und Würde der Person sowie der
Verantwortung für zukünftige Generationen berühren. 4
Die vordergründigen Ersetzbarkeitsszenarien tragen nicht zuletzt dazu bei, im
sozialen Raum selbstentfremdende Sprachspiele der menschlichen Selbstverständigung zu verstärken, die die tatsächlichen menschlichen Fähigkeiten und Eigenschaften aus dem Fokus der öffentlichen Aufmerksamkeit rücken und vereinfachenden Gleichsetzungen nachgehen, denen zufolge der Mensch - je nach naturwissenschaftlichem Paradigma - nichts anderes sein solle als ein Algorithmus seiner
Gene, eine biologische Maschine, kohlenstoffbasierte Hard- und Software etc. Diese reduzierenden Gleichsetzungen sind in der Robotik bzw. der Theorie der Robotik
vor allem in der Form der Vermischung von Robotikvisionen mit der Wirklichkeit
sowie der Vermischung von menschlicher und künstlicher Intelligenz anzutreffen.
Im Kontext technologiekritischer Diskurse nimmt die Robotik eine eigentümliche Sonderstellung ein. Sie kann auf Seiten der Kulturkritik mit differenzierten
Urteilen auch in den Bereichen rechnen, die Technologien eher skeptisch gegenüberstehen. Das dürfte vor allem damit zusammenhängen, dass die Robotik Erweiterungspotentiale für die menschliche Handlungsfähigkeit bereitstellt und Anknüpfungspunkte für ästhetische Projekte bietet. Darüber hinaus gelten Roboter als eine
,künstliche Art', bei der eine entwicklungslogische Eigendynamik im Sinne einer
kulturellen Bereicherung erwünscht ist.
Roboter sind als technologische Produkte konkrete Antworten auf die Frage, wie
wir leben wollen bzw. unter welchen Bedingungen wir leben wollen. Offen ist jedoch, ob die technologischen Antworten ethisch, kulturell, politisch und technologisch richtig bedacht worden sind. Zwar kann nicht davon ausgegangen werden,
dass Fragen und Antworten im sozialen und politischen Raum angemessen diskutiert worden sind, das bedeutet jedoch nicht zwangsläufig, dass Robotik eine gefährliche kulturelle Sackgasse ist. Nur müssen jetzt rechtfertigungsfähige Gründe
für die Robotik in Wissenschaft, Politik und Gesellschaft ausgebreitet werden.
Aufgrund dieser Einbettung in zentrale gesellschaftliche Problemstellungen müssen Stellungnahmen zur Robotik normative Grundsatzentscheidungen einschließen.
Sie betreffen folgende Aufgabenstellungen:
4
Siehe Abschnitt 4.3.
4.2 Philosophische Anthropologie
113
1. Die Herausarbeitung einer Ethik der menschlichen Lebensform, insbesondere
die Herausarbeitung der Grenzen der Zumutbarkeit der technologischen Umgestaltung der menschlichen Lebenswelt
2. Die Benennung von Kriterien der sozialen Verträglichkeit von Robotern, einschließlich von Kriterien für den noch zuträglichen Kommunikations- und Bewegungsabbau beim Menschen durch den Einsatz von Servicerobotern.
3. Die Bestimmung der psychischen, ethischen und ästhetischen Auswirkungen von
Robotern im sozialen Raum.
Um den Ausdruck ,Ersetzbarkeit des Menschen' und mögliche Ersetzbarkeitsszenarien einer ethischen und kulturphilosophischen Bewertung zuführen zu können,
muss zunächst der anthropologische Ausgangspunkt für ein derartiges Unterfangen
zur Verfügung gestellt werden. Die philosophische Bewertung der Robotik im Allgemeinen und der Ersetzbarkeitsszenarien im Besonderen erschließt sich insofern
erst in einer komplexen Analyse, die die systematischen Perspektiven verschiedener philosophischer Disziplinen- insbesondere der philosophischen Anthropologie,
einschließlich der Sprachphilosophie und Philosophie des Geistes, der Ethik und der
Kulturphilosophie- zusammenführt. 5
4.2
Philosophische Anthropologie
Die philosophische Anthropologie wird hier nicht im Sinne der spekulativen Erfassung der Sonderstellung des Menschen aufgefasst. Ein solcher Ansatz kennzeichnet
die ,Anthropologie von oben' der ersten Hälfte des 20. Jahrhunderts- wie sie sich
etwa bei Scheler, Plessner oder Gehlen findet. Vielmehr sollen im Folgenden komplexere theoretische Zugriffe erfolgen, die sich methodisch an Ansätzen der neueren
Sprachphilosophie und Philosophie des Geistes orientieren. Dabei geht es nicht um
die Grundlegung einer Sonderstellung des Menschen, sondern um die Identifikation bzw. Rekonstruktion von Eigenschaften und Fähigkeiten, die die menschliche
Lebensform nicht mit anderen Lebensformen oder Funktionszusammenhängen teilt.
4.2.1
Sprachspiele der Künstlichen Intelligenz und Robotik
Bei Auseinandersetzungen um technologische Innovationen im Allgemeinen sowie
in den Diskussionen der Ethik der Technik im Besonderen wird nur selten auf Einsichten und Erträge der neueren Erkenntnistheorie und Sprachanalyse zurückgegriffen. So wird oft übersehen, dass die Semantik der ethischen und technologischen
Ausdrücke schon über die Problemstellungen vorentscheidet, für deren Lösung sie
eingesetzt wird. In der Sprachphilosophie gilt es dagegen als unstrittig, dass die Erfassung und Identifikation eines Sachverhalts in einem konstitutiven Sinne von den
jeweils eingesetzten Begriffen und Klassifikationen abhängt.
Semantische Oberftächlichkeiten in den technologischen Diskursen zeigen sich
zum einen in der unvermittelten Wahl von Vokabular und Sprachspiel, zum anderen
5
Zum Verhältnis von Ethik und angewandter Ethik vgl. Nida-Rürnelin 1996.
114
4 Robotik und menschliches Handeln
in der Vernachlässigung der praktischen und ethischen Implikationen der eingesetzten Begriffe bzw. der Unterstellung ihrer Wertneutralität Verfahren der Begriffsanalyse und Argumentkontrolle werden in ihrer wissenschaftstheoretischen, ethischen
und politischen Funktion unterschätzt und bleiben insofern vom Ansatz her ausgeklammert.
Sowohl in der Forschung zur Künstlichen Intelligenz (KI) als auch in der Robotik
wird durchgängig quasi-intentionales Vokabular bei der Beschreibung von komplexen Vorgängen der Informationsverarbeitung verwandt. Diese Verwendungsweisen
führen zu semantischen Nivellierungen von genuin menschlichen Eigenschaften auf
der einen Seite und künstlichen Funktionszusammenhängen auf der anderen Seite.
Damit wird anthropologischen und ethischen Bestimmungen, die ursprünglich mit
dem Intentionalitätsvokabular angesprochen worden sind, der eigentümliche Referenzraum entzogen.
Die Reduktion des Intentionalitätsvokabulars ist in den Kontexten der Sprachphilosophie und Philosophie des Geistes auf einflussreiche Weise von Daniel Dennett vollzogen worden. 6 In einer instrumentalistischen Sprachtheorie billigt er allen
Systemen Intentionalität zu, bei deren Beschreibung zumindest metaphorisch intentionale Ausdrücke eingesetzt werden können. Eine derartige semantische Verwendungsweise ist ihm zufolge dann gerechtfertigt, wenn sie plausible Erklärungsgeschichten und Vorhersagen erlaubt. Dennetts Instrumentalismus zieht vom Ansatz
her die Differenz zwischen Beschreibung und dem beschriebenen Verhalten ein.
Was das Verhalten eines Systems der Sache nach ausmacht, wird danach allein von
einem Beschreibungsvokabular bestimmt, dessen Verwendungsweise lediglich von
den Intuitionen desjenigen abhängt, der das Vokabular einsetzt. Korrekturen nach
Maßgabe des zu untersuchenden Sachverhalts haben in einer solchen Definitionspraxis keinen Platz mehr. Der Instrumentalismus steigert den Zusammenhang von
Sprache und Handlung ins Extrem und lässt keinen Raum für eine Differenzierung
zwischen einem sachlich angemessenen und einem sachlich unangemessenen Beschreibungsvokabular.
Aufgrund der internen Wechselverhältnisse zwischen Sprache und Handlung
muss die Semantik des konzeptionellen und praktischen Umgangs mit Robotern
zur Diskussion gestellt werden, denn Begriffsprägungen sind auch in technologischen Bereichen keine wertneutralen Etikettierungen, sondern präformieren unmittelbar die Wahrnehmung, Interpretation und Behandlung von Sachverhalten. Die
unbegründete Verwendungsweise von anthropologischer Terminologie - wie ,Bewusstsein', ,Wissen', ,Lebensform', ,Intentionalität', ,Agent', ,Autonomie', 7 ,künstliche Person' usw. - kann zum Verkennen von grundlegenden Differenzen zwischen
Mensch und Maschine führen und so problematische Reaktionsformen hervorrufen.
Das zeigt sich nicht zuletzt an Zukunftsszenarien zur Ersetzung der menschlichen
Lebensform durch neue ,Generationen' von Computern und Robotern. 8
7
Siehe Dennett 1978 und 1987. Die inflationäre Instrumentalisierung des intentionalen Vokabulars ist
mit Entschiedenheit von John Searle zurückgewiesen worden; siehe Searle 1983 und 1992. Übersichten zu den Hauptströmungen der gegenwärtigen Philosophie des Geistes finden sich in Bieri 1981,
Carrier und Mittelstraß 1989, Lycan 1990, Wamer und Szubka 1994, Blocket al. 1997 und Sturma
1998.
Zum semantischen Feld des Ausdrucks ,Autonomie' siehe Abschnitt 4.3.2.
8
Siehe Moravec 1988 und 1999, Kurzweil1999.
6
4.2 Philosophische Anthropologie
115
Genuin anthropologische Bestimmungen müssen sowohl von dem mechanistischen Sprachspiel - ,künstlich', ,Maschine' usw. - als auch von dem biologischen
Sprachspiel- ,Leben', ,Selbsterhaltung'- semantisch abgegrenzt werden. Zudem
sind die semantischen Mischformen zu berücksichtigen, die in versteckter Form
wissenschafts- und gesellschaftspolitische Thesen enthalten - zu nennen sind hier
die Ausdrücke ,Ersetzbarkeit des Menschen', ,autonome Systeme' und ,autonome
Roboter'.
Die Klärung und Überprüfung des fachspezifischen Vokabulars hat in den erweiterten semantischen Kontexten der Alltagssprache zu erfolgen. Diese Erweiterung
ist prohibitiv für Annahmen einer selbstverständlichen Vorrangstellung des Expertenvokabulars. Es sollte nicht ungeprüft hingenommen werden, dass grundlegende
Begriffe des individuellen und gemeinschaftlichen Selbstverständnisses aus kontingenten fachspezifischen Gründen neu definiert werden, wie das etwa im Fall des
Ausdrucks ,autonom' geschehen ist. Der unreflektierte Gebrauch von intentionalen,
epistemischen und ethischen Ausdrücken jenseits des anthropologischen Anwendungsbereichs hat eine Tendenz zum Instrumentalismus und entzieht sich vom Ansatz her einer semantischen und ethischen Überprüfung. Problematisch ist nicht in
erster Linie die Neudefinition, sondern die Anwendung des abgeleiteten instrumentalistischen Vokabulars auf die menschliche Lebensform.
Ein weiteres Problem besteht darin, dass die anthropologischen Besonderheiten
des Menschen methodisch ausgeklammert werden, um somit der KI-Forschung und
Robotik Zugang zum anthropologischen Vokabular zu verschaffen. So wird in einer neueren Arbeit bei dem Versuch der Definition von Intelligenz das menschliche
Sprachverständnis umstandslos ausgeklammert. Damit wird der Unterschied zwischen menschlicher Intelligenz und möglichen anderen Formen von Intelligenz eingezogen und gerade das gestrichen, was eigentlich erklärt werden sollte. 9
Das in den Hauptströmungen der KI-Forschung und Robotik vorherrschende
instrumentalistische und reduktionistische Vokabular führt zu einer schleichenden
Aushöhlung des Menschenbildes. In einem von jedem anthropologischen Eigensinn entleerten Sprachspiel erscheint der Mensch lediglich als unvollkommene Maschine.10 KI-Forschung und Robotik haben bislang nur Hypothesen zur künftigen
Entwicklung künstlicher bzw. maschineller Intelligenz aufgestellt. Diese Hypothesen sind unter der Hand zum Anlass genommen worden, die strukturellen Grenzen
zwischen menschlicher und künstlicher Intelligenz als graduelle Unterschiede zu
erklären. Dieser semantische Fehlschluss hat praktische Konsequenzen.
Vor allem der Ausdruck ,Ersetzbarkeit des Menschen' führt eine Reihe von bedenklichen semantischen Präformationen mit sich. Die Nähe der Robotik zu humanoiden Konstruktionen löst eine Reihe von Assoziationen und Konnotationen aus,
die den sachlich zuträglichen Möglichkeitsraum deutlich überschreiten. Die Ersetzbarkeit kann sich allenfalls auf spezifische Funktionen beziehen, die ohnehin schon
von technischer Seite erfüllt werden. Semantisch wird jedoch nahe gelegt, dass der
Mensch als solcher ersetzt werden könne oder solle.
9
Siehe Cruse et al. 1998, S. 21 f.
10
Vgl. Janich 1993, S. 29: "( ... ) schon durch eine unbekannte Bedeutungsverschiebung von Verben,
die zunächst menschliche Handlungen bezeichnen, auf Maschinenfunktionen, erscheint der Mensch
nur noch als sonderbare und unvollkommene Maschine, die fast alles, aber- technisch gesehen- fast
nichts richtig kann."
116
4 Robotik und menschliches Handeln
Die schnelle Entwicklung in der KI-Forschung und Robotik erzwingt gleichwohl,
die semantischen Grenzen der menschlichen Lebensform genau zu umreißen. Eine
solche Konturierung ist gerade bei Entscheidungen über Ersetzbarkeit und NichtErsetzbarkeit schlechthin entscheidend. Beantwortungen normativer Fragen nach
der vermeintlichen Ersetzbarkeit des Menschen setzen eine ,dichte Beschreibung' 11
(thick description) der menschlichen Lebensform voraus. Während eine ,schwache Beschreibung' (thin description) nur eine Zusammenstellung von empirischen
Daten ist, die von einem äußeren Beobachter an der Verhaltensoberfläche gewonnen wird, erfasst eine dichte Beschreibung die internen Bedeutungszusammenhänge des Systems von Sprache, Verhalten, Verstehen und Handlung. Im anthropologischen Kontext ist eine solche Beschreibung nur unter der Voraussetzung als
dicht zu bezeichnen, dass die Semantik selbstreferentieller Ausdrucks- und Verstehenszusammenhänge der menschlichen Lebensform Berücksichtigung findet. Nur
in einer ,dichten Beschreibung' können sich spezifisch menschliche Eigenschaften und Grundbefähigungen zeigen, die die psychische und soziale Wirklichkeit
der menschlichen Lebensform im Unterschied zu künstlichen Ordnungen kenntlich
werden lassen.
4.2.2
Personen
Menschen entwickeln sich unter normalen biologischen und sozialen Bedingungen
zu Personen, die sich in epistemischen, emotiven, moralischen und ästhetischen Einstellungen zu sich, anderen Personen und ihrer Lebenswelt verhalten. 12 Personales
Leben ist in diesem Sinne die Entfaltung menschlicher Existenz. Bei einer dichten Beschreibung der menschlichen Lebensform muss dementsprechend die Person
im Zentrum stehen. Zwar kennen wir individuelle Personen nur in der Gestalt von
Menschen. Es kann aber nicht grundsätzlich ausgeschlossen werden, dass personale
Fähigkeiten und Eigenschaften sich auch in anderen Existenzformen manifestieren
können. 13
Es wird häufig versucht, die semantische Binnenstruktur des Personbegriffs mit
Listen von Fähigkeiten und Eigenschaften wie Intelligenz, Emotivität, Selbstbewusstsein, Selbstverständnis, Intentionalität, Sprache, Handlungsfreiheit, Rationa11
Zum Begriff der dichten Beschreibung siehe Ryle 1971 und Geertz 1983.
12
Vgl. Sturma 1997 und 2001.
Während der Personbegriff seit seinen begriffsgeschichtlichen Anfangen im Hellenismus gegenüber
der biologischen Bestimmung des Menschen als semantisch eigenständig konzipiert worden ist, gibt
es neuerdings Versuche, eine extensionale Identität der Begriffe ,Mensch' und ,Person' anzusetzen
(siehe Spaemann 1996). Das hängt vor allem damit zusammen, dass in Diskussionen der Augewandten Ethik, die sich mit den Grenzen des entstehenden und vergehenden Lebens auseinandersetzen,
moralischer Status und Lebensrecht einerseits und Anerkennung als Person andererseits umstandslos
als sich wechselseitig bedingend angesehen werden. Vorbehalte werden vor allem dagegen erhoben,
die Anerkennung des Personstatus von der Erfüllung von Kritierien abhängig zu machen, die sich allein am normalen Erwachsenendasein einer Person orientieren. Der Konflikt ließe sich wohl dadurch
entschärfen, dass Fragen von moralischem Status, Lebensrecht und Anerkennung als Person strikt
auseinandergehalten werden. Für die Belange der Robotik wäre eine solche Ausdifferenzierung interessant, weil auf diese Weise keine Festlegung getroffen werden müsste, unter welchen materiellen
Bedingungen personales Dasein vorliegen kann.
13
4.2 Philosophische Anthropologie
117
lität und wechselseitige Anerkennung zu erfassen. Alle diese Bestimmungen zeichnen die menschliche Lebensform in den alltäglichen Handlungsvollzügen genauso
aus wie in deskriptiven und normativen Thematisierungen. Listen von Fähigkeiten
und Eigenschaften können sicherlich noch nicht eine vollständige und hinreichende Erfassung von Personen liefern, mit ihr zeichnen sich gleichwohl strukturelle
Eigenheiten der menschlichen Lebensform ab.
Personen unterstellen anderen Personen Zustände und Handlungen, die sie unter
gegebenen Bedingungen auch sich selbst zuschreiben. Sie verfolgen gemeinsam auf
individuell verschiedene Weise ähnliche Lebenspläne und orientieren sich an einer
überschaubaren Anzahl vergleichbarer Wertvorstellungen. Diese Anerkennungskultur beruht auf der Präsenz von Personen im Raum der Gründe, der eine semantische
und syntaktische Ordnung repräsentiert, durch die Ausdrücke und Sätze der Anerkennungskultur ihre Bedeutung erlangen.
Der Begriff des Raums der Gründe (space of reasons) ist von Wilfrid Seilars
geprägt worden. Er hat mit Nachdruck darauf hingewiesen, dass die Formierung
der menschlichen Lebensform durch den Raum der Gründe den inhaltlichen Gehalten von Einstellungen, Erfahrungen und Erkenntnissen vorhergeht. Beispielsweise
könnte der Ausdruck ,rot' nicht als Prädikat verwandt werden, wenn er nicht im
Raum der Gründe die Charakteristika erhalten hätte, die er mit allen anderen Prädikaten gleicher Art teilt. Diese Zuweisung vollzieht sich im Kontext von angemessenen Reaktionen auf Identifikationssituationen, in denen rote Gegenstände oder
Phänomene vorkommen:
(... ) it is perfectly clear that the word ,red' would not be a predicate if it
didn 't have the logical syntax characteristic of predicates. Nor would it be
the predicate unless, in certain frames of mind, at least, we tended to respond
to red objects in circumstances with something having the force of ,This is
red'. 14
Erfahrungszustände oder Erkenntnisprozesse sind dementsprechend nicht allein
von ihrem empirischen Gehalt abhängig, sondern davon, dass sie in syntaktisch
angemessener Form in den Raum der Gründe gestellt werden: "The essential point
is that in characterizing an episode or a state as that of knowing, we are not giving an
empirical description of that episode or state; we are placing it in the logical space
of reasons, of justifying and beingable to justify what one says." 15
Die Konzeption des Raums der Gründe ist die erkenntnistheoretische und sprachphilosophische Reaktion auf den Sachverhalt, dass menschliche Einstellungen, Verhaltensweisen und Handlungsepisoden symbolisch vermittelt sind. Menschen haben
im Laufe der Transformation ihrer Naturgeschichte in Kulturgeschichte gleichsam
künstliche Ordnungen zwischen sich und die Natur geschoben. Wie dieser Prozess
sich im Einzelnen vollzogen hat, dürfte bei allem Raffinement neuester Verfahren
der Auswertung hominider und humanoider Fossilien, einschließlich genetischer
Rekonstruktionen, wohl nicht mehr vollständig geklärt werden können. Es zeich14
Seilars 1956, S. 66.
15
Seilars 1956, S. 76. Von John McDowell und Robert Braudom sind bedeutende Weiterführungen und
Erläuterungen von Seilars' Begriff des Raums der Gründe vorgelegt worden. Sie haben in der gegenwärtigen Philosophie ein breites Echo gefunden; siehe McDowell 1994, Braudom 1994, Habermas
1999.
118
4 Robotik und menschliches Handeln
net sich allerdings eine überaus komplizierte Konstellation von biologischen und
sozialen Entwicklungen ab, die spätestens mit dem Auftreten des modernen homo
sapiens sapiens eine rasante Dynamik kultureller Prozesse in Gang gesetzt hat. 16
Da sich die biologischen, technischen und sozialen Elemente dieses Prozesses bei
frühen homo-Arten auch finden, ohne dass es zu einer vergleichbaren Entwicklung
gekommen wäre, ist in diesem Fall wohl von einem emergenten Phänomen auszugehen. Gerade vor dem Hintergrund der Komplexität des Übergangs von Naturgeschichte in Kulturgeschichte scheinen optimistische Simulationserwartungen in
manchen Bereichen der Theorie der Robotik gewagt. 17
In der Perspektive des Raums der Gründe zeichnet sich schließlich auch der epistemische, moralische und ästhetische Eigensinn der menschlichen Fähigkeiten und
Eigenschaften ab, den eine dichte Beschreibung aufzudecken hat. Zu nennen sind
vor allem Selbstbewusstsein, Erfahrung, Ausdruck, Lebensplan, Bildung und kulturelle Praxis.
Das Selbstbewusstsein, das Bewusstsein von sich und seinen Bewusstseinszuständen, weist die Besonderheiten auf, infallibel, nicht-korrigierbar, instantan,
selbstvertraut, selbsttransparent sowie epistemisch und lebenspraktisch irreduzibel
zu sein. 18 Weil menschliches Bewusstsein immer schon unter den Bedingungen
möglichen Selbstbewusstseins steht, sind Erfahrungs- und Erkenntniszustände bzw.
propositionale Einstellungen produktive und selbstreferentielle Leistungen. Selbst
unmittelbare Sinneswahrnehmungen verlaufen nicht rein passivisch, sondern kommen durch implizite Urteile zustande. 19 In einem Wahrnehmungszustand strukturiert das Erfahrungssubjekt die visuell, akustisch oder taktil aufgenommenen Daten
und bezieht sie auf sich und seine fortlaufenden mentalen Akte. Nur unter diesen
Voraussetzungen haben menschliche Wahrnehmungen und Erfahrungen einen kohärenten und ausdrückbaren Gehalt.
Personen verfügen über eine entwickelte AusdrucksfähigkeiL Sie ist nicht nur
die Bedingung für soziale Interaktionen und Kommunikationen, sondern durch sie
gelangen Personen auch zum Verständnis der eigenen Innerlichkeit sowie der Innerlichkeit anderer Personen. Diesen Sachverhalt hat Wittgenstein dahingehend zusammengefasst, dass Sprache immer schon eine Lebensform repräsentiere. 20 Entsprechend sind Zustände wie Liebe, Hass, Scham, Empörung, Reue oder Bedauern,
Achtung oder Gerechtigkeitssinn nur dem verständlich, der sich schon innerhalb der
menschlichen Lebensform bewegt. Weitere Kennzeichen personalen Lebens sind
Identität und Lebensplan über die Zeit hinweg. Die Spuren einer Person im sozialen
Raum gehen aus individuellen Verhaltensgeschichten hervor, die sich eigenständigen Bewertungen, Zielsetzungen und Veränderungen öffnen. Auf diese Weise ist
es einer Person möglich, ihr Leben unter gegebenen natürlichen und sozialen Bedingungen zumindest teilweise in Selbstverhältnissen zu führen. Dafür muss eine
16
Vgl. Leakey und Lewin 1992, Fo1ey 1997, Katz 2000.
17
Vgl. Abschnitt 4.2.3.
18
19
Siehe Stunna 1997, S. 97 f.
Siehe Kant 1787, B 129 f.; vgl. Seilars 1956, S. 25 f.
20
Siehe Wittgenstein 1953, § 19.
4.2 Philosophische Anthropologie
119
Person ein Verständnis ihrer Ausdehnung in der Zeit entwickeln. Sie muss verstehen, was es bedeutet, in der Gegenwart eine Vergangenheit und Zukunft zu haben. 21
Weil der Mensch über seine kulturelle Lebensform noch nicht durch seine natürliche bzw. biologische Existenz verfügt, hat er sie sich durch Sozialisation, Spracherwerb und Bildung anzueignen. Er erwirbt dabei eine Empfänglichkeit für rationale und moralische Gründe. Damit ist es Personen prinzipiell möglich, reflektierte
Einstellungen zu sich und ihrer Umwelt einzunehmen. Reflexion ist nicht einfach
ein Epiphänomen von Aktionen, sondern geht in der Form erweiterten Verstehens
unmittelbar in die Handlungsplanungen und Handlungsvollzüge mit ein. Personale
Verhaltensweisen können insofern nicht einfach als bloße Reaktionsmodi aufgefasst
werden. Sie sind vielmehr in eine kulturelle Praxis eingebettet, an der die jeweiligen
Personen nach Maßgabe ihrer epistemischen und praktischen Wirklichkeitsdifferenzierung teilhaben.
In einer dichten Beschreibung erweist sich die menschliche Lebensform als vielschichtiges System von Bewusstseins-, Verstehens- und Handlungszusammenhängen. Dieses System und insbesondere die Grundbegriffe personalen Lebens sowie
der Raum der Gründe stellen eine hohe Hürde für Ersetzbarkeits- und Simulationsprojekte dar. An der Einlösung dieser Bestimmungen muss gemessen werden, ob
nicht-menschliche Existenzformen mögliche Kandidaten für den Personstatus sein
können. Im Fall der Robotik heißt das insbesondere, dass Roboter nur dann als
Personen zu behandeln sind, wenn sie im Modus des Erlebens aktiv über Gründe,
Expressivität und Innerlichkeit verfügen.
4.2.3
Menschliche Intelligenz und Künstliche Intelligenz
Die Grundbegriffe der dichten Beschreibung haben Folgen für die Analyse menschlicher Intelligenz und ihres Unterschieds zu Künstlicher Intelligenz. Der dichten
Beschreibung zufolge lässt sich über menschliche Intelligenz ohne die Semantik der
Gründe nicht befinden. Die Semantik der Gründe ist fest eingebettet in die menschliche Lebensform. Kein bislang bekannter Software-Agent oder Roboter verfügt jedoch aktiv über Gründe. Anders lautende Unterstellungen beruhen allein auf Reifizierungen von metaphorischen Wendungen. Nicht-metaphorische Verwendungsweisen des Intelligenzbegriffs können sich ausschließlich auf Personen beziehen,
die über Fähigkeiten wie Subjektivität, Körperlichkeit, Emotivität, Rationalität und
Moralität verfügen. Es wird zuweilen angenommen, dass diese Fähigkeiten an biologische Systeme gekoppelt sind. Diese Abhängigkeit kann aber noch nicht als
schlüssig erwiesen gelten. Allerdings sind komplexe Ausformungen von Intelligenz
nach bisherigem Wissensstand nur auf biologischer Basis realisiert worden.
Menschliche Intelligenz erschließt sich zudem nicht über bloße Kommunikationsfähigkeit, sondern beinhaltet ein komplexes und kompliziertes Geflecht von
Einstellungen, Handlungen und Verstehensvorgängen. An reaktiven Haltungen wie
Freude, Empörung, Reue, Scham usw. zeigt sich die Dimension menschlicher Gründe. Sie muss sich auch in den intelligenten Sprachspielen abbilden. Informationssysteme, die an diese Bestimmungen nicht heranreichen, verlieren noch nichts von
21
Siehe Sturma 1997, S. 188 f.
120
4 Robotik und menschliches Handeln
der ihnen angesonnenen Funktion, sie verdienen aber nicht das Prädikat ,intelligent'.
Wenn Kommunikationsfähigkeit angeblich den Roboter vom reinen Automaten unterscheidet,22 dann ist der Raum der Gründe das, was eine intelligente Lebensform
von Künstlicher Intelligenz unterscheidet. 23
Ein weiteres irreduzibles Element menschlicher Intelligenz sind bewusste Repräsentationen. Sie unterscheiden sich von bloßer Information, die zwar ein ,attraktiver
Rohstoff' 24 sein mag, aber eben kein Kennzeichen von Intelligenz ist. Intelligenz ist
das Vermögen, bewusst nach Gründen differenzieren und handeln zu können. Sie ist
nicht reduzierbar auf die künstlichen Intelligenzmodelle, die in den Hauptströmungen der KI-Forschung und Robotik unterstellt werden.
Dieser Sachverhalt findet zwar auch in der neueren Philosophie des Geistes keine
angemessene Beachtung. Sie hat sich überaus intensiv mit der KI-Forschung auseinandergesetzt und eigene Repräsentationsmodelle bereitgestellt. Damit sind auch
weitgehende Erwartungen hinsichtlich einer neuen Symbiose von Philosophie und
Naturwissenschaften geweckt worden. Mit der vorbehaltlosen Anhindung an andere Wissenschaftsdisziplinen werden allerdings die Konturen genuin philosophischer
und ethischer Problemstellungen in der KI-Forschung undeutlich. Auch wenn man
diese Tendenz im Sinne einer interdisziplinären Option nicht für unwillkommen halten will, muss dem Umstand Aufmerksamkeit geschenkt werden, dass sie mit einer
Reihe gravierender sachlicher Reduktionen einhergeht, die tief in das Selbst- und
Weltverständnis der Alltagserfahrung sowie anderer wissenschaftlicher Disziplinen
eingreifen.
Die auffälligste Reduktion liegt im Bereich der Selektion der in der KI und Robotik verwandten Umweltmodelle, die nach Maßgabe technischer Konstruierbarkeit
in selektiven Interpretationen und Abstraktionen ausgelegt werden. Der Selektionsvorgang hat zwei Aspekte: die Selektion des Konstrukteurs und die Selektion des
technischen Mediums. Der Konstrukteur trifft ausgehend von seinem epistemischen
und epistemologischen Standpunkt Feststellungen und Prognosen, die aus spezifischen Visionen und Spekulationen hervorgehen. Im weiteren Fortgang werden dann
Fehlerkorrekturen- failure, error model, and critical analysis-vorgenommen. Die
technische Präformierung des Umweltmodells wird im Wesentlichen von der Verfassung der Sensorik des Roboters bestimmt.
Die selektiven Umweltmodelle haben eine Tendenz zur Verwechslung von Abstraktion und Simulation. Die Metaphorik der KI und Robotik dürfte keinen unbeträchtlichen Anteil daran haben, die Verwechslung zu verschleiern. Die menschliche Lebensform ist unter den gegenwärtigen technologischen Bedingungen nicht
künstlich reproduzierbar. Auf der Seite der technischen Reproduzierbarkeit lassen
sich gegenwärtig lediglich künstliche Modelle ausmachen, denen bestimmte Teilelemente des menschlichen Lebens vorgegeben werden, die dann aus Gründen der
Konstruierbarkeit weiter simplifiziert werden. Daraus entsteht ein eigener technischer Vorgang, dessen Resultat mit der menschlichen Lebensform keine wesentlichen Eigenschaften mehr teilt. Die Illusion der Ähnlichkeit kommt durch nachträgliche Interpretationen der Simulation zustande.
23
Siehe Ritter 1999a, S. 105 f.
Der Ausdruck ,Künstliche Intelligenz' wird deshalb im Folgenden nur noch metaphorisch verwandt.
24
Siehe Ritter 1999a, S. 110 f.
22
4.2 Philosophische Anthropologie
121
An den Hauptströmungen der KI-Forschung und Robotik ist insgesamt zu beklagen, dass sie sich an einem zu formalen und zu einfachen Bild von Intelligenz orientieren. Entscheidende Eigenschaften menschlicher Intelligenz geraten dabei aus
dem Blick - das gilt vor allem für die emotive, ästhetische, soziale und Verhaltensdispositionelle Intelligenz von Menschen.
Um humane Subjekte beschreiben zu können, braucht man keinen Seelebegriff,
wie viele naturalistische Ansätze in polemischer Absicht unterstellen. Solche Unterstellungen dienen lediglich dazu, sich von anthropologischen Erwägungen generell
zu befreien. Aber auch ein naturalistischer Subjektbegriff wäre noch ein Subjektbegriff. Es kommt auf das Subjekt an, nicht auf die Vorstellung von ihm. Die im
Spiel befindlichen Intelligenztheorien25 sind deshalb einer kritischen Analyse zu
unterziehen. Zudem kann trivialerweise nur das simuliert werden, was als solches
auch durchschaut und nicht durch simplifizierende Modelle imitiert wird. Es müssen aber beträchtliche Zweifel angemeldet werden, dass wir schon im Besitz einer
angemessenen- und das heißt vor allen Dingen: nicht-reduktionistischen- Theorie
menschlichen Bewusstseins sind.
Aus den sprach- und erkenntniskritischen Überlegungen kann unschwer der
Schluss gezogen werden, dass für eine angemessene ethische Bewertung der Robotik die Klärung des unterstellten Menschenbildes von entscheidender Bedeutung
ist. Denn Entwürfe zur vermeintlich bevorstehenden Ersetzung menschlicher Intelligenz durch Künstliche Intelligenz beruhen in aller Regel auf reduktionistischen
Menschenbildern. In der Perspektive eines solchen Ansatzes werden die semantischen Elemente der Weltbeschreibung auf das reduziert, was technologisch reproduzierbar ist. Materielle Prozesse und Funktionen sind konstitutiv an der Herausbildung von Intelligenz beteiligt, gleichwohl ist ein Maschinenbegriff - wie komplex
er auch angelegt sein mag - nicht hinreichend, um die menschliche Intelligenz und
Lebensform als solche zu erklären. Kenntnisse über technologische Funktionszusammenhänge können nicht umstandslos als Wissen über diejenigen ausgewiesen
werden, die zu solchen Einsichten kommen.
Aus der anthropologischen Analyse geht hervor, dass die menschliche Lebensform über spezifische Eigenschaften und Fähigkeiten verfügt, die sich nicht substituieren oder simulieren lassen. Dementsprechend sind Eigenschaften und Fähigkeiten wie Selbstbewusstsein, Reflexion, reaktive Emotivität, Erfahrung, Zeitbewusstsein, Ausdrucksfähigkeit, produktive Einbildungskraft, praktische Vernunft sowie
das Vermögen, Zwecke setzen zu können, bei einer ethischen Bewertung von Ersetzbarkeitsszenarien in der Robotik vorrangig zu beachten.
Weil die Ersetzbarkeit des Menschen auf nicht-natürlichem Weg vollzogen werden soll, der Mensch aber eine naturbestimmte Lebensform mit der Grundbefähigung zur Kultur ist, kann schon aus Gründen semantischer Konsistenz nicht mehr
buchstäblich von Ersetzbarkeit gesprochen werden. An diesem Sachverhalt würden
auch weitestgehende biotechnologische Revolutionen nichts ändern. Die einzelne
Person kann möglicherweise einmal gentechnisch reproduziert werden. Ihre Innenperspektive bleibt davon aber unberührt. Sie ist numerisch einfach und lässt sich
als subjektive Erlebnisperspektive des Selbstbewusstseins nicht vervielfältigen. Aus
eigenen Körperzellen klonierte Menschen wären vielleicht ähnliche, aber immer
25
Vgl. Hütter 2001.
122
4 Robotik und menschliches Handeln
noch verschiedene Personen. Dem Sprachspiel der Ersetzbarkeit sollte deshalb weder spekulativ noch praktisch weiter gefolgt werden. In der Robotik geht es entsprechend auch nicht um generelle Ersetzungen, sondern um die Verlagerung, Neufassung und Ausübung von Funktionen oder Tätigkeiten, die der Mensch in vergleichbarer Weise nicht ausüben kann oder nicht ausüben soll.
4.3
Ethik
Die Anthropologie der Humanität zielt einen Kernbereich der menschlichen Lebensform an, der unter den ethischen Schutz der praktischen Vernunft zu stellen ist. Praktische Vernunft äußert sich im Wesentlichen in der Konstruktion und Rekonstruktion
von Normen, Motivationen und Anwendungen. Der Übergang von der Anthropologie der Humanität zur Ethik und ihrer Anwendung kann mit den Grundbegriffen der
Natürlichkeit, Würde, Autonomie und Verantwortung für zukünftige Generationen
bestritten werden. Im semantischen Feld dieser Begriffe lassen sich Engführungen
von deskriptiven, explanativen und normativen Bestimmungen durchführen.
4.3.1
Natürlichkeit
Mit dem Begriff der Natürlichkeit bzw. des Naturgemäßen verbindet sich in der Stoa
das anspruchsvolle Projekt, einen integrativen Theorierahmen für die theoretischen
Perspektiven zur Verfügung zu stellen, die heute von den Disziplinen der Kosmologie, Naturphilosophie, philosophischen Anthropologie und Ethik thematisiert werden. Die neuzeitliche Philosophie hat sich in ihren systematischen Hauptströmungen vom Rekurs auf das Naturgemäße weitgehend zurückgehalten. Seit Hume sind
dafür zunehmend methodische Gründe ausschlaggebend, denen zufolge Übergänge von deskriptiven zu normativen Sätzen einer besonderen Begründung bedürfen.
Im zwanzigsten Jahrhundert sind die methodischen Zweifel dahingehend verschärft
worden, dass unter dem Titel ,naturalistischer Fehlschluss' der Ableitung von normativen Sätzen aus deskriptiven Sätzen grundsätzlich die Rechtfertigungsfähigkeit
abgesprochen worden ist. Der Vorbehalt ist zwar in dieser Radikalität nicht konsensfähig, er hat sich im Umfeld des ethischen Nicht-Kognitivismusgleichwohl bis
heute behauptet.
Unter dem Druck neuer Problemstellungen in der Angewandten Ethik richten
sich neuerdings wieder systematische und normative Erwartungen auf die Begriffe
der Natur, des Natürlichen und Naturgemäßen. Ihre Semantik ist in denneueren Verwendungsweisen noch unklar und in Teilen gegenläufig. Mit ihnen verbinden sich
aber erkennbar limitative Intentionen, die sich auf gegebene Grenzen ethischer Zumutbarkeit richten, die im Rahmen von konventionellen Entscheidungs- und Handlungsprozessen nicht mehr zur Disposition gestellt werden sollen. Kennzeichnend
für limitative Argumentationsstrategien im Kontext moderner Natürlichkeitsvorstellungen sind zum einen ethische Begrenzungen des technologischen Könnens bzw.
des technologischen Imperativs, 26 zum anderen die Ausweitung der den technolo26
Zum Verhältnis von technologischem und ethischem Imperativ siehe Mittelstraß 1992, S. 27 f.
4.3 Ethik
123
gischen und kulturellen Entscheidungsszenarien zugrundegelegten Theoriekontexte
- dazu gehört nicht zuletzt auch die ökologische Kontextualisierung spezifisch humaner Interessen. 27
Ethische Bewertungen von technologischen und kulturellen Prozessen können
nicht im anthropologischen Niemandsland ansetzen. Die neuere und neueste Philosophie hat zwar mit guten Gründen eine Reihe von epistemologischen und sprachphilosophischen Hürden für eine rechtfertigungsfähige Verwendung von Ausdrücken wie ,Natur des Menschen', ,Naturgemäßes' oder ,Natürlichkeit' aufgebaut.
Diese Hürden sollten jedoch keine Veranlassung zur Abkehr sein. Vielmehr ist gerade unter dem Druck der folgenreichen Entscheidungssituationen in der Augewandten Ethik über methodische Verfahrensweisen nachzudenken, mit denen ein anthropologischer Ausgangspunkt für ethische und kulturelle Bewertungen rekonstruiert
werden kann. 28
In diesen sachlichen Zusammenhang gehören auch Bestimmungen des Eigensinns des ,menschlichen' Körpers. Personen haben nicht nur einen Körper - gleichsam als bloß materielle Grundlage ihres Bewusstseins -, sondern sie führen ihr Leben als Person mit ihrem Körper. 29 Körperlichkeit kann zwar unter den gegenwärtigen sozialen Bedingungen nicht einfach mit Natürlichkeit gleichgesetzt werden.
Ein naturgemäßer Umgang mit dem eigenen Leben wird aber sicherlich nicht ohne
einen Rekurs auf die eigene Körperlichkeit auskommen können.
Der naturgemäße Umgang mit dem eigenen Körper dürfte in absehbarer Zeit Belastungen durch Anwendungsbereiche ausgesetzt werden, in denen Robotik, Biologie und Medizin zusammenfinden. Unabhängig von tierischen und menschlichen
Transplantaten können schon jetzt eine Vielzahl künstlicher Organe und Ersatzteile
zur Verfügung gestellt werden, die biologische Funktionen ersetzen oder unterstützen können. Die damit einhergehenden Substitutionsmöglichkeiten können bislang
noch als überschaubar und zurnutbar angesehen werden. Im weiteren Entwicklungsprozess können aber durchaus Grenzen der Zumutbarkeit erreicht werden. Im Bereich der Neurotechnologie muss zudem mit Manipulationsgefährdungen gerechnet werden, die durch Implantate innerhalb des Schädels heraufbeschworen werden
können. 30
Falls die gegenwärtigen Zukunftsszenarien Wirklichkeit werden sollten, dürften
Natürlichkeit und Naturgemäßes auch für die Robotik in Teilen mittelfristig und
langfristig virulente Bestimmungen werden. Der jetzige Stand der technologischen
Entwicklung gibt für einen verstärkten Rekurs auf diese Bestimmungen noch keinen unmittelbaren Anlass- mit Ausnahme einiger Projekte der Neurotechnologie.
Zunächst sind sie lediglich als Grundbestimmungen der Ethik belangvoll, die in den
generellen ethischen Theorierahmen eingehen, der bei der Bewertung der Robotik
zur Anwendung kommt.
27
Siehe Siep 1999, S. 195 f.
28
Siehe Siep 1996 und 1999.
29
V gl. Johnson 1987.
30
Siehe Eckmiller 1999.
124
4 Robotik und menschliches Handeln
4.3.2
Autonomie und lnstrumentalisierungsverbot
Während die Reichweite eines semantischen geklärten Begriffs der Natürlichkeit
noch als weitgehend unbestimmt gelten muss, kann auf der Seite der ethischen
Grundlagen ein auf Kant zurückgehender Grundsatz benannt werden, der für die
Ethik und Augewandte Ethik gleichermaßen bedeutungsvoll und folgenreich ist.
Diesem Grundsatz zufolge existiert die vernünftige Natur als Zweck an sich. 31 Der
Satz ist dahingehend zu ergänzen, dass die vernünftige Natur zumindest in der Gestalt menschlicher Personen nicht unmittelbar als Zweck präsent ist, sondern als
Selbstzweck erst gebildet und kultiviert werden muss. In seiner inhaltlichen Ausgestaltung erweist sich der Grundsatz als semantisch reichhaltig. Seine bedeutungstragenden Elemente sind die Begriffe ,Natur', ,Vernunft', ,Kultur', ,Selbstzweck' und
,Würde'. Sie liefern den Begründungszusammenhang für den kategorischen Imperativ, mit dem Kant die ethische Dignität von Personen moralphilosophisch in Geltung setzen will. Danach widerspricht es der Würde der Person, bloß als Mittel zum
beliebigen Gebrauch eines ihr äußerlichen Zwecks gemacht zu werden. 32 Das Instrumentalisierungsverbot des kategorischen Imperativs schützt die Autonomie und
Würde von Personen. Es bezieht sich auf die Lebensformjeder vernünftigen Natur
und ist insofern auch nicht auf die Spezies der Menschen beschränkt.
Das Instrumentalisierungsverbot findet in den Hauptströmungen der gegenwärtigen Ethik weitgehende Akzeptanz. Konsequentialistische und insbesondere utilitaristische Positionen bestreiten allerdings die von Kant behauptete unbedingte Geltung des Instrumentalisierungsverbots. Es werden unter bestimmten Bedingungen
Einschränkungen der Autonomie und Würde einzelner Personen zugunsten übergeordneter und umfangreicherer Nutzenerwägungen zugelassen. Von utilitaristischer
Seite werden zudem die Kriterien für die Auszeichnung derjenigen, die Adressaten
des Instrumentalisierungsverbots sein sollen, nicht kategorisch festgelegt, sondern
über weiche Interpretationen des Empfindungs- und Interessebegriffs eingeführt.
Das hat zur Folge, dass der Kreis der Adressaten auch in unserer Lebenswelt nicht
notwendigerweise mit der Extension der menschlichen Gattung zusammenfällt.
Das Problem der trennscharfen Eingrenzung des vom Instrumentalisierungsverbot betroffenen Adressatenkreises entfaltet seine Virulenz hauptsächlich in den Kontexten von moralischen Dilemmata, die bei Fällen des entstehenden und vergehenden Lebens auftreten. Für die Belange der Ethik der Technik kann von einer weniger
umstrittenen Theoriesituation ausgegangen werden. Das Instrumentalisierungsverbot erfüllt hier vor allem die Funktion, Verkehrungen und Verselbständigungen von
Zweck-Mittel-Relationen in technologischen Prozessen aufzudecken.
Das Instrumentalisierungsverbot ist selbst in der klassischen kantischen Version
nicht so zu verstehen, dass Personen in Handlungsverläufen und Institutionalisierungen durchgängig als Selbstzwecke angesehen werden müssen. Es wird lediglich
für moralisch unzulässig erklärt, dass Personen ausschließlich als Mittel von Zielen
gebraucht werden, die nicht in ihrem Selbstinteresse liegen.
31
32
Kant 1785, S. 429.
Kant 1785, S. 429: "Handle so, daß du die Menschheit sowohl in deiner Person, als in der Person
eines jeden andem, jederzeit zugleich als Zweck, niemals bloß als Mittel brauchst."
4.3 Ethik
125
Auch in einer schwachen Lesart ist das Instrumentalisierungsverbot geeignet,
kriterielle Ausgrenzungen und Ausdifferenzierungen im Bereich der Technikbewertung und Technikfolgenabschätzung vorzunehmen. Aus ihm folgt eine normative
Begrenzung und Einschränkung technologischer Prozesse, in denen Personen nicht
einfach zur Sache oder zum Gegenstand bloßer Willkür regredieren dürfen. Weil
technologische Entwicklungen weitgehend der Logik des Machbaren folgen, in der
vom konstruktiven Ansatz her zunächst keine normativen Bestimmungen Berücksichtigung finden, muss im Rahmen eines ethischen und politischen Diskurses eine
Evaluation und gegebenenfalls eine Revision des technologischen Prozesses durchgeführt werden. Das Instrumentalisierungsverbot ist in diesem Zusammenhang Ausdruck des Sachverhalts, dass moralische Gründe einen Vorrang vor bloßen Nutzenkalkülen haben müssen. Die Formulierung von Zwecken und ihrer Veränderung
fällt dementsprechend allein in den Kompetenzbereich von Personen, den möglichen Subjekten von Autonomie und Wertungen. Einschränkungen des Kompetenzbereichs ziehen immer Beschneidungen des Handlungsraums für ,Personen' nach
sich. Wenn Personen aufgrund technologischer Vorgänge nicht mehr imstande sind,
als Personen im sozialen Raum zu agieren, kann davon ausgegangen werden, dass
die sogenannten Sachzwänge ein zuträgliches Maß überschritten haben. 33
Eine Instrumentalisierungsproblematik kann sich auch in Bezug auf zukünftige
Generationen stellen. Der ethische Status von zukünftigen Generationen ist begründungstheoretisch nur schwer zu sichern. Eine Schwierigkeit besteht darin, dass die
Existenz von Individuen zukünftiger Generationen von bestimmten Ereignisketten
abhängt. Wird die Folge der Ereignisse verändert, sei es auch zugunsten der sozialen
und ökologischen Bedingungen zukünftiger Generationen, werden andere Individuen als die existieren, die bei unverändertem Ereignisverlauf gelebt hätten. Abgesehen von diesen epistemologischen und begründungstheoretischen Problemen ist
es auf jeden Fall ethisch nicht zu rechtfertigen, dass zukünftige Generationen ab
einem Zeitpunkt tn technologischen Produkten in der Form einer ,höheren' künstlichen Intelligenz ausgeliefert werden. 34 Falls ein solches Szenario wirklich eintreten könnte, hätten vorhergehende Generationen immer die Möglichkeit, einen
derartigen Entwicklungsprozess aufzuhalten. Es würde einen Übergangspunkt von
der Generationn zur Generationn+l geben, an dem das Instrumentalisierungsverbot verletzt würde und die Menschheit in eine vollständige Abhängigkeit von ihren technologischen Produkten geriete. Dieser Übergang kann aber vermittels einer
umsichtigen Wissenschaftspolitik aufgehalten werden. Was vor allem von Moravec
und Kurzweil als Zwangsläufigkeit dargestellt wird, beruht tatsächlich auf unseren
Entscheidungen bzw. Entscheidungsverweigerungen.
Das Instrumentalisierungsverbot soll vom ethischen Ansatz her die Autonomie
von Personen schützen. Der Begriff der Autonomie bezeichnet ursprünglich den
Sachverhalt, dass eine Person in der Perspektive der I. Person den Standpunkt der
3. Person einnimmt, um für sich und andere Personen ein moralisches Gesetz festzulegen, das die jeweiligen Lebensregeln und Lebenspläne bestimmen soll. In der
33
34
Es ist in diesem Zusammenhang allerdings noch zu berücksichtigen, dass technologische Verselbständigungssyndrome im sozialen Raum nicht isoliert auftreten und durch sozio-ökonomische Vorgänge
und Zustände beeinflusst werden.
Vgl. Moravec 1999, S. 127 f.
126
4 Robotik und menschliches Handeln
Bedeutung von vernünftig bestimmter Selbstgesetzgebung ist der Begriff der Autonomie extensional und intensional unterschieden von den Begriffen der Selbstorganisation und Selbststeuerung. Er richtet sich nicht einmal direkt auf einzelne
Handlungsepisoden, souderen legt deren Regeln und Gesetze fest.
Vor dem Hintergrund der Übertragung des Begriffs der Autonomie in andere Bedeutungskontexe, insbesondere in die der KI und Robotik, bietet sich folgende systematische Unterscheidung an:
1. Autonomie erster Stufe bzw. technische Autonomie. Die Autonomie erster Stufe
liegt in Fällen komplexer Automation mit technisch induzierten Freiheitsgraden
vor. Die Eigenschaft der Autonomie bezieht sich dabei auf die Eigenschaft einer
Maschine, in bestimmten Bewegungsräumen Steuerungen und Aktionen auszuführen.
2. Autonomie zweiter Stufe bzw. personale Autonomie. Die eigentliche Autonomie
bezeichnet eine Fähigkeit von Personen, spontan Einstellungen einzunehmen
und Handlungen auszuführen, die prinzipiell nicht vorhersagbar sind. 35 Personale Autonomie vollzieht sich in der Form von Handlungen im Raum der Gründe.
Diese müssen nicht moralisch oder im engeren Sinn vernünftig bestimmt sein.
Ein typischer Fall personaler Autonomie sind Lebenspläne im Sinne von Wünschen und Interessen zweiter Stufe.
3. Autonomie dritter Stufe bzw. ideale Autonomie im Reich der Zwecke. Handlungen im Raum der Gründe können Gegenstand moralischer Selbstbestimmung
im Sinne des kategorischen Imperativs sein. 36 Unter den Bedingungen der Autonomie dritter Stufe sind Handlungen von Personen ausschließlich moralisch
bestimmt. Ihre Handlungen würden sich unter idealen Bedingungen zu einer integralen Einheit zusammenfügen. Modelle idealer Autonomie sind die Konzeptionen von Rousseaus Gesellschaftsvertrag und Kants Reich der Zwecke.
In den Kontexten der Robotik wird zwischen diesen unterschiedlichen Stufen von
Autonomie in der Regel nicht unterschieden. Das semantische Feld des Autonomiebegriffs wird auf die uneigentliche Verwendungsweise verengt. ,Autonomie' kommt
dabei bereits dann zur Anwendung, wenn Roboter allein auf der Grundlage ihrer
Sensorik und Systemeigenschaften Bewegungen und Tätigkeiten ausführen. Die ursprüngliche Bedeutung des Autonomiebegriffs, begründete Selbstbestimmung auszudrücken, ist dagegen wesentlich enger und normativ anspruchsvoller ausgelegt. 37
Auch in der Perspektive der Alltagserfahrung wird einer Person Autonomie zugeschrieben, wenn sie aus wohlbestimmten Gründen ihre Ermessens- und Handlungsspielräume nutzt. Dieses ,Mehr' an kontextueller Abhängigkeit ist das konstruktive Zentrum des philosophischen Autonomiegedankens. Das Vermögen, unabhängig
von externen oder internen Impulsen sich selbst zu bestimmen und Gesetze, Prinzipien und Maximen zu formulieren, nach denen das eigene Leben geführt werden
soll, kennzeichnet die menschliche Lebensform. Schon der Umstand, dass ein ethi35
36
37
Vgl. MacKay 1967.
Der kategorische Imperativ legt menschlichem Handeln ein verbindliches moralisches Gesetz zugrunde: "handle nach der Maxime, die sich selbst zugleich zum allgemeinen Gesetze machen kann."
(Kant 1785, S. 436 f.)
Siehe Abschnitt 4.2.2.
4.4 Kulturphilosophie
127
scher Grundbegriff, der immerhin eng an das Menschenrechtskonzept gebunden ist,
aus seinem semantischen Kontext herausgerissen wird, kann als Hinweis auf ein
technologisches Verselbständigungssyndrom gedeutet werden, denn es gibt bislang
keinerlei Hinweis darauf, dass auf artifizielle Weise auch nur vom Ansatz her Selbstgesetzgebung in Maschinen inkorporiert worden ist.
4.4
Kulturphilosophie
4.4.1
Kulturelle Praxis und Entwicklung der Robotik
Die Rekonstruktion der anthropologischen Bestimmungen der menschlichen Lebensform macht die tiefgehende strukturelle Verschiedenheit von menschlicher Intelligenz und künstlicher Intelligenz kenntlich. Deshalb wird hier vorgeschlagen,
Robotik ausschließlich als Werkzeug bzw. Mittel für menschliche Zwecke aufzufassen-zumal der gegenwärtige Stand der technischen Entwicklung kaum eine andere
Deutung zulässt. Denn die Emphase der künstlichen Ersetzung menschlicher Intelligenz, so wie sie in der frühen KI-Forschung und in neuerenspekulativen Entwürfen
skizziert worden ist, spielt in der Robotik praktisch keine Rolle. Unabhängig davon
ist generell Versuchen zu widersprechen, spekulativ die Kluft zwischen menschlicher und künstlicher Intelligenz einzuebnen oder deren Einebnung als kulturelles
Ziel auszugeben. 38
Eine vorschnelle und unbedachte Orientierung an den engen Intelligenzmodellen der KI-Forschung ist auch für die Robotik überaus nachteilig, denn in der KIForschung werden vorab eine ganze Reihe von konstruktiven Ideen und Modellen
künstlicher Intelligenz entwickelt, nach denen sich dann die Hardware- und Saftwareproduktion im Einzelnen richten. Diese Ausrichtung führt zu einem einseitigen
Blick auf das Phänomen der Intelligenz, denn in der KI-Forschung ist nach wie
vor ein starker Zug zur Simulation und Imitation von vermeintlichen menschlichen
Intelligenzleistungen erkennbar.
Dieser gleichsam mimetische Ansatz widerspricht aber gerade dem im Folgenden
zugrundegelegten Werkzeugcharakter von KI und Robotern und dürfte nicht zuletzt
auch dazu führen, dass spezifischen Ausprägungen künstlicher Intelligenz zu wenig
Beachtung geschenkt wird. 39 Die Beziehungen zwischen Mensch und Maschine bestimmen sich nach Maßgabe von Nachahmungs- oder Simulationsszenarien. Das
sachlich angemessene und ethisch rechtfertigungsfähige Verhältnis von MenschMaschine istjedoch nicht Nachahmung, sondern die Erweiterung des menschlichen
Handlungsraums.
Aufgrund der grundsätzlichen Verschiedenheit von menschlicher und künstlicher Intelligenz ist eine parallele Entwicklung von Humanität und Robotik anzustreben. Gerade für die Belange der Robotik sollte der Traum vom künstlichen
38
Vgl. Moravec 1988 und Kurzweil 1999.
39
Mortimer Taube hat schon 1961 sehr weitsichtig den Vorbehalt erhoben, "that recent speculation
concerning the simulation of human brains by machines is devoid of interest and does not contribute
to a fruitful understanding ofman-machine relationships." (Taube 1961, S. 69)
128
4 Robotik und menschliches Handeln
Menschen konkreten Projekten der Erweiterung des menschlichen Spielraums weichen. Solche Erweiterungen werden allerdings auch Verschiebungen der Schnittstelle Mensch-Maschine einschließen. Dabei ist vor allem an DV-gestützte Externalisierungen menschlicher Kognitionen zu denken. 40
Eine solche Erweiterungstheorie kann an die Vielzahl der Entwicklungen von Expansionsrobotern anknüpfen - also Robotern, die in Mikro- oder Makrobereichen
operieren können, die für menschliche Handlungen nicht unmittelbar oder gefahrlos
zugänglich sind. Das bedeutet aber auf der anderen Seite, dass Serviceroboter vermutlich nur unter eingeschränkten Bedingungen im sozialen Raum eingesetzt werden können. 41 In allden Fällen, in denen Roboter eigene Entscheidungsspielräume
erhalten, müssen zudem die betroffenen Personen darüber aufgeklärt werden und ihre Zustimmung geben. Die Verweigerung der Zustimmung sollte eine veto-Funktion
haben. Fälle, in denen zumindest andere Personen die letztendliche Entscheidungskompetenz behalten- wie im Fall der minimal-invasiven Medizin- können unter
Umständen von diesem Zustimmungsszenario ausgenommen werden.
Unabhängig von der Vielzahl offener Problemstellungen wird die Robotik zukünftig zum entscheidenden Bereich der kulturellen Entwicklung gehören. Sie wird
allerdings auch keine Ausnahme bei den geschichtlich und sozial spannungsreichen
Verhältnissen und Verselbständigungssyndromen zwischen Mensch und Maschine
bilden. Sie wird die Tendenz menschlicher Kultur, sich gegenüber ihrer naturbestimmten Umgebung zu verselbständigen, deutlich verstärken. Diese Verselbständigung wird zwangsläufig eine Reihe moralischer, ästhetischer, ökonomischer und
ökologischer Probleme aufwerfen. Die mit der Robotik einhergehenden Substitutions- und Expansionsleistungen sollten deshalb immer wieder ethischen und kulturellen Überprüfungen unterzogen werden. Darüber hinaus wird es einen permanenten Diskurs darüber geben müssen, welcher Typus von intelligentem Verhalten
im sozialen Raum zu verstärken ist. Dabei ist insbesondere zu fragen, ob Roboter
menschliche Intelligenz, die sich über Jahrtausende im Zusammenspiel von Sprache, Wahrnehmung sowie körperlicher und sozialer Koordination entwickelt hat,
simulieren, kopieren oder modifizieren sollen. Die hier vorgeschlagene Konzeption von Kl und Robotik als Unterstützung und Erweiterung menschlichen Handeins
legt die Entwicklung einer Form künstlicher Intelligenz jenseits menschlicher Intelligenz nahe.
4.4.2
Robotik als technische Kultur
Die Roboterentwicklung bietet die seltene Chance, dass noch in ihren Anfangsstationen normative Korrekturen vorgenommen werden können. Diese Chance ist
bei vielen technologischen Innovationen verpasst worden. Die Roboterentwicklung
sollte denn auch nicht unkoutrolliert evolvieren. Es müssen kulturelle Ziele benannt
werden, als deren Mittel Roboter fungieren können- die Weltraumfahrt ist ein gutes
Beispiel für diesen Sachverhalt. Eine Kooperation von Robotik und technikethischer
Bewertung ist geeignet, Roboter als Werkzeuge eines kulturellen Prozesses zu eta40
V gl. Clark und Chalmers 1995.
41
Siehe Abschnitt 4.4.2.
4.4 Kulturphilosophie
129
blieren. Als kultureller Prozess wird sich Robotik aber nur dann entwickeln lassen,
wenn sie als Element gesellschaftlicher Selbstverständigungsprozesse im öffentlichen Raum transparent gemacht werden kann.
Gegenüber der in der KI-Forschung und Robotik immer enthaltenen Tendenz zur
Verselbständigung der in ihr geführten Expertendiskurse ist verstärkt die kulturelle
Bedeutung von KI-Forschung und Robotik zum Gegenstand öffentlicher Diskurse zu machen. Öffentliche Transparenz auf den verschiedenen Beteiligungs- und
Entscheidungsebenen, die vom Bereich der Betroffenen über wissenschaftliche Interdisziplinarität bis hin zur politischen Öffentlichkeit reichen, ist geeignet, die Entideologisierung von KI-Forschung und Robotik im sozialen und politischen Raum
auf den Weg zu bringen. Dementsprechend ist nicht nur die Entwicklung eines normativen Diskurses zur KI-Forschung und Robotik anzustreben, sondern eine Parallelisierung von normativem Diskurs zur KI und Robotik und konkreten Problemlösungen in der Robotik. Dabei ist vor allem anzuraten, eine Differenzierung zwischen
den unproblematischen Anwendungsgebieten und Anwendungsfällen einerseits und
apologetischen oder polemischen Generalisierungen des Verhältnisses von Mensch
und Maschine andererseits vorzunehmen.
Über ihre konkreten Anwendungen hinaus ist die Robotik in der Lage, inhaltlich
bestimmte Konturierungen des Verhältnisses von menschlicher und künstlicher Intelligenz zu eröffnen. Die operierenden und operationalisierbaren Vergleichsmodelle in der Gestalt von Software-Agenten und Robotern sind Anlass und Hintergrund
für abgrenzende Rekonstruktionen spezifisch menschlicher Bewusstseinszustände
gewesen und haben so zu einem verbesserten Verständnis der menschlichen Lebensform beigetragen. Solche Rekonstruktionen sind erst aufgrundder Entwicklungen in KI-Forschung und Robotik überhaupt als Desiderat ausgemacht worden. Die
Bestimmung der genuinen menschlichen Bewusstseinsmodelle werden dann auch
die Grenzen der Simulierbarkeit und Ersetzbarkeit anzeigen. Hier ist vor allem an
Emotivität, Subjektivität, Moralität und Kultur der Menschen zu denken. Die Parallelität hätte in dem Moment ein Ende, wenn Roboter über Selbstbewusstsein und das
Vermögen, nach Gründen differenzieren und handeln zu können, verfügten. Dann
müssten Roboter auch in den Kreis der Personen aufgenommen werden.
Auf absehbare Zeit müssen Roboter aber schlicht als Maschinen angesehen werden, die unter besonderen Bedingungen über eigene Entwicklungswege verfügen
können. Trotz der Robotern oftmals angesonnenen ,humanoiden Natur' wird ihr
Einsatz außerhalb von klassischen Mensch-Maschine-Verhältnissen immer problematisch und ethisch wie sozial virulent in dem Sinne bleiben, dass Verletzungen
des Instrumentalisierungsverbots drohen oder rechtfertigungsfähige Einbettungen
in den sozialen Raum und die kulturellen Zielsetzungen nicht gelingen. Das gilt vor
allem für die Verhältnisse ,Mensch-Mensch', ,Mensch-Tier' und ,Mensch-Umwelt'.
Dabei ist einzurechnen, dass die Transformation des Mensch-Mensch-Verhältnisses
in ein Roboter-Mensch-Verhältnis eine wesentlich höhere Hürde darstellt als seine
Transformation in ein Mensch-Roboter-Mensch-Verhältnis. Dieser Sachverhalt ist
bei dem substituierenden Einsatz von Robotern in Pflegeheimen einerseits und der
minimal-invasiven Medizin andererseits gut zu beobachten.
Eine Verletzung des Instrumentalisierungsverbots liegt in der Gestalt von Manipulationsszenarien bei einigen Anwendungsfeldern des ,Roboters im Kinderzimmer' vor. Der Robo-dog Aibo ist ein Beispiel für die instrumentalistische Nivellie-
130
4 Robotik und menschliches Handeln
rung und ökonomisch motivierte Überschreitung der Grenzen zwischen natürlicher
Art und Maschine. Die konstruierten Bewegungsabläufe des Robo-dog Aibo legen
Schlüsse auf ein Innenleben nahe, über das die Maschine gar nicht verfügt. Das Auseinandertreten von tatsächlichen Zuständen und oberflächlichen Manipulationsszenarien kennzeichnet einen Quasiautomaten, d.i. eine Maschine, die Als-ob-Zustände
im Betrachter hervorruft. Seine Funktion besteht darin, an der maschinellen Oberfläche Szenarien zu erzeugen, die den Betrachter dazu führen, in dem Quasiautomaten
etwas zu sehen, was er aufgrundseiner technischen Eigenschaften nicht ist und nicht
sein kann.
Quasiautomaten wie Aibo verstärken darüber hinaus die Tendenz, Intelligenz und
expressives Verhalten, das wir von menschlichen Personen kennen, zu simplifizieren. Man kann in diesem Zusammenhang geradezu von einer kulturellen Kategorienverwechslung sprechen, durch die eine unfertige Simulation zum Modell für das
ursprüngliche Phänomen gemacht wird. Eine derartige Verwechslung führt nicht
zuletzt zu artifiziellen Überlagerungen von Realität und Fiktion, in denen der Eigensinn menschlichen Bewusstseins kaum mehr kenntlich wird. Quasiautomaten
konstruieren neue Unübersichtlichkeiten, in denen Personen den Kontakt zu ihrem
ursprünglichen Selbstverständnis verlieren können. Die Robotik sollte von Quasiautomaten freigehalten werden. Im Bereich einer zu Recht akzeptierten Technologie
müssen nicht alle Produkte aufgrund ihrer Machbarkeit akzeptiert werden. Obwohl
Aibo offenbar eine Vorreiterrolle bei der Durchsetzung einer neuen Technologie
spielen soll, können auch gegenteilige Effekte eintreten und Vorbehalte geweckt
werden, die auf die Robotik insgesamt gar nicht zutreffen.
Unter ungünstigen Bedingungen muss mit dem Fall gerechnet werden, dass Quasiautomaten Quellen von Selbstentfremdungen sein können. Für diese Möglichkeit
gibt es eine aufschlussreiche literarische Konstruktion: Die Automate Olimpia in E.
T. A. Hoffmanns ,Der Sandmann' wird zur Ursache für die Täuschung und Selbstentfremdung des überreizten Nathanaels, indem sie lediglich mit tumben Gesten
und monotonen Wortwiederholungen den intentionalen Bezugspunkt für seine verstörten Bewusstseinszustände abgibt. Die Automate stürzt aber nur denjenigen in
Verwirrung, der sich bereits in einem labilen Bewusstseinszustand befindet. An anderer Stelle beschreibt Hoffmann das Gefühl des Unheimlichen und Grauenhaften,
das sich mit dem "Nachäffen des Menschlichen" einstellt. Danach sind alle solche
Figuren, die dem Menschen nicht nur nachgebildet sind, sondern ihn sogar nachäffen, Standbilder eines lebendigen Todes oder eines toten Lebens. 42 Bei der Einführung von Quasiautomaten muss in einer Umkehr der Begründungslast dargelegt
werden, dass Verstörungssyndrome, wie sie im literarischen Kontext von Hoffmann
beschrieben worden sind, prinzipiell ausgeschlossen werden können.
Gegen die Diagnose der kulturellen Kategorienverwechslung spricht im Übrigen
auch nicht der Sachverhalt, dass sich in der menschlichen Lebenswelt Natürlichkeit
nur noch mittelbar zeigt. Mit Blick auf das Instrumentalisierungsverbot ist vor allem
zu fragen, welche kulturellen, politischen oder ökonomischen Ziele mit dem Projekt
,Roboter im Kinderzimmer' verfolgt werden sollen. Die ethische Zurückweisung eines Produkts wie des Robo-dog Aibo widerspricht nicht generell der Möglichkeit,
dass Anwendungsformen von KI und Robotik in der kindlichen Bildung eingesetzt
42
Siehe Hoffmann 1976, S. 328 f.
4.4 Kulturphilosophie
131
werden können. Das gilt vor allem für Formen des Edutainments wie Baukastensystemen, in denen ohne den Umweg über Manipulationsszenarien spielerisch Maschinen konstruiert werden. 43
Unproblematisch dürfte der Einsatz von Robotern in den Bereichen sein, in denen bislang herkömmliche Maschinen zum Einsatz gekommen sind. Dabei sind allerdings die Einschränkungen zu machen, dass in dem entsprechenden Bereich auch
der herkömmliche Maschineneinsatz ethisch und sozial unbedenklich gewesen ist,
die Transformation in den Robotereinsatz zumindest langfristig ökonomisch lohnend erscheint und keine zusätzlichen Belastungen mit sich bringt. Das Verhältnis
,Mensch-Maschine' kann leicht in ein Verhältnis ,Mensch-Roboter' oder ,MenschRoboter-Maschine' transformiert werden. Auch das Verhältnis ,Mensch-MaschineMensch' kann vermutlich auf weitgehend unproblematische Weise in ein Verhältnis ,Mensch-Roboter-Mensch' oder ,Mensch-Roboter-Maschine-Mensch' überführt
werden. Während der Einsatz von Robotern überall dort problematisch ist, wo Menschen in Mensch-Mensch-Beziehungen funktional ersetzt werden, ändert sich die
Situation dann grundsätzlich, wenn Roboter imstande sind, in Behandlungs- und
Betreuungssituationen die menschlichen Handlungsoptionen entscheidend zu erweitern.
Aufgrund des Instrumentalisierungsverbots sind dem Einsatz von Robotern in
Pflegesituationen sehr enge Grenzen zu ziehen. Wo Roboter zur Selbständigkeit von
Behinderten oder Pflegebedürftigen entscheidend beitragen, kommt das Instrumentalisierungsverbot noch nicht zur Anwendung. Maschinelle Pflege birgt aber grundsätzlich die Gefahr der Vernachlässigung, die den Patienten im Arbeitsablauf zur
bloßen Sache macht. Pflegebedürftige werden schon dann tendenziell zur Sache gemacht, wenn Menschen aus ihrem Umfeld entzogen werden. Persönliche Betreuung
und Fürsorge kann technisch nicht ersetzt werden. Deshalb ist grundsätzlich daran
festzuhalten, dass Menschen von menschlichen Personen zu pflegen sind44 . Roboter sollten deshalb nur als Werkzeuge in der Pflege und zur Aufrechterhaltung der
Autarkie des Pflegebedürftigen - etwa im häuslichen Umfeld- eingesetzt werden.
Konsensfähige Einsatzbedingungen für Roboter sind bei den Mensch-ObjektVerhältnissen zu erwarten. Das gilt auch für die Bereiche der Industrieroboter, die zu
einer qualitativ höherwertigen Arbeitsumgebung führen. Quantitativ dürfte sich der
Robotereinsatz allerdings immer in Richtung auf einen hohen Arbeitsplatzverlust
auswirken. Dem quantitativen Verlust sind die Qualitätsgewinne gegenüberzustellen, die sich auf die gesamte Lebensqualität der Arbeitnehmer auswirken. 45
In der Robotik sind sowohl Tendenzen zur Erweiterung der menschlichen Lebenswelt als auch Tendenzen zu ihrer Enthumanisierung enthalten. Allem Anschein
nach unproblematische Erweiterungen betreffen vor allem den Bereich des Expansionsroboters - beispielsweise in der Raumfahrt, Kernenergie, Tiefsee. Enthumanisierungsprobleme stellen sich bei den Servicerobotern und zu einem geringeren
Teil bei den Industrierobotern ein. Während bei den Industrierobotern eine sozioökonomische Abwägung anzusetzen hat, die die Profitmaximierungen und die Erhöhung der Arbeitsplatzqualität mit den Arbeitsplatzverlusten gegenrechnet, muss bei
43
44
Siehe Kapitel "Robotik. Einführung, Definition und Stand der Technik", Abschnitt 3.4.3.2.
Rechtliche Aspekte vgl. Abschnitt 5.7.3.
45
Vgl. Abschnitt 6.2.1.
132
4 Robotik und menschliches Handeln
den Servicerobotern eine klare kriterielle Differenzierung zwischen hilfreichem und
autonomieunterstützendem Service - z.B. bei Rollstühlen, Gliedmaßenersatz usw. und nicht zu rechtfertigenden Enthumanisierungen der sozialen Umgebung - vollständig automatisierte Betreuungssituationen in Altenheimen und Krankenhäusern
- vorgenommen werden. In diesem Zusammenhang ist auch eine ethische Bewertung der Kosten-Nutzen-Relationen der Robotikprojekte im Gesundheitswesen anzuraten. Ausschließlich betriebswirtschaftlich verfasste Kosten-Nutzen-Relationen
können nie die ethische Dimension einer Patientenkultur und ihrer Anerkennungsverhältnisse im sozialen Raum erfassen.
Eine Besonderheit von KI- und Robotikentwicklungen könnte in fernerer Zukunft die Gefahr eines Frankensteinsyndroms sein. Künstliche Wesen würden dann
die bedrängende Frage aufwerfen, warum sie in dieser Form überhaupt zur Existenz
gebracht worden sind. Aufgrund des Zusammenspiels von technischen Standards
und Entwicklungserwartungen wird mittlerweile auch mit der Möglichkeit gerechnet, dass komplexe Formen von KI und Roboter zukünftig zu den Kandidaten der
Klasse bewusster Wesen gehören werden. Insofern ist es ratsam, schon vorab eine
Antwort auf die Frage zu finden, ob es rechtfertigungsfähige Gründe dafür gibt, neue
Bewusstseinsformen mit existenziellen und ethischen Eigenschaften zu entwickeln
bzw. zuzulassen, die dem menschlichen Bewusstsein vergleichbar sind. 46
4.4.3
Robotik als menschliches Handeln
Im Umgang mit KI im Allgemeinen und Robotern im Besonderen muss die Frage
der Entscheidungskompetenz für jeden Einzelfall geklärt werden. Vor allem ist zu
fragen, ob und unter welchen Bedingungen Entscheidungskompetenzen vom Menschen auf die Maschine übertragen werden sollen. Diese Frage hängt eng mit semantischen Problemstellungen zusammen. Beispielsweise führt der Ausdruck ,autonome Agenten' bereits etliche Festlegungen und Verhaltenspräformationen mit
sich: u.a. die instrumentalistische Reduktion des Autonomiegedankens auf einen
bloßen Funktionszusammenhang, die Elimination des Raums der Gründe sowie die
Einebnung der strukturellen Differenz von Personen und Nicht-Personen.
Die Frage nach der Verteilung der Entscheidungskompetenz im Mensch-Maschine-Verhältnis ist grundlegend für das Syndrom der Agententechnologie. Sie wird
auch Auswirkungen auf die Akzeptanz von Servicerobotern im sozialen Raum haben. Die gegenwärtige Situation gibt keine Hinweise darauf, dass Roboter als ,soziale Agenten' angesehen werden können.
Bei der technischen Umsetzung der Entscheidungskompetenz kommt der Ausgestaltung der Interface-Architektur bzw. Programmsteuerung große Bedeutung zu.
Damit Menschen die Verantwortung für das Funktionieren von Robotern übernehmen können, müssen diese im Sinne von Durchschaubarkeit, Vorhersehbarkeit und
Beeinflussung kontraHierbar sein. Deshalb kann nicht von einem komplementären Verhältnis zwischen Mensch und Maschine bzw. Roboter ausgegangen werden.
Unter der Voraussetzung der menschlichen Kompetenz für kulturelle, soziale und
46
Vgl. Birnbacher 1995.
4.4 Kulturphilosophie
133
politische Ziele sowie unter der Vorgabe des Instrumentalisierungsverbots können
Mensch-Maschine-Verhältnisse niemals komplementär sein.
Die Aufgabe des Komplementaritätsbegriffs bei Mensch-Maschine-Verhältnissen muss auch eine Umkehr der Beweislast bei der System- und Technikgestaltung
zur Folge haben. Es kann bei der Feststellung von menschlichem Versagen nicht
einfach von einem sehr engen Technikbegriff ausgegangen werden. Es muss eine
Reduzierung der menschlichen Entscheidungskompetenz genauso verhindert werden wie eine Ausweitung von Entscheidungsgrauzonen
Wenn Technologie dem Instrumentalisierungsverbot entsprechend keinen Vorrang der Mittel vor den menschlichen Zwecken hervorrufen oder verstärken will,
dann muss sie zur Erhaltung von humanen Werten über die Zeit hinweg beitragen. 47
Humanen Werten entsprechen auf technologischer Seite handfeste Gefährdungen
und Bedrohungen. Der Beitrag der Technologie zur Lebens- und Umwelt wird sich
dementsprechend nur in einer ausgeglichenen Beziehung zwischen innovativen Potentialen der Technologie und Zuträglichkeiten für die jeweilige Lebensform einstellen können. Die Robotik bietet in diesem Zusammenhang gute Entwicklungsperspektiven, weil sie weniger ethische und ökologische Belastungen mit sich bringt
als andere Technologien.
Weil in den Bereichen DV-basierter Informationssysteme selbst keine normativen Leitlinien entspringen können, sind Orientierungs- und Ordnungsszenarien für
den Einsatz und die Umsetzung entwicklungsleitender Ideen zu entfalten. Bei der
Hardware- und Softwareentwicklung müssen adressatenbezogene Differenzierungen vorgenommen werden, die zwischen Experten- und Laienstatus genauso unterscheiden wie zwischen den unterschiedlichen Graden kognitiver Voraussetzungen.
Neben diesen individuellen Unterschieden sind auch soziale Kontexte, affektive Besetzungen sowie kulturelle Differenzen und mögliche geschlechtsspezifische Unterschiede zu berücksichtigen. 48
Mit der KI- und Robotikentwicklung gehen zwei weitere Gefährdungen einher.
Sie haben zum einen mit dem zu tun, was man de-skilling nennt, d.i. der Sachverhalt,
dass der Einsatz von Computern und Robotern zu einer allmählichen Ausdünnung
und Abnahme der handwerklichen Fähigkeiten und Kompetenz sowie des intellektuellen Differenzierungsvermögens führt. Die andere Gefährdung besteht in der einseitigen Orientierung an Modellen künstlicher Intelligenz, die nur mit einem kleinen
Ausschnitt menschlicher Intelligenz operieren, was zwangsläufig Reduktionsszena47
Eine Auftistung humaner Wertsetzungen in technologischen Prozessen findet sich bei Ben Shneiderman: , I. Internationale Gerechtigkeit und Frieden, 2. Verbesserung der medizinischen Versorgung, 3.
Verbesserung der Ernährungssituation, 4. Sichere Transportwege - Auto, Flugzeug usw. -, 5. Umweltschutz, 6. Bildung und Ausbildung, 7. Meinungsfreiheit und Freiheit des Ausdrucks, 8. Uneingeschränkter Zugang zu Informationen und gesellschaftlichen Kommunikationsprozessen, 9. Verbesserung innovativer und kreativer Forschung, I 0. Schutz der Privatsphäre.' Siehe Shneiderman 1990.
48
Von Ben Shneiderman sind eine Reihe von Bereichen benannt worden, in denen sich Leitlinien für benutzerorientiertes Hardware- und Softwaredesign umsetzen lassen: "I. Interaction styles (commands,
menus, form-fill-in, direct manipulation), 2. Screen Iayouts, graphic design, and window strategies, 3.
Input devices and strategies, 4. Displaydesign to increase Iegibility, readability, and comprehensibility, 5. Color, animation, graphics, sound, video, tactile feedback, 6. Workstation physical design and
ergonomics, 7. Response time impact." Entsprechende Konstruktionsvorgaben sollten nach Möglichkeit auch für die Robotik verwandt werden. Siehe Shneiderman 1987 und Heinrichs und Riegel
2001.
134
4 Robotik und menschliches Handeln
rien zur Folge hat. 49 Diese Gefahrenpotentiale konvergieren mit dem Großteil der
Vorbehalte gegenüber technologischen Entwicklungen. 5°
Auf technologischer Seite sind solche Vorbehalte oft als Schreckensszenarien
von Apokalyptikern abgetan worden. Auf der Seite der Entwickler von KI und Robotik werden sozial oder kulturell motivierte Vorbehalte in der Regel nicht als mögliche Orientierungsleitlinien begriffen, sondern von vornherein als ideologische Behinderungen innovativer Prozesse abgewiesen. Eine Abwägung der Möglichkeiten
und Gefährdungen von KI und Robotik sollte sich jenseits der Extreme von Kulturverfallsszenarien und ethischer Indifferenz bewegen. Insbesondere auf dem Gebiet
der Softwareentwicklung und des Computerdesigns können Vorkehrungen getroffen
werden, KI und Robotik als kontrollierte Erweiterungen menschlicher Fähigkeiten
zu formieren.
Wenn Robotik als Verlängerung oder Unterstützung menschlichen Handeins eingesetzt werden soll, dann müssen trennscharfe Ausdifferenzierungen vorgenommen
werden, die den Unterschied zwischen Handeln, bloßem Reagieren auf Sachzwänge und mechanischen Abläufen kenntlich machen. Eine solche Ausdifferenzierung
wird sich nur im Rahmen von komplexen Diskursen vornehmen lassen, die philosophische, technologische und gesellschaftliche Perspektiven zueinander in Beziehung setzen. In den Diskursen müssen phänomengerechte Beschreibungen von
Sachverhalten und Problemstellungen genauso enthalten sein wie klare normative
Orientierungen.
Der Diskurs über die Verlängerung und Unterstützung menschlichen Handeins
durch Robotik ist eine Reaktion auf den immer wieder erhobenen Vorwurf, dass
es eine objektive Technikfolgenabschätzung gar nicht geben könne. Die Auseinandersetzung um die gesellschaftlichen und ethischen Implikationen technologischer
Entwicklungen muss nicht auf einen unangemessenen Begriff von Objektivität und
Wertneutralität zurückgreifen. Die Vielzahl der ethischen Maßstäbe, die für eine
solche Auseinandersetzung erforderlich sind, gelten über die vielen moralphilosophischen Positionen hinweg als konsensfähig. Auch die Beteiligung der Betroffenen
an diesen Diskursen kann zumindest mit ethischen Gründen nicht abgelehnt werden
und ist allenfalls aus der Sicht einseitiger Interessenbildungen abweisbar.
Die Einbeziehung von KI und Robotik in die Kontexte menschlichen Handeins
wird von der grundsätzlichen normativen Überlegung geleitet, dass die Werkzeuge
an die menschlichen Fähigkeiten und Eigenschaften angepasst werden sollen und
sich der Mensch nicht etwa an Werkzeugen auszurichten habe, die aus technologischen Verselbständigungen hervorgegangen sind. In solchen Entscheidungssituationen werden sich konkrete Auswirkungen des Instrumentalisierungsverbots auf
technologischen Handlungsszenarien zeigen. Technologie und humane Zwecksetzung sind denn auch nur aus kontingenten Gründen gegenläufig.
49
50
Siehe Abschnitt 4.2.3.
Es ist in diesem Zusammenhang sogar von den Plagen des Informationszeitalters- sozialer Entfremdung und Ausgrenzung, sozialer und politischer Schwächung der einzelnen Person, Bedrohung der
Privatsphäre oder Erosion der persönlichen Verantwortung - gesprochen worden.