[go: up one dir, main page]

Academia.eduAcademia.edu
4 Robotik und menschliches Handeln 4.1 Einleitung Die Robotik ist für unser personales und kulturelles Selbstverständnis folgenreicher als andere Technologien. In der Robotik scheint der Mensch sich selbst zu begegnen. Variationen solcher Begegnungen finden sich in den Mythen und Fiktionen zum künstlichen Menschen, die sich bis in die griechische Antike zurückverfolgen lassen. Indem Robotik menschliche Intelligenz und Bewegungsformen simuliert, wirkt sie mittelbar oder unmittelbar auf unsere Alltagsanthropologie, auf das Bild, das wir von uns und unseren Mitmenschen als Akteure im gesellschaftlichen Raum haben. In ihren kulturellen Auswirkungen ist die Robotik mit der Gentechnik vergleichbar. Während sich in der Gentechnik bereits jetzt schwerwiegende ethische Probleme stellen, entwickelt sich die Robotik langsamer als viele öffentlichkeitswirksame Voraussagen nahelegen. Ohnehin ist davon auszugehen, dass das ethische Konfliktpotential der Robotik nicht an das der Gentechnik heranreichen wird. Anders als bei dem Großteil der Problemfälle Angewandter Ethik sind im Falle von Robotikbewertungen die engeren Kontexte der Technikfolgenbeurteilung zu überschreiten und Überlegungen zu den Grundlagen gesellschaftlicher Selbstverständigungen zu berücksichtigen. Der Beitrag der Philosophie zur Bewertung der Robotik hat dementsprechend anthropologische, ethische und kulturelle Orientierungen zu umfassen, die normalerweise bei der Technikfolgenbeurteilung zumindest nicht in durchgreifender Weise erfolgen müssen. Argumentative Rückgriffe, die sich nicht nur auf die Angewandte Ethik beschränken, sondern philosophische Anthropologie, Philosophie des Geistes, Metaethik und Kulturphilosophie mit einbeziehen, sind zwar Optionen der Technikfolgenbeurteilung, 1 sie sind ihr aber nicht von vomherein gleichsam als Pflichtprogramm eingeschrieben. 2 Im Fall der Robotik sind derartige Rückgriffe jedoch unumgänglich. Das Bild von der Robotik in der Öffentlichkeit ist unscharf. Es herrscht kein klares Verständnis von dem tatsächlichen Zuschnitt dieser Technologie. Erschwerend kommt hinzu, dass der mittlerweile einsetzende Diskurs über Robotik mit einseitigen und hochgradig verzerrenden Einlassungen belastet wird, denen größte öffentliche Aufmerksamkeit zuteil wird. 3 Das gilt vor allem für Vorstellungen von humanoiden Robotern. Aus diesem Grunde muss bei der Analyse der ethischen und kulturellen Konsequenzen der Robotik zunächst Klarheit darüber hergestellt wer1 Zur immer noch vorherrschenden Unbezüglichkeit von Technikfolgenbeurteilung und philosophischer Fachdiskussion siehe Gethmann 1999, S. 2f. 2 Vgl. Kapitel2 sowie Gethmann und Grunwald 1996 und Grunwald 1999. 3 Siehe Moravec 1988 und 1999, Kurzweil 1999, Joy 2000. T. Christaller et al., Robotik © Springer-Verlag Berlin Heidelberg 2001 112 4 Robotik und menschliches Handeln den, über welchen technologischen Sachverhalt tatsächlich zu befinden ist. Dabei wird sich zeigen, dass nicht nur technologische Problemstellungen im engeren Sinn zu behandeln sind. Bei der Bewertung der ethischen und kulturellen Konsequenzen der Robotik müssen vor allem auch die Implikationen und Konsequenzen unserer Einstellungen, einschließlich des Sprachgebrauchs, gegenüber dieser Technologie berücksichtigt werden. Bereits der Ausdruck ,Ersetzbarkeit des Menschen' lässt in seiner Allgemeinheit noch keine klare Problemstellung zu. Viele Ersetzbarkeitsszenarien beruhen auf einer unscharfen Semantik, die die tatsächlich zu verhandelnden Sachverhalte und Konflikte verdeckt. Für das Projekt einer Ersetzbarkeil des Menschen im wörtlichen Sinne zeichnen sich trotz der viel beachteten Entwürfe von Moravec und Kurzweil nicht einmal Ansätze ab. Abgesehen von den technologischen Schranken stehen derartigen Projekten schwerwiegende ethische Bedenken gegenüber, denn sie würden die grundlegenden ethischen Bestimmungsstücke des Naturgemäßen, des lnstrumentalisierungsverbots, der Autonomie und Würde der Person sowie der Verantwortung für zukünftige Generationen berühren. 4 Die vordergründigen Ersetzbarkeitsszenarien tragen nicht zuletzt dazu bei, im sozialen Raum selbstentfremdende Sprachspiele der menschlichen Selbstverständigung zu verstärken, die die tatsächlichen menschlichen Fähigkeiten und Eigenschaften aus dem Fokus der öffentlichen Aufmerksamkeit rücken und vereinfachenden Gleichsetzungen nachgehen, denen zufolge der Mensch - je nach naturwissenschaftlichem Paradigma - nichts anderes sein solle als ein Algorithmus seiner Gene, eine biologische Maschine, kohlenstoffbasierte Hard- und Software etc. Diese reduzierenden Gleichsetzungen sind in der Robotik bzw. der Theorie der Robotik vor allem in der Form der Vermischung von Robotikvisionen mit der Wirklichkeit sowie der Vermischung von menschlicher und künstlicher Intelligenz anzutreffen. Im Kontext technologiekritischer Diskurse nimmt die Robotik eine eigentümliche Sonderstellung ein. Sie kann auf Seiten der Kulturkritik mit differenzierten Urteilen auch in den Bereichen rechnen, die Technologien eher skeptisch gegenüberstehen. Das dürfte vor allem damit zusammenhängen, dass die Robotik Erweiterungspotentiale für die menschliche Handlungsfähigkeit bereitstellt und Anknüpfungspunkte für ästhetische Projekte bietet. Darüber hinaus gelten Roboter als eine ,künstliche Art', bei der eine entwicklungslogische Eigendynamik im Sinne einer kulturellen Bereicherung erwünscht ist. Roboter sind als technologische Produkte konkrete Antworten auf die Frage, wie wir leben wollen bzw. unter welchen Bedingungen wir leben wollen. Offen ist jedoch, ob die technologischen Antworten ethisch, kulturell, politisch und technologisch richtig bedacht worden sind. Zwar kann nicht davon ausgegangen werden, dass Fragen und Antworten im sozialen und politischen Raum angemessen diskutiert worden sind, das bedeutet jedoch nicht zwangsläufig, dass Robotik eine gefährliche kulturelle Sackgasse ist. Nur müssen jetzt rechtfertigungsfähige Gründe für die Robotik in Wissenschaft, Politik und Gesellschaft ausgebreitet werden. Aufgrund dieser Einbettung in zentrale gesellschaftliche Problemstellungen müssen Stellungnahmen zur Robotik normative Grundsatzentscheidungen einschließen. Sie betreffen folgende Aufgabenstellungen: 4 Siehe Abschnitt 4.3. 4.2 Philosophische Anthropologie 113 1. Die Herausarbeitung einer Ethik der menschlichen Lebensform, insbesondere die Herausarbeitung der Grenzen der Zumutbarkeit der technologischen Umgestaltung der menschlichen Lebenswelt 2. Die Benennung von Kriterien der sozialen Verträglichkeit von Robotern, einschließlich von Kriterien für den noch zuträglichen Kommunikations- und Bewegungsabbau beim Menschen durch den Einsatz von Servicerobotern. 3. Die Bestimmung der psychischen, ethischen und ästhetischen Auswirkungen von Robotern im sozialen Raum. Um den Ausdruck ,Ersetzbarkeit des Menschen' und mögliche Ersetzbarkeitsszenarien einer ethischen und kulturphilosophischen Bewertung zuführen zu können, muss zunächst der anthropologische Ausgangspunkt für ein derartiges Unterfangen zur Verfügung gestellt werden. Die philosophische Bewertung der Robotik im Allgemeinen und der Ersetzbarkeitsszenarien im Besonderen erschließt sich insofern erst in einer komplexen Analyse, die die systematischen Perspektiven verschiedener philosophischer Disziplinen- insbesondere der philosophischen Anthropologie, einschließlich der Sprachphilosophie und Philosophie des Geistes, der Ethik und der Kulturphilosophie- zusammenführt. 5 4.2 Philosophische Anthropologie Die philosophische Anthropologie wird hier nicht im Sinne der spekulativen Erfassung der Sonderstellung des Menschen aufgefasst. Ein solcher Ansatz kennzeichnet die ,Anthropologie von oben' der ersten Hälfte des 20. Jahrhunderts- wie sie sich etwa bei Scheler, Plessner oder Gehlen findet. Vielmehr sollen im Folgenden komplexere theoretische Zugriffe erfolgen, die sich methodisch an Ansätzen der neueren Sprachphilosophie und Philosophie des Geistes orientieren. Dabei geht es nicht um die Grundlegung einer Sonderstellung des Menschen, sondern um die Identifikation bzw. Rekonstruktion von Eigenschaften und Fähigkeiten, die die menschliche Lebensform nicht mit anderen Lebensformen oder Funktionszusammenhängen teilt. 4.2.1 Sprachspiele der Künstlichen Intelligenz und Robotik Bei Auseinandersetzungen um technologische Innovationen im Allgemeinen sowie in den Diskussionen der Ethik der Technik im Besonderen wird nur selten auf Einsichten und Erträge der neueren Erkenntnistheorie und Sprachanalyse zurückgegriffen. So wird oft übersehen, dass die Semantik der ethischen und technologischen Ausdrücke schon über die Problemstellungen vorentscheidet, für deren Lösung sie eingesetzt wird. In der Sprachphilosophie gilt es dagegen als unstrittig, dass die Erfassung und Identifikation eines Sachverhalts in einem konstitutiven Sinne von den jeweils eingesetzten Begriffen und Klassifikationen abhängt. Semantische Oberftächlichkeiten in den technologischen Diskursen zeigen sich zum einen in der unvermittelten Wahl von Vokabular und Sprachspiel, zum anderen 5 Zum Verhältnis von Ethik und angewandter Ethik vgl. Nida-Rürnelin 1996. 114 4 Robotik und menschliches Handeln in der Vernachlässigung der praktischen und ethischen Implikationen der eingesetzten Begriffe bzw. der Unterstellung ihrer Wertneutralität Verfahren der Begriffsanalyse und Argumentkontrolle werden in ihrer wissenschaftstheoretischen, ethischen und politischen Funktion unterschätzt und bleiben insofern vom Ansatz her ausgeklammert. Sowohl in der Forschung zur Künstlichen Intelligenz (KI) als auch in der Robotik wird durchgängig quasi-intentionales Vokabular bei der Beschreibung von komplexen Vorgängen der Informationsverarbeitung verwandt. Diese Verwendungsweisen führen zu semantischen Nivellierungen von genuin menschlichen Eigenschaften auf der einen Seite und künstlichen Funktionszusammenhängen auf der anderen Seite. Damit wird anthropologischen und ethischen Bestimmungen, die ursprünglich mit dem Intentionalitätsvokabular angesprochen worden sind, der eigentümliche Referenzraum entzogen. Die Reduktion des Intentionalitätsvokabulars ist in den Kontexten der Sprachphilosophie und Philosophie des Geistes auf einflussreiche Weise von Daniel Dennett vollzogen worden. 6 In einer instrumentalistischen Sprachtheorie billigt er allen Systemen Intentionalität zu, bei deren Beschreibung zumindest metaphorisch intentionale Ausdrücke eingesetzt werden können. Eine derartige semantische Verwendungsweise ist ihm zufolge dann gerechtfertigt, wenn sie plausible Erklärungsgeschichten und Vorhersagen erlaubt. Dennetts Instrumentalismus zieht vom Ansatz her die Differenz zwischen Beschreibung und dem beschriebenen Verhalten ein. Was das Verhalten eines Systems der Sache nach ausmacht, wird danach allein von einem Beschreibungsvokabular bestimmt, dessen Verwendungsweise lediglich von den Intuitionen desjenigen abhängt, der das Vokabular einsetzt. Korrekturen nach Maßgabe des zu untersuchenden Sachverhalts haben in einer solchen Definitionspraxis keinen Platz mehr. Der Instrumentalismus steigert den Zusammenhang von Sprache und Handlung ins Extrem und lässt keinen Raum für eine Differenzierung zwischen einem sachlich angemessenen und einem sachlich unangemessenen Beschreibungsvokabular. Aufgrund der internen Wechselverhältnisse zwischen Sprache und Handlung muss die Semantik des konzeptionellen und praktischen Umgangs mit Robotern zur Diskussion gestellt werden, denn Begriffsprägungen sind auch in technologischen Bereichen keine wertneutralen Etikettierungen, sondern präformieren unmittelbar die Wahrnehmung, Interpretation und Behandlung von Sachverhalten. Die unbegründete Verwendungsweise von anthropologischer Terminologie - wie ,Bewusstsein', ,Wissen', ,Lebensform', ,Intentionalität', ,Agent', ,Autonomie', 7 ,künstliche Person' usw. - kann zum Verkennen von grundlegenden Differenzen zwischen Mensch und Maschine führen und so problematische Reaktionsformen hervorrufen. Das zeigt sich nicht zuletzt an Zukunftsszenarien zur Ersetzung der menschlichen Lebensform durch neue ,Generationen' von Computern und Robotern. 8 7 Siehe Dennett 1978 und 1987. Die inflationäre Instrumentalisierung des intentionalen Vokabulars ist mit Entschiedenheit von John Searle zurückgewiesen worden; siehe Searle 1983 und 1992. Übersichten zu den Hauptströmungen der gegenwärtigen Philosophie des Geistes finden sich in Bieri 1981, Carrier und Mittelstraß 1989, Lycan 1990, Wamer und Szubka 1994, Blocket al. 1997 und Sturma 1998. Zum semantischen Feld des Ausdrucks ,Autonomie' siehe Abschnitt 4.3.2. 8 Siehe Moravec 1988 und 1999, Kurzweil1999. 6 4.2 Philosophische Anthropologie 115 Genuin anthropologische Bestimmungen müssen sowohl von dem mechanistischen Sprachspiel - ,künstlich', ,Maschine' usw. - als auch von dem biologischen Sprachspiel- ,Leben', ,Selbsterhaltung'- semantisch abgegrenzt werden. Zudem sind die semantischen Mischformen zu berücksichtigen, die in versteckter Form wissenschafts- und gesellschaftspolitische Thesen enthalten - zu nennen sind hier die Ausdrücke ,Ersetzbarkeit des Menschen', ,autonome Systeme' und ,autonome Roboter'. Die Klärung und Überprüfung des fachspezifischen Vokabulars hat in den erweiterten semantischen Kontexten der Alltagssprache zu erfolgen. Diese Erweiterung ist prohibitiv für Annahmen einer selbstverständlichen Vorrangstellung des Expertenvokabulars. Es sollte nicht ungeprüft hingenommen werden, dass grundlegende Begriffe des individuellen und gemeinschaftlichen Selbstverständnisses aus kontingenten fachspezifischen Gründen neu definiert werden, wie das etwa im Fall des Ausdrucks ,autonom' geschehen ist. Der unreflektierte Gebrauch von intentionalen, epistemischen und ethischen Ausdrücken jenseits des anthropologischen Anwendungsbereichs hat eine Tendenz zum Instrumentalismus und entzieht sich vom Ansatz her einer semantischen und ethischen Überprüfung. Problematisch ist nicht in erster Linie die Neudefinition, sondern die Anwendung des abgeleiteten instrumentalistischen Vokabulars auf die menschliche Lebensform. Ein weiteres Problem besteht darin, dass die anthropologischen Besonderheiten des Menschen methodisch ausgeklammert werden, um somit der KI-Forschung und Robotik Zugang zum anthropologischen Vokabular zu verschaffen. So wird in einer neueren Arbeit bei dem Versuch der Definition von Intelligenz das menschliche Sprachverständnis umstandslos ausgeklammert. Damit wird der Unterschied zwischen menschlicher Intelligenz und möglichen anderen Formen von Intelligenz eingezogen und gerade das gestrichen, was eigentlich erklärt werden sollte. 9 Das in den Hauptströmungen der KI-Forschung und Robotik vorherrschende instrumentalistische und reduktionistische Vokabular führt zu einer schleichenden Aushöhlung des Menschenbildes. In einem von jedem anthropologischen Eigensinn entleerten Sprachspiel erscheint der Mensch lediglich als unvollkommene Maschine.10 KI-Forschung und Robotik haben bislang nur Hypothesen zur künftigen Entwicklung künstlicher bzw. maschineller Intelligenz aufgestellt. Diese Hypothesen sind unter der Hand zum Anlass genommen worden, die strukturellen Grenzen zwischen menschlicher und künstlicher Intelligenz als graduelle Unterschiede zu erklären. Dieser semantische Fehlschluss hat praktische Konsequenzen. Vor allem der Ausdruck ,Ersetzbarkeit des Menschen' führt eine Reihe von bedenklichen semantischen Präformationen mit sich. Die Nähe der Robotik zu humanoiden Konstruktionen löst eine Reihe von Assoziationen und Konnotationen aus, die den sachlich zuträglichen Möglichkeitsraum deutlich überschreiten. Die Ersetzbarkeit kann sich allenfalls auf spezifische Funktionen beziehen, die ohnehin schon von technischer Seite erfüllt werden. Semantisch wird jedoch nahe gelegt, dass der Mensch als solcher ersetzt werden könne oder solle. 9 Siehe Cruse et al. 1998, S. 21 f. 10 Vgl. Janich 1993, S. 29: "( ... ) schon durch eine unbekannte Bedeutungsverschiebung von Verben, die zunächst menschliche Handlungen bezeichnen, auf Maschinenfunktionen, erscheint der Mensch nur noch als sonderbare und unvollkommene Maschine, die fast alles, aber- technisch gesehen- fast nichts richtig kann." 116 4 Robotik und menschliches Handeln Die schnelle Entwicklung in der KI-Forschung und Robotik erzwingt gleichwohl, die semantischen Grenzen der menschlichen Lebensform genau zu umreißen. Eine solche Konturierung ist gerade bei Entscheidungen über Ersetzbarkeit und NichtErsetzbarkeit schlechthin entscheidend. Beantwortungen normativer Fragen nach der vermeintlichen Ersetzbarkeit des Menschen setzen eine ,dichte Beschreibung' 11 (thick description) der menschlichen Lebensform voraus. Während eine ,schwache Beschreibung' (thin description) nur eine Zusammenstellung von empirischen Daten ist, die von einem äußeren Beobachter an der Verhaltensoberfläche gewonnen wird, erfasst eine dichte Beschreibung die internen Bedeutungszusammenhänge des Systems von Sprache, Verhalten, Verstehen und Handlung. Im anthropologischen Kontext ist eine solche Beschreibung nur unter der Voraussetzung als dicht zu bezeichnen, dass die Semantik selbstreferentieller Ausdrucks- und Verstehenszusammenhänge der menschlichen Lebensform Berücksichtigung findet. Nur in einer ,dichten Beschreibung' können sich spezifisch menschliche Eigenschaften und Grundbefähigungen zeigen, die die psychische und soziale Wirklichkeit der menschlichen Lebensform im Unterschied zu künstlichen Ordnungen kenntlich werden lassen. 4.2.2 Personen Menschen entwickeln sich unter normalen biologischen und sozialen Bedingungen zu Personen, die sich in epistemischen, emotiven, moralischen und ästhetischen Einstellungen zu sich, anderen Personen und ihrer Lebenswelt verhalten. 12 Personales Leben ist in diesem Sinne die Entfaltung menschlicher Existenz. Bei einer dichten Beschreibung der menschlichen Lebensform muss dementsprechend die Person im Zentrum stehen. Zwar kennen wir individuelle Personen nur in der Gestalt von Menschen. Es kann aber nicht grundsätzlich ausgeschlossen werden, dass personale Fähigkeiten und Eigenschaften sich auch in anderen Existenzformen manifestieren können. 13 Es wird häufig versucht, die semantische Binnenstruktur des Personbegriffs mit Listen von Fähigkeiten und Eigenschaften wie Intelligenz, Emotivität, Selbstbewusstsein, Selbstverständnis, Intentionalität, Sprache, Handlungsfreiheit, Rationa11 Zum Begriff der dichten Beschreibung siehe Ryle 1971 und Geertz 1983. 12 Vgl. Sturma 1997 und 2001. Während der Personbegriff seit seinen begriffsgeschichtlichen Anfangen im Hellenismus gegenüber der biologischen Bestimmung des Menschen als semantisch eigenständig konzipiert worden ist, gibt es neuerdings Versuche, eine extensionale Identität der Begriffe ,Mensch' und ,Person' anzusetzen (siehe Spaemann 1996). Das hängt vor allem damit zusammen, dass in Diskussionen der Augewandten Ethik, die sich mit den Grenzen des entstehenden und vergehenden Lebens auseinandersetzen, moralischer Status und Lebensrecht einerseits und Anerkennung als Person andererseits umstandslos als sich wechselseitig bedingend angesehen werden. Vorbehalte werden vor allem dagegen erhoben, die Anerkennung des Personstatus von der Erfüllung von Kritierien abhängig zu machen, die sich allein am normalen Erwachsenendasein einer Person orientieren. Der Konflikt ließe sich wohl dadurch entschärfen, dass Fragen von moralischem Status, Lebensrecht und Anerkennung als Person strikt auseinandergehalten werden. Für die Belange der Robotik wäre eine solche Ausdifferenzierung interessant, weil auf diese Weise keine Festlegung getroffen werden müsste, unter welchen materiellen Bedingungen personales Dasein vorliegen kann. 13 4.2 Philosophische Anthropologie 117 lität und wechselseitige Anerkennung zu erfassen. Alle diese Bestimmungen zeichnen die menschliche Lebensform in den alltäglichen Handlungsvollzügen genauso aus wie in deskriptiven und normativen Thematisierungen. Listen von Fähigkeiten und Eigenschaften können sicherlich noch nicht eine vollständige und hinreichende Erfassung von Personen liefern, mit ihr zeichnen sich gleichwohl strukturelle Eigenheiten der menschlichen Lebensform ab. Personen unterstellen anderen Personen Zustände und Handlungen, die sie unter gegebenen Bedingungen auch sich selbst zuschreiben. Sie verfolgen gemeinsam auf individuell verschiedene Weise ähnliche Lebenspläne und orientieren sich an einer überschaubaren Anzahl vergleichbarer Wertvorstellungen. Diese Anerkennungskultur beruht auf der Präsenz von Personen im Raum der Gründe, der eine semantische und syntaktische Ordnung repräsentiert, durch die Ausdrücke und Sätze der Anerkennungskultur ihre Bedeutung erlangen. Der Begriff des Raums der Gründe (space of reasons) ist von Wilfrid Seilars geprägt worden. Er hat mit Nachdruck darauf hingewiesen, dass die Formierung der menschlichen Lebensform durch den Raum der Gründe den inhaltlichen Gehalten von Einstellungen, Erfahrungen und Erkenntnissen vorhergeht. Beispielsweise könnte der Ausdruck ,rot' nicht als Prädikat verwandt werden, wenn er nicht im Raum der Gründe die Charakteristika erhalten hätte, die er mit allen anderen Prädikaten gleicher Art teilt. Diese Zuweisung vollzieht sich im Kontext von angemessenen Reaktionen auf Identifikationssituationen, in denen rote Gegenstände oder Phänomene vorkommen: (... ) it is perfectly clear that the word ,red' would not be a predicate if it didn 't have the logical syntax characteristic of predicates. Nor would it be the predicate unless, in certain frames of mind, at least, we tended to respond to red objects in circumstances with something having the force of ,This is red'. 14 Erfahrungszustände oder Erkenntnisprozesse sind dementsprechend nicht allein von ihrem empirischen Gehalt abhängig, sondern davon, dass sie in syntaktisch angemessener Form in den Raum der Gründe gestellt werden: "The essential point is that in characterizing an episode or a state as that of knowing, we are not giving an empirical description of that episode or state; we are placing it in the logical space of reasons, of justifying and beingable to justify what one says." 15 Die Konzeption des Raums der Gründe ist die erkenntnistheoretische und sprachphilosophische Reaktion auf den Sachverhalt, dass menschliche Einstellungen, Verhaltensweisen und Handlungsepisoden symbolisch vermittelt sind. Menschen haben im Laufe der Transformation ihrer Naturgeschichte in Kulturgeschichte gleichsam künstliche Ordnungen zwischen sich und die Natur geschoben. Wie dieser Prozess sich im Einzelnen vollzogen hat, dürfte bei allem Raffinement neuester Verfahren der Auswertung hominider und humanoider Fossilien, einschließlich genetischer Rekonstruktionen, wohl nicht mehr vollständig geklärt werden können. Es zeich14 Seilars 1956, S. 66. 15 Seilars 1956, S. 76. Von John McDowell und Robert Braudom sind bedeutende Weiterführungen und Erläuterungen von Seilars' Begriff des Raums der Gründe vorgelegt worden. Sie haben in der gegenwärtigen Philosophie ein breites Echo gefunden; siehe McDowell 1994, Braudom 1994, Habermas 1999. 118 4 Robotik und menschliches Handeln net sich allerdings eine überaus komplizierte Konstellation von biologischen und sozialen Entwicklungen ab, die spätestens mit dem Auftreten des modernen homo sapiens sapiens eine rasante Dynamik kultureller Prozesse in Gang gesetzt hat. 16 Da sich die biologischen, technischen und sozialen Elemente dieses Prozesses bei frühen homo-Arten auch finden, ohne dass es zu einer vergleichbaren Entwicklung gekommen wäre, ist in diesem Fall wohl von einem emergenten Phänomen auszugehen. Gerade vor dem Hintergrund der Komplexität des Übergangs von Naturgeschichte in Kulturgeschichte scheinen optimistische Simulationserwartungen in manchen Bereichen der Theorie der Robotik gewagt. 17 In der Perspektive des Raums der Gründe zeichnet sich schließlich auch der epistemische, moralische und ästhetische Eigensinn der menschlichen Fähigkeiten und Eigenschaften ab, den eine dichte Beschreibung aufzudecken hat. Zu nennen sind vor allem Selbstbewusstsein, Erfahrung, Ausdruck, Lebensplan, Bildung und kulturelle Praxis. Das Selbstbewusstsein, das Bewusstsein von sich und seinen Bewusstseinszuständen, weist die Besonderheiten auf, infallibel, nicht-korrigierbar, instantan, selbstvertraut, selbsttransparent sowie epistemisch und lebenspraktisch irreduzibel zu sein. 18 Weil menschliches Bewusstsein immer schon unter den Bedingungen möglichen Selbstbewusstseins steht, sind Erfahrungs- und Erkenntniszustände bzw. propositionale Einstellungen produktive und selbstreferentielle Leistungen. Selbst unmittelbare Sinneswahrnehmungen verlaufen nicht rein passivisch, sondern kommen durch implizite Urteile zustande. 19 In einem Wahrnehmungszustand strukturiert das Erfahrungssubjekt die visuell, akustisch oder taktil aufgenommenen Daten und bezieht sie auf sich und seine fortlaufenden mentalen Akte. Nur unter diesen Voraussetzungen haben menschliche Wahrnehmungen und Erfahrungen einen kohärenten und ausdrückbaren Gehalt. Personen verfügen über eine entwickelte AusdrucksfähigkeiL Sie ist nicht nur die Bedingung für soziale Interaktionen und Kommunikationen, sondern durch sie gelangen Personen auch zum Verständnis der eigenen Innerlichkeit sowie der Innerlichkeit anderer Personen. Diesen Sachverhalt hat Wittgenstein dahingehend zusammengefasst, dass Sprache immer schon eine Lebensform repräsentiere. 20 Entsprechend sind Zustände wie Liebe, Hass, Scham, Empörung, Reue oder Bedauern, Achtung oder Gerechtigkeitssinn nur dem verständlich, der sich schon innerhalb der menschlichen Lebensform bewegt. Weitere Kennzeichen personalen Lebens sind Identität und Lebensplan über die Zeit hinweg. Die Spuren einer Person im sozialen Raum gehen aus individuellen Verhaltensgeschichten hervor, die sich eigenständigen Bewertungen, Zielsetzungen und Veränderungen öffnen. Auf diese Weise ist es einer Person möglich, ihr Leben unter gegebenen natürlichen und sozialen Bedingungen zumindest teilweise in Selbstverhältnissen zu führen. Dafür muss eine 16 Vgl. Leakey und Lewin 1992, Fo1ey 1997, Katz 2000. 17 Vgl. Abschnitt 4.2.3. 18 19 Siehe Stunna 1997, S. 97 f. Siehe Kant 1787, B 129 f.; vgl. Seilars 1956, S. 25 f. 20 Siehe Wittgenstein 1953, § 19. 4.2 Philosophische Anthropologie 119 Person ein Verständnis ihrer Ausdehnung in der Zeit entwickeln. Sie muss verstehen, was es bedeutet, in der Gegenwart eine Vergangenheit und Zukunft zu haben. 21 Weil der Mensch über seine kulturelle Lebensform noch nicht durch seine natürliche bzw. biologische Existenz verfügt, hat er sie sich durch Sozialisation, Spracherwerb und Bildung anzueignen. Er erwirbt dabei eine Empfänglichkeit für rationale und moralische Gründe. Damit ist es Personen prinzipiell möglich, reflektierte Einstellungen zu sich und ihrer Umwelt einzunehmen. Reflexion ist nicht einfach ein Epiphänomen von Aktionen, sondern geht in der Form erweiterten Verstehens unmittelbar in die Handlungsplanungen und Handlungsvollzüge mit ein. Personale Verhaltensweisen können insofern nicht einfach als bloße Reaktionsmodi aufgefasst werden. Sie sind vielmehr in eine kulturelle Praxis eingebettet, an der die jeweiligen Personen nach Maßgabe ihrer epistemischen und praktischen Wirklichkeitsdifferenzierung teilhaben. In einer dichten Beschreibung erweist sich die menschliche Lebensform als vielschichtiges System von Bewusstseins-, Verstehens- und Handlungszusammenhängen. Dieses System und insbesondere die Grundbegriffe personalen Lebens sowie der Raum der Gründe stellen eine hohe Hürde für Ersetzbarkeits- und Simulationsprojekte dar. An der Einlösung dieser Bestimmungen muss gemessen werden, ob nicht-menschliche Existenzformen mögliche Kandidaten für den Personstatus sein können. Im Fall der Robotik heißt das insbesondere, dass Roboter nur dann als Personen zu behandeln sind, wenn sie im Modus des Erlebens aktiv über Gründe, Expressivität und Innerlichkeit verfügen. 4.2.3 Menschliche Intelligenz und Künstliche Intelligenz Die Grundbegriffe der dichten Beschreibung haben Folgen für die Analyse menschlicher Intelligenz und ihres Unterschieds zu Künstlicher Intelligenz. Der dichten Beschreibung zufolge lässt sich über menschliche Intelligenz ohne die Semantik der Gründe nicht befinden. Die Semantik der Gründe ist fest eingebettet in die menschliche Lebensform. Kein bislang bekannter Software-Agent oder Roboter verfügt jedoch aktiv über Gründe. Anders lautende Unterstellungen beruhen allein auf Reifizierungen von metaphorischen Wendungen. Nicht-metaphorische Verwendungsweisen des Intelligenzbegriffs können sich ausschließlich auf Personen beziehen, die über Fähigkeiten wie Subjektivität, Körperlichkeit, Emotivität, Rationalität und Moralität verfügen. Es wird zuweilen angenommen, dass diese Fähigkeiten an biologische Systeme gekoppelt sind. Diese Abhängigkeit kann aber noch nicht als schlüssig erwiesen gelten. Allerdings sind komplexe Ausformungen von Intelligenz nach bisherigem Wissensstand nur auf biologischer Basis realisiert worden. Menschliche Intelligenz erschließt sich zudem nicht über bloße Kommunikationsfähigkeit, sondern beinhaltet ein komplexes und kompliziertes Geflecht von Einstellungen, Handlungen und Verstehensvorgängen. An reaktiven Haltungen wie Freude, Empörung, Reue, Scham usw. zeigt sich die Dimension menschlicher Gründe. Sie muss sich auch in den intelligenten Sprachspielen abbilden. Informationssysteme, die an diese Bestimmungen nicht heranreichen, verlieren noch nichts von 21 Siehe Sturma 1997, S. 188 f. 120 4 Robotik und menschliches Handeln der ihnen angesonnenen Funktion, sie verdienen aber nicht das Prädikat ,intelligent'. Wenn Kommunikationsfähigkeit angeblich den Roboter vom reinen Automaten unterscheidet,22 dann ist der Raum der Gründe das, was eine intelligente Lebensform von Künstlicher Intelligenz unterscheidet. 23 Ein weiteres irreduzibles Element menschlicher Intelligenz sind bewusste Repräsentationen. Sie unterscheiden sich von bloßer Information, die zwar ein ,attraktiver Rohstoff' 24 sein mag, aber eben kein Kennzeichen von Intelligenz ist. Intelligenz ist das Vermögen, bewusst nach Gründen differenzieren und handeln zu können. Sie ist nicht reduzierbar auf die künstlichen Intelligenzmodelle, die in den Hauptströmungen der KI-Forschung und Robotik unterstellt werden. Dieser Sachverhalt findet zwar auch in der neueren Philosophie des Geistes keine angemessene Beachtung. Sie hat sich überaus intensiv mit der KI-Forschung auseinandergesetzt und eigene Repräsentationsmodelle bereitgestellt. Damit sind auch weitgehende Erwartungen hinsichtlich einer neuen Symbiose von Philosophie und Naturwissenschaften geweckt worden. Mit der vorbehaltlosen Anhindung an andere Wissenschaftsdisziplinen werden allerdings die Konturen genuin philosophischer und ethischer Problemstellungen in der KI-Forschung undeutlich. Auch wenn man diese Tendenz im Sinne einer interdisziplinären Option nicht für unwillkommen halten will, muss dem Umstand Aufmerksamkeit geschenkt werden, dass sie mit einer Reihe gravierender sachlicher Reduktionen einhergeht, die tief in das Selbst- und Weltverständnis der Alltagserfahrung sowie anderer wissenschaftlicher Disziplinen eingreifen. Die auffälligste Reduktion liegt im Bereich der Selektion der in der KI und Robotik verwandten Umweltmodelle, die nach Maßgabe technischer Konstruierbarkeit in selektiven Interpretationen und Abstraktionen ausgelegt werden. Der Selektionsvorgang hat zwei Aspekte: die Selektion des Konstrukteurs und die Selektion des technischen Mediums. Der Konstrukteur trifft ausgehend von seinem epistemischen und epistemologischen Standpunkt Feststellungen und Prognosen, die aus spezifischen Visionen und Spekulationen hervorgehen. Im weiteren Fortgang werden dann Fehlerkorrekturen- failure, error model, and critical analysis-vorgenommen. Die technische Präformierung des Umweltmodells wird im Wesentlichen von der Verfassung der Sensorik des Roboters bestimmt. Die selektiven Umweltmodelle haben eine Tendenz zur Verwechslung von Abstraktion und Simulation. Die Metaphorik der KI und Robotik dürfte keinen unbeträchtlichen Anteil daran haben, die Verwechslung zu verschleiern. Die menschliche Lebensform ist unter den gegenwärtigen technologischen Bedingungen nicht künstlich reproduzierbar. Auf der Seite der technischen Reproduzierbarkeit lassen sich gegenwärtig lediglich künstliche Modelle ausmachen, denen bestimmte Teilelemente des menschlichen Lebens vorgegeben werden, die dann aus Gründen der Konstruierbarkeit weiter simplifiziert werden. Daraus entsteht ein eigener technischer Vorgang, dessen Resultat mit der menschlichen Lebensform keine wesentlichen Eigenschaften mehr teilt. Die Illusion der Ähnlichkeit kommt durch nachträgliche Interpretationen der Simulation zustande. 23 Siehe Ritter 1999a, S. 105 f. Der Ausdruck ,Künstliche Intelligenz' wird deshalb im Folgenden nur noch metaphorisch verwandt. 24 Siehe Ritter 1999a, S. 110 f. 22 4.2 Philosophische Anthropologie 121 An den Hauptströmungen der KI-Forschung und Robotik ist insgesamt zu beklagen, dass sie sich an einem zu formalen und zu einfachen Bild von Intelligenz orientieren. Entscheidende Eigenschaften menschlicher Intelligenz geraten dabei aus dem Blick - das gilt vor allem für die emotive, ästhetische, soziale und Verhaltensdispositionelle Intelligenz von Menschen. Um humane Subjekte beschreiben zu können, braucht man keinen Seelebegriff, wie viele naturalistische Ansätze in polemischer Absicht unterstellen. Solche Unterstellungen dienen lediglich dazu, sich von anthropologischen Erwägungen generell zu befreien. Aber auch ein naturalistischer Subjektbegriff wäre noch ein Subjektbegriff. Es kommt auf das Subjekt an, nicht auf die Vorstellung von ihm. Die im Spiel befindlichen Intelligenztheorien25 sind deshalb einer kritischen Analyse zu unterziehen. Zudem kann trivialerweise nur das simuliert werden, was als solches auch durchschaut und nicht durch simplifizierende Modelle imitiert wird. Es müssen aber beträchtliche Zweifel angemeldet werden, dass wir schon im Besitz einer angemessenen- und das heißt vor allen Dingen: nicht-reduktionistischen- Theorie menschlichen Bewusstseins sind. Aus den sprach- und erkenntniskritischen Überlegungen kann unschwer der Schluss gezogen werden, dass für eine angemessene ethische Bewertung der Robotik die Klärung des unterstellten Menschenbildes von entscheidender Bedeutung ist. Denn Entwürfe zur vermeintlich bevorstehenden Ersetzung menschlicher Intelligenz durch Künstliche Intelligenz beruhen in aller Regel auf reduktionistischen Menschenbildern. In der Perspektive eines solchen Ansatzes werden die semantischen Elemente der Weltbeschreibung auf das reduziert, was technologisch reproduzierbar ist. Materielle Prozesse und Funktionen sind konstitutiv an der Herausbildung von Intelligenz beteiligt, gleichwohl ist ein Maschinenbegriff - wie komplex er auch angelegt sein mag - nicht hinreichend, um die menschliche Intelligenz und Lebensform als solche zu erklären. Kenntnisse über technologische Funktionszusammenhänge können nicht umstandslos als Wissen über diejenigen ausgewiesen werden, die zu solchen Einsichten kommen. Aus der anthropologischen Analyse geht hervor, dass die menschliche Lebensform über spezifische Eigenschaften und Fähigkeiten verfügt, die sich nicht substituieren oder simulieren lassen. Dementsprechend sind Eigenschaften und Fähigkeiten wie Selbstbewusstsein, Reflexion, reaktive Emotivität, Erfahrung, Zeitbewusstsein, Ausdrucksfähigkeit, produktive Einbildungskraft, praktische Vernunft sowie das Vermögen, Zwecke setzen zu können, bei einer ethischen Bewertung von Ersetzbarkeitsszenarien in der Robotik vorrangig zu beachten. Weil die Ersetzbarkeit des Menschen auf nicht-natürlichem Weg vollzogen werden soll, der Mensch aber eine naturbestimmte Lebensform mit der Grundbefähigung zur Kultur ist, kann schon aus Gründen semantischer Konsistenz nicht mehr buchstäblich von Ersetzbarkeit gesprochen werden. An diesem Sachverhalt würden auch weitestgehende biotechnologische Revolutionen nichts ändern. Die einzelne Person kann möglicherweise einmal gentechnisch reproduziert werden. Ihre Innenperspektive bleibt davon aber unberührt. Sie ist numerisch einfach und lässt sich als subjektive Erlebnisperspektive des Selbstbewusstseins nicht vervielfältigen. Aus eigenen Körperzellen klonierte Menschen wären vielleicht ähnliche, aber immer 25 Vgl. Hütter 2001. 122 4 Robotik und menschliches Handeln noch verschiedene Personen. Dem Sprachspiel der Ersetzbarkeit sollte deshalb weder spekulativ noch praktisch weiter gefolgt werden. In der Robotik geht es entsprechend auch nicht um generelle Ersetzungen, sondern um die Verlagerung, Neufassung und Ausübung von Funktionen oder Tätigkeiten, die der Mensch in vergleichbarer Weise nicht ausüben kann oder nicht ausüben soll. 4.3 Ethik Die Anthropologie der Humanität zielt einen Kernbereich der menschlichen Lebensform an, der unter den ethischen Schutz der praktischen Vernunft zu stellen ist. Praktische Vernunft äußert sich im Wesentlichen in der Konstruktion und Rekonstruktion von Normen, Motivationen und Anwendungen. Der Übergang von der Anthropologie der Humanität zur Ethik und ihrer Anwendung kann mit den Grundbegriffen der Natürlichkeit, Würde, Autonomie und Verantwortung für zukünftige Generationen bestritten werden. Im semantischen Feld dieser Begriffe lassen sich Engführungen von deskriptiven, explanativen und normativen Bestimmungen durchführen. 4.3.1 Natürlichkeit Mit dem Begriff der Natürlichkeit bzw. des Naturgemäßen verbindet sich in der Stoa das anspruchsvolle Projekt, einen integrativen Theorierahmen für die theoretischen Perspektiven zur Verfügung zu stellen, die heute von den Disziplinen der Kosmologie, Naturphilosophie, philosophischen Anthropologie und Ethik thematisiert werden. Die neuzeitliche Philosophie hat sich in ihren systematischen Hauptströmungen vom Rekurs auf das Naturgemäße weitgehend zurückgehalten. Seit Hume sind dafür zunehmend methodische Gründe ausschlaggebend, denen zufolge Übergänge von deskriptiven zu normativen Sätzen einer besonderen Begründung bedürfen. Im zwanzigsten Jahrhundert sind die methodischen Zweifel dahingehend verschärft worden, dass unter dem Titel ,naturalistischer Fehlschluss' der Ableitung von normativen Sätzen aus deskriptiven Sätzen grundsätzlich die Rechtfertigungsfähigkeit abgesprochen worden ist. Der Vorbehalt ist zwar in dieser Radikalität nicht konsensfähig, er hat sich im Umfeld des ethischen Nicht-Kognitivismusgleichwohl bis heute behauptet. Unter dem Druck neuer Problemstellungen in der Angewandten Ethik richten sich neuerdings wieder systematische und normative Erwartungen auf die Begriffe der Natur, des Natürlichen und Naturgemäßen. Ihre Semantik ist in denneueren Verwendungsweisen noch unklar und in Teilen gegenläufig. Mit ihnen verbinden sich aber erkennbar limitative Intentionen, die sich auf gegebene Grenzen ethischer Zumutbarkeit richten, die im Rahmen von konventionellen Entscheidungs- und Handlungsprozessen nicht mehr zur Disposition gestellt werden sollen. Kennzeichnend für limitative Argumentationsstrategien im Kontext moderner Natürlichkeitsvorstellungen sind zum einen ethische Begrenzungen des technologischen Könnens bzw. des technologischen Imperativs, 26 zum anderen die Ausweitung der den technolo26 Zum Verhältnis von technologischem und ethischem Imperativ siehe Mittelstraß 1992, S. 27 f. 4.3 Ethik 123 gischen und kulturellen Entscheidungsszenarien zugrundegelegten Theoriekontexte - dazu gehört nicht zuletzt auch die ökologische Kontextualisierung spezifisch humaner Interessen. 27 Ethische Bewertungen von technologischen und kulturellen Prozessen können nicht im anthropologischen Niemandsland ansetzen. Die neuere und neueste Philosophie hat zwar mit guten Gründen eine Reihe von epistemologischen und sprachphilosophischen Hürden für eine rechtfertigungsfähige Verwendung von Ausdrücken wie ,Natur des Menschen', ,Naturgemäßes' oder ,Natürlichkeit' aufgebaut. Diese Hürden sollten jedoch keine Veranlassung zur Abkehr sein. Vielmehr ist gerade unter dem Druck der folgenreichen Entscheidungssituationen in der Augewandten Ethik über methodische Verfahrensweisen nachzudenken, mit denen ein anthropologischer Ausgangspunkt für ethische und kulturelle Bewertungen rekonstruiert werden kann. 28 In diesen sachlichen Zusammenhang gehören auch Bestimmungen des Eigensinns des ,menschlichen' Körpers. Personen haben nicht nur einen Körper - gleichsam als bloß materielle Grundlage ihres Bewusstseins -, sondern sie führen ihr Leben als Person mit ihrem Körper. 29 Körperlichkeit kann zwar unter den gegenwärtigen sozialen Bedingungen nicht einfach mit Natürlichkeit gleichgesetzt werden. Ein naturgemäßer Umgang mit dem eigenen Leben wird aber sicherlich nicht ohne einen Rekurs auf die eigene Körperlichkeit auskommen können. Der naturgemäße Umgang mit dem eigenen Körper dürfte in absehbarer Zeit Belastungen durch Anwendungsbereiche ausgesetzt werden, in denen Robotik, Biologie und Medizin zusammenfinden. Unabhängig von tierischen und menschlichen Transplantaten können schon jetzt eine Vielzahl künstlicher Organe und Ersatzteile zur Verfügung gestellt werden, die biologische Funktionen ersetzen oder unterstützen können. Die damit einhergehenden Substitutionsmöglichkeiten können bislang noch als überschaubar und zurnutbar angesehen werden. Im weiteren Entwicklungsprozess können aber durchaus Grenzen der Zumutbarkeit erreicht werden. Im Bereich der Neurotechnologie muss zudem mit Manipulationsgefährdungen gerechnet werden, die durch Implantate innerhalb des Schädels heraufbeschworen werden können. 30 Falls die gegenwärtigen Zukunftsszenarien Wirklichkeit werden sollten, dürften Natürlichkeit und Naturgemäßes auch für die Robotik in Teilen mittelfristig und langfristig virulente Bestimmungen werden. Der jetzige Stand der technologischen Entwicklung gibt für einen verstärkten Rekurs auf diese Bestimmungen noch keinen unmittelbaren Anlass- mit Ausnahme einiger Projekte der Neurotechnologie. Zunächst sind sie lediglich als Grundbestimmungen der Ethik belangvoll, die in den generellen ethischen Theorierahmen eingehen, der bei der Bewertung der Robotik zur Anwendung kommt. 27 Siehe Siep 1999, S. 195 f. 28 Siehe Siep 1996 und 1999. 29 V gl. Johnson 1987. 30 Siehe Eckmiller 1999. 124 4 Robotik und menschliches Handeln 4.3.2 Autonomie und lnstrumentalisierungsverbot Während die Reichweite eines semantischen geklärten Begriffs der Natürlichkeit noch als weitgehend unbestimmt gelten muss, kann auf der Seite der ethischen Grundlagen ein auf Kant zurückgehender Grundsatz benannt werden, der für die Ethik und Augewandte Ethik gleichermaßen bedeutungsvoll und folgenreich ist. Diesem Grundsatz zufolge existiert die vernünftige Natur als Zweck an sich. 31 Der Satz ist dahingehend zu ergänzen, dass die vernünftige Natur zumindest in der Gestalt menschlicher Personen nicht unmittelbar als Zweck präsent ist, sondern als Selbstzweck erst gebildet und kultiviert werden muss. In seiner inhaltlichen Ausgestaltung erweist sich der Grundsatz als semantisch reichhaltig. Seine bedeutungstragenden Elemente sind die Begriffe ,Natur', ,Vernunft', ,Kultur', ,Selbstzweck' und ,Würde'. Sie liefern den Begründungszusammenhang für den kategorischen Imperativ, mit dem Kant die ethische Dignität von Personen moralphilosophisch in Geltung setzen will. Danach widerspricht es der Würde der Person, bloß als Mittel zum beliebigen Gebrauch eines ihr äußerlichen Zwecks gemacht zu werden. 32 Das Instrumentalisierungsverbot des kategorischen Imperativs schützt die Autonomie und Würde von Personen. Es bezieht sich auf die Lebensformjeder vernünftigen Natur und ist insofern auch nicht auf die Spezies der Menschen beschränkt. Das Instrumentalisierungsverbot findet in den Hauptströmungen der gegenwärtigen Ethik weitgehende Akzeptanz. Konsequentialistische und insbesondere utilitaristische Positionen bestreiten allerdings die von Kant behauptete unbedingte Geltung des Instrumentalisierungsverbots. Es werden unter bestimmten Bedingungen Einschränkungen der Autonomie und Würde einzelner Personen zugunsten übergeordneter und umfangreicherer Nutzenerwägungen zugelassen. Von utilitaristischer Seite werden zudem die Kriterien für die Auszeichnung derjenigen, die Adressaten des Instrumentalisierungsverbots sein sollen, nicht kategorisch festgelegt, sondern über weiche Interpretationen des Empfindungs- und Interessebegriffs eingeführt. Das hat zur Folge, dass der Kreis der Adressaten auch in unserer Lebenswelt nicht notwendigerweise mit der Extension der menschlichen Gattung zusammenfällt. Das Problem der trennscharfen Eingrenzung des vom Instrumentalisierungsverbot betroffenen Adressatenkreises entfaltet seine Virulenz hauptsächlich in den Kontexten von moralischen Dilemmata, die bei Fällen des entstehenden und vergehenden Lebens auftreten. Für die Belange der Ethik der Technik kann von einer weniger umstrittenen Theoriesituation ausgegangen werden. Das Instrumentalisierungsverbot erfüllt hier vor allem die Funktion, Verkehrungen und Verselbständigungen von Zweck-Mittel-Relationen in technologischen Prozessen aufzudecken. Das Instrumentalisierungsverbot ist selbst in der klassischen kantischen Version nicht so zu verstehen, dass Personen in Handlungsverläufen und Institutionalisierungen durchgängig als Selbstzwecke angesehen werden müssen. Es wird lediglich für moralisch unzulässig erklärt, dass Personen ausschließlich als Mittel von Zielen gebraucht werden, die nicht in ihrem Selbstinteresse liegen. 31 32 Kant 1785, S. 429. Kant 1785, S. 429: "Handle so, daß du die Menschheit sowohl in deiner Person, als in der Person eines jeden andem, jederzeit zugleich als Zweck, niemals bloß als Mittel brauchst." 4.3 Ethik 125 Auch in einer schwachen Lesart ist das Instrumentalisierungsverbot geeignet, kriterielle Ausgrenzungen und Ausdifferenzierungen im Bereich der Technikbewertung und Technikfolgenabschätzung vorzunehmen. Aus ihm folgt eine normative Begrenzung und Einschränkung technologischer Prozesse, in denen Personen nicht einfach zur Sache oder zum Gegenstand bloßer Willkür regredieren dürfen. Weil technologische Entwicklungen weitgehend der Logik des Machbaren folgen, in der vom konstruktiven Ansatz her zunächst keine normativen Bestimmungen Berücksichtigung finden, muss im Rahmen eines ethischen und politischen Diskurses eine Evaluation und gegebenenfalls eine Revision des technologischen Prozesses durchgeführt werden. Das Instrumentalisierungsverbot ist in diesem Zusammenhang Ausdruck des Sachverhalts, dass moralische Gründe einen Vorrang vor bloßen Nutzenkalkülen haben müssen. Die Formulierung von Zwecken und ihrer Veränderung fällt dementsprechend allein in den Kompetenzbereich von Personen, den möglichen Subjekten von Autonomie und Wertungen. Einschränkungen des Kompetenzbereichs ziehen immer Beschneidungen des Handlungsraums für ,Personen' nach sich. Wenn Personen aufgrund technologischer Vorgänge nicht mehr imstande sind, als Personen im sozialen Raum zu agieren, kann davon ausgegangen werden, dass die sogenannten Sachzwänge ein zuträgliches Maß überschritten haben. 33 Eine Instrumentalisierungsproblematik kann sich auch in Bezug auf zukünftige Generationen stellen. Der ethische Status von zukünftigen Generationen ist begründungstheoretisch nur schwer zu sichern. Eine Schwierigkeit besteht darin, dass die Existenz von Individuen zukünftiger Generationen von bestimmten Ereignisketten abhängt. Wird die Folge der Ereignisse verändert, sei es auch zugunsten der sozialen und ökologischen Bedingungen zukünftiger Generationen, werden andere Individuen als die existieren, die bei unverändertem Ereignisverlauf gelebt hätten. Abgesehen von diesen epistemologischen und begründungstheoretischen Problemen ist es auf jeden Fall ethisch nicht zu rechtfertigen, dass zukünftige Generationen ab einem Zeitpunkt tn technologischen Produkten in der Form einer ,höheren' künstlichen Intelligenz ausgeliefert werden. 34 Falls ein solches Szenario wirklich eintreten könnte, hätten vorhergehende Generationen immer die Möglichkeit, einen derartigen Entwicklungsprozess aufzuhalten. Es würde einen Übergangspunkt von der Generationn zur Generationn+l geben, an dem das Instrumentalisierungsverbot verletzt würde und die Menschheit in eine vollständige Abhängigkeit von ihren technologischen Produkten geriete. Dieser Übergang kann aber vermittels einer umsichtigen Wissenschaftspolitik aufgehalten werden. Was vor allem von Moravec und Kurzweil als Zwangsläufigkeit dargestellt wird, beruht tatsächlich auf unseren Entscheidungen bzw. Entscheidungsverweigerungen. Das Instrumentalisierungsverbot soll vom ethischen Ansatz her die Autonomie von Personen schützen. Der Begriff der Autonomie bezeichnet ursprünglich den Sachverhalt, dass eine Person in der Perspektive der I. Person den Standpunkt der 3. Person einnimmt, um für sich und andere Personen ein moralisches Gesetz festzulegen, das die jeweiligen Lebensregeln und Lebenspläne bestimmen soll. In der 33 34 Es ist in diesem Zusammenhang allerdings noch zu berücksichtigen, dass technologische Verselbständigungssyndrome im sozialen Raum nicht isoliert auftreten und durch sozio-ökonomische Vorgänge und Zustände beeinflusst werden. Vgl. Moravec 1999, S. 127 f. 126 4 Robotik und menschliches Handeln Bedeutung von vernünftig bestimmter Selbstgesetzgebung ist der Begriff der Autonomie extensional und intensional unterschieden von den Begriffen der Selbstorganisation und Selbststeuerung. Er richtet sich nicht einmal direkt auf einzelne Handlungsepisoden, souderen legt deren Regeln und Gesetze fest. Vor dem Hintergrund der Übertragung des Begriffs der Autonomie in andere Bedeutungskontexe, insbesondere in die der KI und Robotik, bietet sich folgende systematische Unterscheidung an: 1. Autonomie erster Stufe bzw. technische Autonomie. Die Autonomie erster Stufe liegt in Fällen komplexer Automation mit technisch induzierten Freiheitsgraden vor. Die Eigenschaft der Autonomie bezieht sich dabei auf die Eigenschaft einer Maschine, in bestimmten Bewegungsräumen Steuerungen und Aktionen auszuführen. 2. Autonomie zweiter Stufe bzw. personale Autonomie. Die eigentliche Autonomie bezeichnet eine Fähigkeit von Personen, spontan Einstellungen einzunehmen und Handlungen auszuführen, die prinzipiell nicht vorhersagbar sind. 35 Personale Autonomie vollzieht sich in der Form von Handlungen im Raum der Gründe. Diese müssen nicht moralisch oder im engeren Sinn vernünftig bestimmt sein. Ein typischer Fall personaler Autonomie sind Lebenspläne im Sinne von Wünschen und Interessen zweiter Stufe. 3. Autonomie dritter Stufe bzw. ideale Autonomie im Reich der Zwecke. Handlungen im Raum der Gründe können Gegenstand moralischer Selbstbestimmung im Sinne des kategorischen Imperativs sein. 36 Unter den Bedingungen der Autonomie dritter Stufe sind Handlungen von Personen ausschließlich moralisch bestimmt. Ihre Handlungen würden sich unter idealen Bedingungen zu einer integralen Einheit zusammenfügen. Modelle idealer Autonomie sind die Konzeptionen von Rousseaus Gesellschaftsvertrag und Kants Reich der Zwecke. In den Kontexten der Robotik wird zwischen diesen unterschiedlichen Stufen von Autonomie in der Regel nicht unterschieden. Das semantische Feld des Autonomiebegriffs wird auf die uneigentliche Verwendungsweise verengt. ,Autonomie' kommt dabei bereits dann zur Anwendung, wenn Roboter allein auf der Grundlage ihrer Sensorik und Systemeigenschaften Bewegungen und Tätigkeiten ausführen. Die ursprüngliche Bedeutung des Autonomiebegriffs, begründete Selbstbestimmung auszudrücken, ist dagegen wesentlich enger und normativ anspruchsvoller ausgelegt. 37 Auch in der Perspektive der Alltagserfahrung wird einer Person Autonomie zugeschrieben, wenn sie aus wohlbestimmten Gründen ihre Ermessens- und Handlungsspielräume nutzt. Dieses ,Mehr' an kontextueller Abhängigkeit ist das konstruktive Zentrum des philosophischen Autonomiegedankens. Das Vermögen, unabhängig von externen oder internen Impulsen sich selbst zu bestimmen und Gesetze, Prinzipien und Maximen zu formulieren, nach denen das eigene Leben geführt werden soll, kennzeichnet die menschliche Lebensform. Schon der Umstand, dass ein ethi35 36 37 Vgl. MacKay 1967. Der kategorische Imperativ legt menschlichem Handeln ein verbindliches moralisches Gesetz zugrunde: "handle nach der Maxime, die sich selbst zugleich zum allgemeinen Gesetze machen kann." (Kant 1785, S. 436 f.) Siehe Abschnitt 4.2.2. 4.4 Kulturphilosophie 127 scher Grundbegriff, der immerhin eng an das Menschenrechtskonzept gebunden ist, aus seinem semantischen Kontext herausgerissen wird, kann als Hinweis auf ein technologisches Verselbständigungssyndrom gedeutet werden, denn es gibt bislang keinerlei Hinweis darauf, dass auf artifizielle Weise auch nur vom Ansatz her Selbstgesetzgebung in Maschinen inkorporiert worden ist. 4.4 Kulturphilosophie 4.4.1 Kulturelle Praxis und Entwicklung der Robotik Die Rekonstruktion der anthropologischen Bestimmungen der menschlichen Lebensform macht die tiefgehende strukturelle Verschiedenheit von menschlicher Intelligenz und künstlicher Intelligenz kenntlich. Deshalb wird hier vorgeschlagen, Robotik ausschließlich als Werkzeug bzw. Mittel für menschliche Zwecke aufzufassen-zumal der gegenwärtige Stand der technischen Entwicklung kaum eine andere Deutung zulässt. Denn die Emphase der künstlichen Ersetzung menschlicher Intelligenz, so wie sie in der frühen KI-Forschung und in neuerenspekulativen Entwürfen skizziert worden ist, spielt in der Robotik praktisch keine Rolle. Unabhängig davon ist generell Versuchen zu widersprechen, spekulativ die Kluft zwischen menschlicher und künstlicher Intelligenz einzuebnen oder deren Einebnung als kulturelles Ziel auszugeben. 38 Eine vorschnelle und unbedachte Orientierung an den engen Intelligenzmodellen der KI-Forschung ist auch für die Robotik überaus nachteilig, denn in der KIForschung werden vorab eine ganze Reihe von konstruktiven Ideen und Modellen künstlicher Intelligenz entwickelt, nach denen sich dann die Hardware- und Saftwareproduktion im Einzelnen richten. Diese Ausrichtung führt zu einem einseitigen Blick auf das Phänomen der Intelligenz, denn in der KI-Forschung ist nach wie vor ein starker Zug zur Simulation und Imitation von vermeintlichen menschlichen Intelligenzleistungen erkennbar. Dieser gleichsam mimetische Ansatz widerspricht aber gerade dem im Folgenden zugrundegelegten Werkzeugcharakter von KI und Robotern und dürfte nicht zuletzt auch dazu führen, dass spezifischen Ausprägungen künstlicher Intelligenz zu wenig Beachtung geschenkt wird. 39 Die Beziehungen zwischen Mensch und Maschine bestimmen sich nach Maßgabe von Nachahmungs- oder Simulationsszenarien. Das sachlich angemessene und ethisch rechtfertigungsfähige Verhältnis von MenschMaschine istjedoch nicht Nachahmung, sondern die Erweiterung des menschlichen Handlungsraums. Aufgrund der grundsätzlichen Verschiedenheit von menschlicher und künstlicher Intelligenz ist eine parallele Entwicklung von Humanität und Robotik anzustreben. Gerade für die Belange der Robotik sollte der Traum vom künstlichen 38 Vgl. Moravec 1988 und Kurzweil 1999. 39 Mortimer Taube hat schon 1961 sehr weitsichtig den Vorbehalt erhoben, "that recent speculation concerning the simulation of human brains by machines is devoid of interest and does not contribute to a fruitful understanding ofman-machine relationships." (Taube 1961, S. 69) 128 4 Robotik und menschliches Handeln Menschen konkreten Projekten der Erweiterung des menschlichen Spielraums weichen. Solche Erweiterungen werden allerdings auch Verschiebungen der Schnittstelle Mensch-Maschine einschließen. Dabei ist vor allem an DV-gestützte Externalisierungen menschlicher Kognitionen zu denken. 40 Eine solche Erweiterungstheorie kann an die Vielzahl der Entwicklungen von Expansionsrobotern anknüpfen - also Robotern, die in Mikro- oder Makrobereichen operieren können, die für menschliche Handlungen nicht unmittelbar oder gefahrlos zugänglich sind. Das bedeutet aber auf der anderen Seite, dass Serviceroboter vermutlich nur unter eingeschränkten Bedingungen im sozialen Raum eingesetzt werden können. 41 In allden Fällen, in denen Roboter eigene Entscheidungsspielräume erhalten, müssen zudem die betroffenen Personen darüber aufgeklärt werden und ihre Zustimmung geben. Die Verweigerung der Zustimmung sollte eine veto-Funktion haben. Fälle, in denen zumindest andere Personen die letztendliche Entscheidungskompetenz behalten- wie im Fall der minimal-invasiven Medizin- können unter Umständen von diesem Zustimmungsszenario ausgenommen werden. Unabhängig von der Vielzahl offener Problemstellungen wird die Robotik zukünftig zum entscheidenden Bereich der kulturellen Entwicklung gehören. Sie wird allerdings auch keine Ausnahme bei den geschichtlich und sozial spannungsreichen Verhältnissen und Verselbständigungssyndromen zwischen Mensch und Maschine bilden. Sie wird die Tendenz menschlicher Kultur, sich gegenüber ihrer naturbestimmten Umgebung zu verselbständigen, deutlich verstärken. Diese Verselbständigung wird zwangsläufig eine Reihe moralischer, ästhetischer, ökonomischer und ökologischer Probleme aufwerfen. Die mit der Robotik einhergehenden Substitutions- und Expansionsleistungen sollten deshalb immer wieder ethischen und kulturellen Überprüfungen unterzogen werden. Darüber hinaus wird es einen permanenten Diskurs darüber geben müssen, welcher Typus von intelligentem Verhalten im sozialen Raum zu verstärken ist. Dabei ist insbesondere zu fragen, ob Roboter menschliche Intelligenz, die sich über Jahrtausende im Zusammenspiel von Sprache, Wahrnehmung sowie körperlicher und sozialer Koordination entwickelt hat, simulieren, kopieren oder modifizieren sollen. Die hier vorgeschlagene Konzeption von Kl und Robotik als Unterstützung und Erweiterung menschlichen Handeins legt die Entwicklung einer Form künstlicher Intelligenz jenseits menschlicher Intelligenz nahe. 4.4.2 Robotik als technische Kultur Die Roboterentwicklung bietet die seltene Chance, dass noch in ihren Anfangsstationen normative Korrekturen vorgenommen werden können. Diese Chance ist bei vielen technologischen Innovationen verpasst worden. Die Roboterentwicklung sollte denn auch nicht unkoutrolliert evolvieren. Es müssen kulturelle Ziele benannt werden, als deren Mittel Roboter fungieren können- die Weltraumfahrt ist ein gutes Beispiel für diesen Sachverhalt. Eine Kooperation von Robotik und technikethischer Bewertung ist geeignet, Roboter als Werkzeuge eines kulturellen Prozesses zu eta40 V gl. Clark und Chalmers 1995. 41 Siehe Abschnitt 4.4.2. 4.4 Kulturphilosophie 129 blieren. Als kultureller Prozess wird sich Robotik aber nur dann entwickeln lassen, wenn sie als Element gesellschaftlicher Selbstverständigungsprozesse im öffentlichen Raum transparent gemacht werden kann. Gegenüber der in der KI-Forschung und Robotik immer enthaltenen Tendenz zur Verselbständigung der in ihr geführten Expertendiskurse ist verstärkt die kulturelle Bedeutung von KI-Forschung und Robotik zum Gegenstand öffentlicher Diskurse zu machen. Öffentliche Transparenz auf den verschiedenen Beteiligungs- und Entscheidungsebenen, die vom Bereich der Betroffenen über wissenschaftliche Interdisziplinarität bis hin zur politischen Öffentlichkeit reichen, ist geeignet, die Entideologisierung von KI-Forschung und Robotik im sozialen und politischen Raum auf den Weg zu bringen. Dementsprechend ist nicht nur die Entwicklung eines normativen Diskurses zur KI-Forschung und Robotik anzustreben, sondern eine Parallelisierung von normativem Diskurs zur KI und Robotik und konkreten Problemlösungen in der Robotik. Dabei ist vor allem anzuraten, eine Differenzierung zwischen den unproblematischen Anwendungsgebieten und Anwendungsfällen einerseits und apologetischen oder polemischen Generalisierungen des Verhältnisses von Mensch und Maschine andererseits vorzunehmen. Über ihre konkreten Anwendungen hinaus ist die Robotik in der Lage, inhaltlich bestimmte Konturierungen des Verhältnisses von menschlicher und künstlicher Intelligenz zu eröffnen. Die operierenden und operationalisierbaren Vergleichsmodelle in der Gestalt von Software-Agenten und Robotern sind Anlass und Hintergrund für abgrenzende Rekonstruktionen spezifisch menschlicher Bewusstseinszustände gewesen und haben so zu einem verbesserten Verständnis der menschlichen Lebensform beigetragen. Solche Rekonstruktionen sind erst aufgrundder Entwicklungen in KI-Forschung und Robotik überhaupt als Desiderat ausgemacht worden. Die Bestimmung der genuinen menschlichen Bewusstseinsmodelle werden dann auch die Grenzen der Simulierbarkeit und Ersetzbarkeit anzeigen. Hier ist vor allem an Emotivität, Subjektivität, Moralität und Kultur der Menschen zu denken. Die Parallelität hätte in dem Moment ein Ende, wenn Roboter über Selbstbewusstsein und das Vermögen, nach Gründen differenzieren und handeln zu können, verfügten. Dann müssten Roboter auch in den Kreis der Personen aufgenommen werden. Auf absehbare Zeit müssen Roboter aber schlicht als Maschinen angesehen werden, die unter besonderen Bedingungen über eigene Entwicklungswege verfügen können. Trotz der Robotern oftmals angesonnenen ,humanoiden Natur' wird ihr Einsatz außerhalb von klassischen Mensch-Maschine-Verhältnissen immer problematisch und ethisch wie sozial virulent in dem Sinne bleiben, dass Verletzungen des Instrumentalisierungsverbots drohen oder rechtfertigungsfähige Einbettungen in den sozialen Raum und die kulturellen Zielsetzungen nicht gelingen. Das gilt vor allem für die Verhältnisse ,Mensch-Mensch', ,Mensch-Tier' und ,Mensch-Umwelt'. Dabei ist einzurechnen, dass die Transformation des Mensch-Mensch-Verhältnisses in ein Roboter-Mensch-Verhältnis eine wesentlich höhere Hürde darstellt als seine Transformation in ein Mensch-Roboter-Mensch-Verhältnis. Dieser Sachverhalt ist bei dem substituierenden Einsatz von Robotern in Pflegeheimen einerseits und der minimal-invasiven Medizin andererseits gut zu beobachten. Eine Verletzung des Instrumentalisierungsverbots liegt in der Gestalt von Manipulationsszenarien bei einigen Anwendungsfeldern des ,Roboters im Kinderzimmer' vor. Der Robo-dog Aibo ist ein Beispiel für die instrumentalistische Nivellie- 130 4 Robotik und menschliches Handeln rung und ökonomisch motivierte Überschreitung der Grenzen zwischen natürlicher Art und Maschine. Die konstruierten Bewegungsabläufe des Robo-dog Aibo legen Schlüsse auf ein Innenleben nahe, über das die Maschine gar nicht verfügt. Das Auseinandertreten von tatsächlichen Zuständen und oberflächlichen Manipulationsszenarien kennzeichnet einen Quasiautomaten, d.i. eine Maschine, die Als-ob-Zustände im Betrachter hervorruft. Seine Funktion besteht darin, an der maschinellen Oberfläche Szenarien zu erzeugen, die den Betrachter dazu führen, in dem Quasiautomaten etwas zu sehen, was er aufgrundseiner technischen Eigenschaften nicht ist und nicht sein kann. Quasiautomaten wie Aibo verstärken darüber hinaus die Tendenz, Intelligenz und expressives Verhalten, das wir von menschlichen Personen kennen, zu simplifizieren. Man kann in diesem Zusammenhang geradezu von einer kulturellen Kategorienverwechslung sprechen, durch die eine unfertige Simulation zum Modell für das ursprüngliche Phänomen gemacht wird. Eine derartige Verwechslung führt nicht zuletzt zu artifiziellen Überlagerungen von Realität und Fiktion, in denen der Eigensinn menschlichen Bewusstseins kaum mehr kenntlich wird. Quasiautomaten konstruieren neue Unübersichtlichkeiten, in denen Personen den Kontakt zu ihrem ursprünglichen Selbstverständnis verlieren können. Die Robotik sollte von Quasiautomaten freigehalten werden. Im Bereich einer zu Recht akzeptierten Technologie müssen nicht alle Produkte aufgrund ihrer Machbarkeit akzeptiert werden. Obwohl Aibo offenbar eine Vorreiterrolle bei der Durchsetzung einer neuen Technologie spielen soll, können auch gegenteilige Effekte eintreten und Vorbehalte geweckt werden, die auf die Robotik insgesamt gar nicht zutreffen. Unter ungünstigen Bedingungen muss mit dem Fall gerechnet werden, dass Quasiautomaten Quellen von Selbstentfremdungen sein können. Für diese Möglichkeit gibt es eine aufschlussreiche literarische Konstruktion: Die Automate Olimpia in E. T. A. Hoffmanns ,Der Sandmann' wird zur Ursache für die Täuschung und Selbstentfremdung des überreizten Nathanaels, indem sie lediglich mit tumben Gesten und monotonen Wortwiederholungen den intentionalen Bezugspunkt für seine verstörten Bewusstseinszustände abgibt. Die Automate stürzt aber nur denjenigen in Verwirrung, der sich bereits in einem labilen Bewusstseinszustand befindet. An anderer Stelle beschreibt Hoffmann das Gefühl des Unheimlichen und Grauenhaften, das sich mit dem "Nachäffen des Menschlichen" einstellt. Danach sind alle solche Figuren, die dem Menschen nicht nur nachgebildet sind, sondern ihn sogar nachäffen, Standbilder eines lebendigen Todes oder eines toten Lebens. 42 Bei der Einführung von Quasiautomaten muss in einer Umkehr der Begründungslast dargelegt werden, dass Verstörungssyndrome, wie sie im literarischen Kontext von Hoffmann beschrieben worden sind, prinzipiell ausgeschlossen werden können. Gegen die Diagnose der kulturellen Kategorienverwechslung spricht im Übrigen auch nicht der Sachverhalt, dass sich in der menschlichen Lebenswelt Natürlichkeit nur noch mittelbar zeigt. Mit Blick auf das Instrumentalisierungsverbot ist vor allem zu fragen, welche kulturellen, politischen oder ökonomischen Ziele mit dem Projekt ,Roboter im Kinderzimmer' verfolgt werden sollen. Die ethische Zurückweisung eines Produkts wie des Robo-dog Aibo widerspricht nicht generell der Möglichkeit, dass Anwendungsformen von KI und Robotik in der kindlichen Bildung eingesetzt 42 Siehe Hoffmann 1976, S. 328 f. 4.4 Kulturphilosophie 131 werden können. Das gilt vor allem für Formen des Edutainments wie Baukastensystemen, in denen ohne den Umweg über Manipulationsszenarien spielerisch Maschinen konstruiert werden. 43 Unproblematisch dürfte der Einsatz von Robotern in den Bereichen sein, in denen bislang herkömmliche Maschinen zum Einsatz gekommen sind. Dabei sind allerdings die Einschränkungen zu machen, dass in dem entsprechenden Bereich auch der herkömmliche Maschineneinsatz ethisch und sozial unbedenklich gewesen ist, die Transformation in den Robotereinsatz zumindest langfristig ökonomisch lohnend erscheint und keine zusätzlichen Belastungen mit sich bringt. Das Verhältnis ,Mensch-Maschine' kann leicht in ein Verhältnis ,Mensch-Roboter' oder ,MenschRoboter-Maschine' transformiert werden. Auch das Verhältnis ,Mensch-MaschineMensch' kann vermutlich auf weitgehend unproblematische Weise in ein Verhältnis ,Mensch-Roboter-Mensch' oder ,Mensch-Roboter-Maschine-Mensch' überführt werden. Während der Einsatz von Robotern überall dort problematisch ist, wo Menschen in Mensch-Mensch-Beziehungen funktional ersetzt werden, ändert sich die Situation dann grundsätzlich, wenn Roboter imstande sind, in Behandlungs- und Betreuungssituationen die menschlichen Handlungsoptionen entscheidend zu erweitern. Aufgrund des Instrumentalisierungsverbots sind dem Einsatz von Robotern in Pflegesituationen sehr enge Grenzen zu ziehen. Wo Roboter zur Selbständigkeit von Behinderten oder Pflegebedürftigen entscheidend beitragen, kommt das Instrumentalisierungsverbot noch nicht zur Anwendung. Maschinelle Pflege birgt aber grundsätzlich die Gefahr der Vernachlässigung, die den Patienten im Arbeitsablauf zur bloßen Sache macht. Pflegebedürftige werden schon dann tendenziell zur Sache gemacht, wenn Menschen aus ihrem Umfeld entzogen werden. Persönliche Betreuung und Fürsorge kann technisch nicht ersetzt werden. Deshalb ist grundsätzlich daran festzuhalten, dass Menschen von menschlichen Personen zu pflegen sind44 . Roboter sollten deshalb nur als Werkzeuge in der Pflege und zur Aufrechterhaltung der Autarkie des Pflegebedürftigen - etwa im häuslichen Umfeld- eingesetzt werden. Konsensfähige Einsatzbedingungen für Roboter sind bei den Mensch-ObjektVerhältnissen zu erwarten. Das gilt auch für die Bereiche der Industrieroboter, die zu einer qualitativ höherwertigen Arbeitsumgebung führen. Quantitativ dürfte sich der Robotereinsatz allerdings immer in Richtung auf einen hohen Arbeitsplatzverlust auswirken. Dem quantitativen Verlust sind die Qualitätsgewinne gegenüberzustellen, die sich auf die gesamte Lebensqualität der Arbeitnehmer auswirken. 45 In der Robotik sind sowohl Tendenzen zur Erweiterung der menschlichen Lebenswelt als auch Tendenzen zu ihrer Enthumanisierung enthalten. Allem Anschein nach unproblematische Erweiterungen betreffen vor allem den Bereich des Expansionsroboters - beispielsweise in der Raumfahrt, Kernenergie, Tiefsee. Enthumanisierungsprobleme stellen sich bei den Servicerobotern und zu einem geringeren Teil bei den Industrierobotern ein. Während bei den Industrierobotern eine sozioökonomische Abwägung anzusetzen hat, die die Profitmaximierungen und die Erhöhung der Arbeitsplatzqualität mit den Arbeitsplatzverlusten gegenrechnet, muss bei 43 44 Siehe Kapitel "Robotik. Einführung, Definition und Stand der Technik", Abschnitt 3.4.3.2. Rechtliche Aspekte vgl. Abschnitt 5.7.3. 45 Vgl. Abschnitt 6.2.1. 132 4 Robotik und menschliches Handeln den Servicerobotern eine klare kriterielle Differenzierung zwischen hilfreichem und autonomieunterstützendem Service - z.B. bei Rollstühlen, Gliedmaßenersatz usw. und nicht zu rechtfertigenden Enthumanisierungen der sozialen Umgebung - vollständig automatisierte Betreuungssituationen in Altenheimen und Krankenhäusern - vorgenommen werden. In diesem Zusammenhang ist auch eine ethische Bewertung der Kosten-Nutzen-Relationen der Robotikprojekte im Gesundheitswesen anzuraten. Ausschließlich betriebswirtschaftlich verfasste Kosten-Nutzen-Relationen können nie die ethische Dimension einer Patientenkultur und ihrer Anerkennungsverhältnisse im sozialen Raum erfassen. Eine Besonderheit von KI- und Robotikentwicklungen könnte in fernerer Zukunft die Gefahr eines Frankensteinsyndroms sein. Künstliche Wesen würden dann die bedrängende Frage aufwerfen, warum sie in dieser Form überhaupt zur Existenz gebracht worden sind. Aufgrund des Zusammenspiels von technischen Standards und Entwicklungserwartungen wird mittlerweile auch mit der Möglichkeit gerechnet, dass komplexe Formen von KI und Roboter zukünftig zu den Kandidaten der Klasse bewusster Wesen gehören werden. Insofern ist es ratsam, schon vorab eine Antwort auf die Frage zu finden, ob es rechtfertigungsfähige Gründe dafür gibt, neue Bewusstseinsformen mit existenziellen und ethischen Eigenschaften zu entwickeln bzw. zuzulassen, die dem menschlichen Bewusstsein vergleichbar sind. 46 4.4.3 Robotik als menschliches Handeln Im Umgang mit KI im Allgemeinen und Robotern im Besonderen muss die Frage der Entscheidungskompetenz für jeden Einzelfall geklärt werden. Vor allem ist zu fragen, ob und unter welchen Bedingungen Entscheidungskompetenzen vom Menschen auf die Maschine übertragen werden sollen. Diese Frage hängt eng mit semantischen Problemstellungen zusammen. Beispielsweise führt der Ausdruck ,autonome Agenten' bereits etliche Festlegungen und Verhaltenspräformationen mit sich: u.a. die instrumentalistische Reduktion des Autonomiegedankens auf einen bloßen Funktionszusammenhang, die Elimination des Raums der Gründe sowie die Einebnung der strukturellen Differenz von Personen und Nicht-Personen. Die Frage nach der Verteilung der Entscheidungskompetenz im Mensch-Maschine-Verhältnis ist grundlegend für das Syndrom der Agententechnologie. Sie wird auch Auswirkungen auf die Akzeptanz von Servicerobotern im sozialen Raum haben. Die gegenwärtige Situation gibt keine Hinweise darauf, dass Roboter als ,soziale Agenten' angesehen werden können. Bei der technischen Umsetzung der Entscheidungskompetenz kommt der Ausgestaltung der Interface-Architektur bzw. Programmsteuerung große Bedeutung zu. Damit Menschen die Verantwortung für das Funktionieren von Robotern übernehmen können, müssen diese im Sinne von Durchschaubarkeit, Vorhersehbarkeit und Beeinflussung kontraHierbar sein. Deshalb kann nicht von einem komplementären Verhältnis zwischen Mensch und Maschine bzw. Roboter ausgegangen werden. Unter der Voraussetzung der menschlichen Kompetenz für kulturelle, soziale und 46 Vgl. Birnbacher 1995. 4.4 Kulturphilosophie 133 politische Ziele sowie unter der Vorgabe des Instrumentalisierungsverbots können Mensch-Maschine-Verhältnisse niemals komplementär sein. Die Aufgabe des Komplementaritätsbegriffs bei Mensch-Maschine-Verhältnissen muss auch eine Umkehr der Beweislast bei der System- und Technikgestaltung zur Folge haben. Es kann bei der Feststellung von menschlichem Versagen nicht einfach von einem sehr engen Technikbegriff ausgegangen werden. Es muss eine Reduzierung der menschlichen Entscheidungskompetenz genauso verhindert werden wie eine Ausweitung von Entscheidungsgrauzonen Wenn Technologie dem Instrumentalisierungsverbot entsprechend keinen Vorrang der Mittel vor den menschlichen Zwecken hervorrufen oder verstärken will, dann muss sie zur Erhaltung von humanen Werten über die Zeit hinweg beitragen. 47 Humanen Werten entsprechen auf technologischer Seite handfeste Gefährdungen und Bedrohungen. Der Beitrag der Technologie zur Lebens- und Umwelt wird sich dementsprechend nur in einer ausgeglichenen Beziehung zwischen innovativen Potentialen der Technologie und Zuträglichkeiten für die jeweilige Lebensform einstellen können. Die Robotik bietet in diesem Zusammenhang gute Entwicklungsperspektiven, weil sie weniger ethische und ökologische Belastungen mit sich bringt als andere Technologien. Weil in den Bereichen DV-basierter Informationssysteme selbst keine normativen Leitlinien entspringen können, sind Orientierungs- und Ordnungsszenarien für den Einsatz und die Umsetzung entwicklungsleitender Ideen zu entfalten. Bei der Hardware- und Softwareentwicklung müssen adressatenbezogene Differenzierungen vorgenommen werden, die zwischen Experten- und Laienstatus genauso unterscheiden wie zwischen den unterschiedlichen Graden kognitiver Voraussetzungen. Neben diesen individuellen Unterschieden sind auch soziale Kontexte, affektive Besetzungen sowie kulturelle Differenzen und mögliche geschlechtsspezifische Unterschiede zu berücksichtigen. 48 Mit der KI- und Robotikentwicklung gehen zwei weitere Gefährdungen einher. Sie haben zum einen mit dem zu tun, was man de-skilling nennt, d.i. der Sachverhalt, dass der Einsatz von Computern und Robotern zu einer allmählichen Ausdünnung und Abnahme der handwerklichen Fähigkeiten und Kompetenz sowie des intellektuellen Differenzierungsvermögens führt. Die andere Gefährdung besteht in der einseitigen Orientierung an Modellen künstlicher Intelligenz, die nur mit einem kleinen Ausschnitt menschlicher Intelligenz operieren, was zwangsläufig Reduktionsszena47 Eine Auftistung humaner Wertsetzungen in technologischen Prozessen findet sich bei Ben Shneiderman: , I. Internationale Gerechtigkeit und Frieden, 2. Verbesserung der medizinischen Versorgung, 3. Verbesserung der Ernährungssituation, 4. Sichere Transportwege - Auto, Flugzeug usw. -, 5. Umweltschutz, 6. Bildung und Ausbildung, 7. Meinungsfreiheit und Freiheit des Ausdrucks, 8. Uneingeschränkter Zugang zu Informationen und gesellschaftlichen Kommunikationsprozessen, 9. Verbesserung innovativer und kreativer Forschung, I 0. Schutz der Privatsphäre.' Siehe Shneiderman 1990. 48 Von Ben Shneiderman sind eine Reihe von Bereichen benannt worden, in denen sich Leitlinien für benutzerorientiertes Hardware- und Softwaredesign umsetzen lassen: "I. Interaction styles (commands, menus, form-fill-in, direct manipulation), 2. Screen Iayouts, graphic design, and window strategies, 3. Input devices and strategies, 4. Displaydesign to increase Iegibility, readability, and comprehensibility, 5. Color, animation, graphics, sound, video, tactile feedback, 6. Workstation physical design and ergonomics, 7. Response time impact." Entsprechende Konstruktionsvorgaben sollten nach Möglichkeit auch für die Robotik verwandt werden. Siehe Shneiderman 1987 und Heinrichs und Riegel 2001. 134 4 Robotik und menschliches Handeln rien zur Folge hat. 49 Diese Gefahrenpotentiale konvergieren mit dem Großteil der Vorbehalte gegenüber technologischen Entwicklungen. 5° Auf technologischer Seite sind solche Vorbehalte oft als Schreckensszenarien von Apokalyptikern abgetan worden. Auf der Seite der Entwickler von KI und Robotik werden sozial oder kulturell motivierte Vorbehalte in der Regel nicht als mögliche Orientierungsleitlinien begriffen, sondern von vornherein als ideologische Behinderungen innovativer Prozesse abgewiesen. Eine Abwägung der Möglichkeiten und Gefährdungen von KI und Robotik sollte sich jenseits der Extreme von Kulturverfallsszenarien und ethischer Indifferenz bewegen. Insbesondere auf dem Gebiet der Softwareentwicklung und des Computerdesigns können Vorkehrungen getroffen werden, KI und Robotik als kontrollierte Erweiterungen menschlicher Fähigkeiten zu formieren. Wenn Robotik als Verlängerung oder Unterstützung menschlichen Handeins eingesetzt werden soll, dann müssen trennscharfe Ausdifferenzierungen vorgenommen werden, die den Unterschied zwischen Handeln, bloßem Reagieren auf Sachzwänge und mechanischen Abläufen kenntlich machen. Eine solche Ausdifferenzierung wird sich nur im Rahmen von komplexen Diskursen vornehmen lassen, die philosophische, technologische und gesellschaftliche Perspektiven zueinander in Beziehung setzen. In den Diskursen müssen phänomengerechte Beschreibungen von Sachverhalten und Problemstellungen genauso enthalten sein wie klare normative Orientierungen. Der Diskurs über die Verlängerung und Unterstützung menschlichen Handeins durch Robotik ist eine Reaktion auf den immer wieder erhobenen Vorwurf, dass es eine objektive Technikfolgenabschätzung gar nicht geben könne. Die Auseinandersetzung um die gesellschaftlichen und ethischen Implikationen technologischer Entwicklungen muss nicht auf einen unangemessenen Begriff von Objektivität und Wertneutralität zurückgreifen. Die Vielzahl der ethischen Maßstäbe, die für eine solche Auseinandersetzung erforderlich sind, gelten über die vielen moralphilosophischen Positionen hinweg als konsensfähig. Auch die Beteiligung der Betroffenen an diesen Diskursen kann zumindest mit ethischen Gründen nicht abgelehnt werden und ist allenfalls aus der Sicht einseitiger Interessenbildungen abweisbar. Die Einbeziehung von KI und Robotik in die Kontexte menschlichen Handeins wird von der grundsätzlichen normativen Überlegung geleitet, dass die Werkzeuge an die menschlichen Fähigkeiten und Eigenschaften angepasst werden sollen und sich der Mensch nicht etwa an Werkzeugen auszurichten habe, die aus technologischen Verselbständigungen hervorgegangen sind. In solchen Entscheidungssituationen werden sich konkrete Auswirkungen des Instrumentalisierungsverbots auf technologischen Handlungsszenarien zeigen. Technologie und humane Zwecksetzung sind denn auch nur aus kontingenten Gründen gegenläufig. 49 50 Siehe Abschnitt 4.2.3. Es ist in diesem Zusammenhang sogar von den Plagen des Informationszeitalters- sozialer Entfremdung und Ausgrenzung, sozialer und politischer Schwächung der einzelnen Person, Bedrohung der Privatsphäre oder Erosion der persönlichen Verantwortung - gesprochen worden.