Adela Cortina, filósofa: “Me parece
sumamente peligroso decir que la IA
puede solucionarlo todo”
La pensadora reflexiona en su nuevo libro sobre
nuestra relación con la tecnología del momento y
reclama un espíritu crítico a la hora de valorar su
aportación a la humanidad
La filósofa Adela Cortina acaba de publicar el libro '¿Ética o ideología de la inteligencia
artificial?'.PABLO MONGE
MANUEL G. PASCUAL
11 OCT 2024 - 05:20 CEST
0
Adela Cortina (Valencia, 77 años) nunca imaginó que escribiría un libro sobre
inteligencia artificial (IA). “A quienes trabajamos en el campo de la ética nos
1
interesa muchísimo que el conocimiento progrese. La ciencia y la técnica, bien
encaminadas, son extraordinarias para la humanidad”, dispara para arrancar la
conversación con EL PAÍS. “La cuestión es que a veces lo están y otras no”. De eso
va su nueva obra, ¿Ética o ideología de la inteligencia artificial? (Paidós).
Catedrática emérita de Ética y Filosofía Política de la Universidad de Valencia y
Doctora Honoris Causa por ocho universidades nacionales y extranjeras, Cortina es
una de las pensadoras más conocidas de España. Fue la primera mujer en ingresar
en la Real Academia de Ciencias Morales y Políticas y es autora de más de una
treintena de libros, entre los que sobresalen Aporofobia, el rechazo al pobre (2017)
o ¿Para qué sirve realmente la ética? (Premio Nacional de Ensayo 2014). En esta
ocasión, la filósofa se fija en la tecnología que acapara la atención mundial desde
que hace dos años, cuando irrumpió ChatGPT.
Pregunta. ¿Por qué le preocupa la IA?
Respuesta. Creo que [Karl-Otto] Apel y [Jürgen] Habermas tenían razón cuando
decían que hay tres intereses del conocimiento: el técnico, el práctico y el de la
emancipación. Cuando el interés técnico está regido por el práctico, el de la moral,
lleva a una verdadera emancipación de la sociedad. La IA es un saber científico-
técnico que hay que encaminar en alguna dirección. Si quienes lo controlan son
grandes empresas que quieren poder económico o países que quieren poder
geopolítico, entonces no queda nada garantizado que sea bien usado. Si esta
tecnología afecta a toda la humanidad, tiene que beneficiar a toda la humanidad.
P. ¿Cree que el debate en torno a la IA está ideologizado?
R. En el libro me centro en las dos posiciones principales: la de los temerosos de la
IA, que creen que va a ser la fuente de todos los males, y la de los más entusiastas,
los transhumanistas y posthumanistas, que creen que la IA nos ayudará a llegar a
un mundo absolutamente feliz. Hay quien, como Ray Kurzweil [director de
Tecnología de Google], le pone fecha: él dice que en 2048 habremos acabado con la
muerte. Eso sería ideología, en el sentido tradicional del término: una visión
deformada de la realidad que se mantiene para perseguir determinados objetivos.
Ahí no se está actuando como ética. Me parece sumamente peligroso mentir, decir
que lo vamos a solucionar todo con la IA. El peligro de esa posición es que se está
asentando sobre la autoridad que tiene la ciencia, y eso hace que la gente se lo
tome en serio. Yo soy seguidora de la Escuela de Fráncfort, que dice que la ciencia y
la técnica son una maravilla, pero que si se convierten en ideología, porque ya son
una fuerza productiva, entonces hemos cambiado el sentido del asunto.
P. ¿Qué principios éticos debería regir una IA confiable?
R. La sociedad emancipada es la que está libre de ideologías, y para eso debe
dotarse de una ética. Los principios básicos son el de no maleficencia (no dañarás),
el de beneficencia (harás bien), el de autonomía y el de justicia. Además de esos
están los principios de trazabilidad y explicabilidad, un tema complicado cuando
tratamos algoritmos, y el de rendición de cuentas. Y luego está el principio de
precaución, que los europeos llevamos a gala.
2
La filósofa Adela Cortina, en el Hotel AC Recoletos de Madrid.PABLO MONGE
P. ¿Se está legislando bien sobre este asunto?
R. A los europeos se nos suele tildar de excesivamente normativistas, pero creo
que no está mal ser cautelosos, están en juego vidas humanas. Eso no tiene que
impedir que se siga investigando. Hace falta una ética de la responsabilidad,
marcar hasta dónde llegamos en la investigación no es sencillo.
P. En el libro debate si la IA puede ser sujeto o será siempre una herramienta. ¿Ya
es momento de discutir eso?
R. Dicen los especialistas que, hoy por hoy, no hemos llegado a la inteligencia
artificial general, la que sería equiparable a la de los seres humanos. Para eso sería
necesario que tuvieran un cuerpo biológico, porque es la manera de tener
significatividad, intencionalidad, etcétera. Lo que sí tenemos son inteligencias
artificiales especiales, capaces de hacer muy bien, incluso mejor que nosotros,
ciertas tareas. Creo que es muy importante que sepamos dónde estamos y que se
abra un debate serio sobre eso. A día de hoy, es un instrumento, y, por tanto, tiene
que ser utilizado con unos u otros fines, pero nunca tiene que sustituir a los seres
humanos. No se puede reemplazar a los profesores, ni a los jueces, ni a los médicos
por algoritmos. Los algoritmos no toman decisiones, sino que aportan resultados.
Quien tiene que ser responsable de la decisión última es la persona. Una de las
malísimas consecuencias que podría tener el uso de la IA es convertir a las
máquinas en protagonistas de la vida. Hay que ir con muchísimo cuidado porque
tenemos tendencia a la comodidad, y cuando te viene dado un resultado, puedes
tener la tentación de adoptarlo sin más.
P. ¿Tiene sentido hablar de roboeticistas o de ética de las máquinas?
3
R. Desde hace un tiempo se están intentando crear máquinas éticas, que tengan
incorporados una serie de valores. Me parece muy interesante que se puedan
asumir de alguna manera esos códigos, ya sea en los algoritmos que conducen
vehículos o los robots que cuidan de ancianos, para que tomen decisiones sin
necesidad de tener un humano encima todo el rato.
P. Dedica la última parte del libro a tratar la relación entre la educación y la IA.
¿Por qué se fija en esta actividad?
R. La educación es la clave de nuestras sociedades, y está muy descuidada. En
China están muy preocupados en aplicar IA a la educación, porque dicen que si a la
gente le explicamos lo de ayer, perdemos el mañana. Para mí, el tema clave de la
educación es la justicia: hay mucha gente que no tiene acceso a estas herramientas,
y eso hace que la brecha cada vez mayor. Me preocupa también la autonomía. Una
de las grandes tareas de la Ilustración es potenciar la autonomía de las personas,
que sepan dirigir sus propias vidas. Hemos de educar para que haya una
ciudadanía crítica, madura, que se mueva por sí misma, por sus propias
convicciones; que no se deje llevar como con andadores, que decía Kant, sino que
se guíe por su propia razón. Y eso es muy difícil en un mundo en el que las
plataformas están intentando que les dediquemos mucho tiempo para recabar
nuestros datos. Están superficializando la enseñanza y haciendo que las personas
sean cada vez menos autónomas. Creo que la autonomía está en peligro, y eso es
malo para la democracia.